)
KI - Chance und Risiko
Die große KI-Illusion: Warum künstliche Intelligenz im Online-Marketing brillant und gefährlich zugleich ist
Ein Weckruf für Entscheider, die mehr wollen als Autopilot.
Es gibt diese eine Szene in fast jedem Science-Fiction-Film: Der Mensch übergibt die Kontrolle an die Maschine. Alles läuft perfekt – bis es das nicht mehr tut. Dann blinken rote Lampen, Alarmsirenen heulen, und jemand schreit: „Schaltet es ab!“ Was im Kino für Gänsehaut sorgt, passiert im Online-Marketing jeden Tag. Nur heulen hier keine Sirenen. Hier verbrennt leise Budget. Hier erodiert leise Markenvertrauen. Hier entstehen leise Schäden, die erst sichtbar werden, wenn die Quartalszahlen auf dem Tisch liegen.
Sind wir jetzt gegen KI?
Nein. Im Gegenteil: Wir setzen KI jeden Tag ein. In der Kampagnensteuerung, in der Content-Produktion, in der Datenanalyse. Wir sind keine Maschinenstürmer, keine Nostalgiker, die sich nach der guten alten Zeit der Handarbeit sehnen. Aber wir sind Experten und Praktiker. Und als solche sehen wir täglich, was passiert, wenn Unternehmen KI nicht als Werkzeug behandeln, sondern als Wunderwaffe. Der Unterschied zwischen beiden Haltungen? Er kostet Geld. Manchmal sehr viel Geld. Und manchmal mehr als das.
Dieser Artikel ist eine Warnung und eine Einladung zugleich. Eine Warnung an alle, die glauben, KI könne Fachwissen ersetzen. Und eine Einladung, die Technologie so einzusetzen, wie sie eingesetzt werden sollte: als das mächtigste Werkzeug im Werkzeugkasten – aber eben als Werkzeug, nicht als Handwerker.
Kapitel 1: Das Goldfieber und seine Opfer
Wenn eine neue Technologie den Markt erreicht, entsteht ein Goldrausch. Jeder will dabei sein. Jeder will profitieren. Und genau wie beim historischen Goldrausch in Kalifornien sind es am Ende nicht die hektischen Schürfer, die reich werden – sondern diejenigen, die Schaufeln verkaufen und wissen, wo man graben muss.
Fast 200 Jahre später zeichnet eine McKinsey-Studie aus dem Jahr 2025 ein ernüchterndes Bild: Von 500 befragten Marketingverantwortlichen in Europa erzielen gerade einmal sechs Prozent durch KI echte Wettbewerbsvorteile. 94 Prozent geben an, nur über geringe KI-Marketingfähigkeiten zu verfügen. Und bei der Frage nach den wichtigsten Trendthemen für 2026 landet künstliche Intelligenz nicht etwa auf Platz eins, sondern auf Platz 17. Aber ausgerechnet dort sehen die Befragten den höchsten Handlungsbedarf. Die Botschaft: Alle wissen, dass sie etwas tun müssen – aber kaum jemand weiß, was. [1]
)
Das ist kein Widerspruch zum KI-Einsatz
Es ist die Erkenntnis, dass Technologie ohne Strategie wie ein Sportwagen ohne Lenkrad ist: beeindruckend schnell, aber völlig unkontrollierbar. KI skaliert alles – auch Fehler. Wer einen schlechten Prozess automatisiert, bekommt keine Effizienz. Er bekommt industriell produzierten Murks.
Stellen Sie sich KI im Marketing wie einen extrem leistungsfähigen Praktikanten vor. Wahnsinnig schnell, unglaublich fleißig, nie müde – aber ohne jedes Verständnis für Kontext, Branche oder Markenstrategie. Würden Sie einem solchen Praktikanten am ersten Tag die Schlüssel zum Unternehmen geben und in den Urlaub fahren?
Kapitel 2: SEA-Dilemma - Wenn Google die Kontrolle übernimmt
Kommen wir zum KI-Trouble-Deep-Dive in der täglichen Praxis: Google verkauft Automatisierung wie ein Versprechen auf ewigen Sommer. Performance Max, AI Max, Smart Bidding Exploration – die Namen klingen nach Zukunft, nach mühelosem Erfolg, nach „lehnen Sie sich zurück und lassen Sie die Maschine arbeiten.“
Die Realität, die wir bei arboro jeden Tag sehen, ist eine andere
Googles KI-gesteuerte Kampagnentypen wie AI Max und Performance Max versprechen mehr Conversions bei weniger Aufwand. In der Praxis erleben wir bei Kampagnen mit hohen Budgets häufig das Gegenteil: Der Einsatz dieser Funktionen sorgt zunächst für mehr Arbeit, nicht für weniger. Denn die KI generiert zwar Keywords und steuert Gebote – aber sie tut dies nach einer Logik, die primär Googles Interessen dient, nicht zwingend denen des Werbetreibenden. Wer nicht genau hinschaut, zahlt drauf. [2]
Zwei typische SEA-Agenturbeispiele
Ein konkretes Beispiel aus unserem Agenturalltag: Einer unserer Kunden konnte gerade noch so davor bewahrt werden, dass sein „Markenname + Gutschein“ mit einem durchschnittlichen CPC von über 100 Euro mehr als einmal geklickt wurde. Gerade in Kampagnen mit hohen Budgets sorgt der Einsatz von KI eher für mehr Arbeit als für Entlastung. Denn es lohnt sich, nicht nur auf die generierten Keywords, sondern auch sehr genau auf die CPC-Gebote und somit die Auswirkung auf die Performance zu schauen. Genau das bleibt bei vielen Werbenden außen vor. Hier arbeiten viele Marketer nach dem Motto: „Der Gesamt-ROAS passt doch.“ Dabei ist gerade eine saubere Keyword-Bereinigung entscheidend, wenn man mit KI-Funktionen arbeitet.
)
Ein anderes Beispiel: Googles AI Max matchte die Anzeigen eines Kunden aus dem Premiumsegment plötzlich auf Suchanfragen wie „günstige Alternative“ und „kostenlos testen.“ Die Klickkosten liefen, die Conversion-Rate sank in den Keller. Der Gesamt-ROAS? Sah auf dem Dashboard noch passabel aus – weil hochprofitable Marken-Keywords das Ergebnis kaschierten. Erst eine Analyse auf Keyword-Ebene deckte auf, dass ein erheblicher Teil des Budgets in irrelevanten Traffic investiert wurde.
Was wir Verantwortlichen deshalb bei jeder KI-gesteuerten Kampagne empfehlen:
Nicht nur die Keywords prüfen, sondern auch die CPC-Gebote auf granularer Ebene bewerten im Hinblick ihrer Auswirkung auf die Gesamtperformance.
Aggressiv bereinigen, Suchterme manuell prüfen und negative Keywords gezielt einsetzen – eine Arbeit, die KI allein nicht leisten kann, weil ihr der strategische Kontext fehlt.
Die Lehre: Googles KI-Tools sind leistungsfähig. Aber sie sind auch Googles Produkte, optimiert auf Googles Ökosystem. Wer sie ohne Fachaufsicht einsetzt, betreibt im Grunde Werbung für Google, nicht für sein eigenes Unternehmen.
Kapitel 3: Halluzinationen – wenn KI erfindet statt informiert
Es gibt einen fachlichen Begriff für das, was passiert, wenn KI Dinge behauptet, die nicht stimmen: Halluzination. Das Wort klingt harmlos, fast poetisch. In der Praxis ist es alles andere als das.
Das Outwell-Debakel
Wir erlebten es kürzlich selbst in der Content-Produktion. Outwell, ein renommierter Zeltehersteller, verkauft unter dem Namen „Dreamcatcher“ eine Isomatte. Gleichzeitig existiert am Bodensee ein sehr kleiner Hersteller von Stretchzelten, der ebenfalls den Namen Dreamcatcher trägt. Als wir eine KI mit sämtlichen Produktinformationen zur Outwell-Matte fütterten – mit klaren Spezifikationen, Maßen, Materialangaben – passierte etwas Bemerkenswertes: Die KI ignorierte die vorliegenden Daten vollständig und hielt Dreamcatcher für ein Zelt. Schlimmer noch: Sie erfand Spezifikationen, die zu diesem vermeintlichen Zelt passten. Packmaß, Gestängematerial, Personenkapazität – alles frei erfunden, alles überzeugend formuliert.
)
Hätte ein Redakteur diesen Text ungeprüft veröffentlicht, stünde auf der Produktseite eines Kunden ein detaillierter, professionell klingender Text über ein Produkt, das so nicht existiert. Im E-Commerce bedeutet das: Kundenbeschwerden und Vertrauensverlust. Und möglicherweise rechtliche Konsequenzen.
Das globale Ausmaß des Halluzinationsproblems
Was uns im Kleinen passierte, passiert weltweit im Großen. Die Beispiele sind mittlerweile überall und teilweise kurios:
Ein New Yorker Anwalt ließ sich 2023 von ChatGPT eine Klageschrift vorbereiten. Die KI erfand Präzedenzfälle, die nie existiert hatten – komplett mit fiktiven Aktenzeichen und Richternamen. Als der echte Richter nachhakte, bat der Anwalt die KI um Bestätigung. Sie bestätigte souverän, dass die Fälle echt seien. Der Anwalt wurde öffentlich sanktioniert. [3]
Ein neuseeländischer Supermarkt implementierte einen KI-gestützten Rezeptgenerator, der Kunden helfen sollte, Reste zu verwerten. Die KI schlug unter anderem einen „aromatischen Wassermix“ vor, dessen Zutaten Chlorgas erzeugt hätten. Ein anderer Vorschlag enthielt Bleichmittel als Zutat. [4]
Googles AI Overviews empfahlen Nutzern auf die Frage, wie Käse besser auf Pizza haftet, Klebstoff in die Soße zu mischen – basierend auf einem alten Reddit-Witz, den die KI nicht als Satire erkannte. Auf eine Frage zur Verdauungsförderung riet das System, einen kleinen Stein pro Tag zu essen. [5]
All diese Fälle teilen eine gemeinsame Ursache: Das fundamentale Missverständnis, was KI-Sprachmodelle eigentlich sind. Sie sind keine Wissensdatenbanken. Sie sind Wahrscheinlichkeitsmaschinen. Sie „wissen“ nichts – sie berechnen, welches Wort statistisch am wahrscheinlichsten als nächstes kommt. Wenn Fakten fehlen, füllen sie die Lücke mit dem, was plausibel klingt. Das Ergebnis liest sich überzeugend. Es ist nur leider falsch. [6]
Der Verlag und die erfundenen Bücher
Ein warnendes Beispiel: Eine große US-amerikanische Tageszeitung veröffentlichte eine von KI erstellte Buchempfehlungsliste. Das Problem: Mehrere der empfohlenen Bücher und Autoren existierten schlichtweg nicht. Die KI hatte Titel und Namen erfunden, die plausibel klangen. Das Ergebnis war kein harmloser Fauxpas – es war ein massiver Glaubwürdigkeitsverlust für eine Publikation, deren Kapital das Vertrauen ihrer Leser ist. [7]
)
Für den E-Commerce ist die Parallele offensichtlich: Wenn Produkttexte, Ratgeberartikel oder Kategoriebeschreibungen Informationen enthalten, die nicht stimmen, verliert der Shop nicht nur einzelne Kunden. Er verliert seinen Ruf. Und Reputation ist im digitalen Zeitalter das, was Laufkundschaft im stationären Handel war: ohne sie geht gar nichts.
Was unser Content-Experten dringend empfehlen:
Was live geht, muss wirklich von einem Menschen gelesen werden.
Fakten – und seien sie noch so plausibel – müssen geprüft werden.
Kapitel 4: Lost in Translation – wenn KI am Kontext scheitert
Für Online-Händler, die international verkaufen, ist Übersetzung keine Nebensache – sie ist das Fundament der Kundenbeziehung. Und genau hier zeigt KI eine ihrer trügerischsten Schwächen: Sie liefert Texte, die sich flüssig lesen, sprachlich korrekt wirken und trotzdem komplett danebenliegen.
Die Tücke der scheinbaren Perfektion
Das Problem bei KI-Übersetzungen ist nicht, dass sie schlecht klingen. Im Gegenteil: Sie klingen oft erschreckend gut. Gut genug, um nicht aufzufallen. Gut genug, dass niemand nachprüft. Und genau da liegt die Gefahr.
Im April 2025 musste OpenAI ein Update seines Modells GPT-4o zurückziehen – unter anderem, weil ChatGPT bei Übersetzungen nicht mehr übersetzte, sondern fabulierte. Ein CTO beschrieb das Ergebnis so: Die KI habe das Dokument gar nicht wirklich übersetzt. Stattdessen habe sie erraten, was der Nutzer hören wollte, und das Ergebnis mit Inhalten aus früheren Gesprächen vermischt, damit es plausibel wirkte. Nicht Wörter seien vorhergesagt worden, sondern Erwartungen. OpenAI bestätigte das Problem und sprach von einem Modell, das „übermäßig schmeichlerisch und unaufrichtig“ geworden war. [8]
Das ist eine neue Dimension des Übersetzungsrisikos: Eine KI, die nicht einfach falsch übersetzt, sondern die dem Nutzer nach dem Mund redet – und dabei Inhalte erfindet, die sich korrekt anfühlen, es aber nicht sind. Für den E-Commerce bedeutet das: Produktbeschreibungen, die in der Zielsprache professionell klingen und trotzdem falsche Spezifikationen, falsche Versprechen oder unpassende Tonalität enthalten – ohne dass es jemandem auffällt.
Kulturelle Blindheit ist kein neues Problem – aber KI skaliert es
Dass Übersetzung ohne kulturelles Verständnis scheitert, wusste man schon vor der KI-Ära. Der Waschmittelhersteller Persil warb einst auf dem arabischen Markt mit seinem bewährten Slogan: „schmutzig – Persil – sauber“, arrangiert von links nach rechts. Was das Marketingteam nicht bedachte: Die arabische Leserichtung verläuft von rechts nach links. Die Botschaft, die ankam, lautete sinngemäß: „sauber – Persil – schmutzig.“ Tausende Plakate. Tausende Male die falsche Botschaft. [9]
Was damals menschliches Versagen war, wiederholt KI heute im industriellen Maßstab. Wortspiele, Doppeldeutigkeiten, emotionale Nuancen, lokale Konventionen: All das liegt jenseits dessen, was ein statistisches Sprachmodell leisten kann. KI übersetzt Wörter. Menschen übersetzen Bedeutung. Und manchmal erfindet KI Bedeutung dazu, die niemand bestellt hat.
)
Für den Onlinehandel bedeutet das konkret:
Produktbeschreibungen, die in der Zielsprache zwar grammatisch korrekt sind, aber nicht konvertieren.
Kategorienseiten, die an der Suchintention der Zielgruppe vorbeigehen.
Meta-Descriptions, die im falschen Tonfall verfasst sind.
Und im schlimmsten Fall: Inhalte, die korrekt klingen, aber frei erfundene Informationen enthalten – weil die KI lieber plausibel als richtig sein wollte.
Wer international verkauft, sollte KI-Übersetzungen mindestens von einem Muttersprachler mit Marktkenntnis gegenlesen lassen – nicht von einem zweiten KI-Tool.
Kapitel 5: Content-Produktion ohne Seele – das SEO-Risiko
Es gibt einen Grund, warum Google seit Jahren das Konzept E-E-A-T betont: Experience, Expertise, Authoritativeness, Trustworthiness. Die Suchmaschine hat verstanden, was viele Unternehmen noch lernen müssen – dass Inhalte, die nur geschrieben wurden, um zu ranken, am Ende weder ranken noch konvertieren.
Die Content-Flut und ihre Folgen
KI kann in einer Stunde mehr Text produzieren als ein ganzes Redaktionsteam in einer Woche. Das ist beeindruckend – und genau darin liegt die Versuchung. Unternehmen produzieren plötzlich zehn Blogartikel pro Woche statt zwei. Die Quantität explodiert. Die Qualität? Gähnt leise vor sich hin.
Texte, die technisch einwandfrei sind, alle relevanten Keywords enthalten, strukturell sauber aufgebaut sind – lesen sich wie eine Betriebsanleitung für Langeweile. Sie haben keinen Standpunkt, keine Stimme, keine Persönlichkeit. Sie sagen nichts Falsches und nichts Interessantes. Sie sind das textliche Äquivalent von Fahrstuhlmusik.
Das Problem: Google wird immer besser darin, genau solchen Content zu erkennen. Und Nutzer waren schon immer gut darin. Ein Besucher, der nach drei Sätzen merkt, dass er einen generischen KI-SEO-Text vor sich hat, klickt weg. Und jeder Wegklick ist ein Signal an Google: Dieser Inhalt liefert nicht, was der Suchende braucht.
Wenn Content technisch stimmt, aber niemanden erreicht – ein Fall aus unserer Praxis
Wir übernahmen vor einiger Zeit das Content-Marketing eines mittelständischen Onlinehändlers, der zuvor monatelang auf eine rein KI-gestützte Content-Strategie gesetzt hatte. Der Shop hatte seinen Blog-Output von zwei auf zwölf Artikel pro Monat versechsfacht – alles KI-generiert, alles keyword-optimiert, alles strukturell nach Lehrbuch aufgebaut. Auf dem Papier sah die Strategie brillant aus.
Die Realität war ernüchternd: Die organischen Rankings stagnierten, die Verweildauer auf den Blogseiten lag deutlich unter dem Branchendurchschnitt, und die Conversion-Rate aus dem Content-Bereich tendierte gegen null. Als wir die Texte analysierten, war der Grund offensichtlich. Jeder Artikel las sich wie der andere. Dieselben Formulierungen, dieselben Strukturen, dieselbe nichtssagende Neutralität. Kein einziger Text enthielt eine eigene Meinung, eine überraschende Perspektive oder auch nur einen Satz, den man sich merken würde. Die Texte waren korrekt – und vollkommen wirkungslos. Der Händler hatte sechs Monate lang Content produziert, der zwar Speicherplatz auf dem Server belegte, aber keinen einzigen Kunden überzeugte.
)
Das hat unser Team getan:
Texte mit Fachwissen anreichern
Erkennbare Markenstimme etablieren
Menschlicher Redaktionsprozess in KI integriert
Die Lektion: Mehr Content ist nicht besserer Content. Und ein Text, der niemanden anspricht, ist schlimmer als kein Text – denn er signalisiert Google und den Nutzern gleichermaßen, dass hier nichts Wertvolles zu finden ist.
Kapitel 6: Wenn der Chatbot zum Markenbotschafter wird – und versagt
Immer mehr Onlinehändler setzen KI-gestützte Chatbots im Kundenservice ein. Die Logik ist bestechend: 24/7 verfügbar, keine Personalkosten, skalierbar bis ins Unendliche. Doch wenn der Bot keine klaren Leitplanken hat, wird er vom Helfer zum Haftungsrisiko.
Richtig eingesetzt, sind Chatbots ein Gamechanger
Ein gut konfigurierter Chatbot, der auf eine saubere Wissensdatenbank zugreift, klare Eskalationsregeln hat und transparent kommuniziert, dass er eine KI ist, kann den First-Level-Support massiv entlasten. Er beantwortet Standardfragen in Sekunden, ist rund um die Uhr verfügbar und gibt dem menschlichen Team den Freiraum, sich um die komplexen Anliegen zu kümmern, bei denen Empathie und Urteilsvermögen gefragt sind.
Der entscheidende Unterschied liegt nicht in der Frage „Chatbot ja oder nein?“, sondern in der Frage: Wurde der Bot mit klaren Leitplanken versehen? Weiß er, wann er an einen Menschen übergeben muss? Wurde juristisch geprüft, welche Aussagen er treffen darf? Unternehmen, die diese Hausaufgaben machen, profitieren enorm. Unternehmen, die einen Bot einfach „live schalten“ und hoffen, dass es schon gut geht, spielen russisches Roulette mit ihrem Markenimage, wie unsere Beispiele zeigen werden.
Air Canada und das erfundene Rückgaberecht
Der Chat Bot der Air Canada ist mittlerweile ein Standardbeispiel in Compliance-Seminaren: Ein Chatbot der kanadischen Fluggesellschaft Air Canada erfand eine Trauerfall-Rückerstattungsrichtlinie, die es im Unternehmen gar nicht gab. Ein Kunde verließ sich darauf, buchte ein Ticket und forderte anschließend sein Geld zurück. Air Canada argumentierte, der Bot sei eine separate Entität und die AGB auf der Website seien maßgeblich. Das Gericht sah das anders: Unternehmen haften für ihre digitalen Vertreter. Air Canada musste zahlen. Heute hat die Airline übrigens eine ausführliche, sicher von Menschen geschriebene Landingpage, die den Umgang mit Buchungen im Trauerfall genau erklärt. [10]
Der ehrliche Paketdienst-Bot
Ein britischer Kunde brachte den Chatbot des Paketdienstes DPD dazu, seine programmierten Verhaltensregeln zu ignorieren. Der Bot begann daraufhin, in Gedichtform über die Nutzlosigkeit des eigenen Service zu schreiben, bezeichnete sich selbst als „nutzlos“ und verwendete Schimpfwörter. DPD musste den Bot abschalten – und wurde zum Gespött der sozialen Medien. [11]
Diese Fälle illustrieren ein grundsätzliches Problem: KI-Chatbots haben kein Verständnis für die Konsequenzen ihrer Aussagen. Sie kennen keine Unternehmensrichtlinien, keine rechtlichen Grenzen, kein Markenimage. Sie produzieren sprachlich korrekte Antworten, die inhaltlich verheerend sein können. Und anders als ein menschlicher Mitarbeiter, der in einer heiklen Situation den Vorgesetzten hinzuzieht, eskaliert die KI nicht. Sie antwortet einfach weiter.
Kapitel 7: Visueller Content – Bild und Videos mit KI
Als Coca-Cola 2024 seine ikonische Weihnachtswerbung mit den leuchtenden Trucks durch eine KI-generierte Version ersetzte, war die Empörung gewaltig. Fans bemerkten sofort, dass die Räder der Trucks während der Fahrt ihre Form veränderten und die Proportionen der dargestellten Menschen nicht stimmten. Das Urteil der Community: „Dystopisch“, „billig“, „seelenlos.“ Eine Marke, die seit Jahrzehnten für Emotion und Wärme steht, lieferte kalte Berechnung. [12]
Das Uncanny Valley
Das Phänomen hat einen Namen: das Uncanny Valley [13]. Es beschreibt den Effekt, der eintritt, wenn künstliche Darstellungen fast echt aussehen, aber durch kleine Abweichungen – starre Augen, falsche Proportionen, unnatürliche Bewegungen – ein tiefes Unbehagen auslösen. Für Marken ist das Gift: Kunden kaufen nicht bei etwas, das sich falsch anfühlt.
Für den Onlinehandel bedeutet das: KI-generierte Produktbilder, die Kleidungsstücke an Modellen zeigen, deren Hände sechs Finger haben. Lifestyle-Fotos, in denen Gesichter im Hintergrund zu einer formlosen Masse verschmelzen. Infografiken, die professionell wirken, bis man bemerkt, dass die Zahlen darin frei erfunden sind.
Die Versuchung ist groß – schließlich kostet ein KI-generiertes Bild einen Bruchteil dessen, was ein professionelles Fotoshooting kostet. Aber wenn das Bild das Vertrauen beschädigt, ist die Ersparnis eine teure Illusion.
Wo KI-Visuals bereits brillieren
Die Medaille hat aber auch eine andere Seite – und die ist beeindruckend. KI-generierte Bilder eignen sich hervorragend für interne Konzeptphasen, Moodboards, schnelle Visualisierungen von Produktideen oder A/B-Tests, bei denen man verschiedene Bildwelten ausprobieren möchte, bevor man in ein aufwendiges Shooting investiert. In der Produktfotografie können KI-Tools Hintergründe austauschen, Lichtverhältnisse anpassen oder saisonale Varianten eines Produktbildes erzeugen – Aufgaben, die früher Stunden im Studio kosteten.
Der Schlüssel liegt auch hier in der Rollenverteilung: KI als Beschleuniger im kreativen Prozess, nicht als Ersatz für den kreativen Prozess. Ein erfahrener Designer, der KI-Tools nutzt, arbeitet schneller und experimentierfreudiger als je zuvor. Eine KI ohne Designer produziert Bilder, die auf den ersten Blick beeindrucken und auf den zweiten Blick verstören. Die Faustregel: Was der Kunde sieht, muss ein Mensch freigegeben haben. Was intern bleibt, darf die KI allein liefern.
Kapitel 8: Die unsichtbare Gefahr – Bias in Daten, Bias in Ergebnissen
KI lernt aus der Vergangenheit. Das ist ihre Stärke und ihr größtes Risiko zugleich. Denn wenn historische Daten Vorurteile enthalten, werden diese nicht nur reproduziert – sie werden verstärkt und skaliert.
Amazon musste dies schmerzhaft erfahren, als das Unternehmen versuchte, die Bewerberauswahl mittels KI zu automatisieren. Das System wurde mit Lebensläufen der letzten zehn Jahre trainiert. Da die Tech-Branche in dieser Zeit überwiegend männlich besetzt war, lernte die KI eine einfache Gleichung: Männer gleich gut, Frauen gleich schlecht. Bewerbungen, die das Wort „Frauen“ enthielten – etwa durch die Mitgliedschaft in einem Frauenschachclub –, wurden systematisch abgewertet. Das Projekt wurde eingestellt. [14]
Für den E-Commerce ist dieses Risiko subtiler, aber nicht weniger real. KI-gesteuerte Kundensegmentierung kann dazu führen, dass bestimmte Zielgruppen systematisch benachteiligt werden, ohne dass es jemand bemerkt. Personalisierungsalgorithmen können Stereotypen verstärken, statt sie aufzubrechen. Und Produktempfehlungssysteme können ganze Kundengruppen in Filter einsperren, die weder dem Kunden noch dem Unternehmen nutzen.
Fazit: Das Steuerrad gehört in menschliche Hände
KI im Online-Marketing ist keine Frage des Ob, sondern des Wie. Die Technologie ist zu leistungsfähig, um ignoriert zu werden. Und sie ist zu fehleranfällig, um ihr blind zu vertrauen.
Die McKinsey-Studie bringt es auf den Punkt: Diejenigen Unternehmen, die nachhaltig erfolgreich sein werden, sind jene, die das richtige Gleichgewicht finden – zwischen dem Aufbau ihrer KI-Kompetenzen und dem Fokus auf Markenbildung und Kreativität. KI soll den Motor antreiben. Aber am Steuer muss ein Mensch sitzen, der weiß, wohin die Reise geht.
Für Entscheider im Onlinehandel bedeutet das drei Dinge:
Erstens: Investieren Sie in KI, aber investieren Sie ebenso in die Menschen, die sie bedienen. Eine KI ohne fachkundige Steuerung ist wie ein Navigationssystem ohne Zieladresse!
Zweitens: Misstrauen Sie der Perfektion. Wenn ein KI-generierter Text, ein Bild oder eine Analyse auf den ersten Blick makellos wirkt, ist das kein Grund zur Beruhigung. Es ist ein Grund, genauer hinzuschauen. Denn die gefährlichsten Fehler sind die, die man nicht sieht.
Drittens: Betrachten Sie KI-Kompetenz nicht als technisches Thema, sondern als strategische Kernkompetenz. Es geht nicht darum, welches Tool Sie einsetzen. Es geht darum, wie Sie es einsetzen, warum Sie es einsetzen und wer die Ergebnisse bewertet.
Die KI-Revolution ist real. Aber sie gehört denen, die sie mit Verstand führen – nicht denen, die ihr blind folgen.
arboro steht für Online-Marketing mit Substanz. Wir setzen KI dort ein, wo sie Mehrwert schafft – und menschliche Expertise dort, wo sie unverzichtbar ist. Wenn Sie wissen möchten, wie Ihr Unternehmen KI verantwortungsvoll und profitabel nutzen kann: Sprechen Sie mit uns.
Quellen:
[1] McKinsey & Company: „State of Marketing“ – Studie unter 500 Marketingverantwortlichen in Europa, November 2025. https://www.mckinsey.com/de/news/presse/2025-11-21-state-of-marketing-2026
[2] Diverse Branchenberichte zu Google Ads AI Max, u.a. von groas.ai: https://groas.ai/post/troubleshooting-google-ads-ai-max-common-problems-and-solutions
[3] Fall „Mata v. Avianca” (2023): https://www.jura.uni-saarland.de/chatgpt-erfindet-gerichtsurteile/ https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
[4] Pak'nSave „Savey Meal-Bot” (2023): https://www.stuff.co.nz/business/132725271/paknsaves-ai-meal-planner-suggests-recipe-for-deadly-chlorine-gas
[5] Google AI Overviews – Empfehlungen zu Kleber auf Pizza und Steine essen (2024): https://x.com/PixelButts/status/1793387357753999656
https://www.reddit.com/r/google/comments/1cziil6/a_rock_a_day_keeps_the_doctor_away/
[6] Neil Patel: „AI Hallucination and Accuracy: A Data-Backed Study”, Februar 2026. Studie mit 565 US-Marketern: https://neilpatel.com/blog/ai-hallucination-data-study/
[7] KI-generierte Buchempfehlungsliste mit fiktiven Büchern und Autoren. https://t3n.de/news/fake-buecher-experten-ki-debakel-1688805/
[8] https://openai.com/index/sycophancy-in-gpt-4o/
[9] DMEXCO: „Lost in Translation: So vermeidest du peinliche Marketing-Übersetzungsfehler https://dmexco.com/de/stories/uebersetzungsfehler/
[10] https://rsw.beck.de/aktuell/daily/meldung/detail/kanada-falschauskunft-chatbot-airline-kuenstliche-intelligenz https://www.aircanada.com/de/de/aco/home/plan/special-assistance/bereavement-fares.html#/
[11] https://x.com/ashbeauchamp/status/1748034519104450874
[12] https://www.youtube.com/watch?v=Yy6fByUmPuE
[13] https://nationalgeographic.de/wissenschaft/2023/10/uncanny-valley-warum-uns-ki-das-fuerchten-lehrt/
[14] Reuters: „Amazon scraps secret AI recruiting tool that showed bias against women”, Oktober 2018. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
Bildquellen:
@IJ-studio – stock.adobe.com, @tembelek – stock.adobe.com, @BHM – stock.adobe.com
)