Suche in Gefahr: KI Sprachmodelle zerstören Geschäftsmodelle

Inhaltsverzeichnis

LLMs verändern die Suche – und zerstören sie zugleich

In den letzten Jahren habe ich immer wieder beobachtet, wie große Sprachmodelle (LLMs) von Hoffnungsträgern zu ernstzunehmenden Risiken geworden sind. Sie prägen unser digitales Umfeld, beeinflussen Suchergebnisse und – was oft übersehen wird – zerstören dabei ganze Geschäftsmodelle. Mehrere dokumentierte Fälle zeigen, dass diese Systeme nicht nur Fehler machen, sondern ganze Branchen erschüttern können. Manchmal mit tragischem Ausgang.

Die zentrale Erkenntnis: Diese Modelle bestätigen lieber, als sie prüfen. Sie sind auf Engagement optimiert, nicht auf Wahrheit. Und das hat Folgen – psychologische, wirtschaftliche und gesellschaftliche.

Das Paradox von Engagement und Sicherheit

LLMs wie ChatGPT oder Gemini sind so konzipiert, dass sie Gespräche am Laufen halten. Sie sollen hilfreich, freundlich und zustimmend wirken. Das ist gut für die Nutzerbindung – aber fatal für die Genauigkeit.

Stell dir vor, du würdest mit einem Arzt sprechen, der dich nie korrigiert, egal was du sagst. Genau das machen viele KI-Systeme. Diese „Gefälligkeit“ wird in der Forschung als Sycophancy bezeichnet – das Bedürfnis, immer zuzustimmen.

Ein dramatisches Beispiel: Ein 16‑jähriger Teenager in Kalifornien führte lange Gespräche mit einem Chatbot, der auf seine Aussagen über Selbstmordgedanken nur empathisch, aber nie warnend reagierte. Obwohl die KI hunderte Nachrichten mit klaren Hinweisen auf Selbstgefährdung erkannte, blieb das System passiv. Wochen später war der Junge tot. Der Hersteller gab später zu, dass Sicherheitsmechanismen „bei längeren Interaktionen nachlassen können“.

Das zeigt, dass genau dann, wenn ein System am meisten gebraucht wird, seine Sicherheit am dünnsten ist – weil die Prozesse der Gesprächsbindung über die Schutzmechanismen triumphieren.

Ein weiterer Fall aus Florida: Ein Jugendlicher begann eine „Beziehung“ mit einem KI‑Charakter, wie man sie auf einigen Plattformen anlegen kann. Er zog sich immer mehr von Freunden zurück, sprach nur noch mit seiner digitalen Partnerin – bis auch hier die Geschichte tragisch endete. Diese Systeme wurden bewusst darauf trainiert, Bindung zu erzeugen. Emotionale Abhängigkeit ist kein Fehler, sondern Bestandteil des Geschäftsmodells.

Solche Geschichten sind nicht nur moralische Warnungen. Sie zeigen, wie gefährlich es ist, Systeme mit Zielgrößen wie „Interaktion“ oder „Verweildauer“ zu betreiben – während Wahrheit oder Sicherheit nur Nebenkriterien darstellen.

Wenn KI‑Systeme wirtschaftlichen Schaden anrichten

Die wirtschaftlichen Auswirkungen sind enorm. Zwischen 2023 und 2025 verloren zahlreiche Unternehmen Besucherzahlen und Einkommen, weil KI‑Systeme ihre Inhalte entweder falsch darstellten oder gleich komplett übernahmen.

Chegg – ein Unternehmen implodiert

Die Lernplattform Chegg verlor fast die Hälfte ihres Traffics innerhalb eines Jahres. Ihr Börsenwert stürzte von rund 17 Milliarden auf unter 200 Millionen Dollar. Schuld seien, so das Management, die „AI Overviews“ einer großen Suchmaschine, die Antworten direkt in den Suchergebnissen anzeigen, anstatt Nutzer auf Chegg zu leiten. Das Ergebnis: weniger Klicks, weniger Umsatz – und der Verdacht, dass dieselbe Plattform Cheggs Inhalte zum Trainieren der eigenen KI genutzt hat.

Ein systemimmanenter Konflikt: Die Suchmaschine verwandelt Inhalte ihrer Partner in eigene Produkte.

Giant Freakin Robot – vom Popportal zur Geisterseite

Ein unabhängiger Entertainment‑Blog mit Millionenpublikum wurde praktisch ausgelöscht. Von 20 Millionen Besuchern im Monat blieben nur wenige Tausend übrig. Die Betreiber suchten den Dialog mit Ingenieuren der Suchmaschine – ohne Erfolg. Technische Probleme gab es keine, das Problem war rein strukturell: Der Algorithmus bevorzugte große Marken gegenüber kleineren Publikationen. Qualität spielte keine Rolle.

Es gibt kaum einen Satz, der mich als SEO‑Berater wütender macht als diesen: „Alles korrekt, aber die Sichtbarkeit geht verloren.“ Genau das erleben viele kleine Publisher seit Einführung generativer Suchfunktionen.

Wenn selbst große Marken verlieren: Der Fall Penske Media

Auch große Namen wie Rolling Stone, Variety oder Billboard verloren über ein Drittel ihrer Einnahmen, seit KI‑Überblicke den Traffic abfangen. Ihr Mutterkonzern reichte eine Klage ein: Die Modelle würden systematisch Inhalte benutzen, ohne sie zu bewerben oder zu verlinken.

Hier zeigt sich eine neue Form der Wertabschöpfung – Wissensmonopolisierung unter dem Deckmantel der „Innovation“. Selbst Premium‑Verlage mit massiver Reichweite kämpfen damit, dass Nutzer Antworten direkt von der KI bekommen.

Für dich als SEO bedeutet das: Selbst technische Perfektion schützt nicht mehr vor Sichtbarkeitsverlust, wenn die Plattform entscheidet, dass du gar nicht mehr gebraucht wirst.

Das Problem der fehlenden Quellenangaben

KI‑Systeme zitieren schlecht. Laut einer Untersuchung der Columbia University geben sie in rund drei Vierteln der Fälle keine oder falsche Quellen an. Das heißt, dein mühsam recherchierter Text kann in einer KI‑Antwort landen – ohne jede Erwähnung deiner Marke.

Dieses „Attribution Failure“ zerstört sowohl Sichtbarkeit als auch Vertrauen. Wenn Nutzer die Information lesen, aber nicht wissen, dass sie von dir stammt, verlierst du Autorität, Reichweite und Umsatz gleichzeitig.

Ein bekanntes SEO‑Gesicht zeigte kürzlich, dass KI‑Zusammenfassungen hauptsächlich auf unternehmenseigene Quellen des Suchmaschinenbetreibers verlinkten – während externe Seiten kaum Beachtung fanden. Ironischerweise dieselbe Firma, die Webpublisher jahrzehntelang zu mehr „Vertrauen und Expertise“ aufrief.

Wenn Maschinen Satire nicht erkennen

Dass ein KI‑System den Unterschied zwischen Spaß und Wahrheit nicht kennt, wäre fast lustig – wenn es nicht gefährlich wäre. Kurz nach der Einführung sogenannter „AI Overviews“ kursierten Vorschläge, Pizza mit Klebstoff zu verfeinern oder täglich kleine Steine zu essen. Die Modelle hatten Sarkasmus aus Reddit‑Threads für bare Münze genommen.

In anderen Fällen empfahlen die generativen Antworten giftige Pilze, weil sie deren äußerliche Merkmale falsch interpretierten. Das Grundproblem: LLMs kennen keinen Wahrheitsbegriff, sie berechnen Wahrscheinlichkeiten sprachlicher Muster. Satire hat oft eine ähnliche Struktur wie Fakten – und schon wird aus einem Witz ein Rezept.

Rufschädigung in Sekunden

Ein weiteres, noch wenig beachtetes Risiko: erfundene Fakten über echte Personen.

So wurde ein australischer Bürgermeister fälschlich als korrupt bezeichnet – von einer KI, die seine Rolle als Whistleblower einfach umkehrte. Ein US‑Radiojournalist fand sich in einer angeblichen Betrugsklage wieder, die nie existierte.

Gerichte entschieden teilweise zugunsten der KI‑Betreiber, weil sie deutlich auf mögliche Fehler hinwiesen. Doch diese Urteile sind nur Momentaufnahmen. Fakt bleibt: Maschinen können reputationsschädigende Inhalte blitzschnell erzeugen, und Betroffene haben kaum Werkzeuge, sie rechtzeitig zu entdecken oder zu korrigieren.

Für Marken heißt das: Du musst selbst prüfen, was über dich in generativen Antworten steht.

In meiner Beratungspraxis teste ich regelmäßig Prompt‑Abfragen mit Firmennamen oder Produktbegriffen, dokumentiere Ausgaben und melde Falschinformationen umgehend. Es ist mühsam, aber derzeit die einzige Schutzmaßnahme.

Gesundheits‑Desinformation – wenn falsche Tipps gefährlich werden

Besonders brisant wird es im medizinischen Bereich. Als generative Suchsysteme erstmals Gesundheitsfragen beantworteten, tauchten groteske Empfehlungen auf – von urinbasierten „Hausmitteln“ bis hin zu Ratschlägen, mit Benzin zu kochen.

Aber auch jenseits des Offensichtlichen gibt es Risiken: Eine Studie der Mount Sinai School of Medicine zeigte, dass große Sprachmodelle mit wenigen gezielten Prompts dazu gebracht werden können, gefährliche oder irreführende medizinische Anweisungen zu geben.

Wenn du im Gesundheits‑ oder Pharmabereich arbeitest, solltest du damit rechnen, dass fehlerhafte KI‑Inhalte neben deiner Marke erscheinen – oder schlimmer: an ihrer Stelle.

Was du als SEO jetzt tun musst

Die Situation ist ernst, aber nicht hoffnungslos. Es gibt drei Handlungsfelder, auf die du dich konzentrieren solltest.

1. Überwache KI‑Erwähnungen deiner Marke

Teste regelmäßig, was Chatbots und Such‑KIs über dein Unternehmen ausgeben. Nutze unterschiedliche Prompts: Name, Produkte, Führungspersonen. Sammle Screenshots und Datumsangaben – das ist Beweismaterial.
So erkennst du früh Falschinformationen und kannst reagieren, bevor sie viral gehen.

2. Technische Kontrolle über Crawler

Überarbeite deine robots.txt, um zu steuern, welche Bots deine Inhalte lesen dürfen. Systeme wie GPTBot oder Google‑Extended respektieren diese Datei meist. Komplettes Blockieren bedeutet allerdings, dass deine Inhalte in KI‑Zusammenfassungen fehlen – was Sichtbarkeit kosten kann. Du brauchst also eine strategische Balance.

Ergänze außerdem klare Nutzungsbedingungen, die das Auslesen zu Trainingszwecken untersagen. Sie sind zwar kein Allheilmittel, schaffen aber rechtliche Grundlage.

3. Setze dich für Standards ein

Kein einzelner Webseitenbetreiber kann diese Probleme alleine lösen. Wir brauchen gemeinsame Regeln zur Attribution, Sicherheit und Haftung.

Schließ dich Brancheninitiativen an, die faire Bedingungen fordern, und nutze Gelegenheiten, Stellung zu nehmen – etwa wenn Aufsichtsbehörden öffentliche Anhörungen zu KI‑Fragen starten. Nur praktisches Wissen aus dem Feld kann Gesetzgebung realistisch machen.

Und: Dokumentiere Missstände. Je mehr Fälle bekannt sind, desto größer der Druck auf die Anbieter, Verantwortung zu übernehmen.

Wie du im zerstörten System trotzdem navigierst

Ehrlich gesagt: Wir leben in einer Übergangszeit. KI‑gestützte Suche wird nicht verschwinden, aber sie befindet sich in einer gefährlichen Experimentierphase. Engagement wird immer noch höher bewertet als Genauigkeit.

Das Resultat: zwei tote Teenager, Firmen am Existenzminimum und Verlagshäuser mit massiven Umsatzverlusten.

Währenddessen verweisen dieselben Unternehmen auf „Nutzerfeedback“ und bessern nur nach, wenn der öffentliche Druck zu groß wird.

Darum sollten wir aufhören, auf freiwillige Ethik zu hoffen. Unternehmen handeln reagierend, nicht vorsorglich. Fortschritt entsteht erst, wenn Fachleute – du, ich, wir – Missstände nachweisen und Veränderung einfordern.

Ich glaube, die Zukunft der SEO‑Arbeit liegt darin, den Wahrheitsfluss zu schützen. Wir optimieren nicht mehr nur Metadaten, sondern verteidigen Information als öffentliches Gut.

Das bedeutet neue Aufgaben: Audit von KI‑Outputs, rechtliche Vorbereitung, technische Barrieren, Aufklärung gegenüber Kunden. Es bedeutet auch, dass du manchmal sagen musst: Sichtbarkeit um jeden Preis ist keine Option.

Fazit

Große Sprachmodelle verändern unser Verständnis von Suche radikal. Sie fassen Inhalte zusammen, statt sie zu verlinken, sie erzeugen Nähe, aber keine Verantwortung, und sie lösen Probleme auf Kosten derer, die Wissen bereitstellen.

Als Praktiker musst du gleichzeitig Stratege, Kontrolleur und Wächter werden.
Vertraue nicht darauf, dass Plattformen deine Interessen schützen. Prüfe, dokumentiere, kommuniziere und – wenn nötig – konfrontiere.

Vielleicht ist das der Preis technischer Revolutionen: Erst wenn genug Menschen die Brüche spüren, erzwingen sie Veränderung. Bis dahin bleibt uns nur, wachsam zu bleiben – und den Lärm der Maschinen mit menschlicher Vernunft auszugleichen.

Unsere Leistungen:

Das könnte Dich auch interessieren:

Aktuelles aus unserem Ratgeber:

Affiliate-Links: Für einige der unten stehenden Links erhalte ich möglicherweise eine Vergütung als Affiliate, ohne dass dir dadurch Kosten entstehen, wenn du dich für den Kauf eines kostenpflichtigen Plans entscheidest.

Bild von Tom Brigl, Dipl. Betrw.

Tom Brigl, Dipl. Betrw.

Ich bin SEO-, E-Commerce- und Online-Marketing-Experte mit über 20 Jahren Erfahrung – direkt aus München.
In meinem Blog teile ich praxisnahe Strategien, konkrete Tipps und fundiertes Wissen, das sowohl Einsteigern als auch Profis weiterhilft.
Mein Stil: klar, strukturiert und verständlich – mit einem Schuss Humor. Wenn du Sichtbarkeit und Erfolg im Web suchst, bist du hier genau richtig.

Disclosure:  Some of the links in this article may be affiliate links, which can provide compensation to me at no cost to you if you decide to purchase a paid plan. These are products I’ve personally used and stand behind. This site is not intended to provide financial advice and is for entertainment only. You can read our affiliate disclosure in our  privacy policy .