Seit Jahren wiederholt Google, dass gute Rankings davon abhängen, ob Inhalte für Menschen statt für Algorithmen erstellt werden. Doch in den letzten Monaten, mit Aufkommen von KI‑Suche und LLM‑basierten Antwortsystemen, hat sich dieses Thema erneut zugespitzt. Danny Sullivan, der aktuelle Such‑Liaison bei Google, hat in einem Gespräch erklärt, wie die Ranking‑Systeme tatsächlich funktionieren und warum die Sorge vieler SEOs um „neue Optimierungen für KI‑Suche“ fehl am Platz ist.
Kein neues „Geheimrezept“ für AI‑Search
Viele fragten sich, ob die Integration großer Sprachmodelle in die Google‑Suche neue Spielregeln geschaffen hat. Sullivan verneint das. Laut ihm gibt es „nichts wirklich anderes“, das Website‑Betreiber tun müssten. Veränderungen im Suchdesign oder die Einbindung generativer Antworten bedeuten demnach keine neue Kategorie von Rankingfaktoren.
Er ist sich bewusst, dass in der Branche schnell neue Akronyme wie GEO (Generative Engine Optimization) oder AEO (Answer Engine Optimization) kursieren – letztlich aber führt das seiner Meinung nach auf denselben Grundsatz zurück: Inhalte müssen nützlich und für den Nutzer geschrieben sein. Aus meiner Sicht bestätigt das, was erfahrene SEOs ohnehin schon lange spüren – dass beliebige taktische Tricks gegen langfristige Qualität keine Chance mehr haben.
Wofür Googles Systeme wirklich getunt sind
Sullivan erklärt, dass sämtliche Ranking‑Systeme – egal ob traditionell oder AI‑gestützt – darauf trainiert sind, menschlich befriedigende Inhalte zu erkennen. Diese Systeme lernen auch anhand von Feedback echter Nutzer. Google untersucht also, welche Ergebnisse als hilfreich empfunden werden, und justiert daraufhin die Modelle.
Er betont: Wenn du Texte schreibst, die primär Suchmaschinen oder Sprachmodelle „füttern“ sollen, verlierst du die eigentliche Richtung. Solche Inhalte wirken technisch korrekt, aber leer. Google bewertet dagegen Inhalte, die Antworten liefern, Probleme lösen oder Kontext schaffen. Alles andere steht irgendwann auf der Abschussliste.
Interessant finde ich, wie er den Gedanken weiterführt: Selbst wenn du kurzfristig für ein KI‑System optimierst, verlierst du, sobald sich dieses System weiterentwickelt. Die Modelle werden jeden Monat besser darin, echte Qualität zu unterscheiden. Anpassungen an aktuelle Muster bringen dann kaum noch etwas.
Die „North Star“-Perspektive
Sullivan benutzt die Metapher eines „Nordsterns“, nach dem sich alle Bemühungen ausrichten sollten – nämlich der Nutzerintention. Wer diese im Blick behält, liegt automatisch auf der Linie dessen, was Google mit seinen Updates erreichen will. Das klingt fast banal, ist in der Praxis aber anspruchsvoll, weil man sich ständig fragen muss, was Menschen wirklich brauchen, statt was Keywords suggerieren.
Warum Optimierung für LLMs ein Irrweg ist
Die Faszination für Chatbots und generative Assistenten verleitet viele, Inhalte für diese Kanäle zu „optimieren“. Doch Sullivan deutet an, dass das kaum sinnvoll ist. Daten zeigen zudem: Plattformen wie OpenAI, Perplexity oder Claude erzeugen zusammen weniger als ein Prozent aller Web‑Referrals. Für die meisten Seiten sind sie also keine nennenswerte Traffic‑Quelle. Jeder, der jetzt Texte auf Kosten klassischer Suchoptimierung umstellt, verliert den Großteil seines organischen Besucherstroms.
Der Fokus bleibt menschlich
Wenn du Content entwickelst, frag dich: Hilft dieser Text jemandem konkret weiter? Wird er verstanden, vermittelt er Vertrauen, löst er eine Frage? Genau solche Signale werden im Hintergrund über Metriken wie Interaktionsdauer, Klickmuster oder Rücksprungraten erfasst und fließen als Training in Googles Modelle ein. Man merkt deutlich, dass sich der Algorithmus stark an kollektivem Nutzerverhalten orientiert.
Warum viele SEOs Google misstrauen
Dass Google seit über zwanzig Jahren wiederholt, man solle primär für Nutzer schreiben, hat die Szene träge gemacht. Lange Zeit wirkte diese Aussage wie ein PR‑Mantra, das kaum der Realität entsprach – schließlich funktionierte Link‑Spam oder Keyword‑Dichte‑Tuning erstaunlich gut. Doch Sullivan zieht eine klare Linie: Seit ungefähr dem sogenannten Medic‑Update 2018 habe sich vieles wirklich geändert. Die Suchmaschine bewertet Inhalte inzwischen mithilfe neuronaler Netze, die User‑Satisfaction‑Signale auswerten.
Wer sich noch an 2005 erinnert, als man Rankings fast durch pure Link‑Masse beeinflussen konnte, erkennt den Unterschied: Heute kann Google semantische Zusammenhänge und Nutzerabsichten verstehen. Damit haben simple Metriken wie Backlinks oder exakte Keyword‑Wiederholungen ihren Stellenwert weitgehend verloren.
Ich erinnere mich an die anfängliche Skepsis in der Community, als E‑A‑T (Expertise, Authoritativeness, Trustworthiness) auftauchte. Viele hielten das für Marketingsprech. Mittlerweile zeigen Qualitäts‑Rater‑Guidelines und Core‑Updates, dass dieser Ansatz strukturell in die Systeme integriert ist. Sulllivans Aussagen passen genau dazu.
Das Zusammenspiel aus Daten & Feedback
Bemerkenswert ist, dass Google kontinuierlich anonymisiertes menschliches Feedback einbindet. Hunderttausende Bewerter beurteilen Test‑Suchergebnisse: waren sie nützlich, prägnant, vertrauenswürdig? Diese Urteile dienen als Lehrmaterial für maschinelles Lernen. Zusammen mit automatischen Messwerten (z. B. Klickdauer, Scrolltiefe) formt sich so ein klares Bild, wie zufrieden echte Menschen mit Ergebnissen sind. Suchmaschinen‑Optimierung bedeutet daher heute: Nutzerverhalten zu verstehen, nicht nur Algorithmen zu bedienen.
Human‑Optimized Content als neues SEO
Ein zentraler Gedanke kristallisiert sich heraus: Human‑Optimized Content ist das neue SEO. Es geht weniger um technische Tricks, sondern darum, Inhalte zu schaffen, die Relevanz, Vertrauen und Klarheit ausstrahlen.
Konkret heißt das:
- Fokussiere dich auf Themen, bei denen du echte Erfahrung oder Autorität hast.
- Erstelle strukturierte, aber natürlich lesbare Texte – keine generierten Textblöcke.
- Erkläre komplexe Sachverhalte so, dass auch Laien folgen können.
- Belege Aussagen, wo es Sinn ergibt, mit Daten oder Beispielen.
- Vermeide übertriebene SEO‑Formeln, die Leser als mechanisch empfinden.
Aus meiner Erfahrung reagieren auch Suchmaschinenbots auf dieselbe Lesbarkeit: Gute Gliederung, klare Sprache und sinnvolle Verknüpfungen werden technisch positiver interpretiert. Google erkennt mittlerweile, ob ein Absatz kontextuell passend zum Thema steht oder nur Fülltext ist. Das ist maschinell messbar.
Was Links und Keywords heute noch bedeuten
Links sind nicht tot, sagen viele, aber sie sind nicht mehr das dominierende Signal. Google versteht Inhalte selbstständig – Stichwort semantische Vektoren. Ein Text, der thematisch kohärent ist und glaubwürdige Quellen verknüpft, braucht keine 500 Backlinks. Ähnlich verlieren Keywords ihre frühere Macht. Ihre Funktion beschränkt sich heute auf Kontexteingrenzung, nicht auf reines Matching.
So schreibe ich für „Menschen‑First“
Wenn du wissen willst, ob dein Text „für Menschen“ geschrieben ist, lies ihn dir laut vor. Klingt er, als würdest du jemandem etwas erklären oder bloß eine Suchmaschine überzeugen wollen? Eine kleine Anekdote: Ich habe einmal einen Kunden betreut, der 3.000 fast gleichlautende Produktbeschreibungen hatte – perfekt nach Schema. Nach der Umstellung auf erzählerische Beschreibungen, die echte Nutzungsszenarien beinhalteten, stieg die Klicktiefe um 60 %. Der Google‑Traffic folgte später automatisch.
Genau diese Kettenreaktion möchte Sullivan vermitteln: Schreibe, als würdest du jemandem gegenüber sitzen. Die technischen Systeme folgen diesem Verhalten, nicht umgekehrt.
Ein realistischer Ausblick
Was bedeutet all das nun praktisch? Google wird seine KI‑Funktionalität weiter ausbauen, und das Sucherlebnis wird personalisierter. Dennoch bleibt das Kriterium der Zufriedenheit unverändert. Jede Neuerung zielt letztlich darauf, Nutzeranliegen schneller, vertrauenswürdiger und in besserem Kontext zu lösen. Wer qualitativ liefert, bleibt vorne – unabhängig davon, ob das Ergebnis als „Linkkachel“, „AI‑Antwort“ oder klassische SERP erscheint.
Natürlich kann man nicht alles kontrollieren. Selbst qualitativ hochwertige Inhalte können zeitweise durch volatile Updates verlieren. Trotzdem zeigt sich langfristig: Seiten, die klar, hilfreich und ehrlich geschrieben sind, erholen sich meist selbständig. Das ist der Beweis, dass Googles Systeme tatsächlich auf Nachhaltigkeit ausgelegt sind.
Fazit
Sullivans Botschaft lässt sich auf einen einfachen Nenner bringen: Die beste SEO‑Strategie ist, keine SEO‑Strategie zu spielen – sondern menschliche Bedürfnisse in den Mittelpunkt zu stellen. Suchmaschinen werden immer besser darin, das zu erkennen. Wer jetzt noch versucht, sich auf kurzfristige Tricks mit generierter KI‑Masse zu stützen, läuft Gefahr, den Anschluss zu verpassen.
Oder, frei formuliert: Wenn du für Menschen schreibst, schreibt der Algorithmus schließlich für dich.