Es gab schon lange Diskussionen darüber, wie genau Google seine neuen AI Overviews erstellt. Viele fragten sich: Nutzen diese Zusammenfassungen die gleichen Ranking-Faktoren wie die klassische Google-Suche – also zum Beispiel Links? Oder steckt dahinter ein ganz anderes System? Ein aktuelles Gerichtsverfahren brachte nun erstmals ans Licht, dass Google für die Generierung von AI Overviews ein eigenes Ranking-System verwendet: FastSearch. Dieses arbeitet nicht mit Links, sondern basiert auf einer Methode, die semantische Relevanz und Nutzerdaten in den Vordergrund stellt.
Warum AI Overviews plötzlich Spam anzeigten
Aufgefallen ist vielen, dass in den ersten Monaten von Googles AI Overviews häufig Spam-Seiten auftauchten – sogar Seiten, die zuvor von Google abgestraft worden waren. Das wirkte widersprüchlich, schließlich kennt man es aus der normalen Suche, dass Spam mit hohem Aufwand gefiltert wird. Nun wissen wir: Das liegt nicht an einem Ausrutscher, sondern am anderen Ranking-Mechanismus. Für die AI Overviews greift Google nicht auf denselben gewaltigen Ranking-Apparat zurück, sondern auf eine schnellere, aber simplere Methode.
FastSearch – was dahintersteckt
FastSearch ist eine von Google entwickelte Technologie, die speziell dafür gedacht ist, Generative KI-Systeme zu stützen. Anstatt extrem viele Seiten zu analysieren und mit Hunderten Ranking-Signalen zu bewerten, zieht FastSearch nur eine begrenzte Anzahl von Dokumenten heran. Das Ergebnis sind nicht dieselben Top-Ergebnisse wie in der normalen Websuche, sondern eine kleinere und schnellere Auswahl von Textquellen. Der Vorteil: AI kann so in Millisekunden eine Antwort ausgeben. Der Nachteil: Die Qualität ist geringer, und deshalb erscheinen auch Quellen, die man in klassischen Suchergebnissen nie so weit oben finden würde.
Die Basis: RankEmbed
Herzstück von FastSearch ist das Modell RankEmbed. Dabei handelt es sich um ein Deep-Learning-System, das nicht mehr auf Verlinkungen oder klassische Metriken setzt, sondern auf semantische Muster. Kurz gesagt: Es erkennt, ob ein Dokument inhaltlich zu einer Anfrage passt, auch wenn bestimmte Suchbegriffe im Text gar nicht vorkommen. Genau das macht es für AI so wertvoll, denn Sprachmodelle müssen aus unzähligen Varianten von Fragen passende Texte finden – unabhängig von Keywords.
Warum Links kaum noch wichtig sind
Was beim Lesen der Gerichtsdokumente besonders heraussticht: Bei FastSearch spielen Links keine erkennbare Rolle. Stattdessen geht es um Nutzersignale wie Klicks, Verweildauer oder Interaktionen sowie um manuelle Bewertungen von Qualitätsprüfern. Diese Daten bilden die Grundlage, um dem Modell beizubringen, was eine „gute Seite“ ist. Damit verabschiedet sich Google in diesem Bereich von einem Fundament, das über zwei Jahrzehnte das Herzstück des Such-Rankings war.
Wie RankEmbed trainiert wird
RankEmbed basiert auf zwei Datenquellen:
- Suchlogs: Klicks, aufgerufene Seiten, Suchanfragen – ein riesiger Fundus an anonymisierten Nutzerdaten, der verrät, was Menschen wirklich anklicken und wie zufrieden sie mit Ergebnissen sind.
- Human Ratings: Qualitätsbewerter, die Seiten nach Kriterien wie Vertrauenswürdigkeit, Autorität oder Spamgehalt einstufen. Ihre Urteile fließen als Trainingsmaterial ins Modell ein.
Interessant ist, dass RankEmbed mit nur einem Hundertstel der Datenmenge trainiert wurde, die ältere Google-Modelle benötigen. Dennoch liefert es in vielen Fällen bessere Ergebnisse, vor allem bei sogenannten Long-Tail-Queries – also sehr spezifischen, langen Suchanfragen.
Warum Geschwindigkeit wichtiger ist als Perfektion
AI Overviews sollen in Sekundenbruchteilen erscheinen. Dafür kann sich Google nicht die Zeit nehmen, Milliarden Seiten mit dem vollen Ranking-Algorithmus zu analysieren. Stattdessen setzt FastSearch auf Geschwindigkeit statt Tiefe. Das führt dazu, dass gewisse Signale, die normalerweise Spam ausfiltern, gar nicht einbezogen werden. Genau deswegen rutschten in den ersten Monaten schlechte Quellen durch. Google muss also abwägen: schnelle Antworten gegen perfekte Qualität.
Welche Rolle spielt Nutzerverhalten?
Da Links weitgehend ausgeklammert sind, gewinnen Nutzerinteraktionen extrem an Bedeutung. Welche Seiten rufen Menschen auf? Welche verlassen sie sofort wieder? Welche erhalten gute Bewertungen von menschlichen Testern? Dieses Zusammenspiel bestimmt, was FastSearch in seine Auswahl aufnimmt. Damit verschiebt sich Macht von klassischen SEO-Signalen hin zu User Experience und semantischer Relevanz.
Was bedeutet das für dich?
Wenn du Inhalte erstellst oder SEO betreibst, solltest du verstehen: AI Overviews folgen nicht den alten Google-Regeln. Backlinks, früher das Gold im SEO, sind hier kaum relevant. Wichtiger ist:
- Dass deine Inhalte semantisch relevant auf Fragen antworten.
- Dass Nutzer deine Seite nicht sofort verlassen, sondern zufrieden konsumieren.
- Dass deine Inhalte regelmäßig aktualisiert werden, da RankEmbed Modelle neu trainiert.
- Dass du Themen abdeckst, die Google als hilfreich kategorisiert, besonders bei komplexeren Suchanfragen.
Eine neue Suchwelt
Alles deutet darauf hin, dass Google langfristig zwei Parallel-Welten betreibt:
- Die klassische Suche, die nach Links, Autorität und alten Ranking-Faktoren funktioniert.
- Die AI-Suche, die schneller, stärker auf Nutzerdaten und semantische Muster fokussiert ist.
Für dich bedeutet das, dass du künftig doppelt denken musst: einmal in den alten SEO-Strukturen, einmal in den neuen AI-getriebenen Ranking-Systemen.
Mein Fazit
Die Enthüllungen aus dem Gerichtsverfahren zeigen: Google bewegt sich deutlich weg von Links – zumindest dort, wo es um AI Overviews geht. Stattdessen stehen Relevanz, Nutzersignale und maschinelles Lernen im Mittelpunkt. Das erklärt, warum wir in den Tests so oft fragwürdige Quellen gesehen haben. Gleichzeitig eröffnet es neue Chancen: Wer Inhalte bietet, die präzise Fragen beantworten und echte Nutzerintentionen bedienen, hat in dieser neuen Welt einen Vorteil. Es wird spannend, wie sich diese Systeme weiterentwickeln – und ob klassische SEO-Faktoren wie Backlinks irgendwann völlig in den Hintergrund treten.