Wenn du dich jemals gefragt hast, warum Suchmaschinen und KI‑Assistenten zu unterschiedlichen Ergebnissen kommen, dann bist du hier genau richtig. Das folgende Gedankenspiel nähert sich mit etwas Mathematik – ja, wirklich mit Formeln – der Frage, wie man solche Unterschiede sichtbar machen kann. Keine Sorge, du musst kein Data Scientist sein, aber ein bisschen Neugier hilft.
Von der klassischen Suche zur KI‑gestützten Antwortwelt
Lange Zeit war SEO ein ziemlich lineares Spiel: Inhalte optimieren, Platzierungen messen, Folgeaktionen planen. Google zeigte uns den Score, und darauf bauten ganze Strategien auf. Doch heute stehen KI‑Assistenten zwischen Suchmaschine und Nutzer. Sie fassen Inhalte zusammen, zitieren Quellen oder liefern direkte Antworten – oft ohne dass ein Klick auf deine Website erfolgt.
Das bedeutet nicht das Ende der Suchmaschinenoptimierung, sondern einen zweiten, parallelen Sichtbarkeitskanal. Die Herausforderung besteht jetzt darin, zu messen, wann dein Content in diesen neuen Antwortsystemen auftaucht – und wann nicht.
Warum das Ganze wichtig ist
Nach wie vor stammen nahezu alle messbaren Websitezugriffe aus der klassischen Suche. Google verarbeitet pro Tag mehrere Milliarden Anfragen. Assistenten wie Perplexity oder ChatGPT‑Search kommen derzeit auf deutlich geringere Volumina, beeinflussen aber schon die Interpretation von Information.
Wenn also ein Assistent eine Frage beantwortet und deine Seite als Quelle nennt, ist das ein Signal: Dein Inhalt wird in diesem semantischen Kontext für vertrauenswürdig gehalten. Der Haken daran – diese Sichtbarkeit taucht weder in Analytics noch im Search Console‑Dashboard als eigene Kategorie auf. Google hat zwar eine „AI‑Mode“-Ansicht eingeführt, deren Daten aber in die Gesamtstatistik integriert sind. Wirklich getrennt auswerten lässt sich das (noch) nicht.
Also braucht es einen Umweg: ein praktisches Modell, um Gemeinsamkeiten und Unterschiede zwischen klassischer Suche und KI‑Assistenten zu erkennen, ohne spezielle Tools oder API‑Zugänge. Genau darum geht es hier.
Zwei Systeme – zwei Arten, das Web zu verstehen
Eine herkömmliche Suchmaschine arbeitet mit sogenannter lexikalischer Suche. Dabei werden Begriffe und Wortformen direkt abgeglichen, meist mithilfe des Algorithmus BM25. Dieser zählt Wortübereinstimmungen, gewichtet sie und rankt Seiten entsprechend.
KI‑Assistenten dagegen basieren auf semantischer Suche. Sie wandeln Wörter in sogenannte Embeddings um – mathematische Vektoren, die Bedeutungen abbilden. Dadurch erkennen sie Zusammenhänge auch dann, wenn keine exakten Wortmatches vorliegen. Beide Systeme haben Fehlerquellen: Die lexikalische Suche ignoriert Synonyme, während die semantische manchmal fremde Konzepte miteinander verknüpft. Zusammen genutzt ergibt sich ein stärkeres, sogenanntes hybrides System.
Wie Hybrid‑Suche funktioniert – einfach erklärt
Um die beiden Welten zusammenzuführen, bedienen sich moderne Suchsysteme eines Prinzips namens Reciprocal Rank Fusion (RRF). Vereinfacht gesagt: Mehrere Rankinglisten (z. B. eine aus der klassischen Suche und eine aus dem semantischen Modell) werden zu einer zusammengeführt. Jeder Platz in einer Liste bekommt nach folgender Regel Punkte: Score = 1 / (k + Rang). Wenn ein Dokument in beiden Listen vorkommt, werden seine Werte addiert. Das sorgt dafür, dass Treffer, die in beiden Systemen gut abschneiden, am Ende höher platziert werden.
So verschmelzen Wort‑ und Bedeutungsähnlichkeiten zu einem Gesamtbild. Und genau dieser Mechanismus erklärt, warum KI‑Assistenten manchmal Links zeigen, die auch bei Google hoch stehen – und manchmal völlig andere.
Wie du diese Dynamik selbst beobachten kannst
Natürlich hast du keinen Zugriff auf die internen Rankinglisten von Google oder ChatGPT. Aber du kannst sie indirekt vergleichen.
Schritt 1: Stichprobe bilden
Wähle rund zehn Suchanfragen, die für dein Business relevant sind. Für jede Anfrage:
- Notiere die zehn organischen Top‑Ergebnisse bei Google.
- Stelle dieselbe Frage an einen Assistenten wie Perplexity oder ChatGPT Search und notiere alle zitierten Quellen oder Domains.
Du hast jetzt zwei Listen pro Suchanfrage: die Google‑Top 10 und die KI‑Zitate.
Schritt 2: Überlappungen zählen
- Intersection (I): Wie viele Domains stehen in beiden Listen?
- Novelty (N): Wie viele Quellen nennt der Assistent, die bei Google nicht vorkommen?
- Frequency (F): Wie oft taucht jede Domain in allen Anfragen auf?
Schritt 3: Drei einfache Kennzahlen
Jetzt kannst du aus den Zählwerten kleine Indizes bilden:
- Shared Visibility Rate (SVR) = I / 10 → zeigt, wie stark sich Assistent und Google decken.
- Unique Assistant Visibility Rate (UAVR) = N / Anzahl der Zitate → misst die Neuartigkeit der Assistentenquellen.
- Repeat Citation Count (RCC) = F / Anfragen → zeigt, wie konstant eine Domain erwähnt wird.
Ein Beispiel: Drei URLs überschneiden sich. Der Assistent nennt insgesamt sechs Quellen. SVR = 0,3 (3 von 10). UAVR = 0,5 (3 von 6 neu). Wenn deine Domain in vier Antworten vorkommt, ergibt sich RCC = 0,4. Schon hast du ein Mini‑Dashboard zur Überschneidung von SEO und AI‑Sichtbarkeit.
Schritt 4: Interpretation mit Augenmaß
Hohe SVR‑Werte bedeuten Einigkeit: Deine Seiten werden sowohl lexikalisch als auch semantisch als relevant angesehen. Mittelwerte deuten auf solide Inhalte hin, denen eventuell noch Struktur fehlt. Niedrige SVR‑Werte bei gleichzeitig hoher UAVR‑Quote signalisieren, dass Assistenten andere Quellen bevorzugen – möglicherweise wegen klarerer Datenstrukturen oder aktuellerer Signale.
Darüber hinaus verrät ein hoher RCC‑Wert bei Mitbewerbern, dass deren Domains regelmäßig zitiert werden. Das kann ein Hinweis auf besser gepflegte Metadaten, Schema‑Markierungen oder konsistente Autorenprofile sein.
Schritt 5: Maßnahmen ableiten
Wenn deine Überschneidung gering ist, liegt der Hebel meist in der Strukturverbesserung. Achte auf sauberes semantisches HTML, präzise Überschriftenhierarchien und eindeutige Autor‑Angaben. Schema.org‑Markups wie FAQ, HowTo oder Product helfen, den Kontext maschinenlesbar zu machen. Und: stabile URLs, saubere Canonicals und transparente Aktualisierungsdaten sind wichtiger denn je.
Was diese „Mathe“ wirklich bringt
Das kleine Rechenmodell ist kein Ranking‑Algorithmus, sondern ein Diagnose‑Werkzeug. Es zeigt nicht, warum dich ein System bevorzugt, sondern dass es dich bevorzugt – oder eben nicht. Es macht also den unsichtbaren Unterschied zwischen Suchmaschine und Assistent sichtbar.
Aus meiner Erfahrung ist das wie Wetterbeobachtung: Du bestimmst nicht den Wind, aber du siehst, wohin er weht. Und mit der Zeit erkennst du Muster. Genau diese Muster helfen, eine inhaltliche Strategie an die neue Realität anzupassen.
Inhaltlich und technisch nachhelfen
- Strukturiere Texte in überschaubare Sinnabschnitte mit klarer „These + Beleg“-Logik.
- Nenne Fachbegriffe und Synonyme, damit du bei beiden Retrieval‑Typen punktest.
- Arbeite mit präzisen Titles, Descriptions und Alt‑Texten – sie bleiben auch für BM25 relevant.
- Ergänze strukturierte Daten und halte deinen Veröffentlichungsrhythmus nachvollziehbar.
- Für besonders vertrauenswürdige Themen können statische PDF‑Versionen hilfreich sein, da LLMs stabile Quellen bevorzugen.
Wie man die Ergebnisse kommuniziert
Wenn du diese Daten im Unternehmen präsentierst, vermeide Technik‑Jargon. Führungskräfte interessiert weniger, welche Gleichung dahintersteckt, sondern wie das Ganze auf die Markenwahrnehmung und Reichweite einzahlt. Mit Kennzahlen wie SVR oder RCC kannst du erstmals beschreiben, wie viel deines SEO‑Werts in KI‑Systeme „hinüberfließt“.
Noch ist die Datenerfassung fragmentarisch – der AI‑Mode‑Traffic in der Search Console lässt sich regional oder thematisch nicht sauber isolieren. Trotzdem verschafft dir dieses Konzept eine glaubwürdige Basis, um über KI‑Sichtbarkeit zu sprechen, ohne dich auf Vermutungen zu stützen.
Was bleibt unterm Strich?
Suchmaschinen und Assistenten trennen keine Mauern, sondern Signalunterschiede. Die klassische Suche bewertet Seiten, nachdem die Antwort bekannt ist. Ein Assistent zieht Informationsstücke zusammen, um erst daraus eine Antwort zu bilden. Wer beides versteht, kann seine Inhalte so gestalten, dass sie auf beiden Wegen gefunden werden.
Mit den hier beschriebenen Vergleichen stellst du fest, ob dein Content in der neuen Welt der Sprach‑ und Chat‑Antworten sichtbar bleibt. Es ist ein pragmatischer, „mathematisch inspirierter“ Ansatz, der hilft, Entscheidungen datenbasiert zu treffen – auch ohne Zugriff auf die eigentlichen Systeme.
Am Ende führen alle Wege wieder zu denselben Grundprinzipien: Klarheit, Struktur und Autorität. Sie waren schon immer das Herz guter Suchoptimierung – nur dass du heute zusätzlich beobachten kannst, wie weit diese Autorität über klassische Rankings hinausreicht.
Wenn du das halbwegs regelmäßig machst, erkennst du schnell, wo deine Inhalte nicht nur von Menschen, sondern auch von Maschinen verstanden werden. Und genau dort, an dieser Schnittstelle zwischen Verständnis und Vertrauen, entsteht die Zukunft des modernen SEO.

