Es ist irgendwie ironisch: Über Jahre hinweg galt Google Search Console (kurz GSC) als die objektivste Datenquelle, um das Verhalten in der Google-Suche zu verstehen. Doch ausgerechnet dort, wo viele von uns versuchen, fundierte SEO-Entscheidungen zu treffen, öffnet sich inzwischen ein schwarzes Loch. Nach eingehender Analyse von mehreren hundert Millionen Suchimpressionen zeigt sich, dass bis zu 75 % der GSC-Daten schlicht nicht angezeigt werden. Drei Viertel! Und damit wird klar: Wer sich allein auf GSC-Zahlen verlässt, läuft Gefahr, sich in eine scheingenaue Interpretation zu verrennen.
Wie Google deine Daten filtert
Wenn du Suchbegriff‑Berichte in der GSC öffnest, siehst du nur einen Ausschnitt. Google blendet große Teile aus – offiziell zum „Schutz der Privatsphäre“. Diese Privacy Sampling-Logik sorgt dafür, dass viele Suchanfragen gar nicht erst auftauchen, sobald sie unter ein gewisses Suchvolumen fallen oder zu individuell scheinen. Die GSC zeigt also nur, was innerhalb gewisser Schwellenwerte liegt.
Die Prüfmethode ist relativ einfach: Ein Abruf über die API liefert einmal die Gesamtdaten (alle Klicks und Impressionen) und einmal die abgegrenzte Variante, bei der die Dimension query enthalten ist. Der Unterschied zwischen beiden zeigt, wie stark Google gefiltert hat. Dabei kommt man schnell auf überraschende Zahlen – in manchen Fällen verschwinden 60 % der Impressionen, in anderen sogar mehr als 90 %.
Was das konkret bedeutet
In der Praxis heißt das, dass du große Teile deines Traffics gar nicht analysieren kannst. Wenn du beispielsweise auf Keyword‑Ebene CTR‑Analysen oder Keyword‑Cluster erstellen möchtest, fehlt dir schlicht drei Viertel der Basis. Bei manchen Projekten liegt der Anteil etwas niedriger, aber selten unter 60 %. Klickdaten sind mit rund 35–40 % Filterung etwas zuverlässiger, doch auch sie lassen Lücken. Das Resultat: Kennzahlen wie CTR oder Impression‑Trend wirken „sauber“, sind aber nur Ausschnitte eines nur teilweise sichtbaren Ganzen.
Ich habe in den letzten Jahren mehrfach Tests dazu gemacht – und so kurios es klingt: selbst bei stabilen Projekten mit konstantem Traffic kann die GSC‑Click‑through‑Rate deutlich schwanken, ohne dass sich in Wirklichkeit etwas verändert hat. Ursache ist oft schlicht eine geänderte Filterlogik im Hintergrund.
Ein kurzer Rückblick: Wo das Misstrauen begann
Früher (wer schon länger im SEO ist, erinnert sich) war die GSC eine verlässliche Datenquelle. Erst als Google begann, sensitive Anfragen auszublenden und SERP‑Features – etwa Knowledge Panels oder AI Overviews – einzuführen, zerfiel das Echtbild. Besonders seit 2025 kommen mehrere Faktoren zusammen:
- „SearchGuard“ erschwert automatisierte Datenerhebung in Suchergebnissen – gut gemeint, aber es erschwert auch unabhängige Tests.
- AI Overviews (AIOs) führen zu massiven Verschiebungen von Impressionen und Klicks, die GSC jedoch unzureichend abbildet.
- Und schließlich entfernte Google technische Parameter wie
num=100, wodurch viele Tools keine vollständigen SERP‑Abfragen mehr durchführen können.
All das zusammen hat die Datenqualität sichtbar verändert. Man könnte sogar sagen: Google hat sein eigenes Analysefenster getrübt.
Das Problem mit den Impressionen
Ein weiterer Punkt, der mich immer wieder stört, ist die Inflationskurve bei den Impressionen. Seit der breiten Integration von AI Overviews im Frühjahr 2025 explodierten die Impression‑Zahlen in der GSC förmlich. Zwischen März und Juli stiegen sie für viele B2B‑Seiten um 50 % und mehr – doch die Klickzahlen gingen gleichzeitig zurück. Das ist eigentlich paradox: mehr Sichtbarkeit, weniger Nutzer.
Die Erklärung: Ein großer Teil dieser zusätzlichen Impressionen stammt nicht von Menschen. Entweder werden sie durch Bots erzeugt – also automatisierte SERP‑Abfragen – oder sie stammen aus neuen AI‑Blöcken, die keine realen Klickmöglichkeiten bieten. Das Bild verschiebt sich also, ohne dass du realen Traffic oder Nutzerinteraktionen gewinnst. Im Herbst 2025 hat Google zwar eine technische Hürde eingebaut, die automatisches Crawlen unterbinden soll, aber die Spur solcher „Bot‑Impressionen“ findet sich bis heute in vielen Accounts.
Ich überprüfe das immer mit einer einfachen Daumenregel: Wenn ein Suchbegriff mehr als zehn Wörter enthält und mehrfach Impressionen hat, aber nie Klicks, ist das mit hoher Wahrscheinlichkeit ein automatischer Request. In meinen Datensätzen liegt dieser Anteil aktuell bei etwa 1–3 %. Das klingt wenig, kann aber den CTR‑Schnitt beachtlich verzerren.
Wann du misstrauisch werden solltest
Wenn deine Klickzahlen plötzlich stark fallen, während deine Positionen stabil bleiben, ist das kein technischer Zufall. Häufig steckt dahinter entweder ein AIO‑Block (der die Nutzerantwort schon in den SERPs liefert) oder eine Veränderung in der Art, wie Google Impressionen zählt. Prüfe, ob der Rückgang zeitlich mit einem bekannteren Roll‑out von AIO‑Experimenten korreliert. Passiert der Einbruch sehr abrupt, liegt es selten an Content‑Qualität, sondern an strukturellen Änderungen auf der Ergebnisseite.
Wie du trotz allem bessere Entscheidungen triffst
Ich habe mir angewöhnt, Daten aus unterschiedlichen Quellen zu triangulieren. Nur so kann man sich ein verlässlicheres Bild machen. Diese drei Ansätze funktionieren gut:
- API‑Analyse statt GUI: Wenn du direkt über die Search‑Console‑API arbeitest, kannst du Aggregate mit gefilterten Werten vergleichen. Das zeigt dir, wie viel wegfällt. Ein einfaches Script in Python oder R reicht.
- Bot‑Anteil abschätzen: Filtere lange Queries (mehr als zehn Wörter, null Klicks) und vergleiche deren Anteil am Gesamtdatensatz. So erkennst du, ob deine Impressionen künstlich aufgebläht sind.
- Mehrere Quellen kombinieren: Verknüpfe GSC‑Klicks mit Analytics, Logfiles oder Positionsdaten aus unabhängigen Tools. Keine Methode ist perfekt, aber die Schnittmenge ist deutlich belastbarer.
Ich weiß, das klingt nach Extraaufwand, doch genau darin liegt der Vorteil. Teams, die verstehen, wie unvollständig GSC-Daten wirklich sind, können Trends deutlich früher erkennen als jene, die blind Durchschnittswerte deuten. Es ist, als würdest du auf einem Boot fahren, von dem du weißt, dass das Echolot nur ein Viertel der Tiefe misst – du steuerst anders, bewusster.
Was das für deine SEO‑Strategie bedeutet
Die vielleicht wichtigste Erkenntnis: nutze die GSC als Signalmedium, nicht als Wahrheitssystem. Sie zeigt Bewegungen an, aber nicht die volle Realität. In meiner täglichen Arbeit sehe ich oft, dass Teams innerhalb von wenigen Tagen nach einem Sichtbarkeitsanstieg euphorisch neue Content‑Initiativen starten – nur um später zu merken, dass die Daten gefilterte oder gebotene Verschiebungen widerspiegeln.
Gerade bei AI‑Überblicken (AIOs) muss man lernen, zwischen realer und theoretischer Sichtbarkeit zu unterscheiden. Wenn du beispielsweise für eine Informationsanfrage im AIO genannt wirst, steigern die Systeme zwar deine Impressionen, doch der Nutzer klickt selten. Es ist also keine echte Reichweite, sondern ein algorithmischer Schatten.
Auch CTR‑Veränderungen werden zunehmend wertlos, weil sie durch Filter, Bots und SERP‑Layouts so stark beeinflusst werden. Aussagekräftiger sind heute oft eigene Engagement‑Metriken (Scrolltiefe, Time on Page, interne Klickpfade) oder echte Conversion‑Daten.
Meine Lehre aus den letzten Monaten
Je stärker Google auf KI‑basierte SERP‑Oberflächen setzt, desto geringer wird die Transparenz. Das bedeutet: Tool‑Monitoring wird wieder zum Handwerk. Wer sich auf automatisierte Dashboards und WYSIWYG‑Daten verlässt, verliert. Die Zukunft liegt in eigenen Messframeworks – kleinen, sauberen Scripts, die gezielt vergleichen, alarmieren und über Zeitreihen auf Anomalien aufmerksam machen.
Und ja, es ist anstrengender. Aber das ist der Preis für echte Datenkompetenz in einer Welt, in der Maschinen die Interfaces kontrollieren.
Ein realistischer Umgang mit GSC
Ich rate grundsätzlich dazu, GSC nur noch ergänzend zu verwenden. Für eine schnelle Übersicht über Rankings, Klicks oder CTR‑Trends reicht sie – für taktische Entscheidungen (etwa Content‑Optimierung oder Keyword‑Diversifizierung) taugt sie nur, wenn du drei Kontrollschichten einziehst:
- Plausibilitätsprüfung: Stimmen die Trends mit Analytics‑Verläufen überein?
- Saisonalität: Gleiche Vergleiche immer mit Vorjahreszeiträumen ab, nicht nur Vormonaten.
- Datenqualität: Beobachte Schwellenwerte in der API ‑ ändert sich der prozentuale Unterschied zwischen Gesamt‑ und Query‑Daten, hat Google wahrscheinlich die Filter angepasst.
Wenn du so vorgehst, bleibt GSC nützlich – einfach nicht mehr als absolute Wahrheit.
Fazit
Wer die Search Console als alleinige Informationsquelle nutzt, läuft blind in einen Nebel aus gefilterten und teils aufgeblähten Daten. Etwa drei Viertel der Impressionen verschwinden, rund 40 % der Klicks werden nicht gemeldet, und Bots verzerren Messwerte zusätzlich. AI‑Overviews verändern das Suchverhalten, während Google Berichtsmethoden umstellt – das Resultat ist eine unruhige Datenlandschaft.
Die gute Nachricht: Mit einem bewussten, methodischen Umgang kannst du immer noch valide Erkenntnisse gewinnen. Vergleiche Quellen, betrachte Relationen statt Absolutzahlen, denke zyklisch. So wird aus der Search Console kein Orakel – aber ein brauchbares Instrument in einem Werkzeugkasten, den du selbst unter Kontrolle behältst.
Am Ende bleibt für mich der zentrale Gedanke: Je mehr du verstehst, wie Google misst, desto besser kannst du interpretieren, was du wirklich siehst. Und genau darin liegt der Unterschied zwischen Daten‑Gläubigkeit und echtem SEO‑Handwerk.