Google trennt Discover und KI Suche: SEO neu denken

Inhaltsverzeichnis

Kaum eine Woche vergeht, ohne dass sich bei Google etwas verändert. Dieses Mal betrifft es gleich mehrere Bereiche – vom Discover-Feed über neue Werbeformen in der KI-Suche bis hin zu Googles Haltung gegenüber Content für Bots. Vieles davon greift tief in das Verständnis von SEO ein, und ich muss zugeben: Je länger man im SEO arbeitet, desto spannender (und gleichzeitig komplexer) wird es.

Googles neuer Kurs mit dem Discover Core Update

Dass Google Core Updates veröffentlicht, ist zwar Routine, doch das aktuelle Update ist ein Sonderfall: Erstmals betrifft es ausschließlich den Discover-Feed – also die Inhalte, die Nutzer auf ihren Android-Geräten oder in der Google-App als personalisierte Empfehlungen sehen. Es richtet sich nicht an die klassische Websuche, sondern zielt nur auf Discover ab. Der Rollout läuft über zwei Wochen, zunächst nur für englischsprachige Nutzer in den USA, später vermutlich global.

Die Aussage von Google ist klar: Das Update solle „die Qualität von Discover verbessern“. Klingt harmlos – doch die Auswirkungen könnten gewaltig sein. Schließlich generiert Discover inzwischen für viele Publisher einen Großteil ihres organischen Traffics. Laut Schätzungen von Branchenexperten stammen bei großen Nachrichtenseiten inzwischen bis zu zwei Drittel des Google-Traffics aus Discover. Wenn dort ein Core Update greift, das unabhängig von Search arbeitet, müssen Redaktionen ihre Analytics doppelt im Blick behalten. Ein Rückgang bedeutet dann nicht automatisch eine Penalty im klassischen Ranking, sondern kann rein Discover-bedingt sein.

Ich finde das spannend – und zugleich heikel. Einerseits sorgt die Trennung für mehr Transparenz. Andererseits erschwert sie es, Ursachen zu erkennen. Künftig braucht es separate SEO-Strategien: eine für die Suche und eine für Discover. Wer bisher vor allem über Keywords nachgedacht hat, wird sich künftig stärker mit Nutzerinteressen, Themenrelevanz und der visuellen Aufbereitung beschäftigen müssen. Kurz gesagt: Discover ist seine eigene Bühne geworden.

Alphabet wagt den nächsten Schritt: Werbung in der KI-Suche

Wer schon länger dabei ist, kennt die Börsen-Calls von Alphabet meist als nüchterne Zahlenberichte. Diesmal jedoch war der Blick nach vorne interessanter als die Quartalsgewinne. Im vierten Quartal 2025 steigerte Google seinen Suchumsatz um 17 % auf 63 Milliarden USD – beachtlich genug. Doch der entscheidende Satz kam von CEO Sundar Pichai: Die sogenannten „AI Mode Queries“ seien dreimal länger als traditionelle Suchanfragen, und Google teste bereits Werbung direkt in den KI-Antworten.

Das bedeutet: Nutzer, die in den neuen Chat-basierten Suchmodus wechseln, stellen ausführliche Fragen, auf die Google kontextuelle Antworten generiert – inklusive eingebetteter Anzeigen. Laut Philipp Schindler, Chief Business Officer, erschließt Google damit „Anfragen, die bisher schwer zu monetarisieren waren“. Übersetzt: Das, was bisher informative Longtail-Queries ohne Werbefläche waren, wird nun kommerziell nutzbar.

Für das klassische SEO ist das ein zweischneidiges Schwert. Einerseits entstehen neue Chancen für Anzeigenschaltungen in bisher unerschlossenen Suchumfeldern. Andererseits könnte sich der Traffic-Strom weiter in Richtung Google selbst verlagern. Wenn Nutzer ihre Antworten innerhalb von KI-Ergebnissen erhalten – inklusive direkter Kaufoptionen –, sinkt die Klickrate auf externe Seiten. Oder, um es ehrlich zu sagen: Google behält den Nutzer länger bei sich.

Ich habe schon länger vermutet, dass die KI-Suchergebnisse nicht bloß als Zusatz gedacht sind, sondern als Verlängerung der Plattformstrategie. Wenn Anzeigen und Checkout bald direkt in den KI-Modus integriert sind, wird die Grenze zwischen Suchergebnis, Assistent und Shop praktisch verschwinden. Für uns SEOs heißt das: Wir optimieren künftig nicht mehr nur für Rankingpositionen, sondern müssen lernen, in den Antworten dieser KI stattzufinden – durch Datenstrukturen, vertrauenswürdige Markenpräsenz und Autoritätssignale.

John Mueller kontert: Kein Sonderformat für Bots

Eine andere Diskussion entzündete sich fast beiläufig: Ein Entwickler schlug auf Reddit vor, Crawlern wie den KI-Bots statt HTML künftig Markdown auszuliefern, um Tokens zu sparen und „AI-freundlicher“ zu sein. John Mueller, Googles bekannter Search Advocate, reagierte ungewohnt scharf. Sein Kommentar: „Eine dumme Idee.“

Hinter der wortkargen Kritik steckt eine klare Botschaft. Mueller erklärte später, dass Markdown als Dateiformat für Browser oder Bots keinerlei semantische Strukturen bietet. Navigation, interne Verlinkungen, Überschriften – all das ginge verloren. Bots könnten die Seitenbeziehungen nicht mehr verstehen. Statt Effizienz entstünde Chaos. Für ihn ist das kein SEO-Hack, sondern eher ein technischer Rückschritt.

Und ehrlich gesagt: Er hat recht. Wir vergessen manchmal, dass Geschwindigkeit oder Token-Ersparnis nicht wichtiger sind als Struktur. HTML ist nicht zufällig so gebaut, wie es ist – es vermittelt Beziehungen zwischen Inhalten. Müller plädiert also nicht gegen KI, sondern für technische Vernunft. Interessant ist, dass diese Haltung zu früheren Aussagen passt: Der llms.txt-Trend, mit dem einige Seiten steuern wollten, ob KI-Bots ihre Daten auslesen dürfen, wurde von Google ähnlich zurückhaltend kommentiert. Bislang gibt es keinerlei Belege, dass solche Dateien Einfluss auf die Sichtbarkeit in KI-Systemen haben.

Google greift in WordPress ein: Bugs bei WooCommerce

Noch eine Meldung, die unter dem Radar vieler bleiben dürfte, aber in der Praxis enorme Folgen haben kann: Googles Crawl-Team hat offiziell Fehlerberichte für WooCommerce-Plugins eingereicht. Der Grund: Bestimmte Erweiterungen erzeugen massenhaft URLs mit temporären Parametern – etwa durch „add-to-cart“-Aktionen oder Filterfunktionen –, die Googlebot dann brav entdeckt und crawlt. Ergebnis: Die Crawl-Budgets werden verschwendet, Server ausgelastet, und SEO-seitig passiert nichts außer unnötigem Traffic auf irrelevanten Seiten.

Bemerkenswert ist nicht der technische Fehler an sich, sondern die Reaktion von Google. Anstatt wie früher auf die Webmaster zu verweisen, hat das Team die Probleme direkt beim Plugin-Hersteller gemeldet – also „upstream“. Das ist ein starkes Signal: Google betrachtet die Plugin-Architektur bei WordPress inzwischen als zentralen Faktor für Crawl-Effizienz.

Für Shop-Betreiber heißt das: eigene Plugins regelmäßig prüfen, Crawl-Statistiken im Search Console-Bericht „Crawling-Statistiken“ analysieren und URLs mit verdächtigen Parametern filtern. Wer dort Hunderttausende Seiten mit „cart=“, „filter=“ oder „variant=“ produziert, kann sicher sein, dass Google unnötige Schleifen fährt. Eine saubere robots.txt oder gezielte Canonicals sind Pflicht.

LinkedIn testet, wie man in KI-Suchen sichtbar bleibt

Auch LinkedIn hat sich zum Thema „AI Search Visibility“ geäußert – allerdings auf Basis eigener Experimente. Das Netzwerk untersuchte, welche Arten von Content häufiger in KI-generierten Antworten zitiert werden. Das Resultat überrascht kaum, bestätigt aber, was viele schon ahnen: strukturierte Inhalte mit klar erkennbaren Autoren, Datumsangaben und Fachreferenzen schneiden deutlich besser ab. Seiten ohne diese Vertrauensmarker verlieren an Sichtbarkeit. Gleichzeitig beobachtete LinkedIn einen Rückgang nicht markenbezogener Zugriffe (“non-brand awareness searches”) um bis zu 60 % bei bestimmten B2B-Themen.

Spannend finde ich vor allem, dass LinkedIn neue Analysen entwickelt, um LLM-Traffic (also Besuche von KI-Bots) in den eigenen Logfiles sichtbar zu machen. Das ist ein Hinweis darauf, wohin sich unser Reporting bewegt. Wir brauchen bald eigene Segmente, um „menschlichen“ Traffic von „LLM-bedingtem“ Traffic zu unterscheiden.

Was diese Beobachtungen noch glaubwürdiger macht: Auch die Macher der KI-Suchmaschine Perplexity nennen genau dieselben Kriterien für hochwertige Quellen. In einem Interview erklärte Perplexitys Kommunikationschef, dass der Algorithmus Autorennamen, Expertise und klare Struktur als Vertrauenssignale nutzt. Wenn also sowohl Plattformbetreiber als auch Datenlieferanten zu identischen Schlussfolgerungen kommen, ist das kein Zufall, sondern eine Richtung: Qualität statt Quantität, Struktur statt Masse.

Ein erkennbares Muster: Google zerteilt sein Ökosystem

Wenn man die Themen der letzten Wochen zusammennimmt, ergibt sich ein deutlicher Trend. Google zieht überall neue Grenzen ein. Discover wird separat behandelt, die KI-Suche (AI Mode) bekommt eigene Anzeigen und Messgrößen, der klassische Suchindex verliert damit die Alleinherrschaft. Parallel differenziert Google in seiner Kommunikation an Entwickler, Blogger und Tool-Hersteller – jedes Subsystem hat eigene Regeln und Updates.

Für uns SEOs bedeutet das: Ein einziges Dashboard reicht nicht mehr. Während wir früher nur den Search Console-Graph brauchten, um Rankingbewegungen zu erkennen, müssen wir heute zusätzliche Datenquellen anzapfen: Discover-Traffic separat, AI Mode-Klicks über GSC-Beta, LLM-Zitationen über Log-Analysen. Kurz: Der Job wird nicht einfacher – aber er wird vielfältiger.

Ich persönlich sehe darin auch eine Chance. Wer jetzt lernt, jenseits des klassischen SERP-Denkens zu denken, kann seine Marke in neuen Ökosystemen verankern: in Feeds, in Chat-Antworten, in KI-Ergebnissen. Doch das verlangt andere Fragen: Wie erscheine ich in einer Antwort, die nicht angeklickt wird? Wie messe ich Erfolg, wenn kein Klick erfolgt? Darauf haben wir bislang noch keine perfekten Antworten.

Praktische Schlussfolgerungen

Aus allen Beobachtungen dieser Woche lassen sich drei klare Handlungsfelder ableiten:

  • 1. Isoliere deine Datenströme. Behandle Discover-, Search- und AI-Traffic getrennt. Nur so erkennst du Korrelationen zwischen Updates und Traffic-Schwankungen.
  • 2. Strukturiere deinen Content technisch und redaktionell. Klare Autoren, aktualisierte Daten, einheitliches Schema-Markup – das wird wichtiger denn je, sowohl für klassische als auch für KI-basierte Suchen.
  • 3. Überprüfe deine Infrastruktur. Vor allem Shopsysteme sollten keine Endlosschleifen an URLs erzeugen. Jede unnötig crawlfähige Seite ist verschwendete Energie – für Server und Bots gleichermaßen.

Und vielleicht der wichtigste Punkt: Lass dich nicht verrückt machen. Wenn du plötzliche Ausschläge in Discover siehst oder deine organischen Besuche schwanken, schau erst genau hin, wo der Effekt entsteht. Wir stehen an einem Punkt, an dem Google nicht mehr eine Plattform ist, sondern viele miteinander verzahnte Systeme – mit eigenen Algorithmen, eigenen Updates und eigenen Metriken. Wer das begreift, spielt nicht mehr nur auf einem Feld, sondern auf mehreren parallel. Und genau das wird künftig über Erfolg oder Sichtbarkeit entscheiden.

Unsere Leistungen:

Das könnte Dich auch interessieren:

Aktuelles aus unserem Ratgeber:

Affiliate-Links: Für einige der unten stehenden Links erhalte ich möglicherweise eine Vergütung als Affiliate, ohne dass dir dadurch Kosten entstehen, wenn du dich für den Kauf eines kostenpflichtigen Plans entscheidest.

Bild von Tom Brigl, Dipl. Betrw.

Tom Brigl, Dipl. Betrw.

Ich bin SEO-, E-Commerce- und Online-Marketing-Experte mit über 20 Jahren Erfahrung – direkt aus München.
In meinem Blog teile ich praxisnahe Strategien, konkrete Tipps und fundiertes Wissen, das sowohl Einsteigern als auch Profis weiterhilft.
Mein Stil: klar, strukturiert und verständlich – mit einem Schuss Humor. Wenn du Sichtbarkeit und Erfolg im Web suchst, bist du hier genau richtig.

Disclosure:  Some of the links in this article may be affiliate links, which can provide compensation to me at no cost to you if you decide to purchase a paid plan. These are products I’ve personally used and stand behind. This site is not intended to provide financial advice and is for entertainment only. You can read our affiliate disclosure in our  privacy policy .