Am zweiten Tag der Google Search Central Live Veranstaltung in der APAC-Region 2025 lag der Fokus auf wichtigen Neuerungen und Einblicken, angefangen mit Themen rund um das Indexieren von Websites bis hin zur Nutzung von künstlicher Intelligenz bei Bildern. Hier sind alle Highlights zusammengefasst.
Indexierungsprozess bei Google
Cherry Prommawin erklärte den Ablauf des Google-Indexierungsprozesses detailliert:
- HTML wird normalisiert und eine DOM-Analyse durchgeführt.
- Rendering und JavaScript-Ausführung folgen.
- Sich wiederholende Inhalte werden herausgefiltert.
- Wichtige Merkmale wie Header und Hauptinhalte werden extrahiert.
- Schließlich werden Ranking-Signale berechnet.
Ein Schlüsselpunkt war, dass Google auf responsive und dynamische Websites keinen Unterschied bei der Gewichtung legt. Zudem betonte Prommawin, dass Links nach wie vor eine wichtige Rolle spielen – sowohl bei der Entdeckung neuer Inhalte als auch für das Ranking.
„Links sind weiterhin ein wichtiger Bestandteil des Internets und werden für die Entdeckung neuer Seiten sowie zur Strukturierung von Websites genutzt.“ – Cherry Prommawin
Steuerung von Indexierungsprozessen
Gary Illyes erläuterte die Unterschiede zwischen der Steuerung mittels robots.txt
und Metatag-Anweisungen:
- robots.txt: Gibt an, welche Inhalte Crawler abrufen dürfen.
- Meta-Robots-Tags: Kontrollieren, wie die abgerufenen Inhalte genutzt werden.
Illyes wies auch auf nützliche, weniger bekannte Direktiven hin, wie zum Beispiel:
none
: Kombination ausnoindex
undnofollow
.notranslate
: Unterdrückt Übersetzungsangebote im Chrome-Browser.noimageindex
: Verhindert die Indexierung von Bild- und Videoressourcen.
Hauptinhalte und ihre Bedeutung
Gary Illyes betonte die Relevanz von Hauptinhalten auf einer Seite. Inhalte wie Texte, Bilder oder Videos sollten klar hervorgehoben werden, um zu ranken. Inhalte, die oft nur am Rande oder in Sidebars platziert sind, haben geringere Rankingchancen.
„Wenn du für bestimmte Dinge ranken möchtest, setze diese Wörter und Themen an prominente Stellen auf der Seite.“ – Gary Illyes
Tokenisierung und Soft-404-Fehler
Google segmentiert HTML in kleine „Tokens“ (Wörter oder Phrasen), um effizient indexieren zu können. Wenn Inhalte jedoch dünn oder von geringer Relevanz sind, behandelt Google diese als „Soft 404“-Fehler und markiert sie mit speziellen Notizen.
Umgang mit Duplikaten
Cherry Prommawin erklärte, wie Google bei doppelten Inhalten zwischen Clustering, Checksummen und Lokalisierung unterscheidet:
- Doppelte Seiten werden in Clustern organisiert, basierend auf Weiterleitungen, ähnlichem Content und rel=canonical-Tags.
- Boilerplate-Inhalte werden ignoriert, um Soft Error Pages zu erkennen.
- Lokalisierung wird über hreflang geregelt, um regional spezifische Seiten nicht negativ zu bewerten.
Dauerhafte Weiterleitungen beeinflussen, welche URL als kanonisch definiert wird, während vorübergehende Weiterleitungen dies nicht tun.
Geotargeting und Lokalisierung
Prommawin sprach über die Bedeutung von Geotargeting für regionale Relevanz. Es ist nicht nötig, duplizierte Inhalte zu verstecken. Hreflang-Tags können Alternativen für verschiedene Regionen regeln. Um effektiv zu sein, sollten jedoch Inhalte eindeutig lokalisiert und auf die jeweilige Zielgruppe zugeschnitten sein.
- ccTLD: Länderspezifische Domains wie .de (Deutschland).
- Hreflang: Gibt Sprache und Region an.
- Serverstandort: Kann als geografisches Signal dienen.
- Signale wie Sprach- und Währungsnutzung unterstützen zusätzlich.
Structured Data und Medien
Illyes zeigte, dass überflüssige Strukturdaten die Seiten verzögern können, ohne zusätzliche Rankingvorteile zu bieten. Strukturdaten helfen jedoch dabei, Entitäten besser zuzuordnen.
Generierte Bilder und KI
Ian Huang klärte über den Einsatz KI-generierter Bilder auf. Es ist für Google unerheblich, ob Bilder mit Hilfe von KI oder menschlich erstellt wurden, solange sie den Inhalt klar vermitteln. Ein schnelles menschliches Review reicht oft aus, um Fehler zu vermeiden.
Google Trends API enthüllt
Daniel Waisberg und Hadas Jacobi kündigten die neue Google Trends API (Alpha) an. Diese bietet unter anderem:
- Skalierbare Daten über Suchinteressen.
- Ein fünfjähriges Datenfenster für Trends.
- Flexible Zeit-Aggregationen (wöchentlich, monatlich, jährlich).
- Details auf regionaler und subregionaler Ebene.
Diese neue API ebnet den Weg für tiefgehende, programmatische Trendanalysen.
Zusammenfassend bot Tag 2 der Google Search Central Veranstaltung eine Fülle an Informationen und Neuerungen, die besonders für SEO- und Content-Experten eine wertvolle Bereicherung waren.