Heutzutage verändern sich die SEO-Strategien mit dem Aufkommen von LLM-basierten Suchmaschinen (Large Language Models) rapide. Die Instrumente zur Messung der Sichtbarkeit in solchen Systemen nehmen an Reife zu. Dennoch gibt es unter den Experten einige Meinungsverschiedenheiten darüber, wie effektiv diese Tools sind, was genau gemessen werden sollte und welche strategische Bedeutung sie überhaupt haben.
Die Diskussion um LLM-SEO
Auf LinkedIn entbrannte eine Diskussion, die von Joe Hall gestartet wurde, zu den Sichtbarkeits-Tools für LLM-basierte Suchergebnisse. Er stellte kritische Fragen, ob diese Tools tatsächlich nützlich sind, insbesondere da LLM-Antworten stark vom Kontext abhängen und somit nicht so statisch wie herkömmliche Suchergebnisseiten (SERPs) sind. Eine seiner Kernbotschaften war: Wie sollen solche datenbasierten Ergebnisse den geschäftlichen Zielen nützen, eine realistische Planung ermöglichen oder gar strategisch verwendet werden? Diese Tools scheinen, wie er bemerkte, eher für den Verkauf an unerfahrene Berater gedacht zu sein.
Zeitgerechte Tools oder veraltete Ansätze?
Joshua Levenson griff ein grundlegendes Problem auf: Viele der heutigen SEO-Werkzeuge basieren nach wie vor auf alten Paradigmen, die nicht wirklich auf die neue Technologie zugeschnitten sind. Seine Feststellung lautete: „Die Menschen verwenden alte Denkweisen, um neue Technologien zu beurteilen.“ Diese Aussage unterstreicht, dass Innovation im SEO-Bereich erforderlich ist.
Strategien für LLM-SEO
Ein interessanter Ansatz stammte von Lily Ray. Sie erklärte, dass es möglich sei, durchschnittliche Muster oder Entitäten aus LLM-Antworten abzuleiten, wenn man dieselben Fragen wiederholend stellt. Es ginge darum, Trends zu identifizieren und darauf basierend relevante SEO-Handlungsanweisungen zu entwickeln. Sie räumte jedoch ein, dass die Analyse-Aktivitäten komplexer sind und nicht so einfach wie die Optimierung eines Titel-Tags über Keywords.
Sichtbarkeit durch spezialisierte Tools
SEOs wie Dixon Jones und Ryan Jones entwickelten oder nutzten spezialisierte Tools. Dixon stellte „Waikay“ vor, ein Tool zur Entitäts- und Themenextraktion. Ryan hingegen erklärte die Funktionsweise von „SERPRecon“. Letzteres ermöglicht durch Anfragen an APIs, entitätenbezogene Erwähnungen in den Antworten von LLMs zu analysieren und so gezielt Anpassungen vorzunehmen. Allerdings betonte er, dass solche Methoden Grenzen haben, insbesondere, wenn man versucht, genaue Einblicke in „verborgene“ Mechanismen von LLM-basierten Suchsystemen zu erhalten.
Die Dynamik der Suchergebnisse
Joe Hall argumentierte, dass klassische SERPs statischer waren als LLM-Ergebnisse. Doch Billy Peery widersprach. Er führte aus, dass selbst traditionelle Suchergebnisse dynamisch waren und durch Google-Updates ständig angepasst wurden. Interessanterweise hob Peery hervor, dass LLMs nicht so unbeständig sind, wie oft angenommen wird; vielmehr sind die Quellen, von denen sie Informationen beziehen, relativ stabil. Für ihn lag der Fokus darauf, wie häufig Marken oder Websites von LLMs erwähnt werden, statt auf die exakte Textausgabe zu setzen.
Bedeutung von Marken und Quellen
Ein zentraler Punkt der Diskussion war, dass nicht die exakte Wording-Übereinstimmung entscheidend ist, sondern die Frage, ob der eigene Inhalt als Quelle von LLMs erwähnt wird. Diese Mentions und Verlinkungen bilden die Basis für SEO-Optimierungen in einem durch LLM geprägten Suchumfeld.
Zusammenfassung
Die Erkenntnisse der Diskussion verdeutlichen, dass sich das Bewusstsein für LLM-Tracking-Tools in der SEO-Community weiterentwickelt. Obwohl diese Werkzeuge noch nicht allgemein akzeptiert sind, erkennen immer mehr SEO-Experten ihren Nutzen. Ob es um die Erwähnung von Marken geht oder um sich wiederholende Muster in entitätsbasierten Antworten – Unternehmen können aus diesen Analysen wertvolle Informationen für ihre Strategien gewinnen.
Am Ende bleibt die Frage, wie diese komplexen Daten so nutzbar gemacht werden können, dass sie echte Mehrwerte für Unternehmen und Kundenziele schaffen.