SEO ist ein alter Hut – oder? Nicht ganz! Die Vorgehensweise, die wir heute als SEO kennen, begann Mitte der 1990er Jahre. Damals war es noch viel einfacher, bei Google oben zu stehen.
Die Vorgehensweise, die wir als SEO kennen, begann Mitte der 1990er Jahre. Suchmaschinenoptimierung (SEO) dreht sich heute vor allem um Google.
Die Praxis, die wir heute als SEO kennen, ist jedoch älter als die beliebteste Suchmaschine der Welt, die von Larry Page und Sergey Brin mitbegründet wurde.
Obwohl man behaupten könnte, dass SEO und alles, was mit Suchmaschinenmarketing zu tun hat, mit dem Start der ersten Website im Jahr 1991 begann, oder vielleicht mit dem Start der ersten Web-Suchmaschine, beginnt die Geschichte von SEO „offiziell“ etwas später, etwa 1997.
Laut Bob Heyman, dem Autor von Digital Engagement, können wir keinem Geringeren als dem Manager der Rockband Jefferson Starship dafür danken, dass er dazu beigetragen hat, einen neuen Bereich ins Leben zu rufen, den wir später als „Suchmaschinenoptimierung“ kennen werden.
Er war nämlich ziemlich verärgert darüber, dass die offizielle Website von Jefferson Starship damals auf Seite 4 einer Suchmaschine rangierte, statt auf Platz 1 auf Seite 1.
Zugegeben, wir werden wohl nie erfahren, ob es sich bei dieser Geschichte eher um Geschichtsrevisionismus oder um eine 100%ige Tatsache handelt, aber alles deutet darauf hin, dass der Begriff SEO um 1997 herum entstanden ist.
Wenn Sie sich ein wenig mehr umsehen, werden Sie feststellen, dass John Audette von der Multimedia Marketing Group den Begriff bereits am 15. Februar 1997 verwendete.
Eine hohe Platzierung in Suchmaschinen war 1997 noch ein ziemlich neues Konzept.
Es war auch sehr verzeichnisorientiert.
Bevor DMOZ die ursprüngliche Google-Klassifizierung ankurbelte, wurde LookSmart von Zeal unterstützt, Go.com war sein eigenes Verzeichnis und das Yahoo-Verzeichnis war ein wichtiger Bestandteil der Yahoo-Suche.
Falls Sie DMOZ, das Mozilla Open Directory Project, noch nicht kennen (Mozilla war ein Unternehmen und Moz eine Marke, lange bevor es SEOMoz gab): Es war im Grunde eine Art Gelbe Seiten für Websites.
Das ist es, worauf Yahoo ursprünglich gegründet wurde: die Möglichkeit, die besten Websites zu finden, die von Redakteuren freigegeben wurden.
Ich habe 1998 angefangen, mich mit SEO zu befassen, um unseren Kunden zu helfen, die tolle Websites erstellt hatten, aber nur wenig Besucher bekamen.
Ich ahnte nicht, dass dies zu einem Lebensstil werden würde.
Andererseits war das World Wide Web damals für die meisten Menschen noch ein ziemlich neues Konzept.
Und heute? Jeder will die Suchmaschinenergebnisseiten (SERPs) beherrschen.
Suchmaschinen-Optimierung vs. Suchmaschinen-Marketing
Bevor Suchmaschinenoptimierung die offizielle Bezeichnung wurde, wurden auch andere Begriffe verwendet:
- Search Engine Placement.
- Suchmaschinen-Positionierung.
- Suchmaschinen-Ranking.
- Anmeldung bei einer Suchmaschine.
- Anmeldung bei einer Suchmaschine.
- Website-Promotion.
- Aber keine Diskussion wäre vollständig, ohne einen weiteren Begriff zu erwähnen…
Suchmaschinen-Marketing.
Irgendwann im Jahr 2001 schlug ein prominenter Branchenautor Suchmaschinenmarketing als Nachfolger der Suchmaschinenoptimierung vor.
Offensichtlich ist es nicht dazu gekommen.
Machen Sie sich darauf gefasst, dass Sie viele falsche Behauptungen sehen werden (z. B. „SEO ist tot“, „das neue SEO“) und Versuche, SEO umzubenennen (z. B. „Search Experience Optimization“).
Obwohl SEO als Begriff nicht perfekt ist – schließlich optimieren wir nicht die Suchmaschinen, sondern unsere Webpräsenz -, ist es seit mehr als 20 Jahren der bevorzugte Begriff unserer Branche und wird es wahrscheinlich auch in absehbarer Zukunft bleiben.
Was ist mit Suchmaschinenmarketing?
Der Begriff wird immer noch verwendet, ist aber heute eher mit bezahltem Suchmaschinenmarketing und Werbung verbunden.
Die beiden Begriffe koexistieren heute friedlich.
Eine Zeitleiste der Geschichte der Suchmaschinen
Suchmaschinen haben die Art und Weise verändert, wie wir Informationen finden, recherchieren, nach Produkten und Dienstleistungen suchen, uns unterhalten und mit anderen in Kontakt treten.
Hinter fast jedem Online-Ziel – sei es eine Website, ein Blog, ein soziales Netzwerk oder eine App – steht eine Suchmaschine.
Suchmaschinen sind zu einer verbindenden Kraft und einem Wegweiser für den Alltag geworden.
Aber wie hat das alles angefangen?
Wir haben eine Zeitleiste mit bemerkenswerten Meilensteinen aus der Geschichte der Suchmaschinen und der Suchmaschinenoptimierung zusammengestellt, um die Wurzeln dieser Technologie zu verstehen, die ein so wichtiger Teil unserer Welt geworden ist.
Die Anfänge der SEO: Die Ära des „Wilden Westens
Im letzten Jahrzehnt des 20. Jahrhunderts war die Suchmaschinenlandschaft hart umkämpft.
Man hatte die Wahl zwischen verschiedenen Suchmaschinen – sowohl von Menschen betriebene Verzeichnisse als auch Crawler-basierte Einträge – darunter AltaVista, Ask Jeeves, Excite, Infoseek, Lycos und Yahoo.
Anfangs bestand die einzige Möglichkeit, SEO zu betreiben, in On-Page-Aktivitäten.
Dazu gehörte die Optimierung für Faktoren wie:
- Sicherstellen, dass der Inhalt gut und relevant ist.
- Es gab genügend Text.
- Ihre HTML-Tags waren korrekt.
- Sie hatten interne und ausgehende Links.
Wenn Sie in dieser Zeit gut ranken wollten, bestand der Trick im Grunde nur darin, Ihre Keywords auf Ihren Webseiten und in den Meta-Tags oft genug zu wiederholen.
Möchten Sie eine Seite übertreffen, die ein Keyword 100 Mal verwendet? Dann sollten Sie das Keyword 200 Mal verwenden!
Heute nennen wir diese Praxis Spamming.
Hier sind einige Highlights:
1994
Yahoo wurde von den Studenten Jerry Wang und David Filo der Stanford University in einem Wohnwagen auf dem Campus gegründet. Yahoo war ursprünglich eine Internet-Lesezeichenliste und ein Verzeichnis interessanter Websites.
Webmaster mussten ihre Seiten manuell in das Yahoo-Verzeichnis eintragen, damit sie bei einer Suche von Yahoo gefunden werden konnten.
AltaVista, Excite und Lycos gingen ebenfalls an den Start.
1996
Page und Brin, zwei Studenten der Stanford University, entwickelten und testeten Backrub, eine neue Suchmaschine, die Websites auf der Grundlage der Relevanz und Popularität von eingehenden Links einstufte.
Backrub wurde schließlich zu Google. HotBot, das von Inktomi betrieben wird, wird ebenfalls eingeführt.
1997
Nach dem Erfolg von A Webmaster’s Guide to Search Engines gründete Danny Sullivan Search Engine Watch, eine Website, die Nachrichten über die Suchindustrie, Tipps für die Suche im Web und Informationen über die Verbesserung des Rankings von Websites bietet.
(Zehn Jahre später, nachdem er SEW verlassen hatte, gründete Sullivan eine andere populäre Suchpublikation, Search Engine Land, und er arbeitet jetzt bei Google).
Auch Ask Jeeves wurde ins Leben gerufen und Google.com wurde registriert.
1998
Goto.com startet mit gesponserten Links und bezahlter Suche. Werbetreibende boten auf Goto.com, um über den organischen Suchergebnissen zu stehen, die von Inktomi bereitgestellt wurden. Goto.com wurde schließlich von Yahoo aufgekauft.
DMOZ (das Open Directory Project) wurde zum begehrtesten Ort für SEO-Fachleute, um ihre Seiten eintragen zu lassen.
MSN trat mit MSN Search in den Markt ein, das ursprünglich von Inktomi betrieben wurde.
1999
Die allererste Konferenz für Suchmaschinenmarketing, Search Engine Strategies (SES), findet statt. Einen Rückblick auf diese Veranstaltung von Sullivan können Sie hier lesen.
(Die SES-Konferenzreihe lief unter verschiedenen Namen und Muttergesellschaften weiter, bis sie 2016 eingestellt wurde).
Die Google-Revolution
Im Jahr 2000 vollzog Yahoo den schlechtesten strategischen Schachzug in der Geschichte der Suche und schloss eine Partnerschaft mit Google, um die organischen Ergebnisse von Inktomi durch Google ersetzen zu lassen.
Zuvor war Google eine wenig bekannte Suchmaschine. Kaum bekannt!
Das Ergebnis: Auf jedem Yahoo-Suchergebnis stand „Powered by Google“, und schließlich wurde der größte Konkurrent der Welt vorgestellt, und Google wurde zu einem bekannten Namen.
Bis zu diesem Zeitpunkt bewerteten Suchmaschinen Websites hauptsächlich nach dem Inhalt der Seite, den Domänennamen, der Fähigkeit, in die oben genannten Verzeichnisse aufgenommen zu werden, und der grundlegenden Website-Struktur (Breadcrumbing).
Der Webcrawler und der PageRank-Algorithmus von Google waren jedoch revolutionär für die Informationsbeschaffung.
Google berücksichtigte sowohl On-Page- als auch Off-Page-Faktoren – die Quantität und Qualität der externen Links, die auf eine Website verweisen (sowie den verwendeten Ankertext).
Wenn man darüber nachdenkt, ging es bei Googles Algorithmus im Wesentlichen darum: „Wenn über dich gesprochen wird, musst du wichtig sein.“
Obwohl Links nur eine Komponente des gesamten Google-Ranking-Algorithmus waren, hielten SEO-Fachleute Links für den wichtigsten Faktor – und es entstand eine ganze Subindustrie für Linkbuilding.
Im Laufe des nächsten Jahrzehnts wurde es zu einem Wettlauf um möglichst viele Links, in der Hoffnung auf eine bessere Platzierung.
Links wurden zu einer stark missbrauchten Taktik, gegen die Google in den kommenden Jahren vorgehen musste.
Ebenfalls im Jahr 2000 wurde die Google-Symbolleiste im Internet Explorer eingeführt, die es SEO-Fachleuten ermöglichte, ihren PageRank-Wert (eine Zahl zwischen 0 und 10) einzusehen.
Dies läutete eine Ära unaufgeforderter E-Mail-Anfragen zum Linktausch ein.
Mit dem PageRank führte Google im Wesentlichen eine Art Währung für die Verlinkung ein. Ähnlich wie Domain-Autorität heute missbraucht wird.
Die organischen Ergebnisse von Google bekamen ab 2000 auch Gesellschaft in Form von AdWords-Anzeigen.
Diese bezahlten Suchanzeigen begannen über, unter und rechts neben den natürlichen (d. h. unbezahlten) Ergebnissen von Google zu erscheinen.
In der Zwischenzeit traf sich im Jahr 2000 eine Gruppe von Webmastern informell in einem Londoner Pub, um sich über alle Themen der Suchmaschinenoptimierung auszutauschen.
Aus dieser informellen Zusammenkunft wurde schließlich die Pubcon, eine große Konferenzreihe zum Thema Suchmaschinenoptimierung, die auch heute noch stattfindet.
In den folgenden Monaten und Jahren gewöhnte sich die SEO-Welt an einen monatlichen Google Dance, d. h. an eine Zeitspanne, in der Google seinen Index aktualisierte, was mitunter zu erheblichen Ranking-Schwankungen führte.
Obwohl Googles Brin einmal sagte, Google glaube nicht an Webspam, hatte sich seine Meinung bis zum Jahr 2003 wahrscheinlich geändert.
SEO wurde nach Updates wie Florida viel schwieriger, weil es viel wichtiger wurde, als nur Keywords x-mal zu wiederholen.
Google AdSense: Monetarisierung schrecklicher SEO-Inhalte
Im Jahr 2003, nach der Übernahme von Blogger.com, führte Google AdSense ein, das kontextbezogene Google-Anzeigen auf Publisher-Websites schaltet.
Die Kombination aus AdSense und Blogger.com führte zu einer Welle einfacher, monetarisierter Online-Publikationen – und zu einer Blogging-Revolution.
Auch wenn es Google zu diesem Zeitpunkt wahrscheinlich nicht bewusst war, schuf es Probleme, die es später lösen musste.
AdSense führte zu Spam-Taktiken und für AdSense gemachte Websites mit dünnem/schlechtem/gestohlenem Inhalt, die nur existierten, um gut zu ranken, Klicks zu bekommen und Geld zu verdienen.
Oh, und noch etwas Wichtiges ist 2003 passiert.
Ich gründete die Website, auf der Sie sich befinden, Search Engine Journal!
Und ich bin unglaublich glücklich, sagen zu können, dass wir immer noch hier sind und stärker sind als je zuvor.
Lokale SEO und Personalisierung
Um 2004 begannen Google und andere führende Suchmaschinen, die Ergebnisse für Suchanfragen zu verbessern, die einen geografischen Bezug hatten (z. B. ein Restaurant, einen Klempner oder eine andere Art von Geschäft oder Dienstleister in Ihrer Stadt oder Gemeinde).
2006 führte Google die Maps Plus Box ein, von der ich damals sehr beeindruckt war.
Ebenfalls um 2004 begannen Google und die Suchmaschinen, die Daten der Endnutzer, wie z. B. den Suchverlauf und die Interessen, stärker zu nutzen, um die Suchergebnisse zu personalisieren.
Das bedeutete, dass die Ergebnisse, die Sie sahen, sich von denen unterscheiden konnten, die jemand sah, der neben Ihnen in einem Café saß, als er oder sie eine Suche nach derselben Anfrage durchführte.
Ebenfalls im Jahr 2005 wurden nofollow-Tags als Mittel zur Bekämpfung von Spam eingeführt.
SEO-Profis begannen, dieses Tag als Mittel zur Verbesserung des PageRank zu verwenden.
Google brachte auch einige bemerkenswerte Aktualisierungen heraus:
- Jagger, das dazu beitrug, den unaufgeforderten Linktausch einzudämmen, und das den Rückgang der Bedeutung von Ankertext als Faktor aufgrund seiner Korrumpierbarkeit einläutete.
- Big Daddy (geprägt von Jeff Manson von RealGeeks), das die Architektur von Google verbesserte, um ein besseres Verständnis des Wertes und der Beziehung von Links zwischen Websites zu ermöglichen.
YouTube, Google Analytics und Webmaster-Tools
Im Oktober 2006 erwarb Google für 1,65 Milliarden Dollar das nutzergenerierte Video-Sharing-Netzwerk YouTube, das schließlich zur zweithäufigst genutzten Suchmaschine der Welt wurde.
Heute hat YouTube 2 Milliarden Nutzer!
Aufgrund der steigenden Popularität wurde Video-SEO für Marken, Unternehmen und Einzelpersonen, die gefunden werden wollten, von entscheidender Bedeutung.
Im Jahr 2006 führte Google außerdem zwei unglaublich wichtige Tools ein:
- Google Analytics. Dieses kostenlose, webbasierte Tool war beim Start so beliebt, dass Webmaster mit Ausfallzeiten und Wartungswarnungen zu kämpfen hatten.
- Google Webmaster-Tools. Mit den Google Webmaster-Tools, die jetzt als Suchkonsole bekannt sind, können Webmaster Crawling-Fehler anzeigen, sehen, bei welchen Suchanfragen ihre Website auftaucht, und eine erneute Aufnahme beantragen.
Ebenfalls im Jahr 2006 wurden XML-Sitemaps von den Suchmaschinen allgemein unterstützt.
XML-Sitemaps ermöglichen es Webmastern, den Suchmaschinen jede URL auf ihrer Website anzuzeigen, die für das Crawling verfügbar ist.
Eine XML-Sitemap enthält nicht nur eine Liste von URLs, sondern eine Reihe weiterer Informationen, die den Suchmaschinen helfen, intelligenter zu crawlen.
Universal Search
Ab 2007 begann sich die Suche auf neue und spannende Weise zu entwickeln.
Alle diese Aktualisierungen zielten darauf ab, das Sucherlebnis für die Nutzer zu verbessern.
Beginnen wir mit der universellen Suche von Google.
Bis zu diesem Zeitpunkt bestanden die Suchergebnisse aus 10 blauen Links.
Dann begann Google, die traditionellen organischen Suchergebnisse mit anderen Arten von vertikalen Ergebnissen wie Nachrichten, Videos und Bildern zu mischen.
Dies war mit Abstand die größte Veränderung der Google-Suche – und der Suchmaschinenoptimierung – seit dem Florida-Update.
Aufräumen des SEO-Mülls
Im Jahr 2008 sagte der damalige Google-CEO Eric Schmidt, dass das Internet zu einer Senkgrube geworden sei und dass Marken die Lösung seien. „Mit Marken sortiert man die Kloake aus“, sagte er.
Weniger als sechs Monate nach seinem Kommentar kam ein Google-Update namens Vince.
Große Marken schienen plötzlich viel besser in den SERPs zu ranken.
Laut Google war es jedoch nicht wirklich dazu gedacht, Marken zu belohnen.
Google wollte dem Vertrauen in den Algorithmus mehr Gewicht verleihen (und große Marken genießen in der Regel mehr Vertrauen als kleinere und weniger etablierte Marken).
Kurz nach diesem Update veröffentlichte Google ein weiteres, um die Geschwindigkeit der Indexierung zu verbessern, genannt Caffeine.
Wie Search Engine Journal damals berichtete, handelt es sich bei Caffeine um „eine Sucharchitektur der nächsten Generation für Google, die schneller und genauer sein soll, bessere und relevantere Ergebnisse liefert und größere Teile des Webs durchforstet“.
Apropos Geschwindigkeit: 2010 gab Google bekannt, dass die Geschwindigkeit von Websites ein Rankingfaktor ist.
Bing und die Suchallianz
Im Jahr 2009 wurde Microsoft Live Search zu Bing.
In dem Bestreben, Googles fast 70-prozentigen Anteil am US-Suchmarkt herauszufordern, schlossen Yahoo und Microsoft eine 10-jährige Suchallianz (die allerdings fünf Jahre später überarbeitet wurde).
Die Suchallianz sah vor, dass Microsofts Bing die organischen und bezahlten Suchergebnisse von Yahoo anführt.
Obwohl Bing dadurch zur klaren Nummer 2 unter den Suchmaschinen wurde, ist es ihnen letztlich nicht gelungen, die massive Vorherrschaft von Google bei der Suche in den USA und weltweit zu brechen. Im Oktober 2020 wurde Bing offiziell in Microsoft Bing umbenannt.
Der Aufstieg der sozialen Medien
Ende der 2000er Jahre kam ein weiteres Phänomen auf: soziale Netzwerke.
Google setzte vor allem auf YouTube (obwohl es mit dem inzwischen eingestellten Google+ einen weiteren Versuch unternahm).
Aber auch andere Netzwerke wie Facebook, Twitter und LinkedIn entwickelten sich zu wichtigen Akteuren (und viele weitere kamen und gingen in den folgenden Jahren).
Mit dem Aufstieg der sozialen Medien kamen auch Spekulationen auf, dass soziale Signale die Suchergebnisse beeinflussen können.
Ja, soziale Medien können die Suchmaschinenoptimierung unterstützen, aber indirekt – so wie andere Formen des Marketings dazu beitragen können, mehr Besucher auf Ihre Website zu leiten und die Markenbekanntheit und -affinität zu erhöhen (was wiederum Suchanfragen erzeugt).
Obwohl die Auswirkungen von Social Shares (Likes, Tweets, +1’s, etc.) von Google im Laufe der Jahre immer wieder als Ranking-Faktor dementiert wurden, werden sie in verschiedenen Studien zu Ranking-Faktoren weiterhin als stark korreliert aufgeführt.
Wenn Sie mehr über dieses Thema lesen möchten, empfehle ich Ihnen, How Social Media Helps SEO [Final Answer] zu lesen.
Schema
Schema-Markup, eine Form von Mikrodaten, wurde 2011 eingeführt, um Suchmaschinen bei der Interpretation des Kontexts der Suchanfrage zu helfen. Sie können jeden Schema-Markup-Typ auf Schema.org einsehen.
Schema ist kein Ranking-Faktor. Und es gibt kaum Belege dafür, dass es sich auf Ihre Suchleistung auswirkt.
Schema hilft Ihnen jedoch, sich in den SERPs mit Rich- und Featured-Snippets abzuheben.
In einem Webinar des Search Engine Journal teilte Milestone beispielsweise mit, dass sie nach der Einführung von Schema einen Anstieg der Suchabfragen für große Fast-Food-Restaurantketten um 33 bis 66 % verzeichneten.
Ein anderes Experiment von InLinks ergab, dass Websites mit Schema nach der Implementierung von Schema besser platziert wurden.
Wenn Sie sich nicht sicher sind, ob Sie strukturierte Daten ordnungsgemäß implementiert haben, testen Sie sie mit dem Google-Tool für strukturierte Daten.
Der Google-Zoo: Panda und Pinguin
Zwei große Algorithmus-Updates – Panda im Jahr 2011 und Penguin im Jahr 2012 – hatten große Auswirkungen auf die Suchmaschinenoptimierung, die bis heute spürbar sind, da Google wieder einmal versuchte, seine Suchergebnisse zu bereinigen und hochwertige Websites zu belohnen.
Im Jahr 2011 sah sich Google mit einer strengen Überprüfung seiner Suchergebnisse konfrontiert, da so genannte „Content-Farmen“ (Websites, die in großem Umfang minderwertige Inhalte produzieren) die Suchergebnisse dominierten.
Die SERPs von Google waren außerdem mit Websites überfüllt, die unoriginellen und automatisch generierten Content enthielten – und in einigen Fällen waren sogar Scraper-Websites den Urhebern von Inhalten überlegen.
Infolgedessen erzielten diese Websites tonnenweise Werbeeinnahmen (erinnern Sie sich, als ich Googles selbstgemachtes AdSense-Problem erwähnte?)
Diese Websites lebten und starben auch durch den organischen Verkehr von Google.
Doch als 2011 das Google Panda-Update eingeführt wurde, verschwand bei vielen Websites ein Großteil, wenn nicht sogar der gesamte Traffic über Nacht.
Google gab einen Einblick, was eine hochwertige Website ausmacht.
Mit dem Ziel, minderwertige (oder dünne) Inhalte zu eliminieren, wurde Panda in den kommenden Jahren regelmäßig aktualisiert und schließlich 2016 in den Kernalgorithmus von Google integriert.
Während sich Websites noch von den Auswirkungen von Panda erholten, führte Google einen mit Spannung erwarteten Algorithmus zur Überoptimierung ein, der „aggressive Spamtaktiken“ aus den Ergebnissen entfernen sollte.
Dieser Algorithmus, der später den Namen Penguin erhielt, zielte auf Linkschemata (Websites mit ungewöhnlichen Verlinkungsmustern, einschließlich einer hohen Anzahl von exakt übereinstimmenden Ankertexten, die mit Keywords übereinstimmen, für die Sie
für die man ranken wollte) und Keyword-Stuffing.
Penguin wurde nicht annähernd so häufig aktualisiert wie Panda, wobei zwischen einigen Aktualisierungen mehr als ein Jahr verging. Und wie Panda wurde auch Penguin 2016 Teil des Echtzeit-Algorithmus von Google.
Dinge, keine Strings
Im Mai 2012 stellte Google den Knowledge Graph vor.
Dies bedeutete eine erhebliche Verlagerung weg von der Interpretation von Keyword-Ketten hin zum Verständnis von Semantik und Absicht.
Amit Singhal, Googles ehemaliger SVP für Technik, beschrieb dies bei der Einführung wie folgt:
„Mit dem Knowledge Graph können Sie nach Dingen, Personen oder Orten suchen, über die Google Bescheid weiß – Wahrzeichen, Prominente, Städte, Sportmannschaften, Gebäude, geografische Merkmale, Filme, Himmelsobjekte, Kunstwerke und vieles mehr – und erhalten sofort Informationen, die für Ihre Anfrage relevant sind. Dies ist ein entscheidender erster Schritt auf dem Weg zur nächsten Generation der Suche, die die kollektive Intelligenz des Internets nutzt und die Welt ein bisschen besser versteht, als es die Menschen tun.
Google hat seine Suchergebnisse um diese Informationen erweitert.
Wissensfelder, Boxen und Karussells können immer dann erscheinen, wenn Menschen nach einer der Milliarden von Entitäten und Fakten im Knowledge Graph suchen.
Der nächste Schritt in Googles nächster Suchgeneration erfolgte im September 2013 in Form von Hummingbird, einem neuen Algorithmus, der besser auf natürlichsprachliche Suchanfragen und konversationelle Suche eingehen soll.
Mit dem Aufkommen der mobilen Suche (und der Sprachsuche) musste Google die Funktionsweise seines Algorithmus komplett umgestalten, um den Bedürfnissen moderner Sucher gerecht zu werden.
Hummingbird wurde als die größte Änderung des Google-Kernalgorithmus seit 2001 angesehen. Google wollte eindeutig schnellere und relevantere Ergebnisse liefern, insbesondere für mobile Nutzer.
Mobile-First
Etwa ab 2005 wurde in unserer Branche immer wieder eine Frage gestellt:
Ist dies das „Jahr der Mobiltelefone“?
Nun, es stellte sich heraus, dass es das 2005 nicht war.
Auch nicht 2006.
Und auch nicht 2007.
Oder 2008. Oder 2009.
Noch nicht einmal 2010 – als Google sich in ein Mobile-First-Unternehmen verwandelte.
Dann kamen und gingen 2011, 2012, 2013 und 2014.
Es wurde viel über Mobile geredet und gehyped, weil es die ganze Zeit über wie verrückt wuchs.
Da immer mehr Nutzer Smartphones benutzten, suchten sie zunehmend von unterwegs aus nach Unternehmen und Dingen.
2015 schließlich war das Jahr des Mobilfunks – der Zeitpunkt, an dem die mobile Suche zum ersten Mal die Desktop-Suche bei Google überholte. Und während dies in Bezug auf die reinen Suchzahlen stimmt, ist es auch wahr, dass die Suchabsicht ganz anders ist und die Konversionsraten auf mobilen Geräten nach wie vor viel niedriger sind.
In diesem Jahr meldete comScore auch, dass die Zahl der reinen Mobilfunknutzer die der reinen Desktop-Nutzer übersteigt.
Im Jahr 2015 führte Google außerdem ein mit Spannung erwartetes Update des mobilfreundlichen Algorithmus ein, das darauf abzielt, den Nutzern „die relevantesten und zeitnahsten Ergebnisse zu liefern, unabhängig davon, ob die Informationen auf mobilfreundlichen Webseiten oder in einer mobilen App zu finden sind.“
In einem Versuch, die Seiten zu beschleunigen, führte Google 2016 auch Accelerated Mobile Pages (AMP) ein.
Die Idee hinter AMP war es, Inhalte sofort zu laden. Viele Nachrichtenmedien und Verlage haben AMP schnell übernommen und nutzen es auch heute noch.
Es wird Sie vielleicht nicht überraschen, aber im Januar 2017 kündigte Google an, dass die Seitengeschwindigkeit nun ein Rankingfaktor für die mobile Suche sein wird.
Im selben Monat erklärte Google, dass es beginnen wird, Seiten mit aufdringlichen Pop-ups zu entwerten.
Im Juli 2019 wurde die Mobile-First-Indexierung für alle neuen Websites aktiviert. Und bis März 2021 werden alle Websites auf mobile-first indexing umgestellt sein.
Maschinelles Lernen und intelligente Suche
Ich habe bereits erwähnt, dass Google, das ursprünglich für die Informationssuche entwickelt wurde, zu einem Mobile-First-Unternehmen geworden ist.
Das änderte sich 2017, als Google-CEO Sundar Pichai Google zu einem Unternehmen erklärte, das auf maschinelles Lernen setzt.
Heute ist die Google-Suche darauf ausgelegt, zu informieren und zu helfen, anstatt den Nutzern eine Liste von Links zu liefern.
Aus diesem Grund hat Google maschinelles Lernen in alle seine Produkte integriert – einschließlich Suche, Google Mail, Anzeigen, Google Assistant und mehr.
In Bezug auf die Suche haben wir bereits begonnen, die Auswirkungen des maschinellen Lernens mit Google RankBrain zu sehen.
RankBrain wurde im Oktober 2015 angekündigt und diente zunächst dazu, die 15 % der Suchanfragen zu interpretieren, die Google noch nie zuvor gesehen hat, und zwar auf der Grundlage der vom Nutzer eingegebenen Wörter oder Phrasen.
Seitdem hat Google RankBrain so erweitert, dass es bei jeder Suche eingesetzt wird.
RankBrain wirkt sich zwar auf das Ranking aus, ist aber kein Ranking-Faktor im herkömmlichen Sinne, bei dem man für die Durchführung von x, y und z mit besseren Rankings belohnt wird.
Und es gibt noch viel mehr, was in der Welt der intelligenten Suche auf uns zukommt.
- Die Sprachsuche nimmt zu.
- Die visuelle Suche ist wahnsinnig gut geworden
- Nutzer (und Marken) übernehmen zunehmend Chatbots und nutzen persönliche Assistenten (z. B. Siri von Apple, Alexa von Amazon und Cortana von Microsoft).
Diese Fortschritte in der Technologie bedeuten, dass denjenigen, die sich mit SEO befassen, noch aufregendere Zeiten bevorstehen.
Die wichtigsten Updates von Google
Google nimmt täglich Aktualisierungen an seinem Algorithmus vor.
Im Laufe des Jahres veröffentlicht Google jedoch Kern-Updates, wenn es eine Änderung am Algorithmus gibt.
Es gibt auch allgemeine Kern-Updates des Algorithmus.
Das Ziel dieser grundlegenden Aktualisierungen ist es, den Nutzern ein besseres Sucherlebnis mit relevanteren, vertrauenswürdigeren Suchergebnissen zu bieten.
Diese grundlegenden Aktualisierungen von Google zielen nicht auf eine bestimmte Seite oder Website ab, sondern darauf, die Art und Weise zu verbessern, wie das System Inhalte verfolgt.
Google beschreibt diese Kern-Updates wie folgt:
„Stellen Sie sich vor, Sie hätten im Jahr 2015 eine Liste der 100 besten Filme erstellt. Ein paar Jahre später, im Jahr 2019, aktualisieren Sie diese Liste. Sie wird sich natürlich verändern. Einige neue und wunderbare Filme, die es vorher nicht gab, werden nun in die Liste aufgenommen. Man könnte auch einige Filme neu bewerten und feststellen, dass sie einen höheren Platz auf der Liste verdient hätten als zuvor.“
Im März 2018 bestätigte Google, dass ein umfassendes Kern-Algorithmus-Update ausgerollt wurde, um „unterbewertete“ Seiten zu begünstigen.
Etwas mehr als einen Monat später veröffentlichte Google ein weiteres umfassendes Algorithmus-Update, das auf die Relevanz von Inhalten abzielte.
Im August folgte ein weiteres umfassendes Update (manchmal fälschlicherweise und ungenau als „Medic“-Update bezeichnet), das auf Websites mit minderwertigen Inhalten abzielte.
Im März 2019 bestätigte Google als Erweiterung des Kernupdates vom August 2018, dass ein Kernupdate (auch bekannt als „Florida 2“) anstand, das ein großes Update sein sollte.
Die SEO-Community war jedoch der Meinung, dass es sich eher um ein Rollback früherer Algorithmen handelte.
Und im Juni 2019 gab es ein weiteres umfassendes Kern-Update, das Schwachstellen von E-A-T auf Websites aufdeckte und sich auf die Autorität und Vertrauenswürdigkeit eingehender Links konzentrierte.
Von Zeit zu Zeit veröffentlicht Google ein umfassendes Kern-Update, das sich auf alle Suchergebnisse weltweit auswirkt.
So gab es beispielsweise im September 2019 ein umfassendes Kern-Update, das darauf abzielte, Websites mit einer insgesamt optimalen Leistung zu verbessern. Und ein weiteres umfassendes Kern-Update im Januar 2020, das auf YMYL-Kategorien (your money, your life) abzielte.
Das ist der Hauptunterschied zwischen breit angelegten Kern-Updates und Kern-Updates – Sie müssen Ihre Website insgesamt analysieren, nicht eine bestimmte Seite.
Zuletzt hat Google im Mai 2020 ein Core-Update veröffentlicht, das auf Landingpages mit dünnem Inhalt abzielt und gleichzeitig den lokalen Suchergebnissen einen Schub verleiht.
BERT
BERT ist das größte Google-Algorithmus-Update seit RankBrain.
BERT steht für Bidirectional Encoder Representations from Transformers, die für die Verarbeitung natürlicher Sprache verwendet werden.
Im Wesentlichen hilft es Google, den Kontext von Suchanfragen besser zu verstehen.
Das Wort „Fledermaus“ kann zum Beispiel ein nachtaktives geflügeltes Tier bedeuten, das oft mit Batman in Verbindung gebracht wird. Oder es kann verwendet werden, wenn ein Baseballspieler zum Schlag ausholt.
Mit BERT ist Google in der Lage, den Kontext aufzuschlüsseln, um bessere Suchergebnisse zu liefern.
Was BERT noch besser macht, ist die Tatsache, dass Google nun die Wörter, die Ihre Keywords umgeben, verwenden kann, um seinen Spidern zu helfen, Ihren Inhalt zu verdauen.
Zum Beispiel: „Ich war in der Fledermaushöhle“. Oder: „Nach meinem Schläger ging ich in den Unterstand“. Google kann nun ein Kontextmodell für andere Wörter im Satz erstellen. Dies ist ein entscheidender Faktor dafür, wie die natürliche Sprachverarbeitung die menschliche Kommunikation erkennt.
Wie Danny Sullivan von Google sagte:
„Mit BERT gibt es nichts zu optimieren, und es gibt auch nichts, was man überdenken müsste. Die Grundlagen unserer Bemühungen, großartige Inhalte zu belohnen, bleiben unverändert.“
Wenn Sie immer noch daran interessiert sind, mehr über BERT zu erfahren, erklärt Dawn Anderson hier alles, was Sie über BERT wissen müssen.
Featured Snippets
Wahrscheinlich haben Sie schon einmal Featured Snippets gesehen, aber nicht gewusst, was sie sind.
Featured Snippets sind kurze Texte, Aufzählungspunkte, Zahlen oder Tabellen, die in der Google-Suche ganz oben erscheinen.
Das Ziel eines Featured Snippets ist es, die Suchanfrage des Nutzers direkt in den SERPs zu beantworten, ohne dass er sich zur Website durchklicken muss.
Featured Snippets können jedoch sehr unbeständig sein, also seien Sie vorsichtig.
Featured Snippets sind nichts Neues. Sie wurden bereits im Jahr 2014 entdeckt.
Featured Snippets haben die Anziehungskraft der begehrten „Position Null“ entfacht. Das bedeutet, dass Ihr Suchergebnis über allen anderen Ablenkungen in den SERPs angezeigt wird und Sie auch in den organischen Ergebnissen erscheinen würden.
Im Januar 2020 aktualisierte Google diese Funktion, um die Duplizierung von Suchergebnissen im Featured Snippet aufzuheben, so dass Sie entweder im Featured Snippet oder in den organischen Ergebnissen erscheinen, nicht in beiden.
Und im Juni 2020 veröffentlichte Google ein weiteres Update, das besagt, dass die „Featured Snippets“ die Nutzer nun direkt zu dem Text führen, der für ihre Suchanfrage relevant ist.
Die Nutzer sehen den Text nun gelb hervorgehoben.
Da die Sprachsuche weiter verfeinert wird, bietet der Inhalt der Featured Snippets eine große Chance, die organische Sichtbarkeit zu erhöhen.
Fazit
Suchmaschinen und SEO haben seit den 1990er Jahren einen langen Weg zurückgelegt.
Wir haben in diesem Beitrag nur ein paar dieser Wege angesprochen.
Die Geschichte der Suchmaschinenoptimierung war voller aufregender Wendungen – die Geburt neuer Suchmaschinen, der Tod alter Suchmaschinen, neue SERP-Funktionen, neue Algorithmen und ständige Tests und Aktualisierungen – sowie das Aufkommen großartiger SEO-Veröffentlichungen, Konferenzen, Tools und Experten.
Auch wenn sich Suchmaschinen und SEO im Laufe der Jahre stark weiterentwickelt haben, bleibt eines wahr: Solange es Suchmaschinen gibt, wird SEO lebenswichtig bleiben.
Und wir haben gerade erst angefangen!