Googlebot löst DDoS Verhalten aus: Falscher Code gefährdet SEO Ranking

Inhaltsverzeichnis

„`

Google hat kürzlich eine wichtige Frage beantwortet, die einen Website-Betreiber betrifft, dessen Website von Googlebot Millionen von Anfragen für nicht existierende Seiten erhielt. Eine URL allein erhielt über zwei Millionen Anfragen. Dies führte bei der betroffenen Website zu einem **DDoS-ähnlichen Verhalten**, wobei die Sorge bestand, dass dies die Rankings negativ beeinflusst.

Wie die betroffenen URLS behandelt wurden

Nach diesem Vorfall antwortete die verantwortliche Person des Unternehmens, dass die betroffenen URLs mit einem **410 Gone Code** versehen worden sind. Der Code signalisiert, dass die Seite dauerhaft entfernt und nicht mehr verfügbar ist. Trotz korrekter Implementierung setzte Googlebot die Anfragen in Millionenhöhe fort.

Probleme durch übermäßiges Crawling & Rankings-Verluste

Das Problem verschärfte sich: Während Googlebot weiterhin viele Anfragen zu den gelöschten Seiten stellte, gingen die Suchmaschinensichtbarkeit und die Rankings der Website merklich zurück. Betroffene Faktoren waren technische Fehler im **JavaScript** und falsch gesetzte Regeln.

Googles offizielle Antwort

Laut Google ist es normal, dass Googlebot gelöschte Seiten regelmäßig überprüft, falls diese wiederhergestellt werden. Obwohl dies ein **automatisches Verhalten** von Google ist, sei es aus SEO-Sicht kein Problem. Allerdings empfahl das Unternehmen sicherzustellen, ob die blockierten URLs tatsächlich nicht mehr benötigt werden, insbesondere im Zusammenhang mit JSON-Daten auf der Website.

Technische SEO-Tipps

Der Artikel listete mehrere technische Tipps auf, um das Problem besser zu analysieren und mögliche Fehler zu vermeiden:

  • Überprüfe Frontend- und Backend-Code, um sicherzustellen, dass die problematischen Seiten nicht von internen Prozessen referenziert werden.
  • Verwende das Chrome DevTools-Tool, um zu simulieren, welche Effekte ein Blockieren hätte.
  • Behalte die Google Search Console im Auge, um Soft-404-Fehler frühzeitig zu erkennen.

Wichtige Erkenntnisse für ähnliche Probleme

Diese Geschichte hebt hervor, dass SEO-Probleme oft mehrere Ursachen haben können, die nicht immer offensichtlich sind. Doppelte oder fehlgeleitete Anfragen, unsauberer Code oder technische Änderungen in JavaScript können schwer zu finden sein und **gravierende Auswirkungen** auf das Ranking haben.

„`

Picture of Tom

Tom

Affiliate-Links: Für einige der unten stehenden Links erhalte ich möglicherweise eine Vergütung als Affiliate, ohne dass dir dadurch Kosten entstehen, wenn du dich für den Kauf eines kostenpflichtigen Plans entscheidest.

Picture of Tom

Tom

Disclosure:  Some of the links in this article may be affiliate links, which can provide compensation to me at no cost to you if you decide to purchase a paid plan. These are products I’ve personally used and stand behind. This site is not intended to provide financial advice and is for entertainment only. You can read our affiliate disclosure in our  privacy policy .