morefire
MENÜ

Deindexierungen bei einem Relaunch vermeiden

Was ist wichtig bei einem Relaunch? Vor allem Weiterleitungen einrichten, wenn sich URLs ändern. Stimmt, aber auch wenn alle Weiterleitungen korrekt sind, kann es zu einer Deindexierung der neuen Seite kommen, was nichts anderes bedeutet als: keine URLs im Index = keine Rankings und kein Traffic. Dieser Aspekt ist also ebenfalls sehr wichtig und sollte unbedingt berücksichtigt werden. Um dieses Worst-Case-Szenario zu vermeiden, habe ich drei Szenarien aufgeführt, bei denen eine Deindexierung eintreten kann und erläutere jeweils, wie das Problem zu vermeiden ist.

Sperre der neuen Seite durch robots.txt

Eine Einführung zum Aufbau und den möglichen Inhalten einer robots.txt findet Ihr hier als ausführliche Beschreibung unter robots.txt – Was ist das und wie wende ich diese an?.

Eine Testumgebung (oder auch sandbox) schützt man (alternativ oder zusätzlich zu einem Passwort) mittels robots.txt vor der Indexierung. Diese ist bei einer Testumgebung noch nicht gewünscht, weil erstens die Inhalte oft zumindest teilweise identisch mit der Originalseite sind (Duplicate Content) und zweitens natürlich auch keine unfertige Seite in den Index gelangen soll.

Eine mögliche Variante, um die Testumgebung zu schützen, ist folgender Code in der robots.txt:

User-agent: *
Disallow: /

Allen Suchmaschinen-Crawlern ist der Zugang zu der gesamten Domain nicht gestattet.

Robots

 

Vermeidung des Problems

Der Code, der die Indexierung der Testumgebung ausschließt, muss beim Livegang der Seite so angepasst werden, dass auf der neuen Webseite keine URLs vom Crawling ausgeschlossen werden. In unserem Beispiel würde sich der Code ändern zu:

User-agent: *
Allow: /

Sperre der neuen Seite durch noindex

Eine andere Art eine Testumgebung vor der Indexierung zu bewahren ist, alle URLs auf noindex zu setzen. Wird eine neue Seite gelauncht und die nicht-Indexierungs-Einstellung nicht aufgehoben, wird die Seite nicht indexiert und kann somit auch keine Rankings und keinen Traffic erzeugen.

Vermeidung des Problems

Mit dem Relaunch müssen die noindex-Auszeichnung entfernt werden. Um zu prüfen ob dies überall der Fall ist, kann man die neue Seite crawlen und auf genau diesen Punkt hin untersuchen. Dies geht beispielsweise mit der Extraction-Funktion in Screaming Frog, diese Funktionalität ist unter Screaming Frog 4.0 – Nützliche Anwendungsmöglichkeiten erläutert. Alternativ gibt es aber auch eine extra Spalte für Meta Robots, wo diese Information auch ausgelesen werden kann.

Noindex

Deindexierung durch Weiterleitungskreise

Bei einem Relaunch sollte man auch die Gelegenheit nutzen, die Seite auf https umzustellen. Was man dabei grundsätzlich beachten muss, erfahrt Ihr in unserem Artikel https-Switch in 7 Schritten.

Zusätzlich muss drauf geachtet werden, dass zwar alle http-URLs per Weiterleitungsregel auf die entsprechenden https-URLs geführt werden, es darf aber keine weitere Regel geben, die die https-URLs wieder auf die alte http-URLs führt. Dies sieht dann wie folgt aus:

Weiterleitungskreis

Und dies führt dazu, dass die Suchmaschinen den Weiterleitungen im Kreis folgen, kein Ziel finden und es zu einer Deindexierung kommt. Das ist nicht nur bei Umstellungen auf https möglich, sondern auch bei einzelnen URLs, nämlich dann wenn von einer Quell-URL auf eine Ziel-URL und dann wieder auf die Quell-URL weitergeleitet wird.

Vermeidung des Problems

Nach dem Relaunch müssen die Weiterleitungen geprüft werden. Hierbei sollte ein besonderes Augenmerk darauf liegen, dass es keine Weiterleitungsketten und erst recht keine Weiterleitungskreise gibt, da diese zu einer schnellen Deindexierung der Seite führen können. Weiterleitungen dürfen immer nur von der alten URL zur neuen URL führen.

Fazit

Das Thema Indexierung muss man bei einem Relaunch immer berücksichtigen. Die beste Internetseite ist wertlos, wenn sie nicht in den Index der Suchmaschinen gelangt und man keinen organischen Traffic erhält. Um Probleme mit der Indexierung auszuschließen, müssen folgende Punkte untersucht werden:

  • txt
  • index / noindex Meta Tags
  • mögliche Weiterleitungsketten

Robert Zimmermann ist Senior Consultant SEO bei morefire und schreibt über alle Themen, die mit Suchmaschinenoptimierung zu tun haben. Privat betreibt er unter anderem den Erdmännchen Shop.

5 / 5 (2 votes)

Schreibe einen Kommentar

Loading Facebook Comments ...

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Loading Disqus Comments ...