morefire
MENÜ

SEO: 5 Starter-Tipps für mittelständische Unternehmen

Immer mehr mittelständische Unternehmen erkennen, dass sie durch SEO und den damit einhergehenden guten Platzierungen in den Suchergebnissen viele neue, potentielle Kunden auf ihre Seite locken können. Wie bei vielen Dingen ist es auch bei dem Thema SEO nicht einfach einen Anfang zu finden und die ersten Schritte zu planen. Die folgenden 5 praktischen SEO-Tipps erleichtern den Einstieg.

1. Webseite bei der Search Console anmelden

Die Google Search Console (früher Webmastertools) ist neben dem Screaming Frog eines der hilfreichsten Tools für die laufende SEO-Arbeit. Das Anmelden der Webseite bei den Tools geht schnell und einfach. Hierzu die Search Console aufrufen, auf „Property hinzufügen“ klicken und die Domain eingeben.

Property hinzufügen

Wichtig: An dieser Stelle bitte darauf achten, dass die Standard-Domain (Erklärung siehe SEO-Tipp Nummer 3) hinterlegt wird, da die Search Console ansonsten nicht alle Daten vollständig erfasst.

Sobald die Inhaberschaft der Webseite bestätigt ist, kann das Auswerten losgehen. Die Search Console liefert unter anderem wichtige Infos zu internen Fehlerseiten. Dabei handelt es sich um Seiten (URLs), die einen Status Code 404 zurückgeben, was bedeutet, dass der Inhalt der Seite unter dieser URL nicht mehr verfügbar ist. Die URL-Fehler finden sich unter dem Tab „Crawling“ >> „Crawling-Fehler“ >> „Nicht gefunden“. Da sowohl die Google Bots als auch Nutzer nicht erfreut sind, wenn sie auf Fehlerseiten stoßen, sollte darauf geachtet werden, die Anzahl der Fehlerseiten möglichst gering zu halten und bestehende Fehlerseiten via Status Code 301 auf relevante URLs weiterzuleiten.

Neben Angaben zu Fehlerseiten finden sich auch Daten zu den Impressionen, Klicks und der zugehörigen Suchanfrage. Diese Angaben finden sich unter dem Tab „Suchanfragen“ >> „Suchanalyse“ und liefern einen schönen ersten Eindruck, über welche Anfragen die Nutzer über die organische Suchergebnisse auf die Seite gelangen.

Die Search Console liefert noch viele weitere interessante Daten, am besten einfach selbst einmal durchklicken.

2. Analytics Konto erstellen

Grundlage aller erfolgreichen Online-Marketing-Maßnahmen ist ein funktionierendes Webtracking. Die Erfassung der Zugriffszahlen der Webseite gehört zum „Basis“-Tracking und sollte direkt zu Beginn der Maßnahmen eingerichtet werden. Eine sehr gute Möglichkeit die Zugriffszahlen zu erfassen bietet Google Analytics. Genau wie das Anmelden der Webseite bei der Search Console ist das Erstellen eines Google Analytics Konto einfach und unkompliziert. Von Google selbst gibt es eine übersichtliche Anleitung.

Nach Anmeldung der Seite gibt es verschiedene Möglichkeiten die Tracking-ID in der Seite einzubinden. Am praktischsten finde ich die Integration über den Tag Manager. Auch für die Durchführung dieser Schritte stellt Google informative Anleitungen zur Verfügung:

Ähnlich wie bei der Search Console ist es sinnvoll sich einmal durch die verschiedenen Tabs des Tools durchzuklicken, um sich einen ersten Überblick zu verschaffen. Angaben zu den Sitzungen und der zugehörigen Quelle finden sich beispielsweise unter dem Tab „Akquisitionen >> „Alle Zugriffe“ >> „Channels“.

3. Standard-Domain festlegen und doppelte Inhalte vermeiden

Ähnlich wie mit Fehlerseiten, macht man sich als Webseitenbetreiber durch Generierung von doppelten Inhalten bei Google nicht beliebt. Dass eine Webseite sowohl mit als auch ohne „www“ aufrufbar ist, ist meiner Erfahrung nach, eine der häufigsten Ursachen für doppelte Inhalte auf einer Webseite. Indem eine Version via Status Code 301 auf die andere Version weitergeleitet wird, lässt sich dieses Problem aber mit wenig Aufwand lösen.

In einem Zug empfiehlt es sich direkt zu prüfen, ob die Seite mit und ohne „/“ am Ende der URL erreichbar ist. Falls Start- und Unterseiten über beide Versionen erreichbar sind, dann muss auch hier eine Version via Status Code 301 auf die andere Version weitergeleitet werden.

4. Title Tags und Meta Descriptions

Der Title Tag gehört auch heute noch zu den wichtigsten Keyword-Trägern einer Webseite. Entsprechend wichtig ist es, dass jede relevante URL über ein individuellen Title Tag verfügt, indem das Keyword der Seite integriert ist. Der Title Tag wird in den Google Suchergebnissen angezeigt und hat einen hohen Einfluss auf die Klickrate. Hier ein Beispiel:

Anzeigentexte

Um die Klickrate positiv zu beeinflussen, sollte der Title Tag informativ sein und den Suchenden direkt auf den ersten Blick vermitteln, was sie auf der Zielseite erwartet.

Die Meta Description hat keinen direkten Einfluss auf das Ranking einer Seite in den Suchergebnissen, aber durch ihren Einfluss auf die Klickrate einen indirekten. Die Description sollte werblich und informativ formuliert werden und genau wie der Title Tag den Suchenden möglichst kompakt vermitteln, was sie auf der Zielseite finden. In Abhängigkeit von der Suchanfrage wird die hinterlegte Description nicht immer ausgespielt. Stattdessen stellt Google sich selbst eine passende Description aus den Inhalten der Webseite zusammen (siehe oberes Bild).

5. Robots.txt Datei und Meta Tags Robots

Über die Robots.txt, die im Root-Verzeichnis auf dem Server der Domain liegt, lassen sich Regeln definieren, welche Seiten oder auch Verzeichnisse von Suchmaschinen-Bots nicht gecrawlt werden dürfen. In einem ersten Schritt ist es wichtig sicherzugehen, dass wichtige Seiten nicht ungewollt über die robots.txt ausgeschlossen werden. Entsprechend wichtig ist es, sich mit den Befehlen vertraut zu machen. Folgende Anweisung bedeutet beispielsweise, dass die gesamte Domain gecrawlt werden darf:

User-agent: *Disallow:Wohingegen durch folgenden Befehl allen Bots verboten wird die Seite zu crawlen:User-agent: *Disallow: /

Mithilfe der Meta Tags Robots kann den Suchmaschinen-Crawlern mitgeteilt werden, ob einzelne Unterseiten indexiert und den Links auf der Seite gefolgt werden dürfen. Wird eine Seite mit dem Tag „noindex“ ausgezeichnet, wird diese Seite von Suchmaschinen nicht indexiert. Auch hier ist es wichtig, dass diese Auszeichnung nicht ungewollt verwendet wird, was leider viel zu oft vorkommt.

Fazit

Wenn sichergestellt ist, dass sich die Seite crawlen lässt und Suchmaschinen die Webseite indexieren dürfen, es keine doppelten Inhalte gibt und Title Tags und Meta Descriptions optimiert sind, sind die ersten Optimierungsschritte geschafft. Mithilfe der Daten aus der Search Console lassen sich schnell interne Fehler finden und mithilfe von Google Analytics die ersten Erfolge messen und neue Potentiale erkennen.

Michael ist Head of Web Analytics bei morefire. Er schreibt rund um die Themen Website-Optimierung, Suchmaschinenwerbung und Webanalyse.

4.80 / 5 (5 votes)

2 Kommentare

Michael schrieb am 26. August, 2016 @ 10:27

Hallo Herr Löhr,

kleine Frage zu der Vermeidung von Duplicate Content durch Trailing Slashes.
Durch entsprechende Einträge in meiner htaccess wird alles umgeleitet AUßER meiner Hauptdomain…
Aus http://www.domain.de/test123/456 wird also automatisch
http://www.domain.de/test123/456/

Was ich nicht schaffe ist, dass aus http://www.domain.de ein http://www.domain.de/ wird. Somit sagen mir diverse Tools (onpage.org, http Status checker), dass dem so ist und damit ein Problem vorliegt.
Allerdings sind selbst diese Seiten wie onpage.org da selbst nicht „sauber“. Haben Sie hier einen Tipp / Hinweis / Wissen, wie man das noch sauber bekommt?
Besten Dank und Grüße

Michael Löhr schrieb am 29. August, 2016 @ 18:01

Hallo Michael,

ohne die in der .htaccess hinterlegten Regeln zu kennen, kann ich dir an dieser Stelle leider nicht helfen. Ich schreib dir eine E-Mail. Dann kannst du mir die .htaccess gerne schicken.

Viele Grüße
Micha

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.