morefire
MENÜ

Seo Sunday – Indexierung von Webinhalten

Ein wichtiger Faktor der OnPage-Optimierung stellt die Möglichkeit der Indexierung von Inhalten für Suchmaschinen dar. Denn unabhängig von der Qualität des Contents und deren Optimierung in Bezug auf SEO muss vor allem Sorge getragen werden, dass der Googlebot auch diese Inhalte findet und mit in den Index aufgenommen werden. Dies ist nicht selbstverständlich und je nach Größe einer Domain kann es eine enorme Herausforderung darstellen auch wirklich aus allen Webinhalten das letzte bisschen Traffic herauszukitzeln. Potentielle Fehlerquellen und deren Lösungsansätze sollen in diesem Blogbeitrag erörtert werden, damit möglichst alle Inhalte einer Webpräsenz in den Serps landen.

Zunächst einmal ist es hilfreich überhaupt zu wissen, wie viele Seiten der eigenen Domain im Index sind. Mit dem Befehl site:eigenewebseite.xy in der Suchmaske kann dies abgerufen werden und mit der tatsächlichen Seitenanzahl verglichen werden. Sollte die Differenz eklatant sein, wird es Zeit nach möglichen Fehlerquellen zu suchen und die Struktur der internen Verlinkung zu verbessern.

Wie die hierzu passende Strategie aussehen könnte hängt natürlich stark von der jeweiligen Größe und dem Trust der Domain ab (hierzu später mehr). Eine flache Hierarchie der Seitenstruktur ist allerdings in jedem Fall anzustreben, sprich die Inhalte der Seite sollten optimalerweise mit so wenig Klicks wie möglich erreichbar sein. Zusammen mit einer sinnvollen Linkstruktur bilden diese beiden Faktoren ein solides Grundgerüst für die Indexierung der Inhalte.

Ebenso sorgen Breadcrumb-Navigationen, Archive, als auch Sitemaps in HTML- und XML Format dafür, Seitenstrukturen für Suchmaschinen besser darzustellen. Das HTML-Format sollte idealerweise von der Startseite verlinkt werden und regelmäßig upgedatet werden, sobald neuer Content auf die Seite geladen wird. Über die Google Webmaster Tools lässt sich die XML-Variante einpflegen, sowie Crawling-Fehler bei bestimmten Webseiten feststellen.

Ein weiteres probates Mittel zur Indexierung sind Link-Multiplikatoren wie Feeds, Twitter oder andere Social Media Kanäle. Über RSS-Feeds lassen sich z. B. aktuelle Pressemitteilungen, Blogposts, etc. veröffentlichen und können dafür sorgen, dass Ihre Seite öfter nach neuen Inhalten durchsucht wird. Ebenso kann eine schnellere Indizierung der Inhalte durch Twitter bei Produktankündigungen oder Firmen-News erreicht werden, allerdings auch hier nochmal der Hinweis, dass Social Media auf Kommunikation beruht und keine virale Einbahnstraße darstellt. Diese Möglichkeit sollte daher eher in Maßen praktiziert werden. Die Aktualität der Inhalte spielt mitunter eine Rolle. Je häufiger neuer Content auf einer Seite zu finden ist, umso schneller werden Bots wiederkommen und nach weiteren frischen Inhalten suchen.

Auch die Größe und der Trust der Domain spielt eine nicht unerhebliche Rolle bei der Indexierung. Eine Webseite mit viel Power (sprich hohem PageRank, guter Domain Popularität und vielen Unterseiten) und stetig neuem Content wird logischerweise tiefer und öfter gecrawlt. Nichtsdestotrotz erzielt man die effektivsten Resultate durch sinnvolle interne Verlinkung und Crosslinking. In diesem Zusammenhang ist auch eine optimierte Pagination von Linklisten äußerst hilfreich.

Wie sieht also die beste Lösung für Linklisten auf z. B. Kategorieseiten aus? Prinzipiell sollte eine angemessene Anzahl an Links untergebracht und möglichst alle weiteren Ergebnisseiten angezeigt werden.

Optimale Pagination von Linklisten

Wie in Bild 2 zu sehen ist wird die Anzahl der Links pro Seite auf ein sinnvolles Maß eingeteilt und Ergebnisseiten werden im Gegensatz zu Bild 1 vollständig dargestellt, was letztendlich dazu führt, dass mehr Inhalt mit einem Klick erreichbar ist (gut für User und Suchmaschinen). Wie viele Links auf einer Seite untergebracht werden sollten, lässt sich nicht pauschal beantworten. Hier spielt die oben genannte Power und Größe einer Domain eine nicht unerheblichen Rolle. Ein von Google angegebener Mittelwert liegt hier bei max. 100 Links pro Seite. Zusammen mit einer Top- und Side Navigation, die Unterbringung von themenverwandten Kategorien und Footerlinks bilden diese Elemente eine gute Möglichkeit eine große Anzahl von Unterseiten für Crawlern zugänglich zu machen.

Wichtig ist hierbei, dass die Indexierung nicht unnötig behindert wird. Mit einer robots.txt z.B. können ganze Seitenbereiche für Crawler gesperrt werden, sinnvoll für Login-Pages oder Seiten, welche Duplicate Content verursachen. Im Idealfall sollte dies aber nur notwendigerweise geschehen und die Domain möglichst ohne dieser oder anderen technischen Barrieren crawlbar sein. Statische Seiten-Architekturen sind dynamischen Darstellungen, wie JavaScript & Co in Bezug auf die Indexierung in jedem Fall vorzuziehen. Um solche Linksackgassen zu vermeiden empfiehlt es sich zusätzlich mindestens zwei Linkpfade zu den unteren Bereichen der Seitenhierarchie anzulegen.

Ben Garboniak ist Consultant Online Marketing bei morefire und schreibt über Themen rund um die SEO und Social Media Marketing.

0 / 5 (0 votes)

Schreibe einen Kommentar

Loading Facebook Comments ...

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Loading Disqus Comments ...