Crawl.me Vorstellung #1: Onsite-Modul

Crawl.me Dashboard

Mit Crawl.me ging 2013 ein neues Online-Tool an den Start, welches bei der Onpage-Optimierung helfen soll. Es zeigt klassische Fehler und Optimierungstipps, mit der man die eigene Webseite  verbessern kann, ohne Links aufzubauen. Die Onpage-Optimierung ist aus dem Grund wichtig, weil es Google beim crawlen und beim bewerten der eigenen Seite hilft. Meine Empfehlung: Onpage-Optimierung ordentlich machen, bevor man überhaupt mit dem Linkbuilding anfängt. Was Crawl.me ist und was es bietet, möchte ich in diesem Beitrag festhalten.

Crawl.me ist ein Tool, welches täglich die eigene eingetragene Webseite crawlt (durchsucht) und auswertet. Das tägliche crawling erleichtert einiges, aber dazu später mehr. Ebenso liefert das Tool entsprechende Ergebnisse für typische Onpage-Faktoren wie Klicktiefe, Statuscodes, Titles, Ladezeiten und einiges mehr. Aber gehen wir das Tool mal Schritt für Schritt durch.

Das Dashboard

Hat man ein eigenes Projekt eingetragen, liegt es auf dem Dashboard und man erhält eine erste Übersicht über das Projekt. Als Testbeispiel nehme ich mein eigenes Projekt www.djtutorial.de, welches ich schon seit über einem Jahr besitze. Schauen wir uns mal das Dashboard für das Projekt an.

Crawl.me Dashboard

Hier sieht man gleich auf den ersten Blick, wie es um das eigene Projekt steht. Grün symbolisiert in Crawl.me immer, dass alles in Ordnung ist, während Rot bedeutet, dass Optimierungsbedarf besteht. Mit einem Klick auf das Projekt oder in den entsprechenden Teilbereich kann man direkt in die gewünschte Ansicht wechseln. Wir gehen direkt mal ins Projekt und dort in die Onpage-Bereiche.

Onsite: History

Der erste Punkt ist die History der Domain. Hier werden sämtliche Daten ausgewertet und in einem Diagramm übereinander gelegt. Auch die Daten aus den letzten Monaten findet man hier. Doch was ist mit „Daten“ überhaupt gemeint? Gefundene URLs, von Google indexierte URLs und einige Daten mehr finden sich hier, die Aufschluss darüber geben, wie sich die Seite entwickelt hat. Mit diesem Diagramm kann man aber auch Fehler erkennen, Beispielsweise wenn vom einen Tag auf den anderen URLs auf dem Index von Google verschwinden, aber immer noch alle URLs gefunden wurden.

Entwicklung einer Domain

Interne Analyse

Wichtiger ist für mich bei einem Onsite-Tool aber die interne Analyse, also was ich intern auf meiner Webseite verbessern kann. Das ist der zweite Teil der Onsite-Navigation. Hier finde ich verschiedene Punkte wie zum Beispiel eine Übersicht der gecrawlten URLs inklusive weiterführende Informationen, Statuscodes, Klicktiefen, Titellängen und vieles mehr.

URLs

Unter dem Reiter „URLs“ findet sich eine Auflistung der gecrawlten und gefundenen URLs zur jeweiligen Domains. Dazu findet man in der Tabelle wichtige Informationen wie Statuscode der URL, Distanz (Klicktiefe) um zur URL zu gelangen, interne Links die auf diese URL zeigen und vieles mehr. Ein erster Überblick über alles, was auf der Seite vor sich geht.

URL-Tabelle in Crawl.me

Hier sehe ich auch die Titles einer URL und andere Informationen, die für mich zu einem Überblick gehören. Mehr ist das bisher nicht. Aber: Es geht ja zum Glück noch weiter.

Statuscodes

Ein weiterer Reiter ist mit „Statuscodes“ beschriftet. Dahinter verbirgt sich die Anzeige, wie der Statuscode der einzelnen URLs aussieht. Im Idealfall gibt es nur 200er, was bedeutet dass alle URLs in Ordnung sind. Aber es gibt auch noch viele andere Statuscodes: 301er für Weiterleitungen, 404er für Fehler. Wenn Beispielsweise eine URL einen 404er ausgibt, sollte das behoben werden. Kritisch wird es, wenn zu viele davon auftauchen. Dann kann es nämlich gut sein, dass Nutzer auf Links klicken, die zu URLs führen die es gar nicht gibt. Benutzerfreundlich ist etwas anderes.

Statuscodes der eigenen URLs

Distanz

Balkendiagramm zur DistanzAls nächstes kommt die sogenannte „Distanz“ auf dem Schirm. Mit der Distanz wird der „Weg“ zu einem Dokument beschrieben. Liegen Dokumente zu weit weg, kommen vielleicht keine Benutzer mehr dort hin. Ebenso wie der Crawler von Google, der ja scheinbar nur URLs aufruft, die maximal 5 Klicks zum erreichen benötigen. Ist eine URL weiter davon entfernt, besucht der Crawler die URL womöglich nicht.

Auch Crawl.me gibt vor, dass im Idealfall alle Inhalte nicht mehr wie 5 Klicks zum erreichen benötigt werden. Der Crawler liefert die Informationen, die man benötigt: Sind alle URLs mit 5 Klicks erreichbar? Wie viele URLs gibt es in den einzelnen Ebenen? Insgesamt gibt es auf dieser Seite 2 Diagramme und eine Tabelle. In der Tabelle wird alles in Schriftform festgehalten und mit „Grün“ oder „Rot“ markiert. In dem Kreisdiagramm findet man die gleichen Angaben, nur in einem Kreisdiagramm. Und im Balkendiagramm? Das selbe, nur in Balkenform.

Wortanzahl

Kreisdiagramm für die WortanzahlEin nächster Punkt ist die Wortanzahl der einzelnen Domains. Hier sieht man, wie viele Wörter man verwendet und kann sich auch gleich die jeweiligen URLs anschauen. Crawl.me gibt vor, dass ein Dokument mindestens 200 Wörter haben sollte, da es sich ansonsten um „Thin Content“ handeln könnte. 200 Wörter sind gut, aber auch hier könnte man noch optimieren. Ich finde, dass die Zeiten in denen 200 Wörter einen Unterschied zwischen „Thin Content“ und guten Content ausmachen, sind vorbei. Klar, die Zahl der Wörter ist nicht unbedingt ein Qualitätssignal, aber meine Erfahrungen haben gezeigt, dass mehr Wörter einen deutlichen Unterschied machen können.

Am liebsten wäre mir, wenn man das ganze bei Crawl.me noch ein wenig nach oben schraubt. Aber auch hier findet man eine Übersicht über die gefundenen URLs und auch wieder zwei Diagramme sowie eine Tabelle. Alle sagen das gleiche aus, nur eben anders visualisiert. Wenn man unter 200 Wörter auf einer URL hat, zeigt Crawl.me das an und signalisiert somit dass Optimierungsbedarf besteht.

Länge des Titels

Was wichtiger ist: Die Länge des Titels! Ist der Titel zu kurz, verschwendet man kostbaren Platz, den man dafür nutzen könnte um die suchenden Personen zum klicken zu animieren. Ist der Titel zu lang, schneidet Google vielleicht wertvolle Informationen ab. Auch hier gibt das Onsite-Tool entsprechende Hilfestellung und zeigt an, auf welchen URLs aus welchen Gründen optimierungsbedarf besteht.

titellänge

H1-Überschriften

Ein weiterer Punkt sind die H1-Überschriften der unterschiedlichen Dokumente. Hier schaut sich Crawl.me an, ob sie zu kurz sind. Auch hier gilt: Diagramme und eine Tabelle visualisieren dir, wie viele Überschriften zu kurz sind. Zu kurz bedeutet in dem Fall: Weniger als 10 Zeichen und eine Überschrift gilt als zu kurz. Dann besteht Bedarf der Optimierung.

Mit einem Klick sieht man auch direkt welche URLs gemeint sind und bei welchen man eben noch die H1-Überschriften optimieren sollte, um auf ein ideales Ergebnis zu kommen.

Dateigrößen

DateigrößenEin für mich sehr wichtiger Punkt sind die Dateigrößen. Je größer eine Datei ist, desto länger brauchen sie zum Laden. Jeder Benutzer weiß wie ärgerlich es ist auf Inhalte des Webs zu warten, nur weil ein Webmaster viel zu große Dateien ins Internet stellt. Deswegen crawlt das Tool auch die Dateigrößen ab und verrät dir, welche URLs zu groß sind.

Zu groß bedeutet, dass die Größe der Datei mehr als 100KB sind. Dann besteht Optimierungsbedarf. In meinem Fall habe ich mit djtutorial.de gute Arbeit gemacht und alle Dateigrößen unter 100KB gehalten. So laden die Inhalte schnell und sind für den Nutzer schnell ersichtlich.

Ladezeiten

Wenn man schon bei den Dateigrößen ist, kann man auch direkt die Ladezeiten messen. Diese hängen nicht nur von den Dateigrößen ab, sondern auch vom Server. Braucht der Server zu lange um eine Seite laden zu lassen, wird das direkt in Crawl.me ersichtlich. Ein wichtiger Punkt wie ich finde denn auch hier gilt: Lädt eine Seite zu lange, hauen die Nutzer wieder ab. Benutzerunfreundlich bis zum geht nicht mehr.

Interne Verlinkung

Oft steht in Verbindung zur Onsite-Optimierung, dass die interne Verlinkung optimiert werden soll. Warum? Weil man so den Linkjuice gezielt lenken und schwächere URLs stärken kann, ohne auf externe Links zurückzugreifen. Damit eine interne Verlinkung optimiert werden kann, muss man wissen welche URLs mit zu wenig internen Links versorgt werden.

Dafür eignet sich Crawl.me sehr gut, da man hier sieht, welche URLs zu wenig Links bekommen und welche nicht. So kann man Schritt für Schritt die Dokumente verlinken und seine interne Verlinkung verbessern, um auch den Linkjuice durch die Seiten zu jagen.

Ups: Zu viele Dokumente haben zu wenig interne Links

Verzeichnisse und Subdomains

Zwei weitere Reiter sind die Verzeichnisse und die Subdomains. Die habe ich extra an den Schluss gehangen. Denn hier wird nur ausgegeben, welche Subdomains (in meinem Fall die www.-Domain) und welche Verzeichnisse (in meinem Fall die die meisten und wie viele URLs bereitstellen. Mehr gibt es hier eigentlich nicht zu sehen.

Externe Analyse

Nun geht geht an die externe Analyse im Onsite-Modul. Dabei gibt es Daten, die auch mit externen Dokumenten (also fremden Webseiten) in Verbindung stehen. Sprich: Ausgehende Links. Auch hier kann man viel optimieren bzw. beobachten. Was Crawl.me unter externe Analyse anbietet, zeige ich dir folgend.

Verlinkte Domains

Der erste von fünf Reitern in der externen Analyse zeigt die verlinkten Domains. Eine Übersicht über fremde Domains die auf unserer Domain verlinkt werden. In meinem Fall von djtutorial.de verlinke ich insgesamt 37 mal ausgehend und kann mir auch direkt anschauen auf welche Domains (und sogar URLs) die Links gehen. Beispielsweise kann so ich Links entfernen, die mir nicht richtig vorkommen. Man sollte auch aufpassen auf welche ausgehenden Seiten man verlinkt.

Ausgehende Links

Gefährliche Linktexte

Google mag Linkkauf nicht und kann gekaufte Links mittlerweile sehr gut erkennen. Kein Wunder: Gekaufte Links sollen im Idealfall immer den bestmöglichen Effekt haben und so kann man auch heute noch beobachten, dass Links meistens mit harten Money-Keywords verlinkt werden. Um eine Strafe durch verkaufte Links (auch Verkäufer werden abgestraft!) vorzubeugen, achtet Crawl.me auch auf die Linktexte der ausgehenden Links und warnt, wenn zu viele Links mit harten Ankertext vorhanden sind.

Ein gutes Modul wie ich finde, nur muss man immer schauen, ob Crawl.me recht hat. Ich habe auf djtutorial.de eine Auflistung für Onlineshops für DJs und alle mit einem Button verlinkt, der beschriftet ist mit „Jetzt zum Shop“. So weiß der Nutzer direkt, dass er über den Button direkt zum Shop gelangt. Scheinbar ist „Shop“ ein Money-Keyword in Crawl.me und daher wird diese Verlinkung angezeigt. Ob das jetzt so schlecht ist, kann ich mir nicht vorstellen, schließlich ist es eine Übersicht. Aus Sicherheitsgründen könnte man die Verlinkungen aber auch auf nofollow stellen.

Gefährliche Ankertexte ausgehender Links in Crawl.me

404er Links

Auch 404er Links auf externe Hosts zeigt Crawl.me an. Ein ebenfalls für mich wichtiger Punkt, da Nutzer beim Klick auf den Link auf eine externe Fehlerseite geleitet werden, was natürlich unschön ist. Somit bestimmt auch ein SEO-Faktor, schließlich möchte Google Seiten auf den vordersten Plätzen haben, die eben eine gute Nutzererfahrung anbieten.

Bei mir besteht in diesem Fall Optimierungsbedarf, da ich vier ausgehenden Links auf www.djtutorial.de anbiete, der auf eine 404-Fehlerseite verweist. Nachbessern und dem Nutzer entweder die richtigen Links, oder überhaupt keinen zur Verfügung stellen.

301er Links

Auch 301er Links werden angezeigt, also Links die in einer Weiterleitung enden. Somit kann die verlinkte Domain die Linkpower ausnutzen und Beispielsweise auf eine Domain weiterleiten, die es gar nicht würdig ist verlinkt zu werden. Ein weiterer Punkt kommt hinzu: Die Nutzer. Die klicken auf den Link und werden auf eine Seite weitergeleitet, die gar nicht empfohlen wurde. Das ist eher schlecht und sollte auch im Auge behalten werden.

Mögliche Expireds

Als nächsten Reiter bietet Crawl.me den Reiter „Mögliche Expireds“ an. Leider kann ich hierzu nicht wirklich was schreiben, da der Bereich momentan überarbeitet wird. Ich denke aber, dass angezeigt wird, auf welche möglichen Expireds rausverlinkt wird.

Duplicate Content

Duplicate ContentDer letzte Punkt des Onsite-Modus ist der Duplicate Content. Hier bekommt man URLs ausgeworfen die den gleiche Title haben und somit vermutlich auch die gleichen Inhalte. Das gilt es zu überprüfen, besonders die Canonical-URLs. Denn gleiche Inhalte im Web sind nicht gut – aber auf der eigenen Domain eben auch nicht besonders schädlich. Kommt es allerdings zu häufig vor, dass die gleichen Inhalte verfügbar sind, kann man seine eigene Seite schon abwerten. Deshalb sollten die Canonicals richtig gesetzt werden, um Google zu signalisieren, welche URL die originale ist und der originale Content liegt.

2 Kommentare

  1. Ich schau mir das Tool aktuell auch an. Die Übersicht gefällt mir sehr gut und erlaubt einen sehr schnellen ersten Eindruck. Bei der OnPage-Optimierung kommt man nicht unbedingt an OnPage.org dran – oder liege ich da gänzlich falsch? – aber ermöglicht mir die ersten Details abzustellen. Aber es ist wie immer: Nicht alles muss sinnvoll sein.

    Auch das Monitoring schaue ich mir mal ein paar Tage an. Über den Preis brauchen wir denke ich nicht sprechen. Testet du denn auch die Verbindung mit der Sistrix-API bzw. kannst du hierzu Details geben?

  2. Mit der SISTRIX API schaltest du die Funktion frei, dass dir der Sichtbarkeitsindex in der History angezeigt wird. Dann hast du diesen auch im Tool und kannst ihn gleich über die andere Daten legen, um zu sehen wie sich dein Projekt im Laufe der Zeit in Relation zu anderen Entwicklungen in der Sichtbarkeit geändert hat.

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht.


*