Die Google Webmaster Tools, nicht nur für den Profi!

Wenn Sie wissen wollen wie Ihre Website tatsächlich bei Google abschneidet dann führt kein Weg an den Webmaster Tools vorbei. Die Benützung ist wie bei Google Analytics komplett kostenlos und erlaubt einen tiefen und wichtigen Einblick in das Ergebnis Ihrer SEO Bemühungen. Wo steht man? Wie oft wird man geklickt? Wie sieht die Performance der letzten Wochen aus? Alle diese Fragen können die Webmastertools beantworten und noch ein bisschen mehr!

Einrichtung der Google Webmaster Tools

Anders als bei Analytics muss man keinen JavaScript Code in die Website integrieren. Kann man grundsätzlich auch machen, es geht aber auch mit einer Datei die per FTP hochgeladen wird. Google bietet hier verschiedene Formen an die Website zu verifizieren (Abbildung 1). Logisch, sonst könnte ja jeder die Daten über Ihre Website abrufen. Wichtig ist, dass Sie die URL Ihrer Website exakt eintragen, inkl. http:// bzw. https:// damit wirklich die korrekten Daten angezeigt werden. Tipp am Rande: Sollte sich Ihre Domain ändern, bitte achten Sie darauf, dass Sie bei allen alten Properties die Sitemaps direkt entfernen. Sonst werden diese trotz Löschung des Properties trotzdem ständig ausgelesen!

Webmaster Tools Abbildung 1

Abbildung 1

Wichtige Funktionen Webmaster Tools

Was sieht man am Dashboard? Das Dashboard ist die Startseite der Webmaster Tools, diese bietet eine Übersicht über zwei besonders wichtige Werte (Abbildung 2):

Webmaster Tools Abbildung 2

Abbildung 2

  • Anzahl Klicks über Google
  • Indizierte vs. an den Index geschickte Seiten

Die Klicks sind die Klicks auf eines Ihrer Ergebnisse, welche direkt zu Ihrer Seite kommen. Die indizierten Seiten sind die Seiten, welche von Google erfasst sind und die an den Index geschickten Seiten sind alle Seiten, welche in Ihrer übermittelten Sitemap vorkommen.

Sitemaps und noindex

Das wichtigste für die Webmaster Tools ist es, die Seiten per Sitemap (sitemap.xml) an Google zu senden (Abbildung 3). Dies meint nicht die Sitemap, die manche Websites anbieten, sondern es handelt sich dabei um eine XML Datei mit allen von Google zu indizierenden Seiten. Es empfiehlt sich pro Sprache eine eigene Sitemap zu erstellen. Auch bei mehr als 10.000 Einträgen ist es empfehlenswert die Sitemap auf mehrere Dateien aufzuteilen. Wir empfehlen die Sitemap direkt im CMS bzw. der Web-Anwendung generieren zu lassen und keine Tools von extern zu verwenden. Es ist entscheidend, welche Seiten an Google geschickt werden. Ideal ist es, wenn die Anzahl an übermittelte Seiten gleich der Anzahl indizierter Seiten ist (Abbildung 4). Sind diese Werte weit auseinander hat dies meist den Grund, dass die nicht indizierten Seiten für Google Defizite aufweisen. Dies kann eine zu lange Ladezeit sein, als auch zu wenig Inhalt sein oder sonstige Gründe haben. Der Profi kann das in der Regel herausfinden, was das Problem ist. Auch Duplicate Content kann ein Thema sein. So entpuppen sich die Übersichtsseiten mit vielen Teasern oft als reine Kopien von nachfolgenden Inhalten, dies indiziert Google in der Regel nicht. Hat man die Seiten identifiziert, welche nicht indiziert werden, so sollten diese in den Meta-Tags auf „noindex,follow“ gesetzt und aus der Sitemap entfernt werden. So helfen einem die Webmaster Tools einerseits Seite, welche Defizite aufweisen zu identifizieren, andererseits kann man diese aber auch gezielt auslisten, sollten diese so oder so keine Klicks über Google generieren.

Webmaster Tools Abbildung 3 und 4

Klicks, Impressionen, Position und die berühmte CTR

Wichtige KPIs für die Betreiber von Websites sind die Impressionen, Klicks und das Verhältniszueinander in CTR (Click Through Rate) ausgedrückt. Die Impressionen geben an, wie oft das Suchergebnis angezeigt wurde. Je weiter vorne man ist (Seite), desto mehr Impressionen wird man bei dem Suchbegriff haben. Bei hart umkämpften Begriffen hat man auch auf Seite 2 oder 3 noch beachtlich viele Impressionen. Die Klicks erklären sich fast von selbst, dies ist die Anzahl der Klicks auf das Suchergebnis, das zur eigenen Seite geführt hat. Das Verhältnis zueinander also wie viel Prozent haben bei den Impressionen geklickt drückt sich in der Click Through Rate aus. Die Position gibt an, welche man im Schnitt im gewählten Zeitraum hatte. Dies ist insofern wichtig, da die Positionen je nach Benutzer erheblich schwanken. Mit dem eigenen Browser und seiner gesamten gespeicherten Historie einen Text zu machen um zu sehen wo man steht ist nicht sehr aussagekräftig, weil dies nur für die eigenen Daten gilt, nicht über alle Benutzer global. Daher ist dieser Wert entscheidend, welche Position man bei Google tatsächlich bekleidet (Abbildung 5).

Google Webmaster Tools Abbildung 5

Abbildung 5

Crawling Fehler, Crawling Statistiken und die robots.txt

Was macht Google eigentlich so den ganzen Tag? Diese Frage bleibt mit den Crawling Statistiken nicht mehr unbeantwortet (Abbildung 6). Wie oft der Bot (Computerprogramm, welches automatisiert die Website durchforstet und indiziert) vorbeikommt kann man in den Crawling Statistiken beobachten. Je mehr aktuellen Inhalt man anbietet, desto öfter kommt der Bot vorbei. Wenn er dabei Fehler entdeckt, z.b. „Broken Links“ (Links die auf der Website vorkommen, aber zu einer „nicht gefunden“ Seite führen) werden diese protokolliert und ausgegeben. Im Punkt Crawling verbirgt sich noch ein spannender Punkt: „Abruf wie durch Google“. Damit lassen sich manuell z.B. neue Seiten zum Index hinzufügen. Dies ist ratsam, wenn man einen neuen Artikel online gestellt hat und die Indizierung beschleunigen möchte. Im Monat kann man bis zu 500 URIs hinzufügen, dies sollte für den Hausgebrauch normalerweise reichen. Gerade wenn die eigenen Inhalte gerne von fremden Seiten kopiert werden (Presseaussendungen) ist es ratsam den Artikel rasch selbst hochzuladen und die Indexierung zu beschleunigen.

Crawling Statistiken

Abbildung 6

Auch ganz praktisch und oft vernachlässigt ist die robots.txt Datei. Viele behaupten, dass man sowieso alles über die .htaccess steuern kann, stimmt, aber Google hätte trotzdem gerne eine korrekte robots.txt Datei und wenn darin nur beschrieben ist, wo die Sitemaps liegen. Dies kann nämlich auch in einer robots.txt abgelegt werden und ist dann nicht nur für Google sondern auch für andere Dienste und Suchmaschinen auslesbar.

Externe Links und Link Building

Vor nicht allzu langer Zeit wurde (auch von Google) das Ende der externen Links verkündet. Zu früh wie wir meinen. Weil nach wie vor die Anzahl und Qualität der externen Links für die Suchmaschinenoptimierung relevant ist. In welcher Höhe, das lässt sich leider nur mehr sehr schwer abschätzen. Nichtsdestotrotz hat Google in den Webmastertools unter Suchanfragen > Links zu Ihrer Website ein Werkzeug untergebracht mit dem die Anzahl und die Wörter unter denen externe Seiten verlinken aufgelistet werden kann. Ein sehr einfaches Tool, welches nicht sonderlich viel Information bietet, aber ein wichtiges Indiz, dass die externen Links nach wie vor eine Rolle spielen.

Verknüpfung Google Analytics und Webmaster Tools

Damit die Suchanfragen bei Analytics wie bei den Webmaster Tools angezeigt werden können, lassen sich die beiden Tools miteinander verbinden. Gehen Sie im Verwaltungsmenu (Abbildung 7) auf „Google Analytics Property“ (Abbildung 8). Dort können Sie aus der Liste Ihrer Analytics Konten das richtige Konto auswählen (Abbildung 9). Sicherheitsfrage aufmerksam durchlesen, bestätigen (Abbildung 10). In Google Analytics können Sie jetzt auf die Daten zugreifen (Abbildung 11).

Google Webmaster Tools Abbildung 7 - 10

Webmaster was?

Wir haben gerade mal die Basis der Webmaster Tools behandelt und es gäbe noch viel mehr zu erzählen aber das würde den Rahmen sprengen. Trotzdem kein Durchblick mehr, trotz unserer Tipps? Kein Problem, es hat ja einen Grund warum es für diesen Teilbereich des Webs Spezialisten und Experten gibt. Daten und Analysen sind das eine, aber was wirklich zählt ist was man dann daraus für Handlungsableitungen und Empfehlungen ableitet. Genau hier fängt der Erfolg an. Wir helfen Ihnen gerne bei diesem Weg und stehen mit Beratung und Know How zur Verfügung.

Immer am Laufenden auf unseren Fanseiten auf Facebook und Instagram

Digihall - das Magazin für digitales Marketing

18.07.2018 - „The winner takes it all - oder warum Zweiter zu sein, heutzutage nicht mehr reicht“ - ja genau so dramatisch formulieren wir von Widerhall das Thema der Digitalisierung. Lesen Sie mehr darüber!

> Weiterlesen

APLIKO – das Content Management System

14.04.2018 - Das Ziel ist für alle gleich: man möchte informieren und/oder verkaufen. Dazu müssen aber zuerst einmal möglichst viele Besucher zur Website finden und dann auch gehalten werden. Das wiederum verlangt nach einer Topplatzierung bei Google und anderen Suchmaschinen!

> Alles zu Apliko

Aufgaben und Möglichkeiten eines modernen Kundenmagazins im Bereich B2B

10.02.2018 - Vor mehr als 40 Jahren wurde Funk Fuchs als 1-Mann Betrieb in Sattledt gegründet. Zuerst nur mit dem Vertrieb von HBC-electronic Sprechfunkgeräten für das Transportgewerbe und für kommunale Einrichtungen in Österreich beschäftigt, kamen mit der Einführung der Autotelefone und später der Mobiltelefone weitere Bereiche dazu.

> Alles zum Kundenmagazin

Die Social Media Trends für 2018

11.12.2017 - Passend zum Jahresende haben wir einen kleinen Rückblick auf die Social Media Welt gemacht und uns angesehen, welche Trends sich im vergangenen Jahr herauskristallisiert haben und uns auch das nächste Jahr noch begleiten werden.

> Alles zu den Trends 2018