• Erste SEO Schritte leichtgemacht

    SEO Optimierung ist mehr als nur die Auffindbarkeit in der Google Suche, auch wenn es häufig nicht den Anschein hat. Natürlich ist die Auffindbarkeit (Google Seite 1 Ranking) ein ganz wesentlicher Punkt um sich mit dem Thema zu beschäftigen, aber daneben spielen bereits auch inhaltiche Aspekte eine Rolle und deren Bedeutung nimmt zu.

    Vereinfacht gesagt gibt es im Thema SEO Optimierung 2 wesentliche Aspekte zu beachten. Zum einen die technischen Grundlagen nach denen z.B. der Googlebot arbeitet, zum anderen aber auch zunehmend inhaltliche Punke. Die teschnischen Grundlagen sollten auf jeden Fall immer umgesetzt werden, einmal gemacht ist das mehr ein bisschen Fleißarbeit als wirklich „technische“ Arbeit. Und die Arbeit lohnt sich – guter Inhalt muss ja auch gefunden werden. Am einfachsten ist es sich gleich von Anfang an beim Verfassen eines Beitrags auf die grundlegenden Punkte zu achten.

    Technische SEO Optimierung

    Vorab: Hierfür gibt es viele SEO Tools, kostenfreie und kostenpflichtige, in Blog Frameworks integrierte oder eigenständige. Manche Tools analysieren ganze Web Seiten/ Blogs, mache zielen auf einzelne Artikel ab. Eine Empfehlung ist auf Grund der unterschiedlichen Anforderungen kaum möglich. Allerdings reicht der Funktionsumfang der kostenlosen Tools um die grundlegenden technischen Punkte zu optimieren.

    Beispielsweise werten die Tools Fragen aus wie z.B. die Länge des Titel Tag, die Meta Description, die Keywort Dichte der Seite, und Verlinkungen und bewerten diese. Für die Bewertung ist es dabei letztlich uninteressant ob es sich um eine ganze Web Seite oder nur einen Beitrag handelt – die Kriterien sind sehr ähnlich.  Es empfiehlt sich aber trotzdem sowohl die Web Seite als ganzes als auch jeden einzlenen Beitrag einer technischen Bewertung zu unterziehen. Es ist dabei nicht notwendig alle aufgeführten Punkte dem Tool nach „optimal“ umzusetzen, aber es empfiehlt sich schon die machbaren auch entsprechend anzupassen.

    Gliederung, Satzlänge, Anzahl Worte, Keyword Dichte, Lesbarkeit, Absatzlänge – das sind Kriterien der Beitragsanalyse. Natürlich kann ich diese Kriterien schon beim Verfassen berücksichtigen. Die eigentliche Frage ist häufig: formuliere ich weden den SEO Kriterien anders und wie erhalte ich dabei meinen eigenen Schreibstil. Unsere Erfahrung ist, dass es mit ein bisschen Übung deutlich einfacher wird. Ein bisschen anpassen muss man sich aber schon. Aber keine Angst davor, wir sind auch noch niemandem begegnet der aus dem Stand optimal geschriebene, authentische Texte verfasst hat.

    Was ist mit Facebook und co.?

    Geschlossene Plattformen wie Facebook haben keine SEO Relevanz per se und werden, außer bei gezielter Suche, auch normalerweise in den Suchergebnissen nicht angezeigt. Einzelne Elemente haben aber ähnliche Wirkung bzw. zielen auf das gleiche Ziel ab: Relevante Inhalte auffindbar zu machen. Keywords, #Tags usw. dienen letzentlich auch der Auffindbarkeit bzw. Strukturierung von Inhalten. Allerdings werden auf den Plattformen stärker auch andere Faktoren hinsichtlich der Relevanz gewichtet wie z.B. Verlinkungen, Aufrufe, etc..

    Fazit

    SEO Optimierung ist sicherlich mehr als Keyword Dichte und Meta Daten Anpassung. Es ist sicher auch ein bisschen Arbeit damit verbunden aber es lohnt sich. Auch wenn die Ergebnisse nicht direkt im Google Ranking ablesbar sind. SEO Optimierung ist ein Prozeß der sich in verschiedene Teile aufsplitten lässt und zumindest die technische Optimierung sollte unbedingt umgesetzt werden. Ob man seinen Schreibstil dabei komplett umstellt oder lieber sich selber treu bleibt ist jedem selbst überlassen. Am Ende wird sich auch immer Qualität in den Beiträgen durchsetzen und Eure Follower werden Eure Beiträge lesen egal ob ein Analyse Tool den Beitrag nun als optimal oder verbesserungswürdig anzeigt. Wenn Ihr aber mehr Menschen erreichen wollte, dann müsst Ihr gefunden werden. Und dabei hilft Euch SEO ganz sicher.

  • Das Mysterium Googlebot – kann ich ihn kontrollieren?

    Im nächsten Teil möchten wir etwa mehr über die Möglichkeiten, die der Googlebot, die robot.txt und die sitemaps.xml zur Optimierung bieten, schreiben.

    Nach dem wir uns im ersten Teil mit den Grundlagen zur Optimierung von Webseiten befasst haben, möchten wir heute ein bisschen tiefer in die Thematik um Googlebot, robots.txt und xml sitemaps eintauchen.

    Zuerst möchte ich mich dem Googlebot zuwenden und auf die Frage eingehen, ob es eine Möglichkeit gibt um ihn zu kontrollieren bzw. zu beeinflussen?

    Und ja, es gibt definitiv einige Möglichkeiten um den Googlebot zu kontrollieren. Die einfachste und erste Anlaufstelle ist:

    • Verwende eine robots.txt in der der für den Googlebot zugängliche und indexierbare Inhalt detailliert beschrieben ist.
    • Eine andere Möglichkeit ist es, für den Googlebot Instruktionen in den Metadaten deiner Webseite und / oder im Header zu hinterlegen.
    • Sitemaps dienen auch dazu, es dem Googlebot einfach zu machen deine Seite korrekt zu erfassen
    • Und zu guter Letzt gibt es durch die Verwendung der Google Search Konsole einige Möglichkeiten.

    Im Folgenden möchte ich auf die einzelnen Punkte eingehen.

    DEN GOOGLEBOT KONTROLLIEREN?

    Aber sicher: Er befolgt genau die in der robots.txt hinterlegten Regeln zum Durchsuchen deiner Webseite.

    Anbei weitere Möglichkeiten den Googlebot zu kontrollieren:

    • Schreibe Anweisungen für den Bot in die Metadaten deiner Webseite
    • Hinterlegte Anweisungen für den Bot im Header Deiner Seite
    • Erstelle eine Sitemap deiner Seite
    • Nutze die Google Search Konsole

    Am häufigsten wird die robots.txt file genutzt um dem Googlebot Informationen zukommen zu lassen.

    Daher die nächste Frage: was ist eine robots.txt File eigentlich genau?

    Die robots.txt File gibt vor, wie Suchmaschinen durch ihre Bots mit deiner Webseite interagieren. Die robots.txt File gibt so zu sagen die Regeln vor. Das geschieht in Form einer Auflistung von Seiten und Inhalten, die der Bot durchsuchen soll und die sich in der robots.txt befindet.

    Häufig wird die robots.txt File bei der Erstellung eines Blogs und / oder Webseite automatisch mit angelegt. Normalerweise reichen die dort standardmäßig hinterlegten Daten auch als Einstellung aus. Solltest du aber mehr über die robots.txt File wissen wollen, empfehlen wir dir die Google Webseiten zu diesem Thema – natürlich auf Deutsch.

    Informationenrobots.txt file

    Spezifikationen: robots.txt Spezifikationen

    Weitere Spezifikationen: Robots-Meta-Tags und X-Robots-Tag-http-Header

    Sitemaps und Googlebots

    Ganz generell gesprochen sind die Sitemaps Landkarten deiner Webseite, d.h. der Googlebot (und auch andere Suchmaschinen Bots) erfährt aus der Sitemap wie deine Seite aufgebaut ist und unterstützt den Bot dabei die Webseite möglichst gut zu verstehen. Die Sitemap ist besonders sinnvoll wenn:

    • Sehr große Webseiten vorliegen
    • Deine Seite über große Archive mit Inhalten verfügt die vielleicht nicht mehr optimal verlinkt sind
    • Deine Seite neu ist und nur wenige Weblinks auf sie verweisen
    • Auf deiner Seite „rich media content“ gezeigt wird, diese in Google News angezeigt werden soll oder wenn du Anmerkungen in der Webseite nutzt die allerdings dann Sitempas kompatibel sein müssen

    Mit Sitemaps können viele weitere Punkte genutzt werden, aber im Bezug auf den Googlebot, dient die Sitemap nur als Auflistung von URLs und andere Daten, die ihm an die Hand gegeben werden während er die Seite scannt.

    Google hat eine sehr gute Beschreibung online wie Sitemaps erstellt und eingereicht werden können.

    Googlebot und die Google Search Konsole

    In der Google Search Konsole kannst Du auch bestimmte Einstellungen vornehmen. So kannst Du in der Google Search Konsole die Häufigkeit mit der der Googlebot deine Webseite durchsucht kannst Du die Häufigkeit in der Search Konsole z.B. einstellen.

    In der Google Hilfe wird das schrittweise Vorgehen detailliert beschrieben.

    Daneben kannst Du in der Search Konsole auch sehen welche Daten der Googlebot in deiner rotobts.txt findet, Fehler bei Durchsuchen der WebSeite anzeigen lassen und ganz generell ein Verständnis entwickeln wie Google Deine Webseite sieht.

    Wie viele Googlebots gibt es eigentlich?

    Es gibt in Summe 9 unterschiedliche Google webcrawlers. Da nicht alle für uns relevant sind anbei nur eine kurze Auflistung:

    Google:

    • Smartphone
    • Mobile (Feature phone)
    • Web Search
    • Adsense
    • Mobile Adsense
    • Adsbot (landing page quality check)

    Googlebot:

    • Images
    • Video
    • News

    Eine Übersicht und detaillierte Erklärung zu den einzelnen Bots findest Du bei Google!

  • Das Mysterium Googlebot – zu klärende Fragen!

    Der Googlebot ist der Weg wie Google seinen Index pflegt. Es ist daher wichtig, dass ich mir als Webmaster einer Seite folgende Fragen stelle und beantworte:

    Kann der Googlebot:

    1. alle meine Webseiten erfassen?
    2. auf meinen kompletten Content und die Links zugreifen?
    3. auch alle meine Seiteninhalte erkennen?

    Es lohnt sich das ein bisschen genauer unter die Lupe zu nehmen:

    1. Kann der Googlebot alle meine Webseiten erfassen?

    Um eine Vorstellung zu bekommen was Google von deiner Webseite sieht und erfasst genügt eine einfache Google Suche:

    Googlebot

    Durch das voranstellen von „site:“ vor deiner Domain, stößt du die Suche nach den Inhalten an, welche Google von deiner Domain indiziert hat. Optimaler Weise enthält die Anfrage kein Leerzeichen zwischen „site:“ und deiner Domain.

    Das angezeigte Ergebnis ist das was Google von deiner Seite erfasst. Ist es weniger als erwartet solltest du überprüfen, ob du z.B. den Googlebot in robot.txt (dazu kommen wir im 2. Teil im Detail) blockst und ob Google tatsächlich Zugriff auf deine Ressourcen hat.

    2. Kann ER auf allen meinen kompletten Content und die Links zugreifen?

    Der nächste Schritt ist es sicherzustellen, dass Google deine Inhalte und Links korrekt erfassen kann. Unterliegt bitte nicht dem fehlglauben, dass nur weil der Googlebot deine Seite erfassen kann, Google tatsächlich das optimale Bild von deiner Seite hat.

    Die Vorgehensweise des Googlebots ist dabei die, dass nicht die ganze Webseite im Ganzen erfasst wird, sondern nur die einzelnen Inhalte der Seite, wie z.B den HTML und CSS Code. Wenn nun einzelne Inhalte nicht zugänglich sind, werden diese nicht erfasst. D.h. da er Webseiten nicht wie ein Mensch sieht, kann er z.B. keine Bilder erkennen sondern nur den Code, der das Bild beschreibt. Wenn z.B. der Code des Bildes für den Googlebot nicht zugänglich ist, erhält Google kein vollständiges Bild von deiner Webseite. Die Informationen werden also auch nicht im Index von Google erscheinen.

    Nun gibt es viele verschiedene Gründe, warum der Googlebot bestimmte Webseiten Inhalte nicht indexieren kann. Hier einige Beispiele von häufigen Gründen:

    • Robots.txt verweigert Zugang zu bestimmten Inhalten
    • Seitenlinks sind nicht erreichbar oder fehlerhaft
    • Wenn z.B. zu viele Flash-Komponenten (oder andere Technologien) eingesetzt werden, mit denen der Googlebot Probleme hat
    • Schlechte Qualität des HTML Code oder Fehler im Code

    Am einfachsten lassen sich die Punkte im Google Webmaster Tool überprüfen, es gibt aber auch andere Tools die das prüfen können.

    3. Kann ER auch alle meine Seiteninhalte erkennen?

    Solltest Du CSS oder JavaScript auf deiner Seite verwenden die durch deine robot.txt File blockiert werden, kann das bei Google „Verwirrungen“ hinsichtlich des Inhalts deiner Seite hervorrufen. Die „Verwirrungen“ können dabei sehr viel größer sein als z.B. nur ein Bild nicht mit zu indizieren. Im schlimmsten Fall kann es dazu führen, dass deine Webseite mit falschen Angaben indiziert wird oder das bestimmte Möglichkeiten, wie z.B. dass eine für Mobile Device optimierte Seite, nicht von Google wahrgenommen werden kann.

    Nutzt Du z.B. CSS oder JavaScript zur Festlegung, von welchem Device aus die Seite betrachtet wird und der CSS oder JavaScript Code ist für den er nicht zugänglich, kann es sein, dass der Googlebot die Inhalte deiner Seite erfassen, aber nicht feststellen kann, dass die Seite auch für mobile Device optimiert dargestellt werden kann. Auch das lässt sich mit einem einfach Tool wie z.B. dem kostenlosen Google Guideline Tool überprüfen.

  • Das Mysterium Googlebot – Basics

    Wenn es um Sichtbarkeit von Webseiten, Blogs, etc. geht, ist man schnell bei Google und beim Googlebot. Häufigste Frage: auf welcher Seite im Google Ranking tauchst Du auf.

    Um Dir mal einen Einblick zu geben, welche Faktoren hier eine Rolle spielen und was sich genau dahinter verbirgt, haben wir das mal zusammengeschrieben. Wie bei Google üblich, sind nicht alle Details bekannt bzw. werden nicht bekannt gegeben. Jedoch für die Allermeisten bietet der Beitrag sicherlich viel Neues.

    Heute beschäftigen wir uns mit dem sogenannten Googlebot und welche bekannten Punkte zu beachten sind. Wir Verfassen aber immer wieder Artikel die sich mit einzelnen Themen rund um SEO befassen. Themen sind z.B. Linkkennzeichnung, Praxistipps und weitereführende Artikel zu Google.

    Zum Anfang zwei Begriffsdefinitionen:

    Googlebot = ein Webcrawler den Google verwendet um Webseiten zu finden und Informationen über die Seite zu sammeln um den Google Index zu aktualisieren.

    Webcrawler = Webcrawler werden manchmal auch als Bots oder Robots bezeichnet und sind lediglich einige Zeilen Sofwarecode, entwickelt mit dem Ziel Informationen zu sammeln und diese an eine zu definierende Zieladresse zu schicken. Dazu ist der Googlebot ständig unterwegs und besucht Milliarden von Webinhalten im gesamten Web und sammelt, aktualisiert Information.

    Was genau tut der Googlebot aber nun?

    Er besucht Webseiten im Internet und erfasst die Inhalte (Worte, Hashtags, Keywords, etc.), die den Inhalt der Webseite beschreiben. Eine Bewertung der Inhalte nimmt der Googlebot dabei nicht vor.

    Außerdem prüft er, ob die Seite über Verlinkungen zu anderen Seiten verfügt und erfasst auch diese Informationen.

    Wenn der Bot die Informationen zu einer Seite vollständig erfasst hat, schickt der Bot alle erfassten Informationen an Google und dort wird der Index vervollständigt oder upgedated.

    Der Google Index ist das Verzeichnis in dem Webseiten von Google verglichen und geranked werden. Soll eine Webseite bei Google in den Suchergebnissen vorkommen, muss diese für den Googlebot sichtbar sein. Das bedeutet, die entsprechenden Angaben müssen in der Datei robot.txt im Quelltext angegeben sein.

    Um ein möglichst optimales Ergebnis im Google Ranking zu erreichen und gegebenenfalls auf der ersten Seite der Suche zu landen, sollten alle Webseiten und Quellen für den Googlebot einsichtig bzw. zugänglich sein.