• Erste SEO Schritte leichtgemacht

    SEO Optimierung ist mehr als nur die Auffindbarkeit in der Google Suche, auch wenn es häufig nicht den Anschein hat. Natürlich ist die Auffindbarkeit (Google Seite 1 Ranking) ein ganz wesentlicher Punkt um sich mit dem Thema zu beschäftigen, aber daneben spielen bereits auch inhaltiche Aspekte eine Rolle und deren Bedeutung nimmt zu.

    Vereinfacht gesagt gibt es im Thema SEO Optimierung 2 wesentliche Aspekte zu beachten. Zum einen die technischen Grundlagen nach denen z.B. der Googlebot arbeitet, zum anderen aber auch zunehmend inhaltliche Punke. Die teschnischen Grundlagen sollten auf jeden Fall immer umgesetzt werden, einmal gemacht ist das mehr ein bisschen Fleißarbeit als wirklich „technische“ Arbeit. Und die Arbeit lohnt sich – guter Inhalt muss ja auch gefunden werden. Am einfachsten ist es sich gleich von Anfang an beim Verfassen eines Beitrags auf die grundlegenden Punkte zu achten.

    Technische SEO Optimierung

    Vorab: Hierfür gibt es viele SEO Tools, kostenfreie und kostenpflichtige, in Blog Frameworks integrierte oder eigenständige. Manche Tools analysieren ganze Web Seiten/ Blogs, mache zielen auf einzelne Artikel ab. Eine Empfehlung ist auf Grund der unterschiedlichen Anforderungen kaum möglich. Allerdings reicht der Funktionsumfang der kostenlosen Tools um die grundlegenden technischen Punkte zu optimieren.

    Beispielsweise werten die Tools Fragen aus wie z.B. die Länge des Titel Tag, die Meta Description, die Keywort Dichte der Seite, und Verlinkungen und bewerten diese. Für die Bewertung ist es dabei letztlich uninteressant ob es sich um eine ganze Web Seite oder nur einen Beitrag handelt – die Kriterien sind sehr ähnlich.  Es empfiehlt sich aber trotzdem sowohl die Web Seite als ganzes als auch jeden einzlenen Beitrag einer technischen Bewertung zu unterziehen. Es ist dabei nicht notwendig alle aufgeführten Punkte dem Tool nach „optimal“ umzusetzen, aber es empfiehlt sich schon die machbaren auch entsprechend anzupassen.

    Gliederung, Satzlänge, Anzahl Worte, Keyword Dichte, Lesbarkeit, Absatzlänge – das sind Kriterien der Beitragsanalyse. Natürlich kann ich diese Kriterien schon beim Verfassen berücksichtigen. Die eigentliche Frage ist häufig: formuliere ich weden den SEO Kriterien anders und wie erhalte ich dabei meinen eigenen Schreibstil. Unsere Erfahrung ist, dass es mit ein bisschen Übung deutlich einfacher wird. Ein bisschen anpassen muss man sich aber schon. Aber keine Angst davor, wir sind auch noch niemandem begegnet der aus dem Stand optimal geschriebene, authentische Texte verfasst hat.

    Was ist mit Facebook und co.?

    Geschlossene Plattformen wie Facebook haben keine SEO Relevanz per se und werden, außer bei gezielter Suche, auch normalerweise in den Suchergebnissen nicht angezeigt. Einzelne Elemente haben aber ähnliche Wirkung bzw. zielen auf das gleiche Ziel ab: Relevante Inhalte auffindbar zu machen. Keywords, #Tags usw. dienen letzentlich auch der Auffindbarkeit bzw. Strukturierung von Inhalten. Allerdings werden auf den Plattformen stärker auch andere Faktoren hinsichtlich der Relevanz gewichtet wie z.B. Verlinkungen, Aufrufe, etc..

    Fazit

    SEO Optimierung ist sicherlich mehr als Keyword Dichte und Meta Daten Anpassung. Es ist sicher auch ein bisschen Arbeit damit verbunden aber es lohnt sich. Auch wenn die Ergebnisse nicht direkt im Google Ranking ablesbar sind. SEO Optimierung ist ein Prozeß der sich in verschiedene Teile aufsplitten lässt und zumindest die technische Optimierung sollte unbedingt umgesetzt werden. Ob man seinen Schreibstil dabei komplett umstellt oder lieber sich selber treu bleibt ist jedem selbst überlassen. Am Ende wird sich auch immer Qualität in den Beiträgen durchsetzen und Eure Follower werden Eure Beiträge lesen egal ob ein Analyse Tool den Beitrag nun als optimal oder verbesserungswürdig anzeigt. Wenn Ihr aber mehr Menschen erreichen wollte, dann müsst Ihr gefunden werden. Und dabei hilft Euch SEO ganz sicher.

  • Praxistipp: rel=amphtml und rel=canonical?

    Immer wieder kommen werden Fragen nach Link Bezeichnungen aufgeworfen. Die geläufigste Link Bezeichnung ist sicherlich rel=nofollow über die wir bereits früher in einem kurzen Praxistipp geschrieben haben.

    Die Link Kennzeichnung als rel=nofollow ist also in allen unseren vergebenen Aufträgen zwingend gefordert. Es gibt aber weitere Bezeichnungen von denen wir Euch heute 2 interessante vorstellen möchten.

    Was bedeutet die Link Bezeichnung rel=amphtml und wofür wird es verwendet?

    Am einfachsten ist es wie immer an einem praktischen Beispiel zu erklären:  <link rel=“amphtml“ href=“https://www.t5content.de/amp-page.html”>

    diese Linkbezeichnung sagt folgendes aus. Es gibt eine AMP Version der hinterlegten Web Seite (im Beispiel „https://www.t5content.de/). Unter dem angegebenen Link ist die AMP Seite für Google auffindbar.

    AMP?

    AMP ist die Abkürzung für „accelerated mobile pages“ und zeigt Suchmaschinen wie Google an, dass eine Web Seite in einer für Mobilgeräte optimierten Spezifikation vorliegt. Die Beschreibung geht dabei auf ein Open Source Projekt zurück. Das Kernziel ist mobile Web Seiten, die in der Performance und Darstellung optimiert sind, auf mobilen Geräten anzuzeigen anstatt die nicht optimierten komplett zu laden. Die speziellen AMP Seiten werden auch vom Googlebot indiziert und schließlich im Google Index abgelegt.

    Was geschieht nun? Ruft man von einem mobilen Endgerät eine Web Seite auf die mit rel=amphtml versehen ist, wird das aufrufende mobile Endgerät auf die AMP Seite geleitet.

    rel=canonical: wieder zurück

    Da nun ja 2 Web Seiten des gleichen Inhaltes vorliegen müssen auch die AMP Seiten mit entsprechenden „Wegweisern“ versehen werden, falls ein Nutzer nicht mit einem mobilen Endgerät zugreift. Die rel=canonical dient unter anderem genau dazu: AMP Seiten bzw. deren mobil optimierten Code können mit dem Verweis auf die ursprüngliche Web Seite verweisen, d.h. Anfragen werden zur entsprechenden Web Seite geleitet.In unserem Beispiel würden wir in den Code der Seite https://www.t5content.de/amp-page.html über die im Header eingebaute Linkkennzeichnung <link rel=canonical href=https://www.t5content.de> auf die „nicht AMP“ Version verweisen.

    … und einiges mehr

    Darüber hinaus lässt rel=canonical auch in anderen Szenarien einsetzen, z.B. um trotz unterschiedlicher URL Variationen auf eine richtige Seite zu verweisen. Auch hierzu ein kurzes Beispiel. Unsere Homepage/ Anwendung unter https://www.t5content.de ist theoretisch auch unter verschiedenen anderen Schreibweisen zu erreichen. Anmerkung: wir haben nicht alle tatsächlich belegt. Ob über http://www.t5ontent.de, https://www.t5content.de/index.html, https://t5content.de und viele mehr wäre unsere Seite zu erreichen. Was bedeutet das? Verlinken andere Nutzer zu unserer Seite, können Sie theoretisch jeder einen anderen Link verwenden. Dann hätten wir auf jeder Seite aber jeweils nur einen Link und würden uns in der Relevanz selbst unwichtiger darstellen als notwendig. Durch den Einsatz von rel=canonical im Header der „Unterseiten“ kann ich genau diesen Effekt umgehen, ebenso einsetzbar bei dynamischen URLs in denen z.B. am Ende sich eine Farbwahl einfügt um die passende Seite anzuzeigen.

    und dynamische Links?

    Setze ich bei dynamischen URLs rel=canonical ein, ist trotz der Erweiterung der URL der Inhalt der Seite aus Sicht der Search Engines immer gleich, d.h. die Relevanz der Hauptseite steigt.   Zusammenfassend kann man fest stellen: Die korrekte Kennzeichnung von Links kann für die Sichtweise von Suchmaschinen einen großen Unterschied machen hinsichtlich der Bewertung z.B. zur Relevanz auf Grund der Beurteilung der Verlinkung.

  • Das Mysterium Googlebot – kann ich ihn kontrollieren?

    Im nächsten Teil möchten wir etwa mehr über die Möglichkeiten, die der Googlebot, die robot.txt und die sitemaps.xml zur Optimierung bieten, schreiben.

    Nach dem wir uns im ersten Teil mit den Grundlagen zur Optimierung von Webseiten befasst haben, möchten wir heute ein bisschen tiefer in die Thematik um Googlebot, robots.txt und xml sitemaps eintauchen.

    Zuerst möchte ich mich dem Googlebot zuwenden und auf die Frage eingehen, ob es eine Möglichkeit gibt um ihn zu kontrollieren bzw. zu beeinflussen?

    Und ja, es gibt definitiv einige Möglichkeiten um den Googlebot zu kontrollieren. Die einfachste und erste Anlaufstelle ist:

    • Verwende eine robots.txt in der der für den Googlebot zugängliche und indexierbare Inhalt detailliert beschrieben ist.
    • Eine andere Möglichkeit ist es, für den Googlebot Instruktionen in den Metadaten deiner Webseite und / oder im Header zu hinterlegen.
    • Sitemaps dienen auch dazu, es dem Googlebot einfach zu machen deine Seite korrekt zu erfassen
    • Und zu guter Letzt gibt es durch die Verwendung der Google Search Konsole einige Möglichkeiten.

    Im Folgenden möchte ich auf die einzelnen Punkte eingehen.

    DEN GOOGLEBOT KONTROLLIEREN?

    Aber sicher: Er befolgt genau die in der robots.txt hinterlegten Regeln zum Durchsuchen deiner Webseite.

    Anbei weitere Möglichkeiten den Googlebot zu kontrollieren:

    • Schreibe Anweisungen für den Bot in die Metadaten deiner Webseite
    • Hinterlegte Anweisungen für den Bot im Header Deiner Seite
    • Erstelle eine Sitemap deiner Seite
    • Nutze die Google Search Konsole

    Am häufigsten wird die robots.txt file genutzt um dem Googlebot Informationen zukommen zu lassen.

    Daher die nächste Frage: was ist eine robots.txt File eigentlich genau?

    Die robots.txt File gibt vor, wie Suchmaschinen durch ihre Bots mit deiner Webseite interagieren. Die robots.txt File gibt so zu sagen die Regeln vor. Das geschieht in Form einer Auflistung von Seiten und Inhalten, die der Bot durchsuchen soll und die sich in der robots.txt befindet.

    Häufig wird die robots.txt File bei der Erstellung eines Blogs und / oder Webseite automatisch mit angelegt. Normalerweise reichen die dort standardmäßig hinterlegten Daten auch als Einstellung aus. Solltest du aber mehr über die robots.txt File wissen wollen, empfehlen wir dir die Google Webseiten zu diesem Thema – natürlich auf Deutsch.

    Informationenrobots.txt file

    Spezifikationen: robots.txt Spezifikationen

    Weitere Spezifikationen: Robots-Meta-Tags und X-Robots-Tag-http-Header

    Sitemaps und Googlebots

    Ganz generell gesprochen sind die Sitemaps Landkarten deiner Webseite, d.h. der Googlebot (und auch andere Suchmaschinen Bots) erfährt aus der Sitemap wie deine Seite aufgebaut ist und unterstützt den Bot dabei die Webseite möglichst gut zu verstehen. Die Sitemap ist besonders sinnvoll wenn:

    • Sehr große Webseiten vorliegen
    • Deine Seite über große Archive mit Inhalten verfügt die vielleicht nicht mehr optimal verlinkt sind
    • Deine Seite neu ist und nur wenige Weblinks auf sie verweisen
    • Auf deiner Seite „rich media content“ gezeigt wird, diese in Google News angezeigt werden soll oder wenn du Anmerkungen in der Webseite nutzt die allerdings dann Sitempas kompatibel sein müssen

    Mit Sitemaps können viele weitere Punkte genutzt werden, aber im Bezug auf den Googlebot, dient die Sitemap nur als Auflistung von URLs und andere Daten, die ihm an die Hand gegeben werden während er die Seite scannt.

    Google hat eine sehr gute Beschreibung online wie Sitemaps erstellt und eingereicht werden können.

    Googlebot und die Google Search Konsole

    In der Google Search Konsole kannst Du auch bestimmte Einstellungen vornehmen. So kannst Du in der Google Search Konsole die Häufigkeit mit der der Googlebot deine Webseite durchsucht kannst Du die Häufigkeit in der Search Konsole z.B. einstellen.

    In der Google Hilfe wird das schrittweise Vorgehen detailliert beschrieben.

    Daneben kannst Du in der Search Konsole auch sehen welche Daten der Googlebot in deiner rotobts.txt findet, Fehler bei Durchsuchen der WebSeite anzeigen lassen und ganz generell ein Verständnis entwickeln wie Google Deine Webseite sieht.

    Wie viele Googlebots gibt es eigentlich?

    Es gibt in Summe 9 unterschiedliche Google webcrawlers. Da nicht alle für uns relevant sind anbei nur eine kurze Auflistung:

    Google:

    • Smartphone
    • Mobile (Feature phone)
    • Web Search
    • Adsense
    • Mobile Adsense
    • Adsbot (landing page quality check)

    Googlebot:

    • Images
    • Video
    • News

    Eine Übersicht und detaillierte Erklärung zu den einzelnen Bots findest Du bei Google!

  • Optimierte Nutzerfreundlichkeit deines Blogs mit Google’s „Test My Site“

    Nutzerfreundlichkeit ist bei jedem Blogger kontinuierlich ein Thema und darunter fallen zahlreiche Aspekte. Heute möchten wir ein neues, kostenloses Tool von Google vorstellen, mit dem du nach bestimmten Kriterien deine Webseite oder deinen Blog hinsichtlich der Ladezeiten, sprich der Geschwindigkeit, und auch hinsichtlich der Nutzbarkeit auf Mobilgeräten analysieren lassen kannst.

    Gerade die Nutzerfreundlichkeit auf mobilen Endgeräten wird immer wichtiger. Zwar stellen dies häufig die verwendeten Blogsoftware-Lösungen zur Verfügung, aber nicht immer fehlerfrei oder in optimaler Qualität. Da aber immer mehr Leser mobil auf Blogs zugreifen, ist das sicherlich ein ganz spannendes und nützliches Thema.

    Über das kostenloses Webtool von Google kann jede Webseite und jeder Blog nach vorgegebenen Kriterien analysiert werden.

    Google analysiert dabei die folgenden 3 Kategorien:

    1)    Mobile Friendliness

    2)    Seitenladezeiten für Mobile Devices

    3)    Seitenladezeiten für Desktops

    Das Ergebnis jeder Kategorie wird dann mit einem übergeordneten Wert angegeben – im optimalen Fall sind das 100/100. Je geringer der Wert ausfällt, umso mehr Ansatzpunkte gibt es bezüglich deines Blogs zu optimieren.

    Das Besondere an dem Tool ist aber nicht nur die Bewertung, es besteht außerdem die Möglichkeit, sich einzelne Verbesserungsvorschläge anzusehen oder sich einen kostenlosen Report mit den Ergebnissen zusenden zu lassen.

    Google’s „Test My Site“

    Dies ist ein beispielhafter Auszug aus dem Report hinsichtlich der Mobile Friendliness von unserem eigenen Blog, dem man diverse Punkte sowie deren Satus entnehmen kann.
    In unserem Fall können wir nun die angebotene Hilfe in Anspruch nehmen und werden dazu auf eine Seite geleitet,  in der uns sogar auf Deutsch unter dem Titel „Optimale Größe von Links oder Schaltflächen auf Mobilgeräten einhalten“ genaue Hinweise dazu geliefert werden, wie wir das erkannte Problem beheben können.

    Genauso verhält es sich mit Angaben hinsichtlich der Ladezeiten einer Seite. Die Unterscheidung in Mobile und Desktop Ladezeiten liefert dabei natürlich unterschiedliche Werte, obwohl die bewerteten Kriterien gleich sind. Auch in dieser Auswertung werden Hinweise dazu gegeben, an welchen Stellen sich die Seite optimieren lässt und auf die entsprechenden Hilfen verwiesen.