Infos und Nachrichten aus der Welt der Suchmaschinen-Optimierung. SEO ist ein Akronym für Search Engine Optimization und damit englisches Pendant zur deutschen “Suchmaschinenoptimierung”.

Eigentlich wollte ich schon lange darüber berichten, doch hier bei mir war derartig viel Trubel, da fehlte mir sogar die Zeit für einen klassischen Blogbeitrag. Darum erst jetzt mit einigen Wochen Zeitverzögerung mein erster Beitrag zum Auftakt des dritten Kurses der AFS Akademie. Es folgen in Kürze noch weitere.

Am 10. Januar 2014 reisten die 32 Teilnehmer der AFS Akademie zum ersten Mal zum Präsenzwochenende in Berlin an. Treffpunkt war das Intercity Hotel am Ostbahnhof, eine m.E. sehr nette und geeignete Location für ein solches Treffen. Nachdem sich die Teilnehmer eingefunden hatten, eröffnete die neue Akademie Geschäftsführerin Maja-Florence Loose den Abend.

IMG_9853

Nach Majas Begrüßung ergriff dann Horst Berghäuser, seines Zeichens Hauptgesellschafter und Gründer der Akademie, das Wort und brachte den Anwesenden die Idee und Geschichte der Akademie näher. Anschließend begrüßte auch ich die anwesenden Gäste und erhob am Ende das Glas zum gemeinsamen Wohl. Damit wurde dann gleichzeitig die zweite Runde des Abends, das Kennenlern Bingo Spiel, eingeläutet. Kerstin Eschrich, unsere Projektkoordinatorin, verteilte die Bingo-Zettel und das Spielchen begann.

IMG_9893

Mittlerweile waren auch alle Referenten des Wochenendes eingetroffen, angefangen mit Miss Ranketing Birthe Stuijts, die erfreulicherweise unsere Frauenquote mit aufrecht hält, gefolgt von Mister Sumafa Kai de Wals und last but not least dem Trustagenten Stephan Czysch, der kurz darauf seinen Vortrag zum Thema Google Webmaster Tools zum Besten geben durfte.

IMG_9956

Im Anschluss an Stephans Präsentation ging es dann zum gemütlichen Teil des Abends über. Das Abendessen ward angerichtet. Alle Anwesenden durften sich zurück lehnen, in Ruhe speisen und miteinander plaudern. Die hartgesottensten Teilnehmer gingen danach noch mit an die Theke und unterhielten sich dort bis nach Mitternacht.

IMG_9970

Der Grundstein war damit gelegt. Denn Internet/SEO bedeutet Vernetzung. Bedeutet Gespräche. Bedeutet Wissensaustausch.

IMG_9981

Und das geht nun mal am einfachsten in lockerer Atmosphäre. Kurz vor Eins war dann Feierabend. Zeit zum Pennen.

Heutzutage integriert Google verschiedenste Inhalte in die Ergebnislisten. Ohne prägnante Ergänzungen wie Videos, der Autorenverknüpfung und Bewertungssternen wird es immer schwieriger vom Suchenden in den Suchergebnislisten wahrgenommen und angeklickt zu werden.

In einem Artikel von Search Engine Land wurde dieses Thema kürzlich aufgegriffen. In diesem Artikel zeigen wir die Vorteile strukturierter Daten, sowie die Verwendung und Einbindung von Schema.org und dem Data Highlighter von Google. Jeder Webmaster soll die Vorteile erkennen und das Potential nutzen.

Mittels strukturierter Daten können Suchergebnisse, sogenannte Snippets, in den Suchergebnislisten erweitert und somit präsenter für Suchende dargestellt werden. Standardmäßig bestehen Snippets aus dem Seitentitel, der URL und der Meta-Beschreibung.

Bildschirmfoto 2013-11-25 um 17.18.02
Quelle: Google Suche, 11.11.2013

Rich Snippets hingegen beinhalten zusätzliche Informationen wie Videovorschau, Bewertungssterne und andere Elemente. Die drei Snippet Beispiele zeigen die erweiterten Suchergebnis-Anzeigen mit Videos oder Bewertungen. Diese unterscheiden sich klar vom normalen Suchergebnis und sind aufgrund zusätzlicher Informationen deutlich auffälliger.

Bildschirmfoto 2013-11-25 um 17.18.09
Bildschirmfoto 2013-11-25 um 17.18.16
Quelle: Google Suche, 11.11.2013

Aber was sind strukturierte Daten?

Vereinfacht kann man sich strukturierte Daten wie eine Art Tabelle vorstellen. Es gibt Spaltenbezeichnungen (Datentypen) und die jeweils zugeordneten Eigenschaften.

VornameNachnameBerufAlter
MaxMustermannMustermacher30
HansHuberHutmacher59

Diese Strukturierung bringt nicht nur Vorteile für die Suchmaschinen.
Auch Webmaster und Nutzer können profitieren.

Wie kann man davon profitieren?

Google kann Inhalte auf Webseiten crawlen, aber im Erkennen von Zusammenhängen zwischen Wörtern oder Phrasen besteht bei der Suchmaschine noch deutliches Verbesserungspotential. Mit der Strukturierung von Inhalten zeigt man Google, um welche Art von Daten es sich handelt. Außerdem erleichtert man Google das Crawling und verringert die Crawlzeiten, da die Inhalte bereits definiert und zugeordnet wurden.

Einen Vorteil im Ranking bringen strukturierte Daten laut Google jedoch nicht. Da ein Rich Snippet deutlich auffälliger als ein normales Suchergebnis ist, könnte sich möglicherweise auch die Click-Through-Rate erhöhen und somit mehr Besucher auf eine Seite locken.

Bei einer Googlesuche nach “Lichterkette Weihnachtsbaum”, wird einem unter anderem das Snippet von hse24.de angezeigt.

Bildschirmfoto 2013-11-25 um 17.17.43
Bildschirmfoto 2013-11-25 um 17.18.29
Quelle: Google Suche, 11.11.2013

Ein Vergleich dieser zweier Snippets zeigt deutlich, dass das erweiterte Snippet prominenter ist. Es hebt sich klar von anderen Ergebnissen ab.
Welche Möglichkeiten es gibt, Daten auszuzeichnen und wie diese implementiert werden, wird in den nächsten Abschnitten im Detail erläutert.

Seiteninhalte richtig strukturieren – aber wie?

Bevor man beginnt Daten zu markieren, ist es natürlich hilfreich zu wissen, welche strukturierten Daten Google nutzt. Aktuell können unter anderem folgende Inhaltstypen von Google als Rich Snippet(http://de.onpage.org/wiki/Rich_Snippets) angezeigt werden:

  • Rezepte
    Bildschirmfoto 2013-11-25 um 17.18.39
  • Veranstaltungen
    Bildschirmfoto 2013-11-25 um 17.18.43
  • Erfahrungsberichte
    Bildschirmfoto 2013-11-25 um 17.18.48
  • Personen
    Bildschirmfoto 2013-11-25 um 17.18.54

Eine komplette Auflistung aller möglichen Inhaltstypen ist in den Google Webmaster Tools zu finden.

Nun gilt es noch zu klären, wie die Seiteninhalte erweitert werden müssen, um ein Rich Snippet zu erzeugen.

Wie so oft gibt es mehrere Wege, um die Auszeichnung von Daten durchzuführen. Die drei bekanntesten Markup-Formate werden im folgenden an einem kurzen Beispiel veranschaulicht.

ohne Markup:

Bildschirmfoto 2013-11-25 um 17.35.19

Der Codeausschnitt stellt ein normales div-Tag dar. Dieses kann nun mittels der 3 bekanntesten Markup-Formate strukturiert und für Suchmaschinen aufbereitet werden.

Mikrodaten:
Bei der Verwendung von Mikrodaten werden bereits vorhandene HTML Elemente wie class, rel oder rev verwendet. Mikrodaten werden mit am häufigsten genutzt, um Daten für Suchmaschinen strukturiert aufzubereiten.

Bildschirmfoto 2013-11-25 um 17.38.55

Mikroformate:
Auch bei Mikroformaten werden bereits verfügbare HTML Elemente wie span oder div genutzt, um Informationstypen zu definieren.

Bildschirmfoto 2013-11-25 um 17.39.02

RDFa:
RDFa wird von der Organisation W3C empfohlen und dient der Einbettung von Zusatzinformationen in HTML bzw. XHTML Code. Auch hier werden die Elementinformationen von z.B. span oder div umschlossen.

Bildschirmfoto 2013-11-25 um 17.39.14

Da Google die Markup-Formate in Form von Schema.org empfiehlt, soll im folgenden hauptsächlich auf diese Art der Strukturierung eingegangen werden.

Was verbirgt sich hinter Schema.org?

Schema.org ist eine Möglichkeit, Seiteninhalte zu strukturieren und entstand aus
einer Initiative der Suchmaschinen Google, Bing, Yahoo sowie Yandex. Das Resultat war ein einheitliches Vorgehen, um Daten auszuzeichnen. Der große Vorteil von Schema.org ist, dass dieser Standard von mehreren Suchmaschinen unterstützt wird. Es ist also nicht nötig, sich für eine Suchmaschine zu entscheiden.

Ein Beispiel macht den Einsatz von Mikrodaten wohl am einfachsten verständlich.

Zunächst sollten die drei Hauptbestandteile der Auszeichnung erklärt werden:

  • itemscope = leitet die Auszeichnung ein
  • itemtype = definiert, um was es sich handelt (Person, Veranstaltung, Produkt)
  • itemprops = definiert verschiedene Eigenschaften des itemtypes

Eine Unterseite enthält Informationen zu einer Veranstaltung. Die Daten zu diesem Event sollen in den Suchergebnissen als Rich Snippet eingeblendet werden. Um dies zu erreichen, sollten folgende Schritte durchgeführt werden.

Zunächst sieht der HTML Code wie folgt aus.

Bildschirmfoto 2013-11-25 um 17.39.21

Eine Suchmaschine kann so nicht erkennen, dass es sich um eine Veranstaltung handelt, da sie den Zusammenhang der Inhalte nicht deuten kann.

Im ersten Schritt wird der HTML-Code um den itemscope erweitert. Wie oben beschrieben, leitet dieser die Auszeichnung der Daten ein.

Bildschirmfoto 2013-11-25 um 17.44.48

Unterhalb des öffnenden div-Tags stehen nun alle relevanten Daten zu dieser Veranstaltung.

Als nächstes sollte der Datentyp definiert werden. Unter http://schema.org/docs/full.html findet man eine Übersicht aller Datentypen. Nachdem der entsprechende Typ angeklickt wurde, integriert man die URL der sich öffnenden Seite wie folgt in den HTML-Code. In diesem Fall, einer Veranstaltung, handelt es sich um folgende URL:

Bildschirmfoto 2013-11-25 um 17.39.44

Eingefügt sieht der Seitenquellcode folgendermaßen aus:

Bildschirmfoto 2013-11-25 um 17.39.30

Die detaillierten Informationen zur Veranstaltung sollten ebenfalls ausgezeichnet werden. Eine Auflistung aller möglichen Eigenschaften ist immer unter der bei itemprop eingefügten URL zu finden.

Bildschirmfoto 2013-11-25 um 17.46.29

Wie man an gerade gezeigtem Beispiel sieht, erhöht sich die Menge des Quellcodes bereits bei der Auszeichnungen einer Veranstaltung deutlich. Um den Überblick nicht zu verlieren, sollte man den Quellcode nur schrittweise erweitern und regelmäßig die korrekte Anpassung des Codes mit dem Test-Tool für strukturierte Daten von Google überprüfen.

Bildschirmfoto 2013-11-25 um 17.19.09
Quelle: Google Webmaster Tools

Natürlich können mehr als nur Events ausgezeichnet werden. Eine Übersicht welche Datenarten strukturiert werden können, findet man auch unter http://schema.org/docs/full.html.

Andere Markup-Formate werden jedoch ebenfalls von Google unterstützt ( Außerdem werden Funktionsweise und Vorteile des Googleeigenen Data Highlighter beschrieben.

Der Data Highlighter – eine gute Alternative

Eine alternative und einfachere Deklarationsmöglichkeit stellt Google mit dem Data Highlighter zur Verfügung. Die Auszeichnung von Daten ist deutlich einfacher und schneller, als die oben beschriebene Variante mit Schema.org. Mit dem Tool von Google lassen sich auch ohne eingehende Programmierkenntnisse Daten auf der Webseite markieren und einer Datengruppe (Name, Datum, Beschreibung) zuordnen. Es ist lediglich das Markieren und Zuordnen der Daten durchzuführen. Der Data Highlighter versucht ähnliche Daten auf der Webseite zu identifizieren. Auf Wunsch kann man Google anweisen, die hinterlegte Strukturierung auf die komplette Webseite auszuweiten. Es ist jedoch davon abzuraten, sich ausschließlich auf die automatisierte Auszeichnung von Google zu verlassen, da die Markierung teilweise noch nicht optimal funktioniert.

Die Markierung kann in den Google Webmaster Tools angestoßen werden. Über “Darstellung der Suche” und “Data Highligter” kann der Data Highlighter gestartet werden.

Bildschirmfoto 2013-11-25 um 17.19.17
Quelle: Google Webmaster Tools

Nachdem die URL der betroffenen Seite eingetippt wurde, muss noch die Art des Datentyps gewählt werden. Außerdem kann eingestellt werden, ob eine oder mehrere Seiten von der Auszeichnung betroffen sind.

Bildschirmfoto 2013-11-25 um 17.19.21
Quelle: Google Webmaster Tools

Nach dem Bestätigen können die entsprechenden Seiteninhalte markiert werden.

Wie bei Schema.org können auch die mit dem Data Highlighter erweiterten Snippets mit dem Test-Tool für strukturierte Daten getestet und überprüft werden.

Fazit

Ein Großteil der im Web vorhandenen Webseiten nutzt das Potential strukturierter Daten aktuell nur wenig. Da Google immer mehr Wert auf die Strukturierung von Seiteninhalten legt, werden viele Webmaster zukünftig vermutlich nachziehen. Zur Zeit bietet die Auszeichnung von Daten noch die Chance, seinen Mitbewerbern einen Schritt voraus zu sein. Auch das Hummingbird Update von Google zeigt, dass strukturierte Daten in Zukunft noch wichtiger werden. Also ein guter Grund die dafür nötige Zeit zu investieren und sich durch auffällige Snippets abzuheben.

Bild seo concept © kraska – fotolia

Am Mittwoch Abend um 22:24 Uhr in der Lanxess Arena wurde von Marcus “Mediadonis” Tandler der Gewinner im Seophonist Wettbewerb ausgerufen. Der Preis war ein Sparhandy 😉

Seophonist auf dem OMClub 2013 – Siegerehrung from Gerald Steffens on Vimeo.

Die eigentliche Siegerehrung, gewonnen hatte Nicolas Sacotte mit seiner Dynapso-Seite, fiel leider ins Wasser – Nico war gerade draußen eine Zigarette rauchen und nicht mehr schnell genug zurück gekommen. Da ich aber noch ein paar Minuten länger am Stand verweilte, wurde ich Zeuge einer kleinen nachträglichen Siegesfeier.

nico-siegtnico-feiert

nico-feiert-2

So sehen Sieger aus – tralalalala 🙂 Herzlichen Glückwunsch Nico!

Große Ereignisse werfen ihren Schatten voraus. Im Falle das Hurra OMClub hat Randolf Jorberg soeben den Startschuss für den obligatorischen Seo Contest abgegeben. In diesem Jahr geht es um das wohlklingende Kunstwort Seophonist. Also, haut rein in die Tasten, es geht wieder rund in Seoland. Und wie es sich gehört, fast alle sinnvolleren Keyword Domains rund um Seophonist und Seophonisten sind schon vergriffen. Das gibt sicher wieder heisse Kopf an Kopf Rennen. Wobei ich es begrüßen würde, wenn’s eine Non-Keyworddomain ganz nach oben aufs Podest schaffen würde.

Bleibt die Frage, was man sich unter einem Seophonisten vorstellen soll. Angelehnt an ähnlich gelagerte Begriffe könnte man vermuten, dass es sich beim Seophonist um jemanden handelt, der sich mit einem Seophone beschäftigt oder gar dieses als Instrument benutzt. Verwandte Begriffe wären demnach z.B. Saxophonist, was übrigens Google zur Zeit noch als alternativen Suchbegriffe vorschlägt oder Pianist oder Telefonist.

Mit dem Wort Blördsch taucht aber noch ein weiteres seltsames Kunstwort im Dunstkreis des Seophonisten auf. In Umlauf gebracht hat das Wort Blördsch kein geringerer als der Meister der Termgewichtung himself – Karl Kratz. Noch zweifeln die Gelehrten, ob es sich beim Blördsch lediglich um einen Rechtschreibfehler von Karl handelt, so schlägt Google z.B. in seinen Serps “meinten sie Blödarsch” vor, oder ob sich dahinter eine teuflisch raffinierte WDF*IDF Strategie verbirgt, die den damit geimpften Dokumenten einen magischen Rankingschub verpasst.

zoowaerter
Von Links: Kaspar Szymanski, Ariel Lambrecht, Jonas Weber, Fili Wiese

Am vergangenen Mittwoch hatte ich das Vergnügen, dem Webhelps Seo Workshop “Inside Google – der Zoowärter kommt!” beizuwohnen. Die Ex-Google Mitarbeiter Jonas Weber, Kaspar Szymanski, Ariel Lambrecht und Fili Wiese präsentierten dem gespannten Publikum ihre Sicht auf die Welt von Google.

workshop-hamburg

Der Auftakt erfolgte leicht zeitverzögert, weil noch einige Teilnehmer fehlten. Zum Glück war ich frühzeitig vor Ort, Hamburg lässt sich von Gütersloh aus via Bahn relativ verlässlich erreichen, auf die alternative Vorstellung in Berlin hatte ich wohlweisslich verzichtet, die Verbindung dorthin ist derzeit nur mit eingebauter Verzögerung von mindestens einer Stunde möglich. Und das ist unmöglich, weil dadurch ein frühzeitiges Antreten kaum machbar ist.

webhelps-moderatoren
Die Begrüßung und Moderation übernahmen Jonas Weber und Kaspar Szymanski auf Deutsch, die Vorträge wurden abwechselnd in Deutsch und in Englisch abgehalten. Insgesamt wurde mehr Deutsch als Englisch geredet. Auch Ariel und Fili verstehen Deutsch recht gut, es sprechen hingegen ist nicht wirklich ihre größte Stärke 😉

jonas-weberkaspar-szymanski

ariel-lambrechtfili-wiese

Zum Auftakt erzählte uns Kaspar Szymanski einiges Wissenswertes über Google Updates und Penalties. Leider durften uns die Jungs die echten Internas nicht verraten, was ich zwar schade finde, aber auch voll verstehen kann. Witziger- und unglücklicher Weise kam die Geschichte mit den Penalty Hinweisen in den Google Webmaster Tools erst spät am Abend des Workshops über die Ticker, ansonsten wäre das bestimmt auch noch ein heiß diskutiertes Thema des Workshops worden.

Dann trug Fili Wiese zum Thema Onpage SEO auf Englisch vor. Man merkte schnell, mit welcher Begeisterung Fili sich in das Thema Onpage hereinhängt. Content, Snippets, Auswertung der Webmaster Tools, Performance – alles Dinge die zum Gelingen einer Website beitragen können. Und zukünftig wohl noch wichtiger werden.

Nach dem Mittagessen, einem netten Plausch mit Thomas Kilian, der fast bei mir um die Ecke wohnt, Christian Müller (dem früheren Seofreak) und zwei Jungs von Testroom gings dann gestärkt in die zweite Runde. Hier verriet uns Jonas Weber auf Deutsch Google konforme Link & Content Strategien, die funktionieren. Sein jüngster Erfolg, die Erwähnung auf Spiegel Online, war Teil seiner Präsentation und zeigte sehr anschaulich, wie nah Erfolg und Misserfolg liegen können. Zumindest wenn man Erfolge in Links misst, denn leider hat der Linkgeiz auch die ganz Großen im Internetz schon befallen.

In englischer Sprache erzählte uns Ariel Lambrecht, wie man mit Grips und viel Herzblut ein tolles Produkt an den Markt bringen kann. Eine schöne Geschichte, bei der der gute Ariel auch über seine ersten nicht ganz so erflogreichen Einstiegsversuche in die Google Serps berichtete.

Nach der Kaffeepause wurden die liebsten Tools der Webhelper vorgestellt. Dreimal dürft ihr raten, welches Tool die Liste angeführt hat. Danach ging es einigen SEO Mythen an den Kragen und zum Abschluss wanderten wir nach draußen um die Ecke, wo die Referenten und der Großteil der Teilnehmer den Tag dann mit einem netten Plausch und einem frischen Bier ausklingen ließen 🙂

tisch4
Christian Müller, Christoph Szepanski (Blurithmics), Fili Wiese

tisch3
tisch2
tisch1
tisch5

Mitgenommen habe ich von diesem Tag neben netten Gesprächen, neuen Kontakten, Infos und Ideen auch einen ganz smarten Tipp zum Umgang mit dem Pinguin. Den müsst ihr euch aber schon von Jonas und seinen Kollegen erzählen lassen. Es gibt Dinge, die nutzen nur dann etwas, wenn man sie nicht überall öffentlich herumposaunt.

Eine Website besteht aus vielen Einzelseiten. Je älter sie ist und je umfangreicher, umso komplizierter wird es, Zahl und Struktur aller Seiten im Auge zu behalten und Probleme darin zu finden. Technisch gesehen, erzeugt sogar jeder verwendete URL-Parameter in Kombination mit seinem Wert eine neue Seite. Gerade, wenn es dann darum geht, Stolpersteine aufzudecken und Optimierungen durchzuführen, hilft Handarbeit in Form von manuellen Analysen vielfach nicht weiter.

Gleichzeitig verlangt eine verstärkte Tendenz hin zu mobil verwendbaren Websites eine Beachtung aller möglichen Fallstricke, die die Ladezeiten von Seiten negativ beeinflussen. Nachdem nun die Telekom eine Datendrosselung ihrer DSL-Anschlüsse eingeführt hat, ist selbst die großflächige Verfügbarkeit schneller Internetverbindungen keine Ausrede mehr für langsame Websites – ganz abgesehen davon, dass Suchmaschinen wie Google ganz offiziell schnelle Websites bevorzugen.

Fragen zu diesem Thema laufen mir im SEO-Alltag deshalb regelmäßig über den Weg. Schließlich ist die technische Optimierung der eigenen Website einer der drei Grundpfeiler für die Optimierung – und vor allem etwas, was der Websitebetreiber i.d.R. selbst in der Hand hat. Zentrales Element technischer Analysen sind für mich nach wie vor eigene Crawls der Kundenwebsites. So finde ich relativ schnell Probleme, mit denen auch Suchmaschinencrawler auf diesen Websites konfrontiert werden.

Bekannte Tools, denen jeder SEOler regelmäßig begegnet, sind Xenu’s Link Sleuth, Microsofts IIS SEO Toolkit oder der Screaming Frog – alle kostenfrei oder sehr günstig verfügbar und für den alltäglichen Gebrauch durchaus hilfreich. Dennoch haben alle drei ihre speziellen Anforderungen und natürlich ihre Grenzen. Gerade bei extrem umfangreichen Websites begeben wir uns hier regelmäßig an das Limit der Möglichkeiten. Ich war deshalb sehr froh, dass ich kürzlich die Gelegenheit bekam, ein noch recht junges Tool zu testen, dessen Entwickler sich zum Ziel gesetzt haben, genau diese Grenzen nicht zuzulassen: strucr.com.

Grundsätzlich ist strucr.com in vier Varianten verfügbar. Eine kostenfreie Schnupperversion taugt zum Kennenlernen und erlaubt das Analysieren kleiner privater Websites. Geht es um eine Erweiterung des Umfangs sind nach oben fast keine Grenzen gesetzt:

Die unterschiedlichen Pakete von strucr.com

Dabei zielt strucr.com ganz klar auf den Einsatz im Enterprise-Bereich. Sämtliche Daten, die der Crawler erhebt, sind via API abrufbar und können so in eigene Tools und Auswertungen integriert und mit Daten aus anderen Anwendungen kombiniert werden. Ganz klar, dass die Entwickler von strucr.com deshalb enorme Anforderungen an die Qualität der Daten stellen. Bugs und Fehler dürfen hier einfach nicht passieren und müssen – sollten sie doch einmal auftreten – in kürzester Zeit behoben werden. Zur Qualitätssicherung muss der Crawler regelmäßige Tests gegen seine eigenen Bugs und natürlich seine Mitbewerber bestehen. Nach eigenen Aussagen, schaffen alternative Crawler gerade mal 65% dieser Tests.

Gleichzeitig liefert strucr.com den Großteil seiner Daten in absoluter Rohform und versucht Interpretationen weitestgehend zu vermeiden. Gegenüber einigen Wettbewerbern wirkt das zwar relativ plump und nicht so „hübsch“, hat aber den großen Vorteil, dass die Auswertung der Daten dem Kunden selbst überlassen bleibt, was gerade bei Verwendung der API sehr vorteilhaft ist. So können die gefunden Fehler im Kontext der Website selbst interpretiert werden. Es gibt einfach „Fehler“, die durchaus ihre Daseinsberechtigung haben. So kann beispielsweise eine große Anzahl an Seiten mit dem Meta-Tag robots=“noindex,nofollow“ für einen Shop typisch sein und sollte deshalb nicht zwangsläufig als negativ bewertet werden. Für ganz konkrete Fragestellungen oder zur Behebung komplexer Probleme sind die Entwickler hinter strucr.com übrigens auch gern bereit, weitere Features in ihren Crawler zu integrieren oder mit sehr speziellen Parametern zu crawlen.

Technisch steht hinter dem Tool eine solide IT-Infrastruktur, die bei dem Umfang der erhobenen Daten aber auch notwendig ist. Wer einmal versucht hat, die Website eines Onlineshops mit 200.000 Produkten und zahllosen Parametern (z.B. SessionIDs) mit einem der herkömmlichen Tools zu crawlen, wird – einen leistungsstarken PC vorausgesetzt – nach spätestens 12 Stunden verzweifelt sein. Im Agenturalltag passiert es mir in solchen Fällen nicht selten, dass zwischendurch entweder die IT des Kunden meine IP-Adresse blockiert oder mein Telefon klingelt und es Beschwerden hagelt. Im Gegensatz zu herkömmlichen Tools läuft strucr.com hingegen auf einem eigenen Server. Die Geschwindigkeit des Crawlvorgangs kann individuell abgestimmt werden. Um Einbrüche bei der Performance der gecrawlten Website zu vermeiden, kann und muss der Crawl daher mit der zuständigen IT-Abteilung abgestimmt werden.

Schauen wir uns aber mal die Auswertung, die strucr.com standardmäßig für einen Crawl liefert, beispielhaft anhand der Website eines relativ großen deutschen Reiseanbieters an. Die Basisfeatures verstehen sich fast von selbst und sind schnell erklärt:

  • Anzeige beim Crawl gefundener Fehler mit konkreter Fehlerangabe, URL und Ladezeit
  • Anzahl der gecrawlten Seiten, gefundenen Links und Ebenen, in denen die Seiten strukturell organisiert sind
  • Anzahl der Seiten sortiert nach Typ (z.B. Nofollow, External) und http-Status (z.B. 301/302-Weiterleitungen, 404-Fehler)
  • Gecrawlte Domains und Subdomains (intern und extern) mit Anzahl eingehender und ausgehender Links
  • Anzahl eingehender und ausgehender Links pro gecrawlter Seite

Darüber hinaus erhebt strucr.com weitere Daten und Reports, die im Hinblick auf eine umfassende Websiteoptimierung extrem hilfreich sind:

Seiten nach Ladezeit

Während des Crawls werden die reinen HTML Response Times der Seiten gemessen und aufgezeichnet. So lassen sich schnell Probleme bei der Seitengröße identifizieren und damit die Seiten gezielt auf Geschwindigkeit optimieren.

Aufschlüsselung der Seiten nach Antwortzeiten

Mein Crawl zeigt mir beispielsweise auf den ersten Blick, dass meine Website bei den Ladezeiten zwar schon ein ganz gutes Bild abgibt, ich aber gerade im 200-300ms-Bereich noch einige Ausreißer habe, die ich mir einmal ansehen sollte. Ein Klick auf den Eintrag liefert detaillierte Informationen zu den Seiten, um die es sich dabei handelt. Offensichtlich sind dies Seiten, bei deren Bereitstellung im CMS viele verschiedene Informationen, wie z.B. Buchungszeitraum, Verfügbarkeit, Anzahl der Personen usw., berücksichtigt werden. Das sollte ich mir mal näher anschauen und eventuell die Zahl der Abfragen verringern. Hier ist es übrigens gut, dass strucr.com die Daten nicht interpretiert, denn ich weiß ebenso, dass es sich um Seiten handelt, die ich mit „noindex, nofollow“ markiert habe. Diese Aufgabe hat für mich aus SEO-Sicht deshalb keine hohe Priorität. Im Hinblick auf Usability und User Experience hingegen, sollte ich hier bei Gelegenheit trotzdem aktiv werden.

Seiten mit Anmerkungen

In dieser Übersicht liefert strucr.com eine Liste mit Anmerkungen zu meinen Seiten und die Zahl der Seiten, die zum jeweiligen Kriterium passen.

Seiten aufgeschlüsselt nach Hinweisen

Die für mich aus SEO-Sicht besonders interessanten Hinweise habe ich gelb markiert. Hier sollte ich mir vor allem die Page Titles, Metadaten und Alt-Attribute anschauen, um meine Keywords besser einzusetzen und in den Suchergebnissen besser dazustehen. Gleichzeitig kann ich durch Auslagerung von CSS und Skripten sowie Größenangaben bei den Bildern bessere Ladezeiten bei meinen Seiten erreichen. Und nicht zuletzt sollte ich mir auch meine URL-Struktur einmal anschauen. Welche Fälle das genau betrifft, kann ich mir in diesem Report mit einem weiteren Klick auflisten lassen und zum Beispiel als Excel-Datei exportieren, die ich dann gezielt abarbeite. So brauche ich nur die Seiten anzufassen, die es wirklich betrifft.

Seiten und Content nach Level

Wie weit müssen Nutzer von der Startseite bis zu meinen wichtigsten Seiten bzw. meinem wichtigsten Content klicken? Diese Frage ist im Hinblick auf Usability und User Experience extrem wichtig, denn „verstecke“ ich meine wichtigsten Inhalte zu tief innerhalb meiner Websitestruktur, sind sie unter Umständen nicht auffindbar und bleiben deshalb unbeachtet.

Crawlbare Seiten nach Ebenen

Alle Urls nach Ebenen

Hier gibt es bei meiner Website nichts zu bemängeln. Nutzer werden auf den ersten Ebenen nicht mit Inhalten erschlagen, finden aber bei weitergehender Recherche mit wenigen Klicks auch umfangreichere Informationen. Wäre es anders, fände ich hier sicher gute Ansatzpunkte zur Verbesserung der internen Verlinkung.

Seiten mit hohem 2D-Rank

Zur Berechnung der Stärke einer Seite verwendet strucr.com zwei relativ leicht zu erhebende Werte: den PageRank, der von strucr.com selbst auf Basis der eingehenden Links pro Seite berechnet wird, und den sog. CheiRank, der auf der Anzahl ausgehender Links basiert. Der von strucr.com berechnete PageRank hat mit dem von Google bekannten Wert allerdings wenig zu tun. Lediglich das zugrunde liegende mathematische Rechenmodell ist gleich, ansonsten ist der Wert hier glücklicherweise von Google unabhängig. Aus der Kombination von Page- und CheiRank bekommt man schließlich ein gutes Bild seiner stärksten und wertvollsten Seiten. Tauchen in dieser Liste vorrangig URLs auf, die keinen Wert für das Unternehmensziel bzw. Ziel der Website haben, sollte man an der internen Verlinkung arbeiten.

Abschließende Worte

Wie bereits erwähnt, sind alle von strucr.com erstellten Listen und erhobenen Daten per API verfügbar und können ebenso als CSV, TSV oder Excel-Datei heruntergeladen werden. So steht einer individuellen Weiterverarbeitung nichts im Wege. Gerade für Agenturen oder große Unternehmen ergeben sich damit viele Möglichkeiten. Gleichzeitig sind Freigaben aller Crawls und Accounts über bis zu vier verschiedene Nutzerrollen möglich. So sind beispielsweise jederzeit Freigaben für Kunden oder andere Abteilungen möglich, die sich gern selbst ein Bild von den Daten machen möchten.

Die Einsatzbereiche von strucr.com sind vielfältig. Im Agenturbereich sind eine einmalige Verwendung für eine konkrete Analyse, aber auch ein dauerhafter Einsatz für laufende, vor allem Technik-bezogene Optimierungen denkbar. Gerade Agenturen mit starkem technischem Fokus bekommen hier über den Crawler hinaus einen Partner, dem kein Problem zu komplex ist. Ebenso vorteilhaft ist aber auch der Einsatz von strucr.com im Unternehmensalltag. Von der IT- bis zur E-Commerce- oder SEO-Abteilung können hier alle profitieren. Warum nicht gleich strucr.com im Deploymentprozess einbinden um Änderungen an der Website vor dem Live-Gang direkt auf Herz und Nieren zu testen?

 

Über den Autor:

André Scharf ist Senior SEO Account Manager bei LBi und Betreiber eines eigenen Blogs.

Im Jahre 2009 stürzten sich Hunderte von Seos im Rahmen des Germany’s Next Super-SEO Contests mit dem Keyword borntobeaseo in den Wettbewerb, im Jahr darauf wurde noch härter um die Krone des Seo Olymps gekämpft und als letzter Überlebender konnte sich der Lastactionseo behaupten. Und 2013 startet der Fullmetalseo in die nächste Runde. Das gibt ein Gemetzel.

Leider ist das Wettbewerbskeyword fullmetalseo2013 mit einer Jahreszahl verhunzt worden, damit eignet sich der Text nicht mehr ganz so gut für eine direkte Vertextung. Insofern sperre ich mich auch dagegen auf die exakte Phrase zu optimieren. Das führt sicherlich zu Abzügen in der B-Note und damit zu schlechteren Rankings bei Google, aber das nehme ich hier mal bewusst in Kauf. Wer ein richtiger Fullmetalseo sein will, der muss hart sein wie Kruppstahl und darf sich nicht solchen Wettbewerbszwängen unterwerfen.;-)

Update: Die Strategie mit dem nicht ganz passenden Keywort “Fullmetalseo 2013” könnte evtl. dann aufgehen, wenn Google im Laufe des Wettbewerbs merkt, dass diese Wortkombination bedeutungsgleich / synonym zu “Fullmetalseo2013” zu verstehen ist. So lange läuft der Artikel zumindest nicht ganz so schnell Gefahr in einen Google Filter reinzurennen. Und außerdem hindert mich ja niemand daran, den Title und die Überschrift kurz vor Wettbewerbsende anzupassen 😉

Update 4. Juni 2013: Ohne etwas frischen Inhalt zu bringen, wird das wahrscheinlich nichts mehr mit einem Platz in den FullmetalSEO Top 10. Daher dieser eher dürftige Texteinschub. Aber vielleicht macht ja dieses bisschen Freshness den kleinen Unterschied aus.

Gerald: Hallo Fabian, es freut mich dass du Zeit für ein kleines Interview gefunden hast. Thema soll hier und heute der SEO-Day 2013 sein. Nachdem ihr in 2012 mit über 650 Besuchern schon eine beachtliche Menge an Menschen ins Kölner RheinEnergieStadion locken konntet, frage ich mich, was ihr denn für dieses Jahr so an Besucherzahlen geplant habt.

Fabian: Hallo Gerald,
ich freue mich hier mit Dir ein Interview führen zu dürfen. Und nun geht’s zu meinen Antworten 🙂

Es hat uns im Team alle überwältigt, da wir dachten mit 450 Teilnehmern in 2011 sei schon Schluss. Auch in 2012 haben wir knapp 70 Tickets nicht rausgeben können, weil wir schon überfüllt waren und es mit > 700 einfach zu voll geworden wäre.

2013? Tja, warten wir doch mal ab. Bisher sind knapp 130 Tickets weg was für die Zeit echt viel ist und wir noch gar keine große Promo gemacht haben. Hier in Köln schlummern immer noch viele im SEO Bereich und haben 2012 das erste Mal von uns gehört. Dies verspricht Großes. Ich selbst würde mir wünschen dieses Jahr an die Erfolge 2011 und 2012 anknüpfen zu können, aber lass uns mal abwarten. Hinsichtlich der Location denken wir uns gerade etwas aus, aber da darf ich noch nichts sagen, sonst killt mich der Chris 🙂

Gerald: Irgendwie kommt jedes Jahr eine neue Konferenz hinzu. In diesem Jahr kreuzt die Seo-Gemeinde sogar per Schiff durchs Meer. Vielleicht gehen im nächsten Jahr die SEOs sogar in die Luft 😉 Glaubst du, dass wir mittlerweile ein Überangebot an Konferenzen in Deutschland haben?

Fabian: Ich gehe als Speaker auf die SEOCampixx und die SEOKomm seitdem es sie gibt. Beide gehören für mich zum Pflichtprogramm und seit 2011 eben auch der SEO-Day.
Es wird sich zeigen, ob andere Konferenzen sich durchsetzen können. Als Veranstalter schiele ich natürlich immer mit einem Auge auf die Eintrittspreise der anderen Konferenzen. Beim SEO DAY ist mir wichtig, dass wir auch den Freelancern und kleinen SEO-Buden den Eintritt ermöglichen können.

Dies ist mit 250 Euro sicherlich drin und so soll es auch bleiben. Alle 3 Konferenzen SEOCampixx, SEOKomm und der SEO DAY sind unterschiedlich und haben einen anderen Charme. Ich bin natürlich gespannt, ob es noch weitere Konferenzen mit Spirit gibt. Ein Überangebot existiert aktuell meiner Meinung nach nicht. Viele möchten gar nicht nach berlin, Köln oder Österreich. Für diese SEO’s kann es in Zukunft sicherlich noch lokale Konferenzen geben.

Gerald: Ich war 2011 und 2012 angenehm überrascht, wie bunt gemischt euer Publikum war. Welche Zielgruppe(n) möchtet ihr denn mit eurem Programm vor allen Dingen ansprechen.

Fabian: Das Gleiche wie in 2011 und 2012. Ich bin echt stolz und dankbar, dass wir in den letzten 2 Jahren den größten Teil der deutschen SEO-Szene zu Gast hatten.
An dieser Stelle auch nocheinmal vielen Dank für die ganzen Recaps (57 Stück). Ebenfalls dankbar bin ich auch für unsere starken Non-Szene Partner. In 2011/2012 zum Beispiel haben uns die Rheinische-Post und der Kölner Stadtanzeiger klasse unterstützt. Genau diese Kanäle werde ich in 2013 weiter ausbauen, damit wir das SEO Thema noch weiter in die Welt hinaus tragen können. Die Fernsehsender sind noch zurückhaltend, aber ich arbeite dran 🙂

Ziel in 2013 ist also wieder eine gesunde Mischung aus SEO-Szene und Einsteiger. Dies hat sich in den letzten 2 Jahren bezahlt gemacht für beide Seiten. Außerdem müssen wir den Speaker ja wieder einen Anreiz schaffen zu kommen.

Gerald: Größer, besser, weiter. Wollt ihr den Event in diesem Jahr genau so aufziehen wie in 2012 oder wird es Neuerungen geben?

Fabian: Die Location wird sich sehr wahrscheinlich verändern, da wir mit der hohen Anzahl an Gästen im Stadion an das Limit stoßen. Ansonsten wird das Konzept der 3 Sessions so bleiben. Es wird mehr 45 min Sessions geben und weniger Speaker. Das Partykonzept in der externen Location auf den Ringen ist 2012 voll aufgegangen. Wir stürmen also auch in 2013 wieder einen Club und trinken alle Krüge leer, da wird nicht gespart! Und er Preis bleibt natürlich auch im Earlybird bei 250 Euro netto.

Gerald: Eine klassische Keynote wird es wohl auch in diesem Jahr nicht geben, du/ihr begrüßt die Gäste doch sicher wieder persönlich. Doch wie sieht es dann aus mit den Speakern in diesem Jahr. Gibt es neben den allseits bekannten und beliebten Rednern dieses Jahr auch neue Gesichter (oder neue Programmpunkte) zu bewundern?

Fabian: Meine Hauptaufgabe in 2013 sind die Speaker. Es gibt da draußen eine Menge Diskussionen über die Standard-Speaker und 3 mal das Gleiche im Jahr. Da ich selbst Speaker auf Campixx, Tactixx, Cebit, Webmastertreffen Pilsen und Seokomm bin weiß ich wie schwer es ist immer etwas Neues zu zeigen. Irgendwann ist auch bei einem Jens Fauldraht oder Karl Kratz der Stack für innovative und neue Dinge abgearbeitet. Zumindest bei 4 Terminen im Jahr. Neue Speaker braucht das Land, heißt daher die Marschrichtung. Da ich gut vernetzt bin und ständig eigene SEO Analysen fahre, fallen mir viele Leute auf. Ihr könnt mir glauben, ich frage bei einer Menge krasser SEOs für einen Speak an. Die meisten unterhalb der Wasserlinie wollen dort aber bleiben. 2 völlig neue habe ich aber bereits. Lasst Euch überraschen, vom Namen her werden viele sie kennen und 2013 das Gesicht dazu sehen.

Gerald: So ein Event kostet natürlich. Wie sieht es denn preislich aus mit der Konferenz. Dem frühen Vogel winkt eine Vergünstigung, doch wo liegt der normale Ticketpreis?

Fabian: Genau wie in 2011/2012. Earlybird: 250 Euro, Latebird: 350 Euro, Lastbird: 499 Euro netto. Ab dem 400 Ticket wird auf Latebird gestellt. Das Lastbird wird 1 Woche vor der Konferenz geschaltet, da es echt immer ein Kampf mit den Caterern ist, wenn auf einmal 50 Leute mehr kommen sollen.

Gerald: Letztes Jahr gab es einen vielbeachteten Seo Wettbewerb, bei dem es neben einem fetten Hauptgewinn auch noch Tickets für den Seo-Day zu gewinnen gab. Beabsichtigt ihr in diesem Jahr eine ähnliche Aktion?

Fabian: Das wird doch jetzt nicht verraten Gerald :-)Ich könnte mir schon vorstellen, dass es einen Contest gibt. Aber vielleicht einen etwas anderen als Ranking.
Mal schauen was im Google-Kosmos in den nächsten Monaten so passiert. Du kennst mich und ich mag keine langweiligen Sachen. Es muss mir selbst gefallen, dann mache ich es.

Gerald: Noch ein abschließendes Wort von deiner Seite?

Fabian: Jeder der meint beim SEO DAY speaken zu müssen soll sich bei mir melden: info@seoprogrammierer.de. Ich sammel alle Bewerbungen und schaue mir einige Leute auf der campixx, tactixx an. Genell gilt, dass niemand bei SEO DAY Speaker wird, den ich nicht vorher gesehen habe oder der sich durch richtiiiiiiig fette Seiten qualifiziert. Salesleute fliegen bei mir direkt raus und bezahlte Spots gibt’s schonmal gar nicht! Haut in die Tasten, i freu mi!

Unter den vielen Rankingfaktoren gibt es viele Faktoren die wichtig sind, aber auch welche, die weniger wichtig sind. Mit der Zeit kann es aber auch passieren dass bestimmte Faktoren an Wichtigkeit verlieren oder eben gewinnen. Beim PageSpeed war es so, denn er war lange Zeit ein ruhender Faktor, der kaum ernstgenommen wurde. Mit der Zeit hat er immer mehr an Bedeutung gewonnen und kann mittlerweile sogar für einen richtigen Rankingschub sorgen. Nicht umsonst stellt Google sogar das PageSpeed-Tool bereit und gibt sogar direkte Tipps, mit denen sich der PageSpeed verbessern lassen kann.

Weiterlesen

Seo-Wahlen wie die gerade zu Ende gegangenen Seo Wahlen 2012 von Seo-United sind gut um zu zeigen, wie hochgradig professionell unsere Branche mittlerweile geworden ist.

seo_wahlen_2012_gewinner

Hochgradig professionell im Löschen von Cookies.
Noch professioneller im Wechseln von IP-Adressen.
Und geradezu überprofessionell im Verfälschen von Statistiken.

Das zu sehen tut gut in den wilden Zeiten des Pandas, beruhigt ungemein beim Umgang mit Pinguinen und lässt uns frohen Mutes und entspannt in die SEO-Zukunft schauen. Die Seo-Szene ist erwachsen geworden. Letztes Jahr war sie noch kindisch 🙂

Scherz bei Seite. Die Seo-Wahlen sind von der Grundidee besehen nicht schlecht. Sie bescheren ihren Erfindern auf jeden Fall eine Menge Aufmerksamkeit und kontroverse Diskussionen. Der eine oder andere Link dürfte auch bei abfallen. So wie hier im Blog geschehen. Und für uns alle bedeutet so eine Aktion auch eine Menge Unterhaltung 🙂 Aber natürlich schreit das Ganze auch nach einer etwas faireren Umsetzung – so wie von Marcus Tandler angeregt. Aber bitte zusätzlich zur Seo-United Aktion, vom Unterhaltungswert ist die alte Variante nämlich nicht zu toppen. Und das liegt nicht an den eigentlichen Inhalten, sondern an dem was sich in den Kommentaren und tief unter den Formularen abspielt 😉