Eine Website besteht aus vielen Einzelseiten. Je älter sie ist und je umfangreicher, umso komplizierter wird es, Zahl und Struktur aller Seiten im Auge zu behalten und Probleme darin zu finden. Technisch gesehen, erzeugt sogar jeder verwendete URL-Parameter in Kombination mit seinem Wert eine neue Seite. Gerade, wenn es dann darum geht, Stolpersteine aufzudecken und Optimierungen durchzuführen, hilft Handarbeit in Form von manuellen Analysen vielfach nicht weiter.

Gleichzeitig verlangt eine verstärkte Tendenz hin zu mobil verwendbaren Websites eine Beachtung aller möglichen Fallstricke, die die Ladezeiten von Seiten negativ beeinflussen. Nachdem nun die Telekom eine Datendrosselung ihrer DSL-Anschlüsse eingeführt hat, ist selbst die großflächige Verfügbarkeit schneller Internetverbindungen keine Ausrede mehr für langsame Websites – ganz abgesehen davon, dass Suchmaschinen wie Google ganz offiziell schnelle Websites bevorzugen.

Fragen zu diesem Thema laufen mir im SEO-Alltag deshalb regelmäßig über den Weg. Schließlich ist die technische Optimierung der eigenen Website einer der drei Grundpfeiler für die Optimierung – und vor allem etwas, was der Websitebetreiber i.d.R. selbst in der Hand hat. Zentrales Element technischer Analysen sind für mich nach wie vor eigene Crawls der Kundenwebsites. So finde ich relativ schnell Probleme, mit denen auch Suchmaschinencrawler auf diesen Websites konfrontiert werden.

Bekannte Tools, denen jeder SEOler regelmäßig begegnet, sind Xenu’s Link Sleuth, Microsofts IIS SEO Toolkit oder der Screaming Frog – alle kostenfrei oder sehr günstig verfügbar und für den alltäglichen Gebrauch durchaus hilfreich. Dennoch haben alle drei ihre speziellen Anforderungen und natürlich ihre Grenzen. Gerade bei extrem umfangreichen Websites begeben wir uns hier regelmäßig an das Limit der Möglichkeiten. Ich war deshalb sehr froh, dass ich kürzlich die Gelegenheit bekam, ein noch recht junges Tool zu testen, dessen Entwickler sich zum Ziel gesetzt haben, genau diese Grenzen nicht zuzulassen: strucr.com.

Grundsätzlich ist strucr.com in vier Varianten verfügbar. Eine kostenfreie Schnupperversion taugt zum Kennenlernen und erlaubt das Analysieren kleiner privater Websites. Geht es um eine Erweiterung des Umfangs sind nach oben fast keine Grenzen gesetzt:

Die unterschiedlichen Pakete von strucr.com

Dabei zielt strucr.com ganz klar auf den Einsatz im Enterprise-Bereich. Sämtliche Daten, die der Crawler erhebt, sind via API abrufbar und können so in eigene Tools und Auswertungen integriert und mit Daten aus anderen Anwendungen kombiniert werden. Ganz klar, dass die Entwickler von strucr.com deshalb enorme Anforderungen an die Qualität der Daten stellen. Bugs und Fehler dürfen hier einfach nicht passieren und müssen – sollten sie doch einmal auftreten – in kürzester Zeit behoben werden. Zur Qualitätssicherung muss der Crawler regelmäßige Tests gegen seine eigenen Bugs und natürlich seine Mitbewerber bestehen. Nach eigenen Aussagen, schaffen alternative Crawler gerade mal 65% dieser Tests.

Gleichzeitig liefert strucr.com den Großteil seiner Daten in absoluter Rohform und versucht Interpretationen weitestgehend zu vermeiden. Gegenüber einigen Wettbewerbern wirkt das zwar relativ plump und nicht so „hübsch“, hat aber den großen Vorteil, dass die Auswertung der Daten dem Kunden selbst überlassen bleibt, was gerade bei Verwendung der API sehr vorteilhaft ist. So können die gefunden Fehler im Kontext der Website selbst interpretiert werden. Es gibt einfach „Fehler“, die durchaus ihre Daseinsberechtigung haben. So kann beispielsweise eine große Anzahl an Seiten mit dem Meta-Tag robots=“noindex,nofollow“ für einen Shop typisch sein und sollte deshalb nicht zwangsläufig als negativ bewertet werden. Für ganz konkrete Fragestellungen oder zur Behebung komplexer Probleme sind die Entwickler hinter strucr.com übrigens auch gern bereit, weitere Features in ihren Crawler zu integrieren oder mit sehr speziellen Parametern zu crawlen.

Technisch steht hinter dem Tool eine solide IT-Infrastruktur, die bei dem Umfang der erhobenen Daten aber auch notwendig ist. Wer einmal versucht hat, die Website eines Onlineshops mit 200.000 Produkten und zahllosen Parametern (z.B. SessionIDs) mit einem der herkömmlichen Tools zu crawlen, wird – einen leistungsstarken PC vorausgesetzt – nach spätestens 12 Stunden verzweifelt sein. Im Agenturalltag passiert es mir in solchen Fällen nicht selten, dass zwischendurch entweder die IT des Kunden meine IP-Adresse blockiert oder mein Telefon klingelt und es Beschwerden hagelt. Im Gegensatz zu herkömmlichen Tools läuft strucr.com hingegen auf einem eigenen Server. Die Geschwindigkeit des Crawlvorgangs kann individuell abgestimmt werden. Um Einbrüche bei der Performance der gecrawlten Website zu vermeiden, kann und muss der Crawl daher mit der zuständigen IT-Abteilung abgestimmt werden.

Schauen wir uns aber mal die Auswertung, die strucr.com standardmäßig für einen Crawl liefert, beispielhaft anhand der Website eines relativ großen deutschen Reiseanbieters an. Die Basisfeatures verstehen sich fast von selbst und sind schnell erklärt:

  • Anzeige beim Crawl gefundener Fehler mit konkreter Fehlerangabe, URL und Ladezeit
  • Anzahl der gecrawlten Seiten, gefundenen Links und Ebenen, in denen die Seiten strukturell organisiert sind
  • Anzahl der Seiten sortiert nach Typ (z.B. Nofollow, External) und http-Status (z.B. 301/302-Weiterleitungen, 404-Fehler)
  • Gecrawlte Domains und Subdomains (intern und extern) mit Anzahl eingehender und ausgehender Links
  • Anzahl eingehender und ausgehender Links pro gecrawlter Seite

Darüber hinaus erhebt strucr.com weitere Daten und Reports, die im Hinblick auf eine umfassende Websiteoptimierung extrem hilfreich sind:

Seiten nach Ladezeit

Während des Crawls werden die reinen HTML Response Times der Seiten gemessen und aufgezeichnet. So lassen sich schnell Probleme bei der Seitengröße identifizieren und damit die Seiten gezielt auf Geschwindigkeit optimieren.

Aufschlüsselung der Seiten nach Antwortzeiten

Mein Crawl zeigt mir beispielsweise auf den ersten Blick, dass meine Website bei den Ladezeiten zwar schon ein ganz gutes Bild abgibt, ich aber gerade im 200-300ms-Bereich noch einige Ausreißer habe, die ich mir einmal ansehen sollte. Ein Klick auf den Eintrag liefert detaillierte Informationen zu den Seiten, um die es sich dabei handelt. Offensichtlich sind dies Seiten, bei deren Bereitstellung im CMS viele verschiedene Informationen, wie z.B. Buchungszeitraum, Verfügbarkeit, Anzahl der Personen usw., berücksichtigt werden. Das sollte ich mir mal näher anschauen und eventuell die Zahl der Abfragen verringern. Hier ist es übrigens gut, dass strucr.com die Daten nicht interpretiert, denn ich weiß ebenso, dass es sich um Seiten handelt, die ich mit „noindex, nofollow“ markiert habe. Diese Aufgabe hat für mich aus SEO-Sicht deshalb keine hohe Priorität. Im Hinblick auf Usability und User Experience hingegen, sollte ich hier bei Gelegenheit trotzdem aktiv werden.

Seiten mit Anmerkungen

In dieser Übersicht liefert strucr.com eine Liste mit Anmerkungen zu meinen Seiten und die Zahl der Seiten, die zum jeweiligen Kriterium passen.

Seiten aufgeschlüsselt nach Hinweisen

Die für mich aus SEO-Sicht besonders interessanten Hinweise habe ich gelb markiert. Hier sollte ich mir vor allem die Page Titles, Metadaten und Alt-Attribute anschauen, um meine Keywords besser einzusetzen und in den Suchergebnissen besser dazustehen. Gleichzeitig kann ich durch Auslagerung von CSS und Skripten sowie Größenangaben bei den Bildern bessere Ladezeiten bei meinen Seiten erreichen. Und nicht zuletzt sollte ich mir auch meine URL-Struktur einmal anschauen. Welche Fälle das genau betrifft, kann ich mir in diesem Report mit einem weiteren Klick auflisten lassen und zum Beispiel als Excel-Datei exportieren, die ich dann gezielt abarbeite. So brauche ich nur die Seiten anzufassen, die es wirklich betrifft.

Seiten und Content nach Level

Wie weit müssen Nutzer von der Startseite bis zu meinen wichtigsten Seiten bzw. meinem wichtigsten Content klicken? Diese Frage ist im Hinblick auf Usability und User Experience extrem wichtig, denn „verstecke“ ich meine wichtigsten Inhalte zu tief innerhalb meiner Websitestruktur, sind sie unter Umständen nicht auffindbar und bleiben deshalb unbeachtet.

Crawlbare Seiten nach Ebenen

Alle Urls nach Ebenen

Hier gibt es bei meiner Website nichts zu bemängeln. Nutzer werden auf den ersten Ebenen nicht mit Inhalten erschlagen, finden aber bei weitergehender Recherche mit wenigen Klicks auch umfangreichere Informationen. Wäre es anders, fände ich hier sicher gute Ansatzpunkte zur Verbesserung der internen Verlinkung.

Seiten mit hohem 2D-Rank

Zur Berechnung der Stärke einer Seite verwendet strucr.com zwei relativ leicht zu erhebende Werte: den PageRank, der von strucr.com selbst auf Basis der eingehenden Links pro Seite berechnet wird, und den sog. CheiRank, der auf der Anzahl ausgehender Links basiert. Der von strucr.com berechnete PageRank hat mit dem von Google bekannten Wert allerdings wenig zu tun. Lediglich das zugrunde liegende mathematische Rechenmodell ist gleich, ansonsten ist der Wert hier glücklicherweise von Google unabhängig. Aus der Kombination von Page- und CheiRank bekommt man schließlich ein gutes Bild seiner stärksten und wertvollsten Seiten. Tauchen in dieser Liste vorrangig URLs auf, die keinen Wert für das Unternehmensziel bzw. Ziel der Website haben, sollte man an der internen Verlinkung arbeiten.

Abschließende Worte

Wie bereits erwähnt, sind alle von strucr.com erstellten Listen und erhobenen Daten per API verfügbar und können ebenso als CSV, TSV oder Excel-Datei heruntergeladen werden. So steht einer individuellen Weiterverarbeitung nichts im Wege. Gerade für Agenturen oder große Unternehmen ergeben sich damit viele Möglichkeiten. Gleichzeitig sind Freigaben aller Crawls und Accounts über bis zu vier verschiedene Nutzerrollen möglich. So sind beispielsweise jederzeit Freigaben für Kunden oder andere Abteilungen möglich, die sich gern selbst ein Bild von den Daten machen möchten.

Die Einsatzbereiche von strucr.com sind vielfältig. Im Agenturbereich sind eine einmalige Verwendung für eine konkrete Analyse, aber auch ein dauerhafter Einsatz für laufende, vor allem Technik-bezogene Optimierungen denkbar. Gerade Agenturen mit starkem technischem Fokus bekommen hier über den Crawler hinaus einen Partner, dem kein Problem zu komplex ist. Ebenso vorteilhaft ist aber auch der Einsatz von strucr.com im Unternehmensalltag. Von der IT- bis zur E-Commerce- oder SEO-Abteilung können hier alle profitieren. Warum nicht gleich strucr.com im Deploymentprozess einbinden um Änderungen an der Website vor dem Live-Gang direkt auf Herz und Nieren zu testen?

 

Über den Autor:

André Scharf ist Senior SEO Account Manager bei LBi und Betreiber eines eigenen Blogs.

Bei der Analyse von Webauftritten durch unseren Struktur-Analysedienstes strucr (https://strucr.com/) fallen immer wieder ähnliche Probleme im Aufbau von Webseiten auf. Zwei der häufigsten Strukturfehler wollen wir hier vorstellen und dabei erklären, wie man diese beheben kann. Es handelt sich dabei um das Problem der schleichenden Indizierung bei zu hoher Seitentiefe und das Problem der unkontrollierten Vermehrung durch Filter und Sortierung.

Kennst du deine Seite?

Unser Service crawlt komplette Webangebote und macht die anschließend eingehenden Analysen zugänglich. Wir haben nun einige Seitenbetreiber gebeten, vor den Crawls Schätzungen bezüglich Seitenanzahl und Tiefe ihrer Seite abzugeben. Diese lagen jedoch in den meisten Fällen um mehrere hundert Prozent unter den tatsächlichen Werten. Auch und insbesondere wenn die Schätzungen aufgrund einer Site-Abfrage bei Google getätigt wurden.

Nach bald einem Monat Betrieb von strucr.com kann man daher feststellen: Die meisten Seitenbetreiber kennen ihre Seiten kaum und haben keine realistische Vorstellung von Größe, Struktur und auch den Problemen ihrer Webseiten.

Hohe Seitentiefe – schleichende Indizierung

Viele der gecrawlten Webseiten hatten Probleme mit einer sehr hohen Seitentiefe. Vom Startpunkt des Crawls (Level 0) lagen Seiten oft mehr als zehn Ebenen weit entfernt. Große Teile des Angebots sind damit für Besucher und Suchmaschinen sehr schwer oder gar nicht zu erreichen. Die Verteilung der Seiten innerhalb der ersten Ebenen sieht oft wie in folgendem Beispiel aus:

Prozentuale Anzahl der Seiten pro Level in Prozent.

Prozentuale Anzahl der Seiten die innerhalb der angezeigten Level erreicht werden in Prozent.

Die häufigsten Ursachen für eine sehr hohe Seitentiefe sind eine undurchdachte Paginierung sowie unzureichend differenzierte und oft zu tiefe Kategoriestrukturen. Dies führt oft zu einer schleichenden oder nur teilweisen Indizierung in den Suchmaschinen.

Schlechte Paginierung ist bei kleinen und großen Angeboten gleichermaßen häufig zu finden. Die im Beispiel verwendete Webseite etwa umfasst ca. 975.000 Unterseiten welche sich auf mehr als 300 Ebenen verteilen. An einigen Stellen ist die Paginierung so gestaltet, dass immer nur eine Seite weiter geblättert werden kann. Das Resultat ist die extrem hohen Levelanzahl.

Eine gute Paginierung sollte folgende Bedingungen erfüllen:

  • Es sollten sowohl benachbarte als auch entfernte Seiten verlinkt werden
  • Benachbarte Seiten sollten vollständig abgedeckt sein
  • Entfernte Seiten sollten punktuell verlinkt werden
  • Auf jeder Seite sollten andere entfernte Seiten verlinkt werden

Eine hohe Zahl an Seiten bei einer Paginierung ist darüber hinaus ein Indiz für eine unzureichend differenzierte Kategorisierung der Inhalte. Die Zahl der Seiten kann bei Listen auch begrenzt werden, sofern die Daten dies erlauben.

Unsere Crawls haben auch gezeigt, dass die letzen Seiten in sehr langen, paginierten Listen fast durchgängig schwerwiegende Performance-Probleme haben. Dies liegt vor allem an den Kosten die auf Datenbankseite beim Prozess der Sortierung und Filterung und anschließendem Limit entstehen. Mehr als 15 Sekunden Laufzeit sind hier nicht unüblich.

Hohe Seitenzahlen – unkontrollierte Vermehrung

Einige der gecrawlten Webseiten wiesen eine hohe Zahl an im Endeffekt unnötigen Seiten auf. Gerade Shops und Vergleichsseiten kommen sehr schnell zu einer extrem hohen Zahl an erreichbaren Seiten. In einem Fall etwa waren dies in Ebene 3 bereits mehr als eine Million, insgesamt wären unter der Domain mehrere Milliarden Seiten abrufbar gewesen.

Wir nennen dies das Problem der unkontrollierten Vermehrung.

Die häufigste Ursache für eine solche Vermehrung sind schlecht umgesetzte Listen, Filter und Sortierungen. Die als Beispiel genannte Seite umfasst lediglich etwa 20.000 Produkte, die sich aber innerhalb der Produktlisten nach Preis, Farbe, Hersteller und diversen Produktkriterien filtern und sortieren ließen. Alle diese Filter waren kombinierbar und alle Kombinationen ließen sich über eigenständige Urls abrufen.

Das Gegenrezept sind Filter, die mittels eines POST-Requests gesendet werden. POST-Requests haben aber zwei Nachteile:

  • Bei Betätigen des Back-Buttons im Browser kommt es zu einem Resubmit, vor den die Browserhersteller abschreckende Dialoge gestellt haben
  • POST-Request haben keine URL, können also weder gebookmarkt noch in den sozialen Medien geteilt werden

Die Lösung dieser Probleme bietet das PRG-Pattern (Post/Redirect/Get, http://en.wikipedia.org/wiki/Post/Redirect/Get): Die Filtereinstellungen werden per POST über das Formular übermittelt und in einer Session gespeichert. Dann erfolgt ein Redirect auf die Startseite der Liste. Die Startseite der Liste sowie mögliche Paginierungsseiten lesen die Filter- und Sortierungseinstellungen aus der Session aus und stellen die Ergebnisse dar.

Direkte Links auf die gefilterten oder sortierten Listen können über die alten GET-Requests realisiert werden welche die Settings in eine Session schreiben und auf die Liste weiterleiten.

Derartige Listen bringen eine Reihe von Vorteilen mit sich:

  • Die Zahl der Seiten reduziert sich stark
  • Es kann auf NoFollow-Links sowie auf das Canonical-Element verzichtet werden
  • Eingehende Links werden auf wenige wichtige Strukturseiten konzentriert
  • Die Ansicht für Benutzer die über eingehende Links kommen kann nach wirtschaftlichen Gesichtspunkten optimiert werden

Als fleißiger SEO wird man tagtäglich mit vielen verschiedenen Aufgaben konfrontiert, welche man kategorisieren, priorisieren, strukturieren und dann umsetzen muss. Neben der Recherche nach vielversprechenden Keywords, der Organisation des passenden Contents und der entsprechenden Onpage Optimierung bestimmen auch – bzw. vor allem – stetig neue Links unsere Rankings.

Wer eine Vielzahl unterschiedlicher Projekte betreut, weiß, wie komplex es sein kann immer den richtigen Linkmix, die wichtigsten KeyWords und die benötigten Deeplinks im Auge zu behalten. Denn wer ein organisches Linkprofil aufbauen möchte, der sollte ein gesundes Verhältnis zwischen Start- und Unterseitenverlinkung beachten, einige starke, einige mittlere und einige schwache Links aufbauen, zwischen Links aus Artikeln, Forenlinks, Blogkommentaren, Profilen, Bookmarks usw. abwechseln und auch kontinuierlich seine Projekte anschieben.

Dies setzt in erster Linie ein hohes Maß an Ordnung voraus, bedarf einer gewissen Organisation und lässt sich durch das Delegieren einiger Linkbuilding-Aufgaben entscheidend beschleunigen.

Doch neben dem eigenetlichen Umsetzen des Linkbuildings muss ein SEO auch noch das Budget im Auge haben, den Traffic kontrollieren, seine Rankings und die Konkurrenz beobachten und und und. Um den Linkbuilding-Part effektiver und effizienter zu gestalten, stets den Überblick zu behalten und das Linkbuilding outsourcen zu können, haben wir aus eigenem Bedarf heraus den Linkmanager linkbird entwickelt, als dessen Kernfunktionen folgende zu benennen sind:

• unbegrenzt Links, Projekte und Linkbuilder anlegen und auswerten
• regelmäßiger Backlink-Check und Alert bei Ausbau
• Linktauschpartnerverwaltung nach Tags und E-Mail Verteiler
• genaue Auswertung der Linkprofile nach Linktext, Linkart, PR, Unterseite etc.
• Überwachung der Budgets für Linktausch und Linkkauf
• Kontrolle von internen und externen Linkbuildern

Es folgt eine kleine Vorstellung des Tools, welche ich mit einigen Screenshots aufgepeppt habe – also SEOs und Linkbuilder: zurücklehnen und genießen 😉

1. Links hinzufügen und archivieren
Der erste Schritt bei der Nutzung von linkbird ist die saubere Archivierung der gesetzten Links. Diese kann durch einen CSV-Import oder aber auch einzeln durch das manuelle Eintragen im Interface geschehen:

Das Eintragen ist selbsterklärend und geht spielend einfach. Hinter den kleinen „?“ verstecken sich jedoch auch noch Tooltipps, die die Funktionen genau erklären und gerade das Outsourcing an externe oder weniger erfahrene Linkbuilder vereinfacht. Wichtig ist hierbei, dass die Daten korrekt eingetragen werden, da daran später die Linkprofile einzelner Seiten und Linkbuilder erstellt werden.

2. Links als Einzelnen auswerten
Wurde der Link eingetragen, kann dieser in der Linkübersicht detailliert betrachtet und als Einzelnes ausgewertet werden:

Anhand der vielen verschiedenen Filter kann hier auch genau selektiert werden und linkbird zum Beispiel nur die Links zu Projekt X von Linkbuilder X anzeigen, nur gekaufte Links anzeigen oder auch nur Links aus Webkatalogen ausgeben – die Kombinationen sind nahezu unbegrenzt, sodass jeder Statistikwunsch befriedigt werden kann.

3. Linkprofile der Projekte auswerten und steuern
Sehr interessant und wichtig für die Auswertung ist die Projektübersicht. Hier können alle Projekte oder jedes Projekt als einzelnes ausgewertet werden und entsprechende Schritte für den weiteren Linkaufbau gezogen werden. Fragen wie „Mit welchem KeyWord sollten wir häufiger verlinken?“, „Haben wir zu viele Links der gleichen Art?“, „Brauchen wir ein paar High-PR-Links?“ oder „Warum rankt diese Unterseite eigentlich auf einmal so gut?“ lassen sich hier beantworten:

Wer hier sorgfältig arbeitet, kann mit nur wenigen Klicks genau auswerten auf welche KeyWords er diesen Monat den Fokus legen sollte, ob er es mit den Bookmarks übertrieben hat oder ob er eventuell auch mal ein bisschen auf die Unterseitenverlinkung gehen sollte.
Auch das in die jeweiligen Projekte investierte einmalige oder monatliche Budget lässt sich mit linkbird tracken und auswerten:

4. Auslagern des Linkbuildings
Es ist ratsam nicht immer nur alleine für seine Projekte Links aufzubauen, sondern die kleinen Links und den organischen Linkaufbau mithilfe von externen oder internen Linkbuildern ein Stück weit schneller zu skalieren. Durch das Linkbuilder Controlling kann die Arbeit eines jeden Linkbuilders exakt ausgewertet und überwacht werden:

Jeder Linkbuilder lässt sich nach Projekt und dann auch noch nach Linkart aufschlüsseln, sodass es für den SEO ein leichtes ist, die Abrechnung und Steuerung der Arbeiten perfekt kontrollieren und umsetzen zu können.

Für einen sauberen Ablauf kann beim Anlegen jedes Mitarbeiters auch noch entschieden werden, ob er

• Master oder Linkbuilder Rechte hat
• Einen Wochenreport mit von ihm gesetzten Links bekommen soll
• Zugriff auf die in der Linkakquise stehenden Aufträge hat
• Zugriff auf Linktauschanfragen hat, welche über die dafür eingerichtete Seite eingegangen sind – Beispiel: http://linkbird.seobird.de/ (PW: test)

Durch den zeitlichen Verlauf kann zudem die Performance eines jeden Linkbuilders ausgewertet und dieser entsprechen kontrolliert werden.
Alles in Allem ist der linkbird Linkmanager und Backlinkchecker das perfekte Tool für jeden SEO der sein Linkbuilding auf das nächste Level bringen möchte – egal ob er alleine oder im Team arbeitet.

Die hinzugewonnene Übersicht (der Effekt, wenn du deine Links aus Excel Files in das Tool importierst ist grandios ), die Möglichkeiten das Linkbuilding auszulagern und mehr Zeit für die Strategie zu haben, der automatische Backlink-Check und einfach alles kontrollieren zu können eröffnen völlig neue Möglichkeiten und sorgen zwangsläufig zu einer besseren Verwendung des zur Verfügung stehenden Linkjuices.

Keine unbemerkt ausgebauten Links mehr, sofortiger Überblick, mehr Zeit durch Outsourcing und bessere Entscheidungsgrundlagen: das ist linkbird!
Wer mehr erfahren möchte, kann unter www.linkbird.de ein Testlogin anfordern und eine Videopräsentation anschauen.

Gewinnspiel für seo.de Leser!
Unter allen, die bis zum 31.12.2010 einen Blogbeitrag zu linkbird schreiben oder über linkbird twittern und auf diesen Beitrag hier verweisen, verlosen wir

– einen 12 Monatszugang zu linkbird im Wert von netto 238,80 € (gilt nicht für Kunden)

PS: Bitte gebt dann noch ein Kommentar ab, damit Ihr berücksichtig werden könnt!

Viele Grüße
Nicolai, linkbird.de

Innerhalb kurzer Zeit haben Microsoft, Yahoo und Google die Top-Suchbegriffe des Jahres 2009 veröffentlicht. Und wie jedes Jahr sind die Ergebnisse mit einer gehörigen Portion Vorsicht zu genießen. Frei nach dem Motto “Traue keiner Statistik, die du nicht selber gefälscht hast”, haben die Großen auch dieses Jahr wieder fleißig an ihren Zahlenwerken gedreht. Doch damit nicht genug, auch Suchmaschinentrickser Stefan Fischerländer hat Zahlen aus den Tiefen seiner Keywort-Datenbank heraus gefischt und veröffentlicht. Glücklicherweise ist Stefan aber weniger prüde und zeigt uns seine Zahlen nackt und unzensiert 😉

Pos.MicrosoftYahooGoogleSumaTricks
1
2
3
4
5
6
7
8
9
10
Youtube
eBay
Jappy
Wer kennt wen
Facebook
SchülerVZ
MeinVZ
StudiVZ
Wikipedia
Megan Fox
Wetter
Routenplaner
Wikipedia
Telefonbuch
Horoskop
Erotik
Body Mass Index
Lotto
Mail
Grußkarten
Youtube
eBay
Wetter
Google
Hamburg
gmx
Facebook
web.de
Wikipedia
Video
google
gmx
amazon
routenplaner
telefonbuch
wikipedia
sex
ebay
youtube
wetter

 
Natürlich sind die Resultate eingefärbt, jede Suchmaschine spricht unterschiedliche Personenkreise an und bedient ihre Klientel mit anderen Inhalten. Das führt so oder so zu einigen Abweichungen. Doch wenn Yahoo Suchbegriffe wie Google oder Youtube zensiert, dann hat das sehr viel mit Firmenpolitik zu tun und sehr wenig mit Aufklärung. Und wenn Microsoft und Google den Begriff “Sex” nicht listen und Yahoo ihn mit “Erotik” substituiert, dann hat das sehr viel mit amerikanischer Prüderie zu tun und sehr wenig mit dem Schutz der suchenden Bevölkerung. Denn die kennt die Begriffe schon, irgendwer muss die ja schließlich eingegeben haben 😉

Zum Rüstzeug eines SEOs gehört neben dem eigentlichen SEO-Wissen auch der richtige Umgang mit entsprehenden Statistik- und Analyse-Tools. Allen voran Google Analytics. Das Tool muss man als SEO kennen und können, sei es für den eigenen Einsatz oder für die Betreung von Kunden. Da trifft es sich gut, dass mir Sven von der Trendmile gerade folgende Mail mit angehängter Rezension zukommen liess:

Hallo Gerald,

Tim Schieferstein von fondsvermittlung24.de war absolut vom Buch “Google Analytics – Implementieren. Interpretieren. Profitieren.” von Timo Aden begeistert und hat es mir als Leseempfehlung ans Herz gelegt. Da hab ich ihm gleich mal eine Rezession aus den Rippen geleiert 🙂

Gruß Sven

Für all jene, die jetzt neugierig geworden sind, hier geht es zur Rezension vom Tim Schieferstein: Google Analytics – Implementieren. Interpretieren. Profitieren. Viel Spaß!

Seit dem 31. März 2009 treibt Google Suggest sein Unwesen auf der Startseite von Google Deutschland und so mancher Blogeintrag hat sich schon mit dem Thema befasst. Da geht es um Lustiges und Listiges, aber auch um Suggest Auswirkungen und Ausmessungen. Ein Aspekt dürfte dabei auch noch recht interessant sein – das liebe Geld. Denn letztendlich geschieht im Web selten etwas ohne geschäftliche Interessen.

Man sollte ja kaum annehmen, dass Google ein Feature einführt, dass sich negativ auf seine Werbeeinnahmen auswirkt. Insofern dürfte der folgende Beitrag von Interesse sein, der behauptet dass Google Suggest Traffic wertvoller als der übrige Google-Traffic ist. Interessanterweise im aufgeführten Fall nicht nur in Bezug auf die organische Suche, sondern auch bezüglich Google AdWords. Zwar sollte man diese Zahlen mit entsprechender Vorsicht genießen, auch läßt sich eine derartige Wirkung nicht auf jeden Bereich oder bestimmte Nischen verallgemeinern, aber von der Grundidee ist das schon recht spannend.

Unser lieber Big Brother Google hat mit Suggest ein weiteres Steuerelement in der Hand, um sich und den Besucher glücklich und die Aktionäre noch glücklicher zu machen 😉

Lange durften wir auf Suchmaschinenoptimierung.de nur auf einen Platzhalter schauen, jetzt ist die Zeit abgelaufen und das Geheimnis gelüftet. Jochen Maaß und seine Mannen haben wochenlang schwer an ihrer Software geschuftet und die SEO Analyse Software heute der Öffentlichkeit vorgestellt. Anbei ein erster Eindruck vom SEOlytics Dashboard:

SEOlytcis Analyse Tool

Weitere Infos folgen im Kürze. Bin erst mal auf Achse.

Update: Mittlerweile gibt es eine detailierte Besprechung von SeoLytics.

Suchmaschinenoptimierung für mobile Suchen ein Thema? Was wird von wem wie und wo gesucht per Suchmaschine via Handy? SEO Einführung

Warum soll das Thema “mobile SEO” bzw. “MSEO” eigentlich unter Online Marketern Beachtung finden? Das Gros der ersten Versuche mobil mit internetfähigen Mobiltelefonen ins deutsche Internet zu gehen, dass ist allgegenwärtig für Ende 2008 prognostiziert und und soll im Jahr 2009 mit zunehmender Verbreitung von billigen Datentarifen und Flatrates einen “Push” bekommen. Suchmaschinen stehen in der Summe der Anwendungen vor den stark beworbenen Applikationen wie Email oder Routenplaner. Ein umfassendes Nutzen des mobilen Internets erwarten mobile SEO-Experten allerdings erst nach 2010 im mobilen Deutschland.

Der deutsche Markt in Zahlen zur mobilen Nutzung

Hierzulande spricht man gern von einer gegenwärtigen Verdopplung der Nutzung mobiler Anwender monatlich. In anderen bevölkerungsreichen Ländern kommt die Nutzung des mobilen Webs bereits vor dem Internet. Es liegt also auf der Hand, sich jetzt schon darauf einzustellen; denn laut Bitkom (erfolgreicher Koordinator der Telekom Rene Obermann ist seit 12. März 2007 Mitglied im Präsidium) gibt es bereits mehr Mobilfunkverträge als Einwohner in der Bundesrepublik. Die Bitkom-Zahlen finden sich mittlerweile in vielen Business-Plänen bei Deutsche Startups wieder. Und die entscheidende Zahl, die der deutschen UMTS-Nutzer, wird gegenwärtig auf mindestens 15 % geschätzt. Eingeschlossen sind dabei neben den Flatrates natürlich Smartphone, PDA und Handy. Der Wallet Garden der großen Handy-Provider wird in der BRD gerade in den Feiertagen extrem abgebaut. Auch bundesrepublikanische Handy-User werden sich außerhalb der meist kostenpflichtigen Client-Anwendungen unabhängig der Feiertage durch das mobile Netz bewegen. Der Rest der Welt macht es ihnen zumindest statistisch vor. Morgan Stanley hat dazu mit Internet Trends 2008 (PDF) eine fast brauchbare Studie im Netz abgelegt. Wer gern ausschliesslich die deutsche Statistik bevorzugt, der wird mit ein wenig Recherche bei der Bundesnetzagentur unter www.bundesnetzagentur.de fündig (cooles Adler-Favicon in der Browserzeile übrigens und gute CI-Berater).


Online Marketing Agentur - mobile Suchmaschinenoptimierung
Ron Hillmann. Hier am 04.11.2008 mit Geburtstags-Sweater von Google Germany. Let’s Say Thanks!

Anfänge SEO & Historie mobiles Web bzw. mobiler Suchmaschinenindex

Zu Zeiten aufkommender WAP-Dienste (oft auch als Wait and Pay bezeichnet), war es unabdingbar, sich mit schnell ladenden Seiten für die Handy-User zu präsentieren. Demzufolge wurde auch ein eigener Index für mobilefähige Seiten notwendig, die heute in der Regel allgemein beschrieben per XHTML Mobile Profile (Wap 2.0) erstellt werden. Noch fehlt es aber an ausreichenden Seiten, um einen umfassenden Index anzubilden. Und die mobilen Suchen von Google und Yahoo bedienen sich deshalb einer Art Hybrid-Lösung. Neben den Ergebnissen von normalen Websuchen besteht in der Regel die Möglichkeit, Ergebnisse von mobilen Inhalten gesindert abzurufen. Mit zunehmender User Experience wächst der Zugriff auf die mobilen Inhalte im mobilen Index.

Player mobile Suchmaschinen und Nutzer-Verhalten bzw. Suchen

Die Reichweiten-Gewinner des Suchmaschinen-Marktes aus dem Internet sind auch im mobilen Netz zu finden. Nielsen Mobile ermittelt für Q1 2008 im Ranking, dass Google, Yahoo und MSN sich derzeit die Reichweite der mobilen Suchanfragen teilen. Typische TOP-Suchanfragen aus dem Internet sind allerdings nicht übertragbar, wenn man sich auf eine ältere Studie von Google – mobile query data bezieht. Auffällig dabei ist, dass Adult und Entertainment mobiles Surfen und die Suchen der Amerikaner häufig bestimmen. Es werden insbesondere neben Sportergebnissen und Wettervorhersagen die Brands mobiler Applikationen von eMail-Diensten und Social Communities abgefragt. Klingeltöne, Musik, erotische Bilder und Horoskope stehen auch im mobilen Netz hoch in der Gunst der Suchenden. Und immer wieder die Abfrage nach „Stars und Sternchen“. Für Deutschland wird laut comScore M:Metrics eine etwas andere mobile Nutzung analysiert. Die Aktualität steht im Vordergrund, wie sie Wetter, Sport, WKN bzw. ISIN und Nachrichten liefern.

Local Search und Google Maps

Aber es gilt auch zu vermerken, dass gerade lokale Suchen an Bedeutung gewinnen. Mobile Suchen nach Telefonnummern und Adressen von Shops und Restaurants wie Pizza- bzw. Lieferservice, Taxi, Hotel und Arztpraxen im Umkreis des Handynutzers kommen in Mode. Die Maps von Google liefern da gerade akzeptable Ergebnisse, die man über den eigenen Google-Account sehr gut steuern kann. Und unsere Iphone-User sind da gerade die Opinion Leader für lokales Suchen mit ihren schicken Apple-Geräten. Sehr vorbildlich in diesem Bereich ist derzeit Stephan Uhrenbacher’s qype.com mit den mobilen Seiten unter www.google.de/m/ zu finden. Als Beispiel heute zur lokalen Suche „Kinderarzt Berlin“ findet man sehr brauchbare Ergebnisse aufbereitet mit „klickbaren“ Telefonnummern innerhalb der regional ausgerichteten Community. Die Empfehlungen der Qype-Mitglieder finden einen echten Nutzen für das mobile Netz und seine Anwender.

Wie aber beginne ich, meine Webseiten mobilen Usern zur Verfügung zu stellen?

Derzeit will sich keiner der Mobile Experts verbindlich dazu äußern, wie sich das mobile Netz entwickeln wird. Werden Handy-Browser-Updates zukünftiger Generationen mit jeder Form von Website-Gestaltung umgehen können und die Inhalte dem Browser anpassen? Oder wird es weiterhin von gestalterischer Bedeutung sein, auf eine besondere Form der Mobile Usability zu achten. Scrollen wir morgen weiter wie heutzutage typischerweise mit der Maus im Netz oder werden wir perfekt im „Zweifinger Spagat“ und empfinden es als nutzergerecht im Stile eines Iphone-Besitzers, wenn wir mit dem Finger über das Handy-Display surfen? Verschiedene Smartphones und auch das G1 bieten diese Möglichkeit per Touchscreen. Bei Google Android ergibt sich für Entwickler genügend Potenzial. Empfehlenswert ist allerdings noch dieser Tage für viele Webseitenbetreiber, sich mit reduzierten Inhalten und einfachen XHTML-Seiten mobile zu präsentieren. Freunde des mobilen Webs denken auch an ihre mobile phone users und verweisen für ihre mobilen Besucher von der herkömmlichen Internetseite auf ihre mobilen Inhalte.

Welche mobile URL und wie mobile Websites erstellen?

Ob m.domain.de, mobile.domain.de, domain.de/mobile, domain.mobi für mobile Inhalte genutzt werden oder aber unter eigener domain.de in bspw. gängigem XHTML MP programmiert wird, ist den mobilen Suchmaschinen mittlerweile egal. Einige Experten der Materie schwören darauf, es lieber mit domain.de/m oder domain.de/mobile zu versuchen und diese Url von der eigentlichen Internetseite zu verlinken, um deren Trust vererbt zu bekommen. Aus Sicht der Usability würde ich das kurze „m“ wählen und auf der Webseite meines mobilen Auftritts per Link mobilen Besuchern anbieten.

Mobile Surfer wollen übrigens nicht lange nach Informationen suchen. Wenn Entertainment und Werbung, dann möglichst wenig bzw. kurz einbinden. Ähnlich verhält es sich mit den Links zur Navigation. Eine Farm an Links geht unter im beschränkten Browser. Deshalb eher alles kurz halten und auf einspaltiges Darstellen setzen. Der mobile User hat in der Regel wenig Zeit, den Inhalt oder bspw. den Link zum „Call“ zu finden. Das KISS-Prinzip (keep it small & simple) findet hier Anwendung. Und wie wäre es, wenn Termine und Bestellungen auch gleich per Telephonanruf über den Handy-Browser über eine klickbare Telefonnummer auf der mobilen Seite per XHTML-Code möglich sind (Beispiel a href=”tel:49-30-200892911″ LBi.com Berlin Office Call Ron Hillmann – aber, an dieser Position ist der Code sinnlos, da bspw. der Browser vom Iphone wegen der Länge des Artikels diesen Absatz nicht anzeigen wird)?

Sich zukünftig noch zusätzlich auf WML (Wap 1.2), CHTML bzw. iMode mit weiteren Seiten zu konzentrieren, ist bei gegenwärtigem Suchvolumen deutscher Nutzer zu vernachlässigen. Wichtig ist nur, dass die Seiten als mobile Webseiten erkannt werden. W3C http://www.w3.org/Mobile/ zu beachten, kann nicht schaden und sollte als Richtlinie zum Erstellen der Seiten dienen. Diverse Emulatoren finden sich im Netz wieder, die ein Darstellen der Seiten für die verschiedenen Handy-Browser ermöglichen. Einige davon sind eher als Simulatoren zu betrachten. Einfach mal den Test mit dem Suchbegriff „Immobilien“ wagen http://www.operamini.com/demo/. Der Mini Browser von Opera zeigt in den normalen Google-Webergebnissen den Immobilien-Marktführer ImmobilienScout24 an Position 1 der SERPS mit einem Handy-Icon und weitere Anbieter erst auf den folgenden Seitenan, die den Request mit einer mobilen Seite bedienen können. Zusätzlich kann man im unteren Bereich bei der Google-Abfrage dann den “reinen” mobilen Index checken und sich in die Situation des mobilen Surfverhaltens versetzen.

Hardcore Mobile Developer nutzen zum Erstellen mobiler Seiten bspw. Testumfelder von http://www.netbiscuits.com oder setzen auf die Technologie von http://www.sevenval.de/ in Deutschland, die normale Webseiten zu mobilen Sites umwandeln kann. Die letzte Version von sevenval produziert sogar lesbare Urls’s und sieht sehr freundlich für den „Mobile-Bot“ aus. Für Einsteiger, die sich mit einfachen Tools zum Erstellen von mobilen Webseiten beschäftigen, ist das kostenlose Tool von http://www.ready.mobi/launch.jsp als Check der Seiten brauchbar.

Recherche Keywords bzw. Gestalten der Schlüsselwörter
“mobile search engine optimization for international beginners”

Einigen Redakteuren fällt es oft schwer, die richtigen Worte zu finden, die den eigentlichen Inhalt und vielleicht Bilder mit den richtigen Bezeichnungen beschreiben sollen und attraktive Suchanfragen der User bedienen sollen. Zudem wird mobile Surfen bzw. Suchen dadurch bestimmt, dass kurze Suchphrasen verwendet werden. Bryson Meunier hat sich dieses Problems unter http://www.brysonmeunier.com/how-to-do-mobile-keyword-research angenommen.

Interne Verlinkung bzw. umgangssprachlich Dom-Pop im mSEO

Weniger Links sind mehr ist hier die Maxime. Der Diskussion zum Thema Linkjuice bzw. interne Verlinkung sollte man in einfacher Weise begegnen, indem man beispielsweise die Links zu „allgemeinen Inhalten“ wie AGB, Impressum, Kontakt, Disclaimer usw. intelligent auf einen Link fokussiert und sich mit wenigen wichtigen Links auf die Inhalte der Seite konzentriert. Und das dann durchgehend für den ganzen Auftritt.

Anmelden in Suchmaschinen bzw. Submit und externe Links

Wenn man auf „Trust setzt“, dann sollte man schleunigst dafür sorgen, dass die mobilen Webseiten im mobilen Index zu finden sind. In einschlägigen SEO-Foren wird gern Wert darauf gelegt, dass eine Seite dem Index bereits über einen längeren Zeitraum bekannt ist. Man kann ja mit wenigen Inhalten anfangen und die Site kontinuierlich auf- bzw. ausbauen. Sicherlich gibt es da aus mSEO-Sicht kaum Einwände.

Sich bei Yahoo mobile anzumelden und unter den Google-Webmastertools eine XML-Sitemap Mobil zu generieren, sollte auch zur Pflicht werden, um vielleicht in den mobilen Indizes zu erscheinen. Sicherlich sind Links von mobilen Webseiten von Vorteil, um den Spidern für die mobilen Datenbanken den Weg zur eigenen Seite zu zeigen. Glücklicherweise gibt es kaum bekannte Linktausch-Programme oder Dienstleister für das Mieten von Linkverweisen auf mobilen Seiten. Man kann sich einer Überprüfung durch Editoren bei einigen Linkverzeichnissen unterziehen bzw. um Aufnahme bitten. Doch ratsamer ist es auch hier, sich eher mit interessanten Inhalten und Anwendungen im mobilen Netz einen Namen zu verschaffen.

Und mobile Suchmaschinenoptimierung?

Mit den Ratschlägen in den vorherigen Absätzen wird auf freundliches Design für User verwiesen und die technischen Möglichkeiten, dass mobile Bots die Seiten aufnehmen bzw. den Inhalt erfassen können. Das Thema SEO mobile ist gegenwärtig nur über heuristisches Vorgehen zu lösen, um gegenüber Markteilnehmern zu „punkten“. Meine Empfehlung ist es, sich an die Richtlinien von w3.org/Mobile und und eigenes Probieren über Trial & Error zu halten – und bitte nicht auf bezahltes Linkbuilding setzen, denn das Motto heisst auch hier “Unique Content is King“;-). Die Link-Empfehlungen kommen automatisch über einzigartige Apps und Inhalte. Site-Beschreibungen (vergleichbar einer Karteikarte in der Bibliothek!) mit Keywords, Description, Title bzw. URL-Name, der Alt Text (vergleichbar mit der Bildunterschrift in der Tageszeitung!), Überschriften (wie bezeichnende Kapitel eines Buches!) , Sitemaps (der Inhalt!), Startseiten-Links (die verlinkte Agenda!) und hochwertige ausgehende Verweise (die Quellenangabe!) gehören zu den Grundlagen wie die Empfehlungen über externe Links. Sicherlich werden wir bei Sistrix mehr erfahren, wenn das Thema uns in Deutschland “überrollen” wird. Der Blog ist zumindest schon mobile unter de.sistrix.mobi erreichbar.

Mobile Analytics & Mobile Advertising & Mobile Adsense

Zur Zeit befindet sich im amerikanischen Markt admob analytics in der Beta-Version und besticht mit Dashboard und Tools, die uns an Googles Analytics erinnern. Fast 16 Millionen Dollar laut TechCrunch erhielten die Gründer in der gegenwärtigen Finanzierungsrunde. Die ersten deutschen Anbieter überwinden gerade die Entwicklungsphase “eins” und sollten in den nächsten Tagen auch für die breite Masse verfügbar sein. Der Markt bewegt sich. Mobile Adsense werden im deutschen Google als Mobile Anzeigen bezeichnet und bieten seit einigen Monaten die Möglichkeit der Refinanzierung von mobilen Inhalten über geschaltete Handy-Anzeigen für “kleine” Seiten. Die YOC AG ist als Vermarkter und Player für Mobile Advertising zu sehen, wenn bereits stark frequentierte Mobile Sites bestehen. Merchants können über die YOC AG und deren Netzwerk mobile Kampagnen ausliefern oder per Tradedoubler Toolbox mit eigenem Partnertracking Kooperationen per CPM, CPC oder CPO/CPA eingehen. Bango – ein Anbieter für Tracking und Webanalyse – steht bereits in den Startlöchern, um den kompletten Service für mobilen Ecommerce anzubieten und international auszurollen.

Iphone, Applikationen und Iphone-Clients

Ich werde mich keiner Protektion zu diesem Thema anschliessen. Klar ist, dass das Iphone den deutschen Markt der mobilen Nutzung fördert. Aber diese Möglichkeit wird durch Vertragsbindungen an einen Mobilfunkriesen nicht optimal erschöpft. Ich selbst bin Apple-Fan und Iphone-Nutzer, der sich über Umwege das erste Iphone – mein Befreiphone – ohne Vertragsbindung teuer beschaffen konnte. Als Agentur beraten wir unsere Kunden natürlich auch zum Erreichen der Markenbotschaften bzw. dem Branding und dem Präsentieren der Produkte innerhalb der Zielgruppe der Iphone-User über das Aufsetzen von Iphone-Clients und bis hinzu ROI-Tracking der mobilen Kampagnen.

Meine perönlichen Erwartungen über die Zukunft des Optimierens mobiler Suchen

Vielleicht werden wir beim Erstellen von Websites nur darauf achten müssen, dass wir bei mobilen Abfragen in den Suchmaschinen nur “abgespeckte” Inhalte aus den Datenbanken über unsere Server ausliefern müssen? Vielleicht werden redaktionell betreute Webverzeichnisse – wie früher das DMOZ Open Directory oder der Yahoo-Katalog – ausreichen, um genügend Reach für unsere Site-Inhalte zu erlangen? Vielleicht wird es auch bald Affiliate-Call-Lösungen geben, um als Call-Affiliate über gut gerankte Seiten Umsätze über Telefonbestellungen zu erwirtschaften oder über ein umfassenderes ROI-Tracking beim Vermitteln von Leads zu generieren? Vielleicht steigt auch die Conversion auf unseren Seiten, wenn sich vertikale und lokale Suchen über Handy-Ortung und/oder User- bzw. Handy-Typ-Identifizierung soziodemografisch ausrichten und intelligentes Behavior Targeting möglich wird? Spannend werden diese Themen zumindest für diesen SEO-Blog.

Links zum Thema:

Letzter Stand zum Erstellen der Seite

metatxt.org/Whitepaper_On_MetaTXT.htm

Mobile Suchen

http://www.google.com/mobile/

http://mobile.msn.com

http://www.nokia.com/mobilesearch

http://m.technorati.com

http://mobile.yahoo.com/search

Blogs, Foren zum Thema

http://googlemobile.blogspot.com/

http://www.mobile-seo.de/

http://www.brysonmeunier.com/

www.mobile-zeitgeist.com

http://www.mobile-monday.de/

Ron Hillmann / Iven & Hillmann GmbH & Co. KG – an LBi.com Company

Nachtrag 26.11.2008 – Aktuell und schnell dem Zeitgeist entsprechend hat Heike Scholz das Thema Mobile Suchmaschinenoptimierung auf ihrem Blog und der Trendseite zum Thema Mobile Marketing aufgenommen. Ein grosses Dankeschön von SEO.de an Heike, die sich täglich redaktionell mit ihrem Team der Welt des mobilen Netzes widmet und schon lange als Experte der mobilen Welt aktiv ist;-)

Und dann behaupten ja noch Fanatiker, dass auch mobile “Twittern” via Iphone Twinkle Applikation & Co. die Seiten in den mobilen Index “schiessen” soll. Irgendwie hat es bei mir im auch Sommer geklappt ohne weitere externe Links. Bestätigen oder verneinen sollen das mal lieber unsere Google-Index-Entwickler in Zürich und Mountain View. Ich durfte letzte Woche die Schweizer Zentrale in Augenschein nehmen und versichern, dass ich keine Interna publiziere. Deshalb halte ich mich daran und verweise dann doch eher an Google per Call (Phone: +1 650-253-0000) oder gleich an Matt Cutts oder Peter Norvig. Letzterer ist als Director of Research Google mehr der Kopf für Neues von Google.

Nachtrag vom 30.11.2008: Das mobile Linkverzeichnis Molipo.mobi hat der Inhaber Jörg Tochtermann hier selbst vorgeschlagen. Und die Erfahrungen belegen, dass man mit interessanten Seiten nach redaktioneller Prüfung dort verzeichnet bzw. auch von Google erfasst wird. Spätestens nach zwei bis drei Wochen nach Eintragen in das mobile Webverzeichnis ist man in der Regel im “mobilen Index” von Google zu finden. Ich nannte Jörgs Verzeichnis bisher nicht, um Molipo vor unnötigen Spam-Eintragen zu schützen, denn die ersten brauchbaren Verzeichnisse haben teilweise schon auf redirects und ähnliche Lösungen umgerüstet, um direkte Links auszuschliessen. Von Feed-Anmeldungungen bei mobilen Feed-Lists würde ich derzeit im deutschsprachigem Raum allgemein abraten. Einige der Anbieter gewinnen im Spiel um “duplicated content” und leben nur davon, fremden Unique Content zum Erzielen von Werbegewinnen zu nutzen und blocken in der Regel jeden Crawler, die Quelle der Information zu finden. Noch schlimmer ist es, wenn der User dann auf nicht mobile Seiten gelangt. Selbst grosse News-Seiten aus Deutschland sind davon betroffen und wissen nicht darum, dass ihr Content schon längst ausserhalb ihrer Einnahmen für Mobiles Black Hat S E O genutzt wird und zu akzeptablen Werbeerlösen führt.

Exurs Mobile Adwords

Mobile Anzeigen Google Intro von Google auf Youtube erläutert und eine brauchbare Einführung zum Thema mobile adwords der Firma Dorst eMarketing und hier demnächst auch einmal mehr.

Nachtrag 04.06.2009
Madvertise.de – Einkauf und Verkauf von Traffic auf mobilen Websites

Madvertise.de ist seit dem 01.06.2009 online. Gestern wurde ich im Umgang mit der Plattform geschult. Die Handhabe ist wirklich perfekt zum Einrichten von Kampagnen oder dem Einbinden von Kampagnen auf den eigenen mobilen Seiten. Madvertise bietet Möglichkeiten zu Vermarktung auf Basis von CPC und TKP (CPM) an, die nach Themen und Handytypen kategorisiert werden können. Mediaplaner, Merchants oder Agenturen erreichen so die gewünschte Zielgruppe. SEO’s mit Traffic aus dem mobilen Internet können sich so wunderbar zur Refinanzierung ihrer Ausgaben eine zusätztliche Einkommensquelle über mobile advertising erschliessen.

In meinem letzten Beitrag hatte ich das SEO Modul von Sistrix vorgestellt und dabei als Beispiel eine Domain präsentiert, die zwischenzeitlich von Google mit einer Penalty belegt worden war. Da die Sistrix-Toolbox mittlerweile nicht nur die aktuelle Keyword-Verteilung für eine Domain anzeigt, sondern auch Ergebnisse der Vergangenheit nachgeschlagen werden können, habe ich mir den Spaß gemacht die Daten zu grabben und in animierter Form auszugeben. Das Resultat – eine Google Penalty im Zeitraffer!


Oben seht ihr also die relative Verteilung der Keyword-Rankings sowie parallel darunter die Veränderungen im Sistrix-Rank (Sichtbarkeitsindex) für die abgestrafte Beispiel-Domain. Man sieht hier sehr deutlich, dass zum Zeitpunkt des Domain-Absturzes nicht nur der Sistrix-Rank einknickt, sondern sich auch die Keywort-Verteilung drastisch verändert. Praktisch keine Rankings mehr in Googles Top 30, viel plastischer kann man eine Google Penalty kaum noch darstellen.

Endlich finde ich die Gelegenheit einige lobende Worte über das SEO-Modul aus der Sistrix Toolbox fallen zu lassen. Und das ist noch schwer untertrieben. Das Tool ist einfach genial. Es kostet zwar Geld, ist aber auch jeden Cent davon Wert. Warum das so ist, will ich hier mal beschreiben.

Fangen wir mit dem Fall (im wahrsten Sinne des Wortes) eines Konkurrenten an. Das SEO-Modul fragt rund 250.000 Keywörter gegen Google ab und bildet aus den so gewonnen Rankings für jede Domain einen speziellen Sichbarkeitsindex-Wert. Ich nenne diesen Wert einfach mal SistrixRank, kurz SR. Dieser SR ist für uns so etwas wie ein PageRank-Ersatz, er gibt darüber Auskunft wie gut und wie breit eine Seite im Google-Index rankt – so eine Art Hochrechnung für den Traffic einer Domain. Nach dem Motto: “Eine Seite die gut rankt ist eine gute Seite”, kann man mit dem SR zwischen guten und schlechten Seiten unterscheiden oder Erfolge von Optimierungsmaßnahmen sichtbar machen.

Mißerfolge sieht man natürlich auch. In obigem Beispiel hat es zwischenzeitlich eine Website zerrissen, Google hat die Seite mit einer Penalty versehen. Sehr unlustig für den Betreiber, spannend für den Beobachter. Drei Monate lang ist der Google-Traffic komplett eingebrochen, danach hat sich die Seite wieder berappelt. Nicht vollständig, aber immerhin. Sie arbeitet sich wieder zurück. Frage die sich jetzt stellt, was ist passiert?

Schauen wir dazu einmal auf eine weitere Komponente des SEO-Moduls, die PageRank-Historie einer Website. Ist das nicht praktisch, neben den Rankings bekommen wir die PR-Daten auch noch frei Haus. Und das für eine Domain, von der wir bis gestern vielleicht noch nicht einmal etwas gehört hatten. Hier also der PR-Verlauf zu obiger Beispielseite:

Na, klingelt es. Da ist eine Seite von PR6 auf PR4 runter gefallen. Oder besser gesagt gefallen worden. Die zeitliche Differenz erklärt sich durch Googles verzögertes Updaten von PR-Daten. Das sieht doch ganz verschärft nach einer PR-Abwertung aufgrund von Paid Links aus. In diesem Fall dürfte es aber nicht der Verkauf von Links gewesen sein, hier wurden Links eingekauft. Und zwar ein paar ganz schwergewichtige. Ich tippe schwer darauf, dass die Seite über das Paid Links Formular angeschwärzt wurde – was dann passieren kann, sehen wir anhand der Kurven.

Ich denke ihr begreift jetzt so langsam den Wert eines solchen Tools. Plastischer kann man den Absturz einer Seite kaum darstellen. Es wird aber noch besser. Wir können uns für die von der Toolbox kontrollierten Keywords auch noch den Rankingverlauf ansehen. In unserem Beispiel waren das Hunderte von Suchbegriffen, einer sei hier exemplarisch gelistet:

So sieht eine Penalty aus. Das war nicht nur bei diesem Keyword so, bei allen anderen war es ähnlich. Nur ganz sporadisch schafften es die Keywords mal ein Stück rein in die Top 50, in fast allen Fällen war Platz 40 die absolute Obergrenze des Möglichen. Mehr als ein Zappeln um Platz 50 herum war also nicht drin. So macht SEO-Analyse Spass 🙂

Vielleicht habt ihr jetzt eine Vorstellung von dem Wert eines solchen Tools. Für den Webseiten-Betreiber – dem hilft es bei der Überwachung der eigenen Seiten. Für den SEO-Berater, der analysiert auf Knopfdruck Seiten und erklärt dem staunenden Kunden, was er vor einem halben Jahr richtig oder falsch gemacht hat. Auch für den Kunden ist das Tool spannend, besser kann man seiner SEO-Firma nicht auf die Finger gucken. Und ist das nicht der ideale Linktausch-Begleiter. Vorbei die Zeiten wo eine vermeintlich grün leuchtende Website einen guten Tausch vorgaukelte, man am Ende dann aber den eigenen guten Link gegen einen faulen Gegenlink eintauschte.

Die obige Grafik zeigt eine Website, die noch vor ein paar Monaten mit PR5 herum strahlte und mir zum Linktausch angeboten wurde. Da ich damals mutmaßte, dass die Seite ein Bauernopfer war, lehnte ich dankend ab. Jetzt musste ich schmunzeln, als mir die Seite noch mal zum Tausch angeboten wurde. Ein Blick mit dem Sistrix-Tool und mir war klar, meine damalige Prognose hatte sich bewahrheitet. Darum hier auch noch ein Hinweis an alle Linktauscher – ich tausche nur noch mit Sistrix-Zertifikat >:)

PS: Das war noch nicht einmal alles. Das Tool überwacht auch die Seitenzahlen im Google Index, was manchmal ganz hilfreich sein kann im Kampf mit Duplicate Content Problemen und gibt Info über die Namen der Subdomains. Und wie ich Johannes Beus kenne, das war noch nicht das letzte Wort. Da kommt noch mehr.