Heutzutage integriert Google verschiedenste Inhalte in die Ergebnislisten. Ohne prägnante Ergänzungen wie Videos, der Autorenverknüpfung und Bewertungssternen wird es immer schwieriger vom Suchenden in den Suchergebnislisten wahrgenommen und angeklickt zu werden.

In einem Artikel von Search Engine Land wurde dieses Thema kürzlich aufgegriffen. In diesem Artikel zeigen wir die Vorteile strukturierter Daten, sowie die Verwendung und Einbindung von Schema.org und dem Data Highlighter von Google. Jeder Webmaster soll die Vorteile erkennen und das Potential nutzen.

Mittels strukturierter Daten können Suchergebnisse, sogenannte Snippets, in den Suchergebnislisten erweitert und somit präsenter für Suchende dargestellt werden. Standardmäßig bestehen Snippets aus dem Seitentitel, der URL und der Meta-Beschreibung.

Bildschirmfoto 2013-11-25 um 17.18.02
Quelle: Google Suche, 11.11.2013

Rich Snippets hingegen beinhalten zusätzliche Informationen wie Videovorschau, Bewertungssterne und andere Elemente. Die drei Snippet Beispiele zeigen die erweiterten Suchergebnis-Anzeigen mit Videos oder Bewertungen. Diese unterscheiden sich klar vom normalen Suchergebnis und sind aufgrund zusätzlicher Informationen deutlich auffälliger.

Bildschirmfoto 2013-11-25 um 17.18.09
Bildschirmfoto 2013-11-25 um 17.18.16
Quelle: Google Suche, 11.11.2013

Aber was sind strukturierte Daten?

Vereinfacht kann man sich strukturierte Daten wie eine Art Tabelle vorstellen. Es gibt Spaltenbezeichnungen (Datentypen) und die jeweils zugeordneten Eigenschaften.

VornameNachnameBerufAlter
MaxMustermannMustermacher30
HansHuberHutmacher59

Diese Strukturierung bringt nicht nur Vorteile für die Suchmaschinen.
Auch Webmaster und Nutzer können profitieren.

Wie kann man davon profitieren?

Google kann Inhalte auf Webseiten crawlen, aber im Erkennen von Zusammenhängen zwischen Wörtern oder Phrasen besteht bei der Suchmaschine noch deutliches Verbesserungspotential. Mit der Strukturierung von Inhalten zeigt man Google, um welche Art von Daten es sich handelt. Außerdem erleichtert man Google das Crawling und verringert die Crawlzeiten, da die Inhalte bereits definiert und zugeordnet wurden.

Einen Vorteil im Ranking bringen strukturierte Daten laut Google jedoch nicht. Da ein Rich Snippet deutlich auffälliger als ein normales Suchergebnis ist, könnte sich möglicherweise auch die Click-Through-Rate erhöhen und somit mehr Besucher auf eine Seite locken.

Bei einer Googlesuche nach “Lichterkette Weihnachtsbaum”, wird einem unter anderem das Snippet von hse24.de angezeigt.

Bildschirmfoto 2013-11-25 um 17.17.43
Bildschirmfoto 2013-11-25 um 17.18.29
Quelle: Google Suche, 11.11.2013

Ein Vergleich dieser zweier Snippets zeigt deutlich, dass das erweiterte Snippet prominenter ist. Es hebt sich klar von anderen Ergebnissen ab.
Welche Möglichkeiten es gibt, Daten auszuzeichnen und wie diese implementiert werden, wird in den nächsten Abschnitten im Detail erläutert.

Seiteninhalte richtig strukturieren – aber wie?

Bevor man beginnt Daten zu markieren, ist es natürlich hilfreich zu wissen, welche strukturierten Daten Google nutzt. Aktuell können unter anderem folgende Inhaltstypen von Google als Rich Snippet(http://de.onpage.org/wiki/Rich_Snippets) angezeigt werden:

  • Rezepte
    Bildschirmfoto 2013-11-25 um 17.18.39
  • Veranstaltungen
    Bildschirmfoto 2013-11-25 um 17.18.43
  • Erfahrungsberichte
    Bildschirmfoto 2013-11-25 um 17.18.48
  • Personen
    Bildschirmfoto 2013-11-25 um 17.18.54

Eine komplette Auflistung aller möglichen Inhaltstypen ist in den Google Webmaster Tools zu finden.

Nun gilt es noch zu klären, wie die Seiteninhalte erweitert werden müssen, um ein Rich Snippet zu erzeugen.

Wie so oft gibt es mehrere Wege, um die Auszeichnung von Daten durchzuführen. Die drei bekanntesten Markup-Formate werden im folgenden an einem kurzen Beispiel veranschaulicht.

ohne Markup:

Bildschirmfoto 2013-11-25 um 17.35.19

Der Codeausschnitt stellt ein normales div-Tag dar. Dieses kann nun mittels der 3 bekanntesten Markup-Formate strukturiert und für Suchmaschinen aufbereitet werden.

Mikrodaten:
Bei der Verwendung von Mikrodaten werden bereits vorhandene HTML Elemente wie class, rel oder rev verwendet. Mikrodaten werden mit am häufigsten genutzt, um Daten für Suchmaschinen strukturiert aufzubereiten.

Bildschirmfoto 2013-11-25 um 17.38.55

Mikroformate:
Auch bei Mikroformaten werden bereits verfügbare HTML Elemente wie span oder div genutzt, um Informationstypen zu definieren.

Bildschirmfoto 2013-11-25 um 17.39.02

RDFa:
RDFa wird von der Organisation W3C empfohlen und dient der Einbettung von Zusatzinformationen in HTML bzw. XHTML Code. Auch hier werden die Elementinformationen von z.B. span oder div umschlossen.

Bildschirmfoto 2013-11-25 um 17.39.14

Da Google die Markup-Formate in Form von Schema.org empfiehlt, soll im folgenden hauptsächlich auf diese Art der Strukturierung eingegangen werden.

Was verbirgt sich hinter Schema.org?

Schema.org ist eine Möglichkeit, Seiteninhalte zu strukturieren und entstand aus
einer Initiative der Suchmaschinen Google, Bing, Yahoo sowie Yandex. Das Resultat war ein einheitliches Vorgehen, um Daten auszuzeichnen. Der große Vorteil von Schema.org ist, dass dieser Standard von mehreren Suchmaschinen unterstützt wird. Es ist also nicht nötig, sich für eine Suchmaschine zu entscheiden.

Ein Beispiel macht den Einsatz von Mikrodaten wohl am einfachsten verständlich.

Zunächst sollten die drei Hauptbestandteile der Auszeichnung erklärt werden:

  • itemscope = leitet die Auszeichnung ein
  • itemtype = definiert, um was es sich handelt (Person, Veranstaltung, Produkt)
  • itemprops = definiert verschiedene Eigenschaften des itemtypes

Eine Unterseite enthält Informationen zu einer Veranstaltung. Die Daten zu diesem Event sollen in den Suchergebnissen als Rich Snippet eingeblendet werden. Um dies zu erreichen, sollten folgende Schritte durchgeführt werden.

Zunächst sieht der HTML Code wie folgt aus.

Bildschirmfoto 2013-11-25 um 17.39.21

Eine Suchmaschine kann so nicht erkennen, dass es sich um eine Veranstaltung handelt, da sie den Zusammenhang der Inhalte nicht deuten kann.

Im ersten Schritt wird der HTML-Code um den itemscope erweitert. Wie oben beschrieben, leitet dieser die Auszeichnung der Daten ein.

Bildschirmfoto 2013-11-25 um 17.44.48

Unterhalb des öffnenden div-Tags stehen nun alle relevanten Daten zu dieser Veranstaltung.

Als nächstes sollte der Datentyp definiert werden. Unter http://schema.org/docs/full.html findet man eine Übersicht aller Datentypen. Nachdem der entsprechende Typ angeklickt wurde, integriert man die URL der sich öffnenden Seite wie folgt in den HTML-Code. In diesem Fall, einer Veranstaltung, handelt es sich um folgende URL:

Bildschirmfoto 2013-11-25 um 17.39.44

Eingefügt sieht der Seitenquellcode folgendermaßen aus:

Bildschirmfoto 2013-11-25 um 17.39.30

Die detaillierten Informationen zur Veranstaltung sollten ebenfalls ausgezeichnet werden. Eine Auflistung aller möglichen Eigenschaften ist immer unter der bei itemprop eingefügten URL zu finden.

Bildschirmfoto 2013-11-25 um 17.46.29

Wie man an gerade gezeigtem Beispiel sieht, erhöht sich die Menge des Quellcodes bereits bei der Auszeichnungen einer Veranstaltung deutlich. Um den Überblick nicht zu verlieren, sollte man den Quellcode nur schrittweise erweitern und regelmäßig die korrekte Anpassung des Codes mit dem Test-Tool für strukturierte Daten von Google überprüfen.

Bildschirmfoto 2013-11-25 um 17.19.09
Quelle: Google Webmaster Tools

Natürlich können mehr als nur Events ausgezeichnet werden. Eine Übersicht welche Datenarten strukturiert werden können, findet man auch unter http://schema.org/docs/full.html.

Andere Markup-Formate werden jedoch ebenfalls von Google unterstützt ( Außerdem werden Funktionsweise und Vorteile des Googleeigenen Data Highlighter beschrieben.

Der Data Highlighter – eine gute Alternative

Eine alternative und einfachere Deklarationsmöglichkeit stellt Google mit dem Data Highlighter zur Verfügung. Die Auszeichnung von Daten ist deutlich einfacher und schneller, als die oben beschriebene Variante mit Schema.org. Mit dem Tool von Google lassen sich auch ohne eingehende Programmierkenntnisse Daten auf der Webseite markieren und einer Datengruppe (Name, Datum, Beschreibung) zuordnen. Es ist lediglich das Markieren und Zuordnen der Daten durchzuführen. Der Data Highlighter versucht ähnliche Daten auf der Webseite zu identifizieren. Auf Wunsch kann man Google anweisen, die hinterlegte Strukturierung auf die komplette Webseite auszuweiten. Es ist jedoch davon abzuraten, sich ausschließlich auf die automatisierte Auszeichnung von Google zu verlassen, da die Markierung teilweise noch nicht optimal funktioniert.

Die Markierung kann in den Google Webmaster Tools angestoßen werden. Über “Darstellung der Suche” und “Data Highligter” kann der Data Highlighter gestartet werden.

Bildschirmfoto 2013-11-25 um 17.19.17
Quelle: Google Webmaster Tools

Nachdem die URL der betroffenen Seite eingetippt wurde, muss noch die Art des Datentyps gewählt werden. Außerdem kann eingestellt werden, ob eine oder mehrere Seiten von der Auszeichnung betroffen sind.

Bildschirmfoto 2013-11-25 um 17.19.21
Quelle: Google Webmaster Tools

Nach dem Bestätigen können die entsprechenden Seiteninhalte markiert werden.

Wie bei Schema.org können auch die mit dem Data Highlighter erweiterten Snippets mit dem Test-Tool für strukturierte Daten getestet und überprüft werden.

Fazit

Ein Großteil der im Web vorhandenen Webseiten nutzt das Potential strukturierter Daten aktuell nur wenig. Da Google immer mehr Wert auf die Strukturierung von Seiteninhalten legt, werden viele Webmaster zukünftig vermutlich nachziehen. Zur Zeit bietet die Auszeichnung von Daten noch die Chance, seinen Mitbewerbern einen Schritt voraus zu sein. Auch das Hummingbird Update von Google zeigt, dass strukturierte Daten in Zukunft noch wichtiger werden. Also ein guter Grund die dafür nötige Zeit zu investieren und sich durch auffällige Snippets abzuheben.

Bild seo concept © kraska – fotolia

Eine Website besteht aus vielen Einzelseiten. Je älter sie ist und je umfangreicher, umso komplizierter wird es, Zahl und Struktur aller Seiten im Auge zu behalten und Probleme darin zu finden. Technisch gesehen, erzeugt sogar jeder verwendete URL-Parameter in Kombination mit seinem Wert eine neue Seite. Gerade, wenn es dann darum geht, Stolpersteine aufzudecken und Optimierungen durchzuführen, hilft Handarbeit in Form von manuellen Analysen vielfach nicht weiter.

Gleichzeitig verlangt eine verstärkte Tendenz hin zu mobil verwendbaren Websites eine Beachtung aller möglichen Fallstricke, die die Ladezeiten von Seiten negativ beeinflussen. Nachdem nun die Telekom eine Datendrosselung ihrer DSL-Anschlüsse eingeführt hat, ist selbst die großflächige Verfügbarkeit schneller Internetverbindungen keine Ausrede mehr für langsame Websites – ganz abgesehen davon, dass Suchmaschinen wie Google ganz offiziell schnelle Websites bevorzugen.

Fragen zu diesem Thema laufen mir im SEO-Alltag deshalb regelmäßig über den Weg. Schließlich ist die technische Optimierung der eigenen Website einer der drei Grundpfeiler für die Optimierung – und vor allem etwas, was der Websitebetreiber i.d.R. selbst in der Hand hat. Zentrales Element technischer Analysen sind für mich nach wie vor eigene Crawls der Kundenwebsites. So finde ich relativ schnell Probleme, mit denen auch Suchmaschinencrawler auf diesen Websites konfrontiert werden.

Bekannte Tools, denen jeder SEOler regelmäßig begegnet, sind Xenu’s Link Sleuth, Microsofts IIS SEO Toolkit oder der Screaming Frog – alle kostenfrei oder sehr günstig verfügbar und für den alltäglichen Gebrauch durchaus hilfreich. Dennoch haben alle drei ihre speziellen Anforderungen und natürlich ihre Grenzen. Gerade bei extrem umfangreichen Websites begeben wir uns hier regelmäßig an das Limit der Möglichkeiten. Ich war deshalb sehr froh, dass ich kürzlich die Gelegenheit bekam, ein noch recht junges Tool zu testen, dessen Entwickler sich zum Ziel gesetzt haben, genau diese Grenzen nicht zuzulassen: strucr.com.

Grundsätzlich ist strucr.com in vier Varianten verfügbar. Eine kostenfreie Schnupperversion taugt zum Kennenlernen und erlaubt das Analysieren kleiner privater Websites. Geht es um eine Erweiterung des Umfangs sind nach oben fast keine Grenzen gesetzt:

Die unterschiedlichen Pakete von strucr.com

Dabei zielt strucr.com ganz klar auf den Einsatz im Enterprise-Bereich. Sämtliche Daten, die der Crawler erhebt, sind via API abrufbar und können so in eigene Tools und Auswertungen integriert und mit Daten aus anderen Anwendungen kombiniert werden. Ganz klar, dass die Entwickler von strucr.com deshalb enorme Anforderungen an die Qualität der Daten stellen. Bugs und Fehler dürfen hier einfach nicht passieren und müssen – sollten sie doch einmal auftreten – in kürzester Zeit behoben werden. Zur Qualitätssicherung muss der Crawler regelmäßige Tests gegen seine eigenen Bugs und natürlich seine Mitbewerber bestehen. Nach eigenen Aussagen, schaffen alternative Crawler gerade mal 65% dieser Tests.

Gleichzeitig liefert strucr.com den Großteil seiner Daten in absoluter Rohform und versucht Interpretationen weitestgehend zu vermeiden. Gegenüber einigen Wettbewerbern wirkt das zwar relativ plump und nicht so „hübsch“, hat aber den großen Vorteil, dass die Auswertung der Daten dem Kunden selbst überlassen bleibt, was gerade bei Verwendung der API sehr vorteilhaft ist. So können die gefunden Fehler im Kontext der Website selbst interpretiert werden. Es gibt einfach „Fehler“, die durchaus ihre Daseinsberechtigung haben. So kann beispielsweise eine große Anzahl an Seiten mit dem Meta-Tag robots=“noindex,nofollow“ für einen Shop typisch sein und sollte deshalb nicht zwangsläufig als negativ bewertet werden. Für ganz konkrete Fragestellungen oder zur Behebung komplexer Probleme sind die Entwickler hinter strucr.com übrigens auch gern bereit, weitere Features in ihren Crawler zu integrieren oder mit sehr speziellen Parametern zu crawlen.

Technisch steht hinter dem Tool eine solide IT-Infrastruktur, die bei dem Umfang der erhobenen Daten aber auch notwendig ist. Wer einmal versucht hat, die Website eines Onlineshops mit 200.000 Produkten und zahllosen Parametern (z.B. SessionIDs) mit einem der herkömmlichen Tools zu crawlen, wird – einen leistungsstarken PC vorausgesetzt – nach spätestens 12 Stunden verzweifelt sein. Im Agenturalltag passiert es mir in solchen Fällen nicht selten, dass zwischendurch entweder die IT des Kunden meine IP-Adresse blockiert oder mein Telefon klingelt und es Beschwerden hagelt. Im Gegensatz zu herkömmlichen Tools läuft strucr.com hingegen auf einem eigenen Server. Die Geschwindigkeit des Crawlvorgangs kann individuell abgestimmt werden. Um Einbrüche bei der Performance der gecrawlten Website zu vermeiden, kann und muss der Crawl daher mit der zuständigen IT-Abteilung abgestimmt werden.

Schauen wir uns aber mal die Auswertung, die strucr.com standardmäßig für einen Crawl liefert, beispielhaft anhand der Website eines relativ großen deutschen Reiseanbieters an. Die Basisfeatures verstehen sich fast von selbst und sind schnell erklärt:

  • Anzeige beim Crawl gefundener Fehler mit konkreter Fehlerangabe, URL und Ladezeit
  • Anzahl der gecrawlten Seiten, gefundenen Links und Ebenen, in denen die Seiten strukturell organisiert sind
  • Anzahl der Seiten sortiert nach Typ (z.B. Nofollow, External) und http-Status (z.B. 301/302-Weiterleitungen, 404-Fehler)
  • Gecrawlte Domains und Subdomains (intern und extern) mit Anzahl eingehender und ausgehender Links
  • Anzahl eingehender und ausgehender Links pro gecrawlter Seite

Darüber hinaus erhebt strucr.com weitere Daten und Reports, die im Hinblick auf eine umfassende Websiteoptimierung extrem hilfreich sind:

Seiten nach Ladezeit

Während des Crawls werden die reinen HTML Response Times der Seiten gemessen und aufgezeichnet. So lassen sich schnell Probleme bei der Seitengröße identifizieren und damit die Seiten gezielt auf Geschwindigkeit optimieren.

Aufschlüsselung der Seiten nach Antwortzeiten

Mein Crawl zeigt mir beispielsweise auf den ersten Blick, dass meine Website bei den Ladezeiten zwar schon ein ganz gutes Bild abgibt, ich aber gerade im 200-300ms-Bereich noch einige Ausreißer habe, die ich mir einmal ansehen sollte. Ein Klick auf den Eintrag liefert detaillierte Informationen zu den Seiten, um die es sich dabei handelt. Offensichtlich sind dies Seiten, bei deren Bereitstellung im CMS viele verschiedene Informationen, wie z.B. Buchungszeitraum, Verfügbarkeit, Anzahl der Personen usw., berücksichtigt werden. Das sollte ich mir mal näher anschauen und eventuell die Zahl der Abfragen verringern. Hier ist es übrigens gut, dass strucr.com die Daten nicht interpretiert, denn ich weiß ebenso, dass es sich um Seiten handelt, die ich mit „noindex, nofollow“ markiert habe. Diese Aufgabe hat für mich aus SEO-Sicht deshalb keine hohe Priorität. Im Hinblick auf Usability und User Experience hingegen, sollte ich hier bei Gelegenheit trotzdem aktiv werden.

Seiten mit Anmerkungen

In dieser Übersicht liefert strucr.com eine Liste mit Anmerkungen zu meinen Seiten und die Zahl der Seiten, die zum jeweiligen Kriterium passen.

Seiten aufgeschlüsselt nach Hinweisen

Die für mich aus SEO-Sicht besonders interessanten Hinweise habe ich gelb markiert. Hier sollte ich mir vor allem die Page Titles, Metadaten und Alt-Attribute anschauen, um meine Keywords besser einzusetzen und in den Suchergebnissen besser dazustehen. Gleichzeitig kann ich durch Auslagerung von CSS und Skripten sowie Größenangaben bei den Bildern bessere Ladezeiten bei meinen Seiten erreichen. Und nicht zuletzt sollte ich mir auch meine URL-Struktur einmal anschauen. Welche Fälle das genau betrifft, kann ich mir in diesem Report mit einem weiteren Klick auflisten lassen und zum Beispiel als Excel-Datei exportieren, die ich dann gezielt abarbeite. So brauche ich nur die Seiten anzufassen, die es wirklich betrifft.

Seiten und Content nach Level

Wie weit müssen Nutzer von der Startseite bis zu meinen wichtigsten Seiten bzw. meinem wichtigsten Content klicken? Diese Frage ist im Hinblick auf Usability und User Experience extrem wichtig, denn „verstecke“ ich meine wichtigsten Inhalte zu tief innerhalb meiner Websitestruktur, sind sie unter Umständen nicht auffindbar und bleiben deshalb unbeachtet.

Crawlbare Seiten nach Ebenen

Alle Urls nach Ebenen

Hier gibt es bei meiner Website nichts zu bemängeln. Nutzer werden auf den ersten Ebenen nicht mit Inhalten erschlagen, finden aber bei weitergehender Recherche mit wenigen Klicks auch umfangreichere Informationen. Wäre es anders, fände ich hier sicher gute Ansatzpunkte zur Verbesserung der internen Verlinkung.

Seiten mit hohem 2D-Rank

Zur Berechnung der Stärke einer Seite verwendet strucr.com zwei relativ leicht zu erhebende Werte: den PageRank, der von strucr.com selbst auf Basis der eingehenden Links pro Seite berechnet wird, und den sog. CheiRank, der auf der Anzahl ausgehender Links basiert. Der von strucr.com berechnete PageRank hat mit dem von Google bekannten Wert allerdings wenig zu tun. Lediglich das zugrunde liegende mathematische Rechenmodell ist gleich, ansonsten ist der Wert hier glücklicherweise von Google unabhängig. Aus der Kombination von Page- und CheiRank bekommt man schließlich ein gutes Bild seiner stärksten und wertvollsten Seiten. Tauchen in dieser Liste vorrangig URLs auf, die keinen Wert für das Unternehmensziel bzw. Ziel der Website haben, sollte man an der internen Verlinkung arbeiten.

Abschließende Worte

Wie bereits erwähnt, sind alle von strucr.com erstellten Listen und erhobenen Daten per API verfügbar und können ebenso als CSV, TSV oder Excel-Datei heruntergeladen werden. So steht einer individuellen Weiterverarbeitung nichts im Wege. Gerade für Agenturen oder große Unternehmen ergeben sich damit viele Möglichkeiten. Gleichzeitig sind Freigaben aller Crawls und Accounts über bis zu vier verschiedene Nutzerrollen möglich. So sind beispielsweise jederzeit Freigaben für Kunden oder andere Abteilungen möglich, die sich gern selbst ein Bild von den Daten machen möchten.

Die Einsatzbereiche von strucr.com sind vielfältig. Im Agenturbereich sind eine einmalige Verwendung für eine konkrete Analyse, aber auch ein dauerhafter Einsatz für laufende, vor allem Technik-bezogene Optimierungen denkbar. Gerade Agenturen mit starkem technischem Fokus bekommen hier über den Crawler hinaus einen Partner, dem kein Problem zu komplex ist. Ebenso vorteilhaft ist aber auch der Einsatz von strucr.com im Unternehmensalltag. Von der IT- bis zur E-Commerce- oder SEO-Abteilung können hier alle profitieren. Warum nicht gleich strucr.com im Deploymentprozess einbinden um Änderungen an der Website vor dem Live-Gang direkt auf Herz und Nieren zu testen?

 

Über den Autor:

André Scharf ist Senior SEO Account Manager bei LBi und Betreiber eines eigenen Blogs.

Bing hat mit dem Link Explorer eine echte Alternative zum alten Yahoo Site Explorer geschaffen.

Bing Webmaster Link Explorer

Der Bing Webmaster Link Explorer

Der Link Explorer ist eines der neuen Beta-Features, die seit gestern in den Bing Webmaster Tools verfügbar sind.

Das Update der Bing Webmaster Tools

Der Schwerpunkt der Neuerungen lag auf User Experience. Dafür wurde die Oberfläche stark überarbeitet und viele Informationen, die schon lange vorhanden sind, wurden mit Graphen angereichert und in übersichtliche Dashboards gesteckt.

Bing Webmaster Dashboard

Bing Webmaster Dashboard

Der Bing Link Explorer

Kommen wir nun zum Link Explorer. Damit kannst Du bis zu 1.000 Links für beliebige (also auch fremde!) Domains anschauen. Mehr als die exakte URL der Link gebenden Seite, sowie ihren Title-Tag, zeigt Bing leider nicht an. Backlinks können dabei sowohl für eine Domain, als auch für eine konkrete URL angezeigt werden. Außerdem hast Du die Wahl zwischen internen und externen Links. Gerade bei großen E-Commerce Seiten, die aktives SEO auf hohem Niveau betreiben, kann es aufschlussreich sein, sich mal anzuschauen, wo die internen Links auf die wichtigsten Landingpages herkommen.

Zusätzlich sind die folgenden Filter möglich:

  • Domain: Nur Links von einer bestimmten Domain.
  • Anker-Text: Nur Links, die einen bestimmten Ankertext enthalten. In meinen Tests oft fehlerhaft.
  • Keyword: Nur Link von Seiten, die ein bestimmtes Keyword enthalten.

CSV-Export

Natürlich können die Daten auch per CSV-Datei exportiert werden:

CSV Export

CSV Export

Es folgen einige Beispielanfragen.

Unterseiten Filter

Es werden nur externe Links auf meinen Artikel zu Sternchen mit WordPress angezeigt:

Unterseiten-Filter

Unterseiten Filter

Ankter-Text Filter

Es werden nur Backlinks von spiegel.de angezeigt, die das Wort “Tagesgeld” im Linktext enthalten.

Ankertext Filter

Ankertext Filter

 

Keyword Filter

Es werden nur Backlinks von zalando.de angezeigt, die von Seiten stammen, die das Wort “Gummistiefel” beinhalten.

Keyword Filter

Keyword Filter

URL & Keyword Filter

Bei der letzten Abfrage sind uns die Links von zalando.ch auf zalando.de aufgefallen. Es werden nur Backlinks von zalando.de angezeigt, die von Unterseiten auf zalando.ch stammen, auf denen das Wort “Gummistiefel” vorkommt.

Keyword und URL Filter in Kombination

Keyword und URL Filter in Kombination

Klarstellung: Das sind ganz harmlose Links zum Wechsel des Landes. Also nichts Böses, was Zalando hier treibt.

Neben dem Link Explorer gibt es noch weitere neue Tools:

SEO-Analysator

Im SEO-Analysator kann man einzelne URLs eigener Webseiten spontan überprüfen. Im Beispiel der Startseite von Lorm.de warnt Bing mich vor zwei Dingen:

  1. Meta Language-Tag fehlt (1x, gelb)
  2. Alt-Attribut fehlt (22x, blau)
Bing Webmaster SEO Analysator

Bing Webmaster SEO Analysator (roter Pfeil von mir)

Durch einen Klick auf einen Fehler kannst Du sofort sehen, wo auf der Seite er auftritt. In diesem Fall ist schnell klar, dass es sich lediglich um kleine Icons handelt, die nicht wichtig sind.

SEO-Berichte

Die SEO-Berichte machen im Prinzip das gleiche wie der SEO-Analysator. Mit dem Unterschied, dass die Reports alle 2 Wochen automatisch für die ganze Domain erstellt werden.

Update

OXMO hat ein Bookmarklet entwickelt und Christian Schmidt zeigt Dir, wie Du den Export per iMacros automatisieren kannst.

Bei der Analyse von Webauftritten durch unseren Struktur-Analysedienstes strucr (https://strucr.com/) fallen immer wieder ähnliche Probleme im Aufbau von Webseiten auf. Zwei der häufigsten Strukturfehler wollen wir hier vorstellen und dabei erklären, wie man diese beheben kann. Es handelt sich dabei um das Problem der schleichenden Indizierung bei zu hoher Seitentiefe und das Problem der unkontrollierten Vermehrung durch Filter und Sortierung.

Kennst du deine Seite?

Unser Service crawlt komplette Webangebote und macht die anschließend eingehenden Analysen zugänglich. Wir haben nun einige Seitenbetreiber gebeten, vor den Crawls Schätzungen bezüglich Seitenanzahl und Tiefe ihrer Seite abzugeben. Diese lagen jedoch in den meisten Fällen um mehrere hundert Prozent unter den tatsächlichen Werten. Auch und insbesondere wenn die Schätzungen aufgrund einer Site-Abfrage bei Google getätigt wurden.

Nach bald einem Monat Betrieb von strucr.com kann man daher feststellen: Die meisten Seitenbetreiber kennen ihre Seiten kaum und haben keine realistische Vorstellung von Größe, Struktur und auch den Problemen ihrer Webseiten.

Hohe Seitentiefe – schleichende Indizierung

Viele der gecrawlten Webseiten hatten Probleme mit einer sehr hohen Seitentiefe. Vom Startpunkt des Crawls (Level 0) lagen Seiten oft mehr als zehn Ebenen weit entfernt. Große Teile des Angebots sind damit für Besucher und Suchmaschinen sehr schwer oder gar nicht zu erreichen. Die Verteilung der Seiten innerhalb der ersten Ebenen sieht oft wie in folgendem Beispiel aus:

Prozentuale Anzahl der Seiten pro Level in Prozent.

Prozentuale Anzahl der Seiten die innerhalb der angezeigten Level erreicht werden in Prozent.

Die häufigsten Ursachen für eine sehr hohe Seitentiefe sind eine undurchdachte Paginierung sowie unzureichend differenzierte und oft zu tiefe Kategoriestrukturen. Dies führt oft zu einer schleichenden oder nur teilweisen Indizierung in den Suchmaschinen.

Schlechte Paginierung ist bei kleinen und großen Angeboten gleichermaßen häufig zu finden. Die im Beispiel verwendete Webseite etwa umfasst ca. 975.000 Unterseiten welche sich auf mehr als 300 Ebenen verteilen. An einigen Stellen ist die Paginierung so gestaltet, dass immer nur eine Seite weiter geblättert werden kann. Das Resultat ist die extrem hohen Levelanzahl.

Eine gute Paginierung sollte folgende Bedingungen erfüllen:

  • Es sollten sowohl benachbarte als auch entfernte Seiten verlinkt werden
  • Benachbarte Seiten sollten vollständig abgedeckt sein
  • Entfernte Seiten sollten punktuell verlinkt werden
  • Auf jeder Seite sollten andere entfernte Seiten verlinkt werden

Eine hohe Zahl an Seiten bei einer Paginierung ist darüber hinaus ein Indiz für eine unzureichend differenzierte Kategorisierung der Inhalte. Die Zahl der Seiten kann bei Listen auch begrenzt werden, sofern die Daten dies erlauben.

Unsere Crawls haben auch gezeigt, dass die letzen Seiten in sehr langen, paginierten Listen fast durchgängig schwerwiegende Performance-Probleme haben. Dies liegt vor allem an den Kosten die auf Datenbankseite beim Prozess der Sortierung und Filterung und anschließendem Limit entstehen. Mehr als 15 Sekunden Laufzeit sind hier nicht unüblich.

Hohe Seitenzahlen – unkontrollierte Vermehrung

Einige der gecrawlten Webseiten wiesen eine hohe Zahl an im Endeffekt unnötigen Seiten auf. Gerade Shops und Vergleichsseiten kommen sehr schnell zu einer extrem hohen Zahl an erreichbaren Seiten. In einem Fall etwa waren dies in Ebene 3 bereits mehr als eine Million, insgesamt wären unter der Domain mehrere Milliarden Seiten abrufbar gewesen.

Wir nennen dies das Problem der unkontrollierten Vermehrung.

Die häufigste Ursache für eine solche Vermehrung sind schlecht umgesetzte Listen, Filter und Sortierungen. Die als Beispiel genannte Seite umfasst lediglich etwa 20.000 Produkte, die sich aber innerhalb der Produktlisten nach Preis, Farbe, Hersteller und diversen Produktkriterien filtern und sortieren ließen. Alle diese Filter waren kombinierbar und alle Kombinationen ließen sich über eigenständige Urls abrufen.

Das Gegenrezept sind Filter, die mittels eines POST-Requests gesendet werden. POST-Requests haben aber zwei Nachteile:

  • Bei Betätigen des Back-Buttons im Browser kommt es zu einem Resubmit, vor den die Browserhersteller abschreckende Dialoge gestellt haben
  • POST-Request haben keine URL, können also weder gebookmarkt noch in den sozialen Medien geteilt werden

Die Lösung dieser Probleme bietet das PRG-Pattern (Post/Redirect/Get, http://en.wikipedia.org/wiki/Post/Redirect/Get): Die Filtereinstellungen werden per POST über das Formular übermittelt und in einer Session gespeichert. Dann erfolgt ein Redirect auf die Startseite der Liste. Die Startseite der Liste sowie mögliche Paginierungsseiten lesen die Filter- und Sortierungseinstellungen aus der Session aus und stellen die Ergebnisse dar.

Direkte Links auf die gefilterten oder sortierten Listen können über die alten GET-Requests realisiert werden welche die Settings in eine Session schreiben und auf die Liste weiterleiten.

Derartige Listen bringen eine Reihe von Vorteilen mit sich:

  • Die Zahl der Seiten reduziert sich stark
  • Es kann auf NoFollow-Links sowie auf das Canonical-Element verzichtet werden
  • Eingehende Links werden auf wenige wichtige Strukturseiten konzentriert
  • Die Ansicht für Benutzer die über eingehende Links kommen kann nach wirtschaftlichen Gesichtspunkten optimiert werden

Gastartikel von Reto Stuber, Backlinktest.com
Wer Suchmaschinenoptimierung betreibt, der weiß um die essenzielle Wichtigkeit von „Backlinks“, um das eigene Ranking bei Google und Co. verbessern. Der Grund dafür ist einfach: Backlinks zeigen Suchmaschinen an, wie populär, relevant oder wichtig eine Webseite ist.

So gilt in jedem Fall: Eine Optimierung zahlt sich aus, denn jeder gewonnene Platz im Suchmaschinenranking ist bares Geld wert! Ihr Ziel muss es sein, für die gewählten Keywords auf die erste Seite bei Google zu kommen, und wenn möglich sogar in die Top 3 Resultate. Nebst der „On-page“-Optimierung auf Ihrer eigenen Seite helfen Ihnen die Backlinks bei der „Off-page“-Optimierung.

Um verfolgen zu können, welche Seiten auf die eigene Webseite verweisen, benötigt man die Unterstützung eines Backlinkchecker-Tools. Es gibt dafür sowohl kostenlose wie auch kostenpflichtige Lösungen auf dem Markt. Der Anbieter Backlinktest.com gehört zu den kostenlosen Anbietern und bietet damit eine attraktive Alternative zu den teuren Tools. Nebst der kostenlosen Benutzung ist auch keine Registrierung auf der Webseite notwendig! Der Dienst bietet eine saubere Auswertung der Links und viele praktische Features, wie etwa einen Deadlink- und IP-Checker, grafische Auswertungen der Backlinks und einen “Qualityrank”, der auf einer Skala von 1-6 (Schulnotensystem) die Qualität eines Backlinks angibt.

Um eine Seite auf ihre Backlinks zu überprüfen, muss einfach nur die URL in das entsprechende Feld eingegeben werden und auf “Go!” geklickt werden, und das Tool wertet die Links aus. Dabei muss es gar nicht immer die eigene Webseite sein – auch Mitbewerber kann man damit unter die Lupe nehmen, und sich Inspiration für eigene Backlinks holen. Nach Abschluss der Auswertung lässt sich das Resultat auch als PDF-Datei abspeichern, zum Beispiel um dieses einem Kunden zu präsentieren.

Viele andere Backlinkchecker werden schon bald auf Grund laufen, denn der Yahoo! Site Explorer, auf dessen Datenbasis viele Tools gearbeitet haben, stellt seinen Dienst ein. Backlinktest.com hat aber rechtzeitig das Problem erkannt und für eine Lösung gesorgt, indem Dafür von SEOMoz und verschiedenen anderen Quellen genutzt werden.Diese kostenlose Lösung für die Prüfung von Backlinks wurde laufend weiterentwickelt und ist nicht zuletzt dank dem Feedback der Community zu einem mächtigen Tool geworden. Machen Sie sich selbst ein Bild unter www.backlinktest.com!

Quasi zum Jahresende hat Yahoo seine Backlink-API abgeknipst hat, damit wird es jetzt spannend auf dem Seo Tool Sektor. Backlink Analysen sind das Salz in der Seo-Suppe und ohne passende Backlink-Tools wird es deutlich schwieriger Analysen zu fahren, Konkurrenten zu monitoren oder Linkpartner zu finden. Insofern wird es spannend sein zu beobachten, welche JahresendSeo-Tools sich am Markt behaupten werden.

Ein aussichtsreicher Kandidat im Kampf um die JahresendSeo Krone ist das noch im Beta-Status befindliche Tool mit dem Namen OPENLINKGRAPH von Sistrix. Eisy berichtete gerade darüber und brachte erste Screenshots und Informationen in seinem Blog heraus.

Neben Sistrix sind aber noch einige andere aussichtsreiche Kandidaten im Rennen, die Jungs von Seolytics, Xovi und Seachmetrics schlafen natürlich auch nicht. Und so wird es spannend zu sehen, was die verschiedenen Tools in Zukunft bei der Backlink-Analyse zu leisten in der Lage sind. Ich werde auf der dmexco die jeweiligen Toolanbieter besuchen und mir die neuesten Entwicklungen zeigen lassen. Danach bin ich dann hoffentlich schlauer. Und ihr dann in der Folge auch 😉

Wenn man zum ersten Mal auf die Hauptseite von SEMRush gelangt, so fragt man sich insbesondere als Anfänger, was es überhaupt mit diesem Service auf sich hat. Nicht, weil SEMRush kein Manual hätte, sondern aus Erfahrungsmangel im Bereich der Keyword- und Mitbewerber-Analyse. Um dem entgegen zu wirken, schauen wir uns einmal einige Funktionen von SEMRush aus der Nähe an.

Suchbegriffe via SEMRush sammeln — einfach, schnell und kostengünstig!

Geben wir ins Suchfeld die uns interessierende Domain ein, so erhalten wir den “SEMRush Hauptbericht für die Domain”. Darin sind die Suchbegriffe aus organischer Suche und AdWords dargestellt, außerdem noch die Mitbewerber in organischer Suche und den AdWords Resultaten sowie die Ads Texte und potentielle Käufer und Verkäufer von Traffic und Werbung. Entsprechend können wir jeden der Berichte anklicken und ihn uns vollständig ansehen.

Geben wir zum Beispiel die Domain “amazon.de” ins SEMRush Suchfeld ein und wählen die deutsche Datenbank aus. In wenigen Sekunden zeigt uns SEMRush einige Tabellen mit den Informationen zur Domain. In der linken Spalte befinden sich die Angaben zu den Suchbegriff Volumina inklusive der Angaben zum Google DE Suchmaschinen- und Adwords-Traffic.

Selbstverständlich sind die SEMRush Berichte als XLS und CSV Datei exportierbar. Der entsprechende Button befindet sich im oberen rechten Eck über jedem Bericht.

Kommen wir zu den einzelnen Berichten im SEMRush Hauptbericht. Die Suchbegriffe in Googles organischer Suche und die Statistik für eine weitere Bearbeitung. Das sind die Suchbegriffe, mit welchen die ausgewählte Domain (amazon.de in unserem Fall) in Google rankt. Man kann in diesen Berichten immer etwas Interessantes entdecken. Diese Suchbegriffe sind nämlich nicht unbedingt diejenigen, für die die Webseite optimiert wurde.

Falls die analysierte Domain Google AdWords Werbung schaltet, so werden all diese Suchbegriffe im SEMRush Adwords Suchbegriffe Bericht angezeigt. Sogar die dazugehörigen Adwords Werbeboxen können per Mausklick angezeigt werden.. Für die Werbetexte gibt es übrigens einen eigenen Bericht.

Als nächstes folgen die Berichte zu den Mitbewerbern der jeweiligen Domain. Die Konkurrenzanalyse wird bei SEMRush mittels zweier Reports gemacht: Mitbewerber in organischer Suche und in Google AdWords. Hier ist alles ziemlich einfach, der Service listet alle Domains auf, die in der organischen Suche bzw bei den AdWords Resultaten für dieselben Suchbegriffe ranken wie die ausgewählte Domain. Wenig verwunderlich ist dabei, dass Seiten wie Wikipedia fast immer in den Berichten auftauchen. Diese Website rankt einfach für fast alle Keywords.

Klicken wir auf “gemeinsame Suchbegriffe” bei einem unserer Mitbewerber, so sehen wir wie gut wir im Wettbewerb stehen. SEMRush zeigt uns die Positionen der beiden Mitbewerber in der Google TOP 20. So kann man nicht nur die Konkurrenten beobachten und kontrollieren, sondern auch deren Keywords für eigene Optimierungen entlehnen. Die Keyword Ideen liegen quasi vor einem auf dem Präsentierteller.

Auf dem folgenden Screenshot ist eine Konkurrenzanalyse zwischen ebay.de und amazon.de dargestellt. Sehr übersichtlich ist auch der grafische Vergleich der beiden Domains auf der linken Seite.

Interessante Informationen liefern die Reporte für “potentielle Traffic Käufer und Verkäufer”. Stellen wir uns einmal vor, wir ranken in Googles TOP20 organischer Suche mit dem Suchbegriff “gebrauchte Wagen”. In dem Bericht für “potentielle Käufer” sehen wir die Domains, die Werbung zu diesem Suchbegriff in Google AdWords schalten. Das heißt, wir könnten die Betreiber dieser Domains kontaktieren und ihnen die Werbung auf unserer Webseite verkaufen. Budget haben sie ja! Umgekehrtes gilt für den Bericht für “potentielle Ads/Traffic Verkäufer”. Wir könnten die Webseiten kontaktieren und eventuell billiger als über AdWords unsere Werbung kaufen.

SEMRush bietet zwar ein kostenloses Abonnement, um es aber sinnvoll zu nutzen ist der Erwerb eines PRO Accounts für 49,99 USD pro Monat zu empfehlen. Für diesen eher niedrigen Betrag steht u.a. auch eine API zur Verfügung, so dass die gesammelten Daten für weitergehende Analysen genutzt werden können. Außerdem gibt es neben der deutschen Datenbank auch noch 8 andere, welche die folgenden Google Versionen abdecken: US, UK, FR, RU, AU, IT, BR, ES. Die gesamte Datenbank enthält mehr als 80 Mio Keywords und über 40 Mio Domains.

Als fleißiger SEO wird man tagtäglich mit vielen verschiedenen Aufgaben konfrontiert, welche man kategorisieren, priorisieren, strukturieren und dann umsetzen muss. Neben der Recherche nach vielversprechenden Keywords, der Organisation des passenden Contents und der entsprechenden Onpage Optimierung bestimmen auch – bzw. vor allem – stetig neue Links unsere Rankings.

Wer eine Vielzahl unterschiedlicher Projekte betreut, weiß, wie komplex es sein kann immer den richtigen Linkmix, die wichtigsten KeyWords und die benötigten Deeplinks im Auge zu behalten. Denn wer ein organisches Linkprofil aufbauen möchte, der sollte ein gesundes Verhältnis zwischen Start- und Unterseitenverlinkung beachten, einige starke, einige mittlere und einige schwache Links aufbauen, zwischen Links aus Artikeln, Forenlinks, Blogkommentaren, Profilen, Bookmarks usw. abwechseln und auch kontinuierlich seine Projekte anschieben.

Dies setzt in erster Linie ein hohes Maß an Ordnung voraus, bedarf einer gewissen Organisation und lässt sich durch das Delegieren einiger Linkbuilding-Aufgaben entscheidend beschleunigen.

Doch neben dem eigenetlichen Umsetzen des Linkbuildings muss ein SEO auch noch das Budget im Auge haben, den Traffic kontrollieren, seine Rankings und die Konkurrenz beobachten und und und. Um den Linkbuilding-Part effektiver und effizienter zu gestalten, stets den Überblick zu behalten und das Linkbuilding outsourcen zu können, haben wir aus eigenem Bedarf heraus den Linkmanager linkbird entwickelt, als dessen Kernfunktionen folgende zu benennen sind:

• unbegrenzt Links, Projekte und Linkbuilder anlegen und auswerten
• regelmäßiger Backlink-Check und Alert bei Ausbau
• Linktauschpartnerverwaltung nach Tags und E-Mail Verteiler
• genaue Auswertung der Linkprofile nach Linktext, Linkart, PR, Unterseite etc.
• Überwachung der Budgets für Linktausch und Linkkauf
• Kontrolle von internen und externen Linkbuildern

Es folgt eine kleine Vorstellung des Tools, welche ich mit einigen Screenshots aufgepeppt habe – also SEOs und Linkbuilder: zurücklehnen und genießen 😉

1. Links hinzufügen und archivieren
Der erste Schritt bei der Nutzung von linkbird ist die saubere Archivierung der gesetzten Links. Diese kann durch einen CSV-Import oder aber auch einzeln durch das manuelle Eintragen im Interface geschehen:

Das Eintragen ist selbsterklärend und geht spielend einfach. Hinter den kleinen „?“ verstecken sich jedoch auch noch Tooltipps, die die Funktionen genau erklären und gerade das Outsourcing an externe oder weniger erfahrene Linkbuilder vereinfacht. Wichtig ist hierbei, dass die Daten korrekt eingetragen werden, da daran später die Linkprofile einzelner Seiten und Linkbuilder erstellt werden.

2. Links als Einzelnen auswerten
Wurde der Link eingetragen, kann dieser in der Linkübersicht detailliert betrachtet und als Einzelnes ausgewertet werden:

Anhand der vielen verschiedenen Filter kann hier auch genau selektiert werden und linkbird zum Beispiel nur die Links zu Projekt X von Linkbuilder X anzeigen, nur gekaufte Links anzeigen oder auch nur Links aus Webkatalogen ausgeben – die Kombinationen sind nahezu unbegrenzt, sodass jeder Statistikwunsch befriedigt werden kann.

3. Linkprofile der Projekte auswerten und steuern
Sehr interessant und wichtig für die Auswertung ist die Projektübersicht. Hier können alle Projekte oder jedes Projekt als einzelnes ausgewertet werden und entsprechende Schritte für den weiteren Linkaufbau gezogen werden. Fragen wie „Mit welchem KeyWord sollten wir häufiger verlinken?“, „Haben wir zu viele Links der gleichen Art?“, „Brauchen wir ein paar High-PR-Links?“ oder „Warum rankt diese Unterseite eigentlich auf einmal so gut?“ lassen sich hier beantworten:

Wer hier sorgfältig arbeitet, kann mit nur wenigen Klicks genau auswerten auf welche KeyWords er diesen Monat den Fokus legen sollte, ob er es mit den Bookmarks übertrieben hat oder ob er eventuell auch mal ein bisschen auf die Unterseitenverlinkung gehen sollte.
Auch das in die jeweiligen Projekte investierte einmalige oder monatliche Budget lässt sich mit linkbird tracken und auswerten:

4. Auslagern des Linkbuildings
Es ist ratsam nicht immer nur alleine für seine Projekte Links aufzubauen, sondern die kleinen Links und den organischen Linkaufbau mithilfe von externen oder internen Linkbuildern ein Stück weit schneller zu skalieren. Durch das Linkbuilder Controlling kann die Arbeit eines jeden Linkbuilders exakt ausgewertet und überwacht werden:

Jeder Linkbuilder lässt sich nach Projekt und dann auch noch nach Linkart aufschlüsseln, sodass es für den SEO ein leichtes ist, die Abrechnung und Steuerung der Arbeiten perfekt kontrollieren und umsetzen zu können.

Für einen sauberen Ablauf kann beim Anlegen jedes Mitarbeiters auch noch entschieden werden, ob er

• Master oder Linkbuilder Rechte hat
• Einen Wochenreport mit von ihm gesetzten Links bekommen soll
• Zugriff auf die in der Linkakquise stehenden Aufträge hat
• Zugriff auf Linktauschanfragen hat, welche über die dafür eingerichtete Seite eingegangen sind – Beispiel: http://linkbird.seobird.de/ (PW: test)

Durch den zeitlichen Verlauf kann zudem die Performance eines jeden Linkbuilders ausgewertet und dieser entsprechen kontrolliert werden.
Alles in Allem ist der linkbird Linkmanager und Backlinkchecker das perfekte Tool für jeden SEO der sein Linkbuilding auf das nächste Level bringen möchte – egal ob er alleine oder im Team arbeitet.

Die hinzugewonnene Übersicht (der Effekt, wenn du deine Links aus Excel Files in das Tool importierst ist grandios ), die Möglichkeiten das Linkbuilding auszulagern und mehr Zeit für die Strategie zu haben, der automatische Backlink-Check und einfach alles kontrollieren zu können eröffnen völlig neue Möglichkeiten und sorgen zwangsläufig zu einer besseren Verwendung des zur Verfügung stehenden Linkjuices.

Keine unbemerkt ausgebauten Links mehr, sofortiger Überblick, mehr Zeit durch Outsourcing und bessere Entscheidungsgrundlagen: das ist linkbird!
Wer mehr erfahren möchte, kann unter www.linkbird.de ein Testlogin anfordern und eine Videopräsentation anschauen.

Gewinnspiel für seo.de Leser!
Unter allen, die bis zum 31.12.2010 einen Blogbeitrag zu linkbird schreiben oder über linkbird twittern und auf diesen Beitrag hier verweisen, verlosen wir

– einen 12 Monatszugang zu linkbird im Wert von netto 238,80 € (gilt nicht für Kunden)

PS: Bitte gebt dann noch ein Kommentar ab, damit Ihr berücksichtig werden könnt!

Viele Grüße
Nicolai, linkbird.de

Na? Heute schon Content eingepflegt, Links gesetzt, getauscht und ergaunert? Und, hat’s Spaß gemacht? Nur so ein bisschen? Was? Garnicht?

Jeden Tag ärgern wir uns mit repepepetitititiven Aufgaben herum und kommen kaum noch dazu, die Dinge zu tun, die uns soviel Freude bereiten. Zumindest habe ich das Gefühl, dass es vielen so geht und da kam mir die Idee, über eine Software zu berichten, die dem Ganzen angeblich Abhilfe verschaffen soll. Also habe ich mich auf den weiten Weg nach Jaipur in Indien gemacht und den Menschen besucht, der die Software vertreibt. Ja, nur deshalb ;-P

Ihr findet hier eine Vorstellung des Tools, sowie ein Interview mit dem indischen Unternehmer Lord Brar, der das Tool verhökert (ja, der Name steht so in seinem Pass).

Die Software nennt sich UBotStudio (www.ubotstudio.de – einen Coupon Code konnte ich auch ergattern: GERMONEY) und sie kann alles automatisieren, was man im Browser auch per Hand machen könnte. Mit Zufälligkeiten, Verzögerungen, Proxy Flipping, Breaking aller gängigen CAPTCHAs und und und. Die Bots lassen sich als .exe erstellen und man kann sie somit unkompliziert verteilen (z.B. an Mitarbeiter, Freelancer). Via Windows-Emulation läuft es auch auf dem Mac. Ich habe mir zum Beispiel einen gebrauchten Windows-Laptop gekauft und habe somit einen UBot-PC, der nix anderes macht, als mir stupide Arbeit abzunehmen.

Folgende Arten von Bots wurden beispielsweise bereits realisiert:

  • Content Uploading
  • Linktausch-Automatisierung
  • Account-Erstellung
  • Social Bookmarker
  • Video Uploader
  • Keyword Research
  • Content Spinner
  • Forum Poster
  • Script Installer
  • Comment Poster
  • Link-Wheel-Builder
  • und einige andere Späße

Ihr seht schon, in welche Richtung das alles geht. Liegt natürlich bei jedem selbst, was er damit so anstellt. Es gibt auch einen Bot-Store, dort kann man fertige Bots kaufen und eigene verkaufen (sofern man sie anderen in die Hand geben mag).

Wie das Teil funktioniert? Eine kleine Anleitung / Testbericht von UBot Studio
Hier geht’s zum Interview mit Lord

Wer keinen Bock auf Lesen hat, jedoch der englischen Sprache mächtig ist, kann sich auch das Video auf www.ubotstudio.de zu Gemüte führen.

Disclaimer: Verwendung auf eigene Gefahr. Bitte lest die AGB / Nutzungsbedingungen der Websites, die Ihr automatisiert bedienen wollt und haltet Euch an sie.

UBot Testbericht & Anleitung für Twitter-Bot

Wir benutzen im Folgenden die aktuelle UBot Studio Version 3.329. Um die Fähigkeiten dieses Programms zu zeigen, bauen wir einen kleinen Bot, der neue Follower bei Twitter automatisch zurück-followed.

Wenn man UBot startet, kriegt man eine übersichtliche Oberfläche zu Gesicht:

Es gibt drei Spalten:

1. Toolbox
Hier befinden sich die unterschiedlichen Befehle, die man dem Bot gibt. Es gibt ganz oben auch eine Suchleiste, um die unterschiedlichen Befehle rauszusuchen. Ich benutze eigentlich nur noch die Suche.

2. Scriptbereich
Hier baut man die Bots, indem man per Drag & Drop die Befehle aus der Toolbox reinzieht.

3. Browser
Das ist die Funktion die UBot Studio so einfach zu bedienen macht. Hier sieht man genau wo der Bot gerade ist und was er grad macht. Man kann auch direkt Elemente der aktuellen Seite in den Skriptbereich ziehen, wenn der Bot mit der Seite interagieren soll.

Eine der großen Stärken ist die Übersichtlichkeit – man weiß immer genau wo was ist.

Anleitung: Twitter AutoFollowBack Bot

1. Schritt: Einloggen
Wir bauen ja einen Twitter Bot, also müssen wir uns erstmal in unseren Twitteraccount einloggen. Ich habe zu diesem Zweck einen Account gebaut, der an Gratisangeboten bei Twitter interessiert ist. Wir benutzen einfachheitshalber immer die Mobile-Version von zu „bearbeitenden“ Websites – die sind sehr einfach strukturiert und ohne Schnickschnack, der den Bot stolpern lassen könnte.

Die Befehle sind intuitiv:
Navigate teilt dem Bot mit, wo er die weiteren Befehle (genannt Nodes) ausführen soll. Er soll warten, bis sich die Seite vollständig geladen hat, deswegen setten wir bei Wait die Option Yes.

Click link erhalten wir, indem wir einfach den Einloggen Button von dem eingebauten Browser in den Skriptbereich ziehen.

Wait for benötigen wir, damit der Bot mit dem nächsten Befehl wartet bis der Browser ein bestimmtes HTML-Element der Seite geladen hat. Wir kriegen das hin indem wir Text auf der Seite selektieren und dann mit Rechtsklick wait for auswählen. Hierbei sollte man beachten was zu wählen was einmalig für die Seite ist. Timeout ist eigentlich egal, wir lassen die 30 Sekunden die uns UBot Studio vorschlägt.

Die beiden Fill field-Nodes kriegen wir, indem wir die jeweiligen HTML-Formfelder in den Skriptbereich ziehen und das gewünschte eingeben. Die Feldnamen sucht das Programm dann selbst.

Wait finish funktioniert genauso wie Wait for, nur geben wir da kein HTML-Element ein.
Bei den letzten beiden mussten wir ein wenig tricksen. Twitter hat den Einloggen-Button keinen Namen gegeben, also wählen wir es per Position aus. Dazu rechtklicken wir einfach auf den Button und wählen zuerst choose by postition und dann click chosen.

Als letztes benutzen wir wieder den wait for Node, denn wir laden ja wieder eine neue Seite.

Bevor wir weitermachen, klicken wir einmal auf das Play-Symbol um zu schauen ob alles bis hier funktioniert. Die Nodes von dem Skriptbereich kann man übrigens mit Rechtklick einzeln ausführen um zu schauen ob sie auch wirklich funktionieren – sehr praktisch um alles zu testen.

Zwischenschritt: Subs

UBot Studio bietet noch eine weitere Möglichkeit alles einfacher zu machen: Subs. Dazu packen wir alles in einen Sub-Node. Um Subs auszuführen, brauchen wir noch einen run sub Befehl.

2. Schritt: Followback

Jetzt wollen wir mal allen folgen/followen, die uns auch folgen.

Jetzt die neuen Befehle:

Choose by attribute ist eine weitere Möglichkeit, Elemente auf der Seite auszuwählen. Hier benutzen wir als Methode wildcards, da die Zahl der Follower sich (hoffentlich) verändert. Ich benutze gerne die Attribute innerhtml und outerhtml, da diese meist einmalig sind für die jeweilige Seite. Dann ersetzt man die Zahl die veränderlich ist mit *.

While ist ein Flow Command. Wenn man es benutzt steht als erster Node automatisch qualifier place holder. Das ist die Bedingung, die der Bot braucht um solange irgendwas auszuführen, bis die Bedingung nicht mehr zutrifft. Wir benutzen als Bedingung search page. Dazu zieht man einfach search page auf qualifier place holder.

Der letzte wait finish-Node zeigt noch einen kleinen Einblick in die fortgeschrittenen Features von UBot. Anstatt als Timeout eine Zahl einzugeben, wählen wir eine Math Constant namens $rand und lassen uns eine zufällige Zahlen zwischen einem von uns gewähltem Minimum und Maximum geben. Das bemühen wir uns, dass Twitter nicht bemerkt, dass es sich um einen Bot handelt. Und vergiss nicht ein run sub Node für den neuen Sub zu benutzen!

Der Bot kann jetzt das was wir wollen. Wenn er mit seiner Aufgabe durch ist, gibt es die Meldung, dass es nichts mehr mit dem String “” finden kann. Man kann da noch rumspielen mit if, das ist aber für unsere Zwecke nicht nötig.

Hier kann man den ganzen Twitter Auto-Follower Bot runterladen: http://rapidshare.com/files/429625686/Twitter.ubot

Mehr Infos & Video: http://www.ubotstudio.de/
Coupon Code: GERMONEY

Disclaimer: Verwendung auf eigene Gefahr. Bitte lest die AGB / Nutzungsbedingungen der Websites, die Ihr automatisiert bedienen wollt und haltet Euch an sie.