Google aktualisiert im Moment wieder einmal den sichtbaren PageRank für die Toolbar. Auf 72.14.255.99 und 72.14.255.102 gibt es schon die neuen Werte zu bewundern. Wer das Ende des Updates nicht abwarten will , kann seinen neuen PageRank z.B. mit dem PR Tool von sistrix ansehen.

Oatmeal , ehemaliger Mitarbeiter von SEOmoz schildert hier in einem sehr schönen Beitrag seine Erfahrung mit Linkaufbau und Linkbait durch Widgets.

Kurze Zusammenfassung:
Oatmeal hat letztes Jahr bei JustsayHi, einer US Dating Seite angefangen und den Linkaufbau mittels verschiedener Widgets forciert.
Der HTML Code den die User auf Ihre eigenen Seite platzieren konnten, enthielt einen Textlink mit seinen gewünschten Keywords in diesem Fall hauptsächlich Phrasen wie “Free online Dating”, womit er auch auf Platz Eins der entsprechenden SERP’s platzieren konnte.
Alles in Ordnung, bis die Mutterfirma ein paar andere Projekte im Kreditbereich gekauft hat und diese ebenfalls durch die Widgetlinks promoten wollte.
Neue Widgets linkten dementsprechend auf die Kreditprojekte, ein Umfeld das eher von Linkspam und Blackhat Taktiken dominiert wird.
Ein Blogger des englischen “The Guardian” hat das Ganze mit diesem Artikel publik gemacht, woraufhin mehrere Leute bei Google gepetzt sich beschwert haben.
Justsayhi wurde dementsprechend abgestraft und ist aus den SERPs geflogen.
Der daraufolgende Reinclusion-Antrag wurde aus folgenden Gründen abgelehnt:

  • Cross-Promoting fremder Seiten durch die Widget/Quizzes
  • Die verlinkten Seiten kommen aus einem spam-lastigen Umfeld
  • Ein paar alte bezahlte Links
  • Es wurden nicht alle Details zu den Spam-Domains angegeben, sondern nur die zwei Verlinkten.

Die Gründe der Abstrafung scheinen gerechtfertigt, allerdings hatte Justsayhi keine wirkliche Möglichkeit alle diese Links (ein paar hundert tausend) löschen zu lassen. Deswegen wurde beschlossen komplett neu auf der neuen Domain oneplusyou.com zu starten. Um schonmal ein paar Links zu generieren bevor die User migriert werden, gibts auch hier ein paar neue Widgets.
Die neuen Widgets hatten anfangs auch einen Textlink mit dem Anchor “free online dating” gesetzt, bis Google sich wieder gemeldet hat und meinte, dass durch diesen “off-topic-widget-trick” der neuen Domain das gleiche Schicksal wie Justsayhi.com droht. Der Linkanchor wurde wieder geändert und beinhaltet nur noch den Domain-Namen.

Die Geschichte hat wieder eine interessante Diskussion um Google ausgelöst.
Nach dem ganzen Paid-Links und Nofollow-Bruhahaha sind jetzt Widgetlinks das nächste Ziel?
Das Google etwas gegen Cross-Site Promotion hat, ist im Rahmen von Paid-/Sponsored Links nachzuvollziehen.
Ab jetzt muss offensichtlich jeglicher Linkbait durch Widgets auch noch themenrelevant sein, obwohl viraler Linkbait in den meisten Fällen themenunrelevant ist ( Klo-Bilder anyone?).
Speziell in Fall on oneplusyou , verstehe ich Googles Problem nicht, da auf der Widgetseite klar angegeben ist, dass es einen Textlink gibt, es dem User überlassen bleibt den Textlink zu entfernen und derjenige FREIWILLIG das Widget auf seine Seite packt und somit die Seite verlinkt. Aus SEO-Sicht kann man sich keinen grell-leuchtenden weissere Hut Weste mehr aufsetzen anziehen. Google hat nichts gegen den Link zum Anbieter einzuwenden, aber offensichtlich ist ein Anchor mit Keyword-Phrasen dann wiederum nicht in Ordnung, obwohl es nach den vagen Google Richtlinien keine Probleme geben sollte.
Noch gibt es kein offizielles Statement zu dem Thema, aber ich denke es wird wieder nur vage Antworten von Matt Cutts geben wird, damit Google notfalls im Nachhinein das Ganze als Black-Hat Spam abstempeln kann.
Wie auch in der Diskussion erwähnt wird, scheint Google nacheinander alle effektiven Wege Textlinks mit dem gewünschten Anchor zu erzeugen zu eliminieren und dabei alles, was annähernd nach Suchmaschinen-optimierten Textlinks aussieht, abzustrafen. Es geht hier nicht mehr um Blogspam, gekaufte Links und XSS, sondern um Whitehat-Methoden die sich jeder Webmaster mit längerfristigen kommerziellen Projekten wünscht. Effektives Linkbuilding wird so noch weiter erschwert. Was kommt als Nächstes? Google könnte ja auch irgendwann keyword-reiche Domainnamen als Spam abstrafen und Themenrelevanz hängt dann nur noch vom AdSense/AdWords Umsatz ab.

Yahoo hat in seinem Searchblog nun offiziell den Start seines neuen Crawlers bekanntgegeben.

Version 3 des Yahoo!-Crawlers wird ‘Yahoo! Slurp/3.0’ als User-Agent angeben. Alte robots.txt-Anweisungen für ‘Slurp’ bzw ‘Yahoo! Slurp’ werden auch weiterhin funktionieren. Die Echtheit des Crawlers kann mit einem Reverse-DNS-Check überprüft werden, der ‘crawler.yahoo.net’ als Ergebnis liefern sollte.

Hoffen wir mal das der neue Slurp ein wenig bandbreiten-freundlicher an die Arbeit geht.

Danny Sullivan von Search Engine Land berichtet hier über eine ganz interessante Änderung in der Google Suche.
Ganz unspektakulär “Previous Query” getauft, wird Google in naher Zukunft die vorherige Suche in der darauf folgenden Suchanfrage berücksichtigen.
Wie schon bei AdWords aktiv, wird diese Anpassung nun auch für die organischen Suchergebnisse eingeführt.

Sucht ein User z.B. nach [Mallorca] bekommt er die normalen SERPS angezeigt. Ist die neue Suchanfrage dann [Urlaub] , wird es mehr Ergebnisse für einen Mallorca Urlaub geben, als ob der User nach [Mallorca Urlaub] gesucht hätte.

Das Ganze hat nichts mit Googles personalisierter Suche zu tun und soll hauptsächlich bei allgemeinen Suchbegriffen angewendet werden.

Seiten die nicht für allgemeine oder stark umkämpfte Keywords ranken können, bekommen so noch eine Chance in den verfeinerten Ergebnissen aufzutauchen.
Man wird abwarten müssen wie sehr sich dieses System auf die Longtail Keywords auswirken wird.
Es macht auf jeden Fall Sinn, sich die eigene Optimierung anzuschauen und sich schon mal auf die Suche nach ein paar lukrativen Longtail-Phrasen zu machen, da solche in Zukunft evtl. mehr Traffic bringen werden.

Im ersten Teil des Artikels zur Konkurrenz und Linkanalyse habe ich kurz erklärt wie man eine Liste seiner Mitbewerber zusammenstellt.

Heute schauen wir uns mal die Seiten genauer an und analysieren deren Linkstrategie.
Da Google keine genauen Ergebnisse mehr liefert, benutzen wir Yahoo. Obwohl Yahoo meistens deutlich mehr Treffer als Google anzeigt, werden auch hier nur die ersten 1000 verlinkenden Seiten geliefert. Gut möglich, dass viele Webmaster den Yahoo Bot per robot.txt den Zugriff verweigern, weil SLURP viel zu aggressiv ist, bzw weil man seine Linkdaten vor den Mitbewerbern geheimhalten will.

Für die Erstellung der Ergebnisliste ist übrigens auch an dieser Stelle das SEO Quake Plugin eine große Hilfe. Damit kann man die gelieferten Ergebnisse nach diversen Kriterien sortieren und dann als .csv direkt herunterladen.

1. Generelle Linkstrategie mit Keywortern erforschen.

Yahoo Suche: [linkdomain:konkurrenz.com keyword]

Diese Suche liefert eine gute Übersicht über themenrelevante Domains, die auf euren Mitbewerber verlinken.
Schaut euch all diese Links an, und vergleicht eure Verlinkungen mit diesen. Besonders Seiten die auf mehr als einen Mitbewerber verlinken, sollte man sich genauer anschauen und sich einen Link kaufen erbetteln erarbeiten.

Sollten zu viele Links von unerwünschten Quellen auftauchen ( Nebenprojekte der Konkurrenz, Wikipedia, Yigg, etc ) kann man die Suche um den Operator “-site:magichnicht.de” erweitern.

[linkdomain:konkurrenz.com keyword -site:magichnicht.de]

2. Themenrelevante Deep-Links auskundschaften

Mit folgender Suche bekommt man eine Liste mit den Deep-Links
[linkdomain:konkurrenz.com -site:konkurrenz.com -link:http://konkurrenz.com -link:http://konkurrenz.com]

Manche Leute meinen aus dem Verhältnis von Deep-Links zu der Summe der Links, sei ein weiterer Faktor den man sich anschauen sollte ( siehe deeplink ratio auf Seobook.com ). Daraus soll man erschließen können, wie “natürlich” verlinkt wird. Persönlich halt ich das für weniger aufschlussreich da der Wert je nach Thema und CMS zu sehr variiert ( Blogs haben z.B. viele Deeplinks durch Trackbacks ).
Wer es braucht kann mit [Summe Deep Links / Summe aller Links * 100] das prozentuale Verhältnis errechnen. Viel interessanter und nützlicher ist die Anzahl an themenrelevanten Deep-Links. Dafür erweitern wir die Suche oben um unsere Keywords .

[linkdomain:konkurrenz.com -site:konkurrenz.com -link:http://konkurrenz.com -link:http://konkurrenz.com keyword]

Meiner Meinung nach decken diese Links die meisten SEO Tricks und Strategien der Konkurrenz auf. Nun kann man dahingehen und sein Linkbuilding besser als die Konkurrenz gestalten.

3. Mit welchen Anchor Text verlinkt die Konkurrenz?

Eine wichtige Informationen beim SEO Link- Schlagabtausch ist der Anchortext mit dem die Konkurrenz verlinken lässt (und die Links evtl. kauft).
Dafür müsste man bei jedem Link den Anchortext rauskopieren(weitere Faktoren wie no-follow und PR gleich mit überprüfen) und die Liste dann nach Linktext sortieren. Bei vielen einheitlichen Linktexten kann man dann genauer hinschauen. Link Diagnosis ist ein nettes und kostenloses Tool das einem dabei behilflich ist (nach “count” sortieren).

Mit diesen Informationen, hat man dann schon mal eine gute Grundlage um die eigenen Strategie zu optimieren und der Konkurrenz in den SERPS eins auszulinkenwischen.