Alle Jahre wieder strömen Massen von wissbegierigen Webmastern, SEOs, Marketinglern und sonstigen Business-Entscheidern zur SEMSEO nach Hannover, um dort nicht nur an der Leine, sondern auch in die Tiefen von Suchmaschinen Optimierung und Marketing geführt zu werden. Mittlerweile fand die SEMSEO zum vierten Male statt. Ich selber hatte die Veranstaltung erst einmal besucht, bei ihrer Premiere im Jahre 2007. und so war er mal wieder an der Zeit zu schauen, was sich denn so alles auf dem SEM & SEO Sektor getan hatte. Programm und Referenten sahen vielversprechend aus, Grund genug also, um am Freitag Morgen in den Zug Richtung Leinestadt zu steigen.

Alan Webb und Uwe TippmannSEMSEO Check In

Kaum angekommen im Atrium des Alten Rathauses, bin ich auch schon über die Ausrichter der Veranstaltung gestolpert – Alan Webb und Uwe Tippmann. Nach einigem Vorgeplänkel und Smalltalk ging es dann vom Check-in hinauf in den großen Saal, der sich schnell mit Zuschauern füllte und in dem Alan pünktlich um 9:30 Uhr seine ersten Begrüßungsworte abhielt.

Nach ein paar Informationen zur Agenda und dem Hinweis, dass die Veranstaltung im nächsten Jahr aufgrund der hohen Nachfrage und entsprechender Platzknappheit wahrscheinlich im Kongreß-Zentrum stattfinden dürfte, ging es dann ans Eingemachte. Zehn Minuten früher als vorgesehen startete dann Pelle Boese (gjuce GmbH) mit der ersten Session, Thema “Mobile Search” – Optimierung und Vermarktung mobiler Seiten.

Der Vortrag gliederte sich in die folgenden 6 Punkte:

  1. Mobile Internet
  2. Mobile SEO
  3. Mobile Vermarktung
  4. Beispiel: m.wetter.net
  5. gjuce GmbH
  6. Q & A

Am interessantesten an Pelles Vortrag fand ich neben dem Hinweis auf den Blended Index, einem Mix aus normalem und mobilem Index, und dem Ratschlag, besser mit der Hauptdomain als mit einer Extra-Mobi Domain zu ranken, vor allem die Art & Weise, wie er mit dem Mobile Googlebot umgeht. Diesem bietet er nämlich anstatt der normalen, schweren und komplexen Seiten viel leichter verdauliche, schnörkellose mobile Seiten an, dass aber unter derselben URL. Ich möchte das mal mobiles Cloaking nennen. Um hier nicht den Rahmen zu sprengen, indem ich bei allen Beiträgen zu sehr ins Detail gehe, verweise ich lieber auf den sehr gelungenen Mobile Search Blogartikel von Rouven auf sea.at, dort findet ihr auch noch alle anderen Mitschnitte der SEMSEO Sessions.

Hohen Informations- und Unterhaltungswert versprach Prof. Dr. Mario Fischers Vortrag über Linkaufbau & Reputationsmanagement, in welchem er über die Tücken des Linkaufbaus und die Einbindung eines erfolgreichen Linkbuildings beim Reputationsmanagement referrierte.

Zum Auftakt stellte der Herr Doktor die Frage: “Warum muss man beim Linkaufbau vorsichtig sein?”

  1. ~22% aller Webseiten sind Spam
  2. ~33% ist Duplicate Content
  3. ~90% der SEOs sind Dumpfbacken

Antwort, die Jungs von Google haben einiges auf dem Kasten, kennen sich mit mathematischen Algorithmen aus und haben eine unglaubliche Maschinerie und Rechenpower im Hintergrund am laufen. Dazu brachte der Professor einige beeindruckende Zahlen und interessante Hinweise, wie die Maschinen durch Mustererkennung und maschinelles Lernen schon heute linke Farmen und spammige Inhalte erkennen könn(t)en. Demnach liegt die Wahrscheinlichkeit eine Linkfarm zu entdecken bei erschreckenden 95% und einen Spam-Linkhub zu entdecken bei ca. 80%. Nach vielen weiteren Charts und der obligatorischen Frage & Antwort Runde folgte dann am Ende der Session die größte Überraschung. Mario Fischer kündigte das Website Boosting Magazin an.

Das neue Magazin mit dem altbekannten Namen Website Boosting wird regelmäßig alle 2 Monate neu als hochwertig gebundenes Magazin in Deutschland, Österreich und der Schweiz in allen Bahnhofs-Buchhandlungen und Flughäfen im Regal stehen. Die Erstausgabe bietet ein Matt Cutts Interview und viele weitere Artikel hochdekorierter Seo & Marketing Experten an, zudem soll es eine Leseprobe und eine Charity-Aktion geben.

Das wars dann fürs Erste, kurz vor halb Zwölf ging es ab in die wohlverdiente Kaffeepause, Gelegenheit sich aufzufrischen, Gespräche zu führen oder neue Kontakte kennen zu lernen. Gut erholt gings dann eine Viertelstunde später mit Uwe Tippmanns Beitrag “Suchreichweite verstehen” weiter. Frei nach dem Motto: “Tauchen Sie ein in die Welt der Suche und analysieren Sie Ihren Erfolg.”

Uwe ist nicht nur einer der Geschäftsführer der ABAKUS Internet Marketing GmbH, sondern als ehemaliger Yahoo-Mitarbeiter auch tief mit Suchmaschinen und den dazugehörigen Analysen verwurzelt. Kein Wunder also, dass er die Stärken und Schwächen der diversen Tools zur Messung von Sucherfolgen und Reichweiten genauestens kennt. Auf die Frage “Was ist Suchreichweite?” antwortet Uwe mit

Die Suchreichweite gibt die Anzahl der Personen an, die durch eine Webseite in den Ergebnissen einer Suchmaschine erreicht werden können.

Dafür gibt es zwei Ansätze, den theoretischen und den praktischen Ansatz. Der erste Ansatz basiert auf regelmäßig gegen die Suchmaschinen abgefragten limitierten Keyword-Listen, so wie es SEO-Tools a la Sistrix oder Searchmetrics tun. Aus den resultierenden Positionen und externen Traffic-Statistiken wird dann eine Art Sichtbarkeitsindex hochgerechnet. Nachteil: Mangelhafte Abdeckung des Longtails, unausgewogener Keywordbestand und geringe Aktualität der Suchbegriffe. Diese Schwächen will der praktische Ansatz umgehen: “Man nehme ein ausreichend großes User Panel mit ausgewogenem Suchverhalten und wertet das individuell angepasste Ranking der Ergebnisse anaonym und normalisiert aus.” Dieses Verfahren erfasst natürliche Longtail Keywords, zeigt ein natürliches Such- und Absprungverhalten, liefert tagesaktuelle Suchanfragen und bezieht die individuellen Anpassungen der Ergebnisse mit ein. Derlei Resultate lieferten bislang nur Dienste wie Comscore oder Nielsen. Doch jetzt kam der Knaller. Es gibt demnächst einen neuen Kandidaten, der noch tiefer in die Datenmeere eintauchen möchte – der SEO Diver!

Uwe stellt an dieser Stelle das neue Wunderkind aus dem Hause Abakus vor. Der Seo-Diver umfasst derzeit rund 18 Millionen Domains, 200 Millionen Keywords weltweit, davon 39 Millionen aus Deutschland, inklusive aktueller News, Event und Produkt-Keywords. Hinzu kommt noch ein vielversprechendes Backlink-Analyse Modul. Der offizielle Starttermin für den SEO-Diver ist in 10 Wochen, preislich soll es ab 99 Euro/Monat los gehen. Das kann spannend werden bei den SEO-Tools.

Nach diesem Überraschungs-Coup gings dann in die Mittagspause. (Fortsetzung folgt)

Es mag viele Gründe geben einen Domainwechsel vorzunehmen. Wenn man dabei sowohl Besucher wie Suchmaschinen optimal bedienen will, sollte man einige Punkte beachten, die über 301-Redirects hinausgehen.

Wir haben uns – tut mit Leid Gerald – von suchmaschinen-optimierungen.info verabschiedet, obwohl ich es nach all den Jahren mittlerweile ausreichend schnell tippen konnte. Daher bot sich die ideale Gelegenheit, dies langfristig anzugehen und genau zu beobachten. Es folgen die Schritte in Form einer knappen Checkliste sowie die beobachteten Folgen, welche mich dann doch vereinzelt überrascht haben.

1. Ausgangssituation
Alle Inhalte sind auf der so genannten alten Domain online.

2. Neue Domain per 301 auf alte Domain
Als erstes haben wir die neue Domain registriert (in unserem Fall gekauft) und pauschal per 301 auf die alte Domain weitergeleitet.

3. Links auch auf die neue Domain
Die Monate danach folgten vereinzelt einige wenige Links auch auf die neue Domain, die per 301 natürlich noch auf die alte Domain weitergeleitet wurden. Kann ja nicht schaden.

4. Neue Domain befüllen
Im Hintergrund erarbeiteten wir Struktur, Inhalte etc. der neuen Domain. Alle anderen „Besucher“ wurden nach wie vor auf die alte Domain per 301 geleitet. Das geht beispielsweise per .htaccess auf IP-Basis ganz einfach. Dazu als Bedingung für die 301-Weiterleitung einfach die aktuelle eigene IP ausschließen. Das kann allenfalls ganz wenige Besucher versehentlich auf die neue, noch nicht öffentliche Webseite führen. Die könnte man dann per Overlay darauf hinweisen und/ oder anders erfassen und weiterleiten.

5. Vorbereitung des Domainwechsels
Nun haben wir alle URLs der alten Domain erfasst und den neuen URLs zugeordnet. Daraus wurden dann 301-Weiterleitungen erstellt. Zusätzlich haben wir auf der alten Domain das durchaus nicht ungefährliche rel=canonical auf die jeweilige URLs der neuen Domain gesetzt. Wer sich jetzt fragt, wieso ungefährlich, der braucht nicht lange zu suchen, bis er dieses Tag findet, indem auf allen Seiten nur die Domain eingetragen ist. Dadurch wollten wir sicherstellen, dass keinerlei Anschein doppelter Inhalte aufkommt und der Wechsel möglichst schnell und reibungslos verläuft.

Weiter sind beide Domains in den Google Webmaster Tools registriert. Unter Website-Konfiguration kann man hier Google direkt eine Adressänderung (nur der Second-Level-Domain) mitteilen. Dies geht aber nur vor der 301-Weiterleitung. Zusätzlich wurde auch eine neue XML-Sitemap angemeldet.

6. Domainwechsel
Dann haben wir die 301-Weiterleitungen sowie das rel=canonical veröffentlicht. Zudem fangen wir alle Referrer der 404-Fehlerseite der neuen Domain ab, um Lücken oder Tippfehler zu finden. Denn hier unterlaufen einem schnell auch mal kleine Fehler. Soweit möglich und zeitlich vertretbar haben wir dann auch ein paar Links von alte auf neue Domain angepasst.

7. Warten
Erstmal passierte rein gar nichts. Nicht mal die Blog-Subdomain auf WordPress-Basis wollte Google via Blog-Suche kennen. Für die PageRank-Fetischisten:
Domain-alt hatte PR5, die Blog-Subdomain PR4.
Domain-neu hatte PR5, die Blog-Subdomain PR4. Die auf die neue Domain gesetzten Links rechtfertigten diese Einstufung nicht, so dass ich von einer Spiegelung der Werte in den Google-Datacentern ausgehe.

8. Tag 4 nach dem Wechsel
Am vierten Tag nach dem Domainwechsel kam dann die erste kleine Überraschung. Beide Domains waren im Index: Domain-alt wie bisher und Domain-neu stieg ordentlich ein, meist nur ca. 8 bis 14 Plätze hinter Domain-alt. Im Index der neuen Domain waren nur 14 Seiten, die neue Blog-Subdomain war noch gar nicht indiziert.

9. Tag 5 nach dem Wechsel
Ich kann es vorweg nehmen: jetzt wurde es kurios. Denn am Tag 5 rankten beide Domains praktisch untereinander als eigenständige, verschiedene Treffer. Domain-alt dabei immer noch vor Domain-neu. Die Masse der Besucher kam nach wie vor über die alte Domain. Aufgrund der vielen „doppelten“ Rankings kamen sogar ca. 15% mehr Besucher. Nun waren schon 75 Seiten der neuen Domain im Index, wobei im Wesentlichen die Blog-Subdomain dafür verantwortlich war.

10. Tage 6 bis 10 nach dem Wechsel
Am Tag 6 nach dem Domainwechsel haben wir sicherheitshalber nochmals die ganzen Weiterleitungen der alten Domain gecheckt: keine Fehler. Besucher auf der Domain-alt gleich 0. Dennoch waren noch alle Seiten der alten Domain im Index und der Index der neuen Domain wuchs und wuchs. Die doppelten Rankings ebenso! Das ging ganze 4 Tage so. Dabei kann eigentlich keiner meckern, denn Missbrauch liegt hier fern. Ganz im Gegenteil wollten wir das sogar möglichst sauber machen. Wer also beispielsweise am Valentinstag oder einem ähnlich kurzen Zeitraum mit organischen Rankings seinen Umsatz macht, könnte das bei Gelegenheit mal im „Labor“ testen und prüfen.

11. Tag 11 nach dem Wechsel
Am 11. Tag wechselte dann die Reihenfolge: nun war die neue Domain vor der alten Domain. Aber die doppelten Ergebnisse untereinander waren nach wie vor in den Ergebnisseiten – und das obwohl wir einen wohl überdurchschnittlichen Aufwand unternommen hatten, um es Google offensichtlich möglichst leicht zu machen. PR-Einschub: der PR der neuen Domain wurde nun jeweils auf -1 verringert, was eher dem Wert der bisherigen Links auf die neue Domain entsprechen dürfte. Genauer habe ich das aber nicht verfolgt.

12. Tag 12 nach dem Wechsel
Nun fielen die Rankings der alten Domain langsam einige wenige Plätze zurück aber nach wie vor waren noch fast alle Seiten der alten Domain im Index. Es folgte praktisch der Vollzug des Wechsels synonym zum Anfang.

13. Tag 20 nach dem Wechsel
Ich hatte eigentlich damit gerechnet, dass Google nun endgültig die Rankings der alten Domain komplett raus nimmt und den Index abbaut. Aber noch heute, am Tag 20 nach dem Wechsel, sind fast alle Seiten der alten Domain im Index und manche ranken noch „irgendwo“ in den Top 100. Sistrix’ Toolbox weist daher auch noch einen kleinen Wert von 0,03 zu.

Ansonsten hat die neue Domain komplett die Rankings der alten übernommen. Da sich viele Dinge wie Inhalte, Struktur auch geändert haben, kann ich nicht beurteilen, inwieweit es durch den Domainwechsel zu einem Verlust, einem Filter oder Puffer, gekommen ist. Jedenfalls war ich über die lange Präsenz der doppelten Treffer mehr als erstaunt. Dies hätte ich eher bei 302 ohne weitere Aktionen erwartet. Letztlich gab es daher keinen kurzen Einbruch, wie man hätte erwarten können und die folgende Grafik aus Sistrix’ Toolbox nahelegt – ganz im Gegenteil.

Eure Erfahrungen?
Was hättet Ihr anders gemacht? Wie geht Ihr vor? Habt Ihr vergleichbare Erfahrungen beobachtet?

Robert Hartl ist Inhaber von NETPROFIT, einer kleinen Agentur in Passau, die sich vorwiegend um CMS, SEO und SEM kümmert. Wie dem Artikel zu entnehmen, findet Ihr mehr über NETPROFIT nun unter www.netprofit.de.

Vor 4 Wochen hat es im Google Index ordentlich gekracht, ein paar schwergewichtige Webseiten, mit Millionen von Unterseiten im Google Index, haben weiche Beine bekommen und den Rücksturz zur Erde angetreten. Den Auftakt machten Chip und Netzwelt mit ihren suchfreudigen Subdomains, ein paar Tage später folgte YiGG. Während man über den Abflug der Subdomains nicht großartig zu spekulieren braucht, Google konnte ausgekippte Suchseiten noch nie gut leiden, scheint die Sache bei YiGG (blaue Kurve) komplizierter.

Sichtbarkeitsindex der Sistrix Toolbox: suche.netzwelt.de, suche.chip.de und yigg.de

Einen eindeutigen Grund kann ich zur Zeit nicht sehen. Vielleicht hat sich Yigg ein paar Experimente erlaubt, die nicht so richtig gelungen sind. Nach dem missratenen Relaunch vor 1,5 Jahren ist das auf jeden Fall der zweite herbe Rückschlag für das Portal. Dass dieser Erdrutsch bei Yigg auch deutliche Einbußen bei den Besucherzahlen nach sich zieht, dürfte niemanden verwundern.

Ob es sich hier, wie vom Seonauten behauptet, um eine Google-Penalty handelt oder um eine unglückliche Verkettung technischer Missgeschicke, darüber kann man jetzt streiten. Der Begriff Penalty selber ist ja schon diskussionswürdig. Bei den oben erwähnten Pseudo-Suchseiten von Chip und Netzwelt würde ich von einer manuellen Penalty ausgehen und darauf wetten, dass da jemand von Googles Spamtruppe auf den roten Knopf gedrückt hat. Bei Yigg ist die Sache weniger offensichtlich.

Was könnten die Gründe für solch einen krassen Einbruch sein? An eine Strafe wegen Linkverkaufs mag ich nicht glauben, da wäre eher der PageRank mal schnell degradiert worden. Alles weitere ist jetzt aber Spekulation. Ich weiss nicht, was Yigg in den letzten Wochen schon an seinen Seiten geschraubt hat. Mir persönlich missfällt ja dieses Pseudo-Seitenhijacken mit der Yigg-Toolbar. Alleine dafür würde ich die rauskicken, sozusagen als erzieherische Maßnahme 😉 Doch eigentlich scheint die Toolbar sauber zu sein, sie wird via robots.txt aus dem Suchmaschinen-Index rausgehalten. (Frage, war das schon immer so?).

Meist sind es ja Probleme mit DC (Duplicate Content), die große Seiten ins Nirvana schicken. Was auffällt sind einige https-Seiten, die es in den Google Index geschafft haben. Auch die Inhalte. welche unter upcoming.yigg.de rumliegen könnten als DC-Kandidaten gelten. Dann kippen viele Experten ihre Pressemitteilung auch auf Yigg ab, und wenn ich mir dann noch anschaue, wieviele Schlagwörter Yigg bei solch einem an und für sich schon recht überflüssigen Pressebeitrag zulässt, so wird mir leicht schwindelig. 60+ Schlagwörter müssen nicht sein. Generell würde ich nicht mehr als 6-10 Schlagwörter erlauben um solchen Auswüchsen entgegen zu wirken.

Neben den inflationären Schlagwörtern frage ich mich auch schon seit langem, wer braucht eigentlich diese merkwürdigen Gruppen? Die Seiten selber bestehen aus ein paar Links, wenig Text und ihren Mitgliedern. Ziemlich dünn, wenn ihr mich fragt. Nicht wirklich eine Offenbarung was den Content angeht. Wie fast alles was die Yigg Inhalte betrifft. Ich würde schon beim Einstellen der Artikel eine gewisse Mindestmenge an Text erzwingen. Yigg ist ja nicht Twitter 🙂 Hoppla, gerade kippt jemand seinen halben Online Shop bei Yigg aus. Das ist natürlich ein Problem, die lieben Spammer. Da müsste auch mehr getan werden, damit solchen Experten das Handwerk gelegt wird.

Wie auch immer, es gibt halt einige Macken und Mängel bei Yigg, die der Plattform seotechnisch nicht zum Vorteil gereichen. Neben der Technik ist dann da noch der menschliche Aspekt. Man muss schon geben können, damit andere auch etwas geben. Den Seos die Follow Links, den Webmastern den Direkteinsprung ohne Toolbar, der Blogosphäre ein Yigg-Blog, das nicht nur yiggzentrisch spricht, sondern auch mit der Außenwelt kommuniziert, den Usern mehr Komfort und weniger Spam und Werbung – und den Suchmaschinen mehr unique und weniger doppelten Content. Dann klappt es am Ende auch wieder mit dem Nachbarn im Web, mit Google.

Update: Gretus via Twitter: “Zu viele Toolbars, Popups, Werbung usw. Die Seite hat momentan so einfach 0 Mehrwert #yigg

Da ist viel Wahres dran. Das Popup nervt, auf die Video-Werbung bin ich schon mehr als einmal reingefallen, weil ich annahm es gehöre zum Top-Artikel. Und die Toolbar brauche ich auch nicht, die behindert mehr als dass sie hilft. Und wo wir hier schon die ganze Zeit über Yigg reden, eigentlich müßte ich den Artikel jetzt noch bei Yigg einstellen. Aber das ist mir zu blöd. Seos sind dort ja eh nicht willkommen.

Vor gut 7 Wochen habe ich einen Artikel über ein Brötchen im Schnee geschrieben, der Teil eines kleinen Seo Experimentes war. Hier noch einmal das Foto vom Corpus Delicti:

Brötchen im Schnee

Was mich vor allem interessiert hatte war die Zeit, die das Schnee-Brötchen brauchen würde, um in der Google Bilder-Suche aufzutauchen. Nach gut einer Woche kam die erste kleine Überraschung, die Suche nach brötchen im schnee förderte nicht das neue Bild ans Tageslicht, sondern verfrachtete mein altes Brötchen-Bild an die Pole-Position der Google Bildersuche. Das hatte zwar Witz, aber nicht unbedingt große Relevanz.

Doch jetzt, rund 6 Wochen später, ist es endlich so weit. Das echte Schnee-Brötchen ist aufgetaucht und hat sich am alten Brötchen vorbei auf den ersten Platz geschoben. Der Screenshot zeigt die Bilder Rank-Liste vom 1.02.2010:

Brötchen im Schnee Bilder-suche

Nach der ersten Freude über die doch recht zeitnahe Aufnahme in den Bilder-Index kam dann die zweite kleine Überraschung. Anstatt den Original-Artikel hier auf seo.de zu verlinken, hatte Google den “Kochen und Tipps”-Beitrag Frische Brötchen zum Mittag in der Suche eingebunden. Obiger Screenshot zeigt die Situation. Ein klarer Fall von Hotlinking. Doch es kommt noch besser, als ich jetzt einige Zeit später noch einmal einen Blick auf die Bildersuche geworfen habe, tauchte plötzlich der OMBuzzer Beitrag
Hotlinking für Brötchen im Schnee an vorderer Stelle auf. Cool, da ist der Name echt Programm.. Ein Beitrag über Hotlinking, der gleichzeitig ein Bild hotlinked 🙂

Mir ist es ziemlich egal, wer da gerade Master des Schnee-Brötchens in der Google Bildersuche ist. Was ich aber wirklich bescheuert finde, das ist Googles stumpfe Denkweise. Wenn man sich die beiden verlinkenden Artikel ansieht, dann wird man feststellen, dass weder in dem einen noch in dem anderen Artikel irgendein Fitzelchen vom Brötchen-Bild zu sehen ist. In beiden Fällen wird lediglich ein klassischer Link Richtung Bild verlegt. Ich frage mich jetzt, warum Google so blöde ist und einem klassischen Link den Vorzug gibt gegenüber der Einbindung durch ein img-Tag, bei dem das Bild ja direkt sichtbar dargestellt wird. Das zu erkennen und sinnvoll anzuwenden kann doch eigentlich nicht allzu schwer sein.

Nachdem Martin kurz vorm Wochenende den Backwaren Reigen eröffnet hat und auch Dieter und Ingo gleich mit einem ganzen Rudel Brötchen in den Zweiten Brötchen Krieg eingezogen sind, kann auch ich nicht umhin, über die heißbegehrten Backwaren zu berichten.

Wer sich die verlinkten Artikel durchliest, wird einige Seo Rezepte für die Optimierung von Bildern aufschnappen können. Aber nicht nur das, auch einige gute Backlinks werden dort preisgegeben. Eigentlich ein Grund zur Freude für alle angehenden Seo-Köche, doch leider findet sich diesmal ein Haar in der Suppe, welches einem unter Umständen die Suppe noch versalzen könnte. Das Haar heißt “Linkaufruf” und soll laut Marcel Becker ein nicht zu vernachlässigendes Risiko beim Linkbaiten darstellen.

Um hier jeglichem Risiko vorzubeugen, wende ich hier keine der vier genannten Strategien aus der Linkaufruf-Risiko-Matrix an, sondern verfolge eine eigene, ganz neuartige Linkaufruf Strategie. Ich nenne sie die Ablass-Strategie, weil ich allen Lesern und Bloggern rate, von einer Verlinkung dieses Artikels und meines Brötchens abzulassen. Auf Wunsch kann ich euch diese Empfehlung auch schriftlich in Form eines “Ablassbriefes” geben 😉