Heute ist Googles zwanzigster Geburtstag. Zumindest wenn man Googles Suchmaschine vertrauen mag. Und die sollte das doch eigentlich wissen. Wenn ich in Googles Suchformular die Frage “Wann ist Googles Geburtstag?” eintippe, so verrät mir die Suchmaschine mit Hilfe zweier Infoboxen, dass das Unternehmen am 4. September 1998 gegründet wurde.

Doch so ganz einig ist sich Google bei der Geburtstagsfrage in der Vergangenheit nicht gewesen. Da tauchte auch schon mal ein Geburtstags-Doodle am 8. September auf. Und zwar im Jahre 2003. Ein Jahr zuvor war es der 27. September. Und 2004 war es der 7. September. Also drei Tage am Gründungsdatum vorbei. Diese und andere Daten könnt ihr sehr schön in Martin Mißfeldts fragwürdigem Artikel “Wann hat Google eigentlich wirklich Geburtstag???” nachblättern.

Es gibt noch eine weitere Google Quelle, die man sehr schön anzapfen kann, um derlei Fragen zu beantworten. Google Trends, hier sieht man sehr schön, welche Fragen die User wann bewegen. Insofern sieht man hier auch sehr schön, wann das gemeine Volk Googles Geburtstage feiert.

Ab 2005 hat sich der 27. September als Geburtstagsdatum durchgesetzt. Das zeigen die im Folgenden aufgelisteten Trendverläufe sehr schön. An diesem Tag wurde die eigentliche Google Suchmaschine aufs Volk losgelassen. Mit durchschlagendem Erfolg. Wie wir heute wissen 🙂















Alles Gute zum 20. Geburtstag. Happy Birthday Google! 🙂

ssl-logo-21qVor 25 Tagen, am 6.08.2014, verkündete Google, dass SSL ein Ranking-Signal sein wird. Zwar nur ein kleines, aber immerhin. Damit kam natürlich Schwung in die Diskussionen über den Sinn und Unsinn von SSL als SEO Faktor. Ich habe zwar keine Zahlen vorliegen, der Abverkauf von SSL Zertifikaten dürfte aber krass in die Höhe geschnellt sein 😉

Bleibt die Frage, soll ich jetzt auch ganz schnell auf HTTPS/SSL umstellen oder soll ich es besser langsam angehen lassen. Immerhin hat die als technologischer Vorreiter bekannte Seo-Klitsche schon komplett auf SSL umgestellt 🙂 Ok, zugegeben, es gibt sicher bessere Gründe, um auf sichere Verbindungen umzuswitchen – aber keine so witzigen.

Immerhin sprangen die Rankings der Seo-Klitsche für den Begriff SEO nach der Umstellung auf SSL von jenseits der 100 bis in die Dreißiger Plätze. Nur ist es zweifelhaft, ob das irgendetwas mit dem neuen Ranking Faktor zu tun hatte. Denn die Umstellung zog diverse Arbeiten nach sich. Das alte Template war quasi hart verdrahtet mit HTTP, es wurde deshalb gegen ein gänzlich neues und zudem responsives Theme ausgetauscht. Damit waren die ersten Probleme behoben. Doch war das erstens nicht alles, und zweitens auch kein Klacks, den man mal so nebenher macht.

Um sauber unter HTTPS/SSL zu laufen, mussten diverse Anpassungen und Änderungen der WordPress Installation durchgeführt werden. Als erstes wurde dem Blog mit Hilfe von Yoasts SEO Plugin beigebracht, das Canonical per Default auf HTTPS zu stellen. Als nächstes wurde die .htaccess auf Vordermann gebracht und eine HTTPS Weiterleitung forciert. Für diesen Zweck genügten folgende Zeilen:


RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]

Desweiteren wurde die wp-config.php angepasst, um einmal den Admin Bereich passend auf SSL zu trimmen und einmal, um die internen Verlinkungen, wie sie z.B. bei Thumbnails/Beitragsbildern entstehen, auch noch sauber auf SSL umzuändern.

define(‘FORCE_SSL_ADMIN’, true);
define(‘WP_HOME’,’https://www.seo-klitsche.de’);
define(‘WP_SITEURL’,’https://www.seo-klitsche.de’);

Der Versuch mit der protokollfreien Variante //www.seo-klitsche.de schien zu Beginn auch eine Lösung, aber nur bis zu dem Zeitpunkt, als ich mich wieder einloggen wollte. Denn dann stand ich vor der Tür und kam nicht mehr rein. Ausgesperrt, wie blöd.

Einige Seiten sind aber auch jetzt noch nicht 100% SSL-ifiziert, weil einige alte Bilder mit HTTP im Quellcode eingebettet wurden. Sicher gibt es auch noch ein Plugin dort draußen, das auch dieses Manko ohne zu viel Handarbeit erledigen kann. Das habe ich mir aber geschenkt. Denn eigentlich ist so eine Umstellung für ein popeliges Weblog der reinste Overkill. Die Arbeit das Zertifikat zu ordern, via PLESK zu installieren, dann die Anpassungen vorzunehmen, das Geld fürs Zertifikat, die Suche nach einem SSL Plugin und die .htaccess und Konfigurationsanpassungen, ganz zu Schweigen von der Recherche und den Fehlversuchen. Dann die Geschwindigkeitseinbußen. Und die Verluste beim Tracking der peripheren Seiten.

Auf der Seite der Positiva können Sicherheit und Vertrauen verbucht werden. Sicher sinnvoll für jeden Shop, aber für ein kleines Blog??? Besonders weil m.E. die größeren Gefahren jenseits der Leitungsenden lauern und/oder sitzen 😉

Eine Sache noch zum Schluss. SSL dürfte sich zu einer echten Spammer-Hürde entwickeln. Es kostet einiges an Zeit und Geld, um Spamseiten oder gar Netze auf SSL umzurüsten. Bei den meisten Spamseiten dürfte das den ROI und damit die Motivation der Seitenbetreiber vernichten.

Vor über 11 Jahren habe ich im legendären Suchmaschinentricks Forum zum Google Dance Wettbewerb aufgerufen. Damals musste man als SEO viel Geduld aufbringen, oftmals dauerte es Wochen bis sich die Google Rankings veränderten. Ich habe vorhin mal einen alten Beitrag aus dem Internet Archiv gezogen. Das Forum selber existiert ja leider nicht mehr. Waren das noch Zeiten 😉

google-dance-wettbewerb

Übrigens, der erste Google Dance Wettbewerb fand im Oktober 2002 statt. Gewonnen hatte ihn Matthias Brunner. Die Sieger-Liste existiert heute noch in Form der Hall of Fame. Au Weia, war das ein grottig schönes Design 🙂 Lang ist’s her. Schöne Zeiten waren das. Marcus hat dazu übrigens auf dem KarlsCore Day auch ein paar Worte zu fallen gelassen:

Nachdem Google den Tanz in immer schnelleren Zyklen bewerkstelligte, musste ich nach einer alternativen Wettbewerbsaufgabe suchen. Die ward in Form des PageRank Update Wettbewerbs gefunden. Leider hat sich auch dieser Wettbewerb mit der Zeit verlaufen. Googles PR Update Frequenzen sind extrem schwankend und was noch schlimmer ist, den PageRank juckt fast kein Schwein mehr.

Doch es gibt Hoffnung am Horizont. Der Pinguin hat dem PageRank den Rang abgelaufen, zudem scheint er mit einer gewissen Regelmäßigkeit vorbei zu schauen. Deshalb habe ich mir gedacht, warum es nicht mit einem Pinguin Update Wettbewerb versuchen. Die Regeln sollen dabei denen von vor 10 Jahren entsprechen.

Jeder Teilnehmer gibt in den Kommentaren hier “einen” Tipp für Datum und Uhrzeit des nächsten Pinguin-Updates an. Selbstverständlich vor dem Update. Wer am nächsten dran liegt gewinnt. Sollte es bis zum 31. Mai 2014 kein Pinguin-Update gegeben haben, so wird der Preis unter allen Teilnehmern verlost.

Zu gewinnen gibt es ein Exemplar von Seo auf Deutsch. Das Buch passt gut zum Wettbewerb, weil es einem viele Dinge aus vergangenen Zeiten wieder in Gedächtnis ruft.

Das war’s aber noch nicht. Ich besuche den Gewinner persönlich. Ich lese ihm/ihr eine Passage aus dem Buch vor. Und danach gehen wir gemeinsam essen. Eine Einschränkung möchte ich aber machen. Ins Ausland oder gar bis nach Teneriffa möchte ich dafür nicht anreisen müssen 🙂

Auf geht’s. Es darf getippt werden.

Heutzutage integriert Google verschiedenste Inhalte in die Ergebnislisten. Ohne prägnante Ergänzungen wie Videos, der Autorenverknüpfung und Bewertungssternen wird es immer schwieriger vom Suchenden in den Suchergebnislisten wahrgenommen und angeklickt zu werden.

In einem Artikel von Search Engine Land wurde dieses Thema kürzlich aufgegriffen. In diesem Artikel zeigen wir die Vorteile strukturierter Daten, sowie die Verwendung und Einbindung von Schema.org und dem Data Highlighter von Google. Jeder Webmaster soll die Vorteile erkennen und das Potential nutzen.

Mittels strukturierter Daten können Suchergebnisse, sogenannte Snippets, in den Suchergebnislisten erweitert und somit präsenter für Suchende dargestellt werden. Standardmäßig bestehen Snippets aus dem Seitentitel, der URL und der Meta-Beschreibung.

Bildschirmfoto 2013-11-25 um 17.18.02
Quelle: Google Suche, 11.11.2013

Rich Snippets hingegen beinhalten zusätzliche Informationen wie Videovorschau, Bewertungssterne und andere Elemente. Die drei Snippet Beispiele zeigen die erweiterten Suchergebnis-Anzeigen mit Videos oder Bewertungen. Diese unterscheiden sich klar vom normalen Suchergebnis und sind aufgrund zusätzlicher Informationen deutlich auffälliger.

Bildschirmfoto 2013-11-25 um 17.18.09
Bildschirmfoto 2013-11-25 um 17.18.16
Quelle: Google Suche, 11.11.2013

Aber was sind strukturierte Daten?

Vereinfacht kann man sich strukturierte Daten wie eine Art Tabelle vorstellen. Es gibt Spaltenbezeichnungen (Datentypen) und die jeweils zugeordneten Eigenschaften.

VornameNachnameBerufAlter
MaxMustermannMustermacher30
HansHuberHutmacher59

Diese Strukturierung bringt nicht nur Vorteile für die Suchmaschinen.
Auch Webmaster und Nutzer können profitieren.

Wie kann man davon profitieren?

Google kann Inhalte auf Webseiten crawlen, aber im Erkennen von Zusammenhängen zwischen Wörtern oder Phrasen besteht bei der Suchmaschine noch deutliches Verbesserungspotential. Mit der Strukturierung von Inhalten zeigt man Google, um welche Art von Daten es sich handelt. Außerdem erleichtert man Google das Crawling und verringert die Crawlzeiten, da die Inhalte bereits definiert und zugeordnet wurden.

Einen Vorteil im Ranking bringen strukturierte Daten laut Google jedoch nicht. Da ein Rich Snippet deutlich auffälliger als ein normales Suchergebnis ist, könnte sich möglicherweise auch die Click-Through-Rate erhöhen und somit mehr Besucher auf eine Seite locken.

Bei einer Googlesuche nach “Lichterkette Weihnachtsbaum”, wird einem unter anderem das Snippet von hse24.de angezeigt.

Bildschirmfoto 2013-11-25 um 17.17.43
Bildschirmfoto 2013-11-25 um 17.18.29
Quelle: Google Suche, 11.11.2013

Ein Vergleich dieser zweier Snippets zeigt deutlich, dass das erweiterte Snippet prominenter ist. Es hebt sich klar von anderen Ergebnissen ab.
Welche Möglichkeiten es gibt, Daten auszuzeichnen und wie diese implementiert werden, wird in den nächsten Abschnitten im Detail erläutert.

Seiteninhalte richtig strukturieren – aber wie?

Bevor man beginnt Daten zu markieren, ist es natürlich hilfreich zu wissen, welche strukturierten Daten Google nutzt. Aktuell können unter anderem folgende Inhaltstypen von Google als Rich Snippet(http://de.onpage.org/wiki/Rich_Snippets) angezeigt werden:

  • Rezepte
    Bildschirmfoto 2013-11-25 um 17.18.39
  • Veranstaltungen
    Bildschirmfoto 2013-11-25 um 17.18.43
  • Erfahrungsberichte
    Bildschirmfoto 2013-11-25 um 17.18.48
  • Personen
    Bildschirmfoto 2013-11-25 um 17.18.54

Eine komplette Auflistung aller möglichen Inhaltstypen ist in den Google Webmaster Tools zu finden.

Nun gilt es noch zu klären, wie die Seiteninhalte erweitert werden müssen, um ein Rich Snippet zu erzeugen.

Wie so oft gibt es mehrere Wege, um die Auszeichnung von Daten durchzuführen. Die drei bekanntesten Markup-Formate werden im folgenden an einem kurzen Beispiel veranschaulicht.

ohne Markup:

Bildschirmfoto 2013-11-25 um 17.35.19

Der Codeausschnitt stellt ein normales div-Tag dar. Dieses kann nun mittels der 3 bekanntesten Markup-Formate strukturiert und für Suchmaschinen aufbereitet werden.

Mikrodaten:
Bei der Verwendung von Mikrodaten werden bereits vorhandene HTML Elemente wie class, rel oder rev verwendet. Mikrodaten werden mit am häufigsten genutzt, um Daten für Suchmaschinen strukturiert aufzubereiten.

Bildschirmfoto 2013-11-25 um 17.38.55

Mikroformate:
Auch bei Mikroformaten werden bereits verfügbare HTML Elemente wie span oder div genutzt, um Informationstypen zu definieren.

Bildschirmfoto 2013-11-25 um 17.39.02

RDFa:
RDFa wird von der Organisation W3C empfohlen und dient der Einbettung von Zusatzinformationen in HTML bzw. XHTML Code. Auch hier werden die Elementinformationen von z.B. span oder div umschlossen.

Bildschirmfoto 2013-11-25 um 17.39.14

Da Google die Markup-Formate in Form von Schema.org empfiehlt, soll im folgenden hauptsächlich auf diese Art der Strukturierung eingegangen werden.

Was verbirgt sich hinter Schema.org?

Schema.org ist eine Möglichkeit, Seiteninhalte zu strukturieren und entstand aus
einer Initiative der Suchmaschinen Google, Bing, Yahoo sowie Yandex. Das Resultat war ein einheitliches Vorgehen, um Daten auszuzeichnen. Der große Vorteil von Schema.org ist, dass dieser Standard von mehreren Suchmaschinen unterstützt wird. Es ist also nicht nötig, sich für eine Suchmaschine zu entscheiden.

Ein Beispiel macht den Einsatz von Mikrodaten wohl am einfachsten verständlich.

Zunächst sollten die drei Hauptbestandteile der Auszeichnung erklärt werden:

  • itemscope = leitet die Auszeichnung ein
  • itemtype = definiert, um was es sich handelt (Person, Veranstaltung, Produkt)
  • itemprops = definiert verschiedene Eigenschaften des itemtypes

Eine Unterseite enthält Informationen zu einer Veranstaltung. Die Daten zu diesem Event sollen in den Suchergebnissen als Rich Snippet eingeblendet werden. Um dies zu erreichen, sollten folgende Schritte durchgeführt werden.

Zunächst sieht der HTML Code wie folgt aus.

Bildschirmfoto 2013-11-25 um 17.39.21

Eine Suchmaschine kann so nicht erkennen, dass es sich um eine Veranstaltung handelt, da sie den Zusammenhang der Inhalte nicht deuten kann.

Im ersten Schritt wird der HTML-Code um den itemscope erweitert. Wie oben beschrieben, leitet dieser die Auszeichnung der Daten ein.

Bildschirmfoto 2013-11-25 um 17.44.48

Unterhalb des öffnenden div-Tags stehen nun alle relevanten Daten zu dieser Veranstaltung.

Als nächstes sollte der Datentyp definiert werden. Unter http://schema.org/docs/full.html findet man eine Übersicht aller Datentypen. Nachdem der entsprechende Typ angeklickt wurde, integriert man die URL der sich öffnenden Seite wie folgt in den HTML-Code. In diesem Fall, einer Veranstaltung, handelt es sich um folgende URL:

Bildschirmfoto 2013-11-25 um 17.39.44

Eingefügt sieht der Seitenquellcode folgendermaßen aus:

Bildschirmfoto 2013-11-25 um 17.39.30

Die detaillierten Informationen zur Veranstaltung sollten ebenfalls ausgezeichnet werden. Eine Auflistung aller möglichen Eigenschaften ist immer unter der bei itemprop eingefügten URL zu finden.

Bildschirmfoto 2013-11-25 um 17.46.29

Wie man an gerade gezeigtem Beispiel sieht, erhöht sich die Menge des Quellcodes bereits bei der Auszeichnungen einer Veranstaltung deutlich. Um den Überblick nicht zu verlieren, sollte man den Quellcode nur schrittweise erweitern und regelmäßig die korrekte Anpassung des Codes mit dem Test-Tool für strukturierte Daten von Google überprüfen.

Bildschirmfoto 2013-11-25 um 17.19.09
Quelle: Google Webmaster Tools

Natürlich können mehr als nur Events ausgezeichnet werden. Eine Übersicht welche Datenarten strukturiert werden können, findet man auch unter http://schema.org/docs/full.html.

Andere Markup-Formate werden jedoch ebenfalls von Google unterstützt ( Außerdem werden Funktionsweise und Vorteile des Googleeigenen Data Highlighter beschrieben.

Der Data Highlighter – eine gute Alternative

Eine alternative und einfachere Deklarationsmöglichkeit stellt Google mit dem Data Highlighter zur Verfügung. Die Auszeichnung von Daten ist deutlich einfacher und schneller, als die oben beschriebene Variante mit Schema.org. Mit dem Tool von Google lassen sich auch ohne eingehende Programmierkenntnisse Daten auf der Webseite markieren und einer Datengruppe (Name, Datum, Beschreibung) zuordnen. Es ist lediglich das Markieren und Zuordnen der Daten durchzuführen. Der Data Highlighter versucht ähnliche Daten auf der Webseite zu identifizieren. Auf Wunsch kann man Google anweisen, die hinterlegte Strukturierung auf die komplette Webseite auszuweiten. Es ist jedoch davon abzuraten, sich ausschließlich auf die automatisierte Auszeichnung von Google zu verlassen, da die Markierung teilweise noch nicht optimal funktioniert.

Die Markierung kann in den Google Webmaster Tools angestoßen werden. Über “Darstellung der Suche” und “Data Highligter” kann der Data Highlighter gestartet werden.

Bildschirmfoto 2013-11-25 um 17.19.17
Quelle: Google Webmaster Tools

Nachdem die URL der betroffenen Seite eingetippt wurde, muss noch die Art des Datentyps gewählt werden. Außerdem kann eingestellt werden, ob eine oder mehrere Seiten von der Auszeichnung betroffen sind.

Bildschirmfoto 2013-11-25 um 17.19.21
Quelle: Google Webmaster Tools

Nach dem Bestätigen können die entsprechenden Seiteninhalte markiert werden.

Wie bei Schema.org können auch die mit dem Data Highlighter erweiterten Snippets mit dem Test-Tool für strukturierte Daten getestet und überprüft werden.

Fazit

Ein Großteil der im Web vorhandenen Webseiten nutzt das Potential strukturierter Daten aktuell nur wenig. Da Google immer mehr Wert auf die Strukturierung von Seiteninhalten legt, werden viele Webmaster zukünftig vermutlich nachziehen. Zur Zeit bietet die Auszeichnung von Daten noch die Chance, seinen Mitbewerbern einen Schritt voraus zu sein. Auch das Hummingbird Update von Google zeigt, dass strukturierte Daten in Zukunft noch wichtiger werden. Also ein guter Grund die dafür nötige Zeit zu investieren und sich durch auffällige Snippets abzuheben.

Bild seo concept © kraska – fotolia

Seit es Blogs gibt, wird auch immer wieder die Rede darauf gebracht, dass Google Blogs liebt. Und dem war auch so. Jahrelang kletterten die Blogs die Serps hinauf und sonnten sich an den obersten Positionen. Das sollte auch niemanden verblüffen, Blogsysteme wie WordPress machten fast alles richtig, was die Aufbereitung und Präsentation der Inhalte anging. Seiten und Artikel mit Title-Tags, die Hand in Hand mit passend ausgezeichneten und verlinkten Überschriften sowie einem integrierten Archivsystem daher kommen und für eine gute innere Verlinkung sorgen. Kommentare, Ping- und Trackbacks, die für eine intelligente und einfache Kontaktaufnahme mit Lesern und ändern Blogs und Bloggern sorgten.

Doch irgendwann dürfte es Google zuviel geworden sein. Während ursprünglich Blogroll-Verlinkungen als echte Empfehlungen gelten mussten und entsprechende Wirkung ausstrahlten und Kommentar-Links und Trackbacks die halbe Blogosphäre miteinander verzahnte und so noch mal linktechnisch bevorteilte, muss Google Ende 2008 so langsam die Kehrtwende eingeschlagen haben. Die von Google vorgenommenen Veränderungen waren sicherlich oft von allgemeinerer Art und nicht nur auf Blogs gemünzt, aber wahrscheinlich wurden so mit der Zeit immer mehr Vorteile vergangener Jahre abgebaut oder abgeschwächt. Und wenn dann noch ein sehr linkzentrisches Pinguin Update auf die hochverlinkte Bloglandschaft losgelassen wird, dann hagelt es blaue Briefe und schlägt die einstige Liebe in Hass um.

Hinzu kommt, dass die Blogaktivitäten einstiger Vorkämpfer im Laufe der letzten Jahre deutlich nachgelassen haben und so auch die Frische und die Menge der Artikel immer mehr zu wünschen übrig liess. Ich habe mir mal einstige Größen im Seo Bereich angesehen und bin dann schon etwas erschrocken.

sichtbarkeiten-seoblogger

Mein altes und neues Sos Seo Blog sind mit von der Partie, aber würde ich Jojos intnetmarketing-news.de, Jens seine inhouse-seo.de oder Schnipsels internetende.com mit dazu nehme sähe das Resultat kaum anders aus. Ziemlich deprimierend, Liebe sieht anders aus. Skeptische Stimmen werden jetzt rufen, dass es die Seo Baggage nicht besser verdient hat und an der eigenen Linkinzucht zugrunde gegangen ist.

Um solche Umstände auszuschließen, habe ich mir im zweiten Schritt mal einige Blogs außerhalb der Blogszene angesehen. Mario Sixtus, Sascha Lobo, Robert Basic und Don Alphonso tragen klingende Namen und haben sicher auch nicht wirklich was mit Seo am Hut. Betracht man die Sichtbarkeitsverläufe ihrer Blogs, dann sieht auch diese Entwicklung eher nach Blog-Hass als Liebe aus.

sichtbarkeiten-ablogger

Bestimmt kann man hier noch alle möglichen Gründe für oder gegen solch eine Entwicklung anführen, aber trotz allem scheinen die ganz goldigen Zeiten der Bloggerei zum Zwecke der Google-Besucher Maximierung der Vergangenheit anzugehören. Oder wie seht ihr das?


Update 9.01.2013 – 11:16 Uhr: Aufgrund einiger Kommentare hier noch die Sichtbarkeit der Blogbar. Hochwertiger Inhalt, über 1500 Backlinks. Alter Schwede – und dann solche Rankings.

si-blogbar.de

Entspricht nicht dem was ich erwarten würde. Und ich muss sagen, hier irrt sich Google ganz gewaltig.

Seit gestern gibt es das Google Disavow Links Tool. Disavow bedeutet so viel wie ablehnen, (ab)leugnen, nicht anerkennen. Das Tool ist Bestandteil der Google Webmaster Tools (Login erforderlich) und kann dazu genutzt werden, böse bzw mißliebige Links aus dem Backlinkprofil der eigenen Website zu entfernen. Wobei das Disavowen / Ablehnen eines Links nicht zwingend zur Entwertung des Links führen muss, Google behält sich vor, das Mißtrauensvotum auch mal zu ignorieren, falls man anderer Meinung ist. Hierbei verhält es sich ähnlich wie beim Canonical Tag, bei dem Google auch schon erklärte, man würde entsprechende Einträge als starke Empfehlung verstehen, im Falle von offensichtlichen Fehlern aber nach eigenem Wissen und Gewissen vorgehen.

Damit hat Google nachgezogen, Suchmaschinenkonkurrent Bing hatte schon Ende Juni 2012 ein entsprechendes disavow Tool im Rahmen seiner Webmastertools veröffentlicht. Dummerweise hat das hier in Deutschland kaum einen Menschen geschweige denn SEO interessiert, zu dominant ist Googles Marktmacht hierzulande. Jetzt endlich ist das heiss ersehnte Tool auf den Markt gekommen. Gerade die schwer geplagten Pinguin Opfer werden es mit Erleichterung vernehmen, war doch der Abbau vieler fragwürdiger Links unglaublich zeitintensiv und oftmals nicht von Erfolg gekrönt.

Doch Obacht, Meister Cutts warnt vor unbedachter Nutzung des neuen Tools. Erstens ist es nur was für erfahrenere Webmaster, die wissen was sie tun und zweitens sollte disavow eher dann zum Einsatz kommen, wenn die mißliebigen Links auf klassische Art und Weise nicht entfernt werden konnten. Weitere Infos zum Thema gibts beim Martin, der sich auch die Mühe gemacht hat, wichtige Passagen von Googles disavow Verlautbarung ins Deutsche zu übersetzen.

Ich bin ehrlich gesagt am meisten darauf gespannt zu sehen, was für Mißbrauchsfälle auf uns zukommen werden. Es wäre durchaus denkbar, dass Google die abgewerteten Links sammelt und zur Spamerkennung einsetzt. Im Prinzip wäre das eine Art von Crowdsourcing, wir alle würden Google beim Sammeln und Klassifizieren von Spamlinks unterstützen. Solange das “ehrlich” abgeht, wäre das eine im wahrsten Sinne des Wortes unbezahlbare Hilfe. Es kann aber nicht ausgeschlossen werden, dass in solch einem Fall bösartige Zeitgenossen versuchen werden, gute Links der Konkurrenz in Misskredit zu bringen. Dann müsste Google auch hier eine Trustkomponente mit in die Accounts einbauen.

Desweiteren gibt man durch die Nutzung des Disavow Tools Google einen klaren Hinweis darauf, dass man nicht nur so nebenbei Seo und Linkbuilding betreibt. Google könnte die Info also auch gegen einen selber verwenden und den Account oder entsprechend damit verbundene Webseiten als seogetrieben klassifizieren. Ein Grund mehr also, vorher seine Hausaufgaben zu machen und nur im Notfall auf das Disavow Link Tool zurück zu greifen.

Am 19.07.2012 gab es für die Website eines Kunden eine Benachrichtigung von den Google Webmaster-Tools über unnatürliche Links mit folgendem Wortlaut:

Sehr geehrter Inhaber oder Webmaster von xxx, [Anmerkung der Redaktion, aus nicht schwer nachvollziehbaren Gründen wurde der Link entfernt.]

Wir haben festgestellt, dass auf einigen Seiten Ihrer Website eventuell Techniken verwendet werden, die gegen die Webmaster-Richtlinien von Google verstoßen. [Wie nun, auf der Website selber? Klingt ja eher so, als ginge es um die eigenen Inhalte.]

Suchen Sie insbesondere nach möglicherweise künstlichen oder unnatürlichen Links, die auf Ihre Website verweisen und zur Manipulation von PageRank dienen könnten. Zur unnatürlichen Verlinkung können beispielsweise gekaufte Links, die PageRank weitergeben, oder die Teilnahme an Textlink-Börsen gehören. [Das wiederum klingt sehr nach externen Komponenten.]

Wir empfehlen Ihnen, Ihre Website entsprechend unseren Qualitätsrichtlinien zu bearbeiten. Nachdem Sie die Änderungen vorgenommen haben, stellen Sie einen Antrag auf erneute Überprüfung Ihrer Website. [Wieso erneute Überprüfung. Es gab doch vorher noch nie einen Reconsideration Request für die Website. Sehr ihr das vielleicht zu sehr durch die eigene Brille?]

Sollten Sie unnatürliche Links zu Ihrer Website finden, die Sie nicht steuern oder entfernen können, fügen Sie in Ihrem Antrag auf erneute Überprüfung entsprechende Angaben hinzu. [Das sind doch sowieso die Links, die man heutzutage nicht mehr haben möchte. Weil in einem alten Gästebuch vergraben, in einem Spamblog versackt oder von einem Konkurrenten verxrumert. Die Links solltet ihr selbst schon längst erkannt und entwertet haben.]

Falls Sie weitere Fragen zur Lösung dieses Problems haben, besuchen Sie das Webmaster-Hilfeforum. [Darf man da auf klare und konkrete Hinweise gespannt sein. Oder wird das auch so ein Wische-Waschi Geblubbere wie in den GWTs]

Mit freundlichen Grüßen

Ihr Google Search Quality Team

Was meines Erachtens schon für die erste Irritation sorgt, ist diese Zeile: “Wir haben festgestellt, dass auf einigen Seiten Ihrer Website eventuell Techniken verwendet werden”. Das klingt ja eher nach Onpage-Problem. Zumal der Mail-Titel “unnatürliche Links, die auf xxx gefunden wurden” ähnliches vermuten lassen. Wahrscheinlich handelt sich aber eher um eine schlechte Übersetzung. Und das wäre peinlich bis ärgerlich, weil es die Leute nur noch zusätzlich verunsichert.

Da lobe ich mir doch die englischen Mails, die sind da deutlich präziser. Diese hier schneite dann am 23.07.2012 ins GWT-Postfach.

xxx: Unnatural inbound links July 23, 2012

We’ve detected that some of the links pointing to your site are using techniques outside Google’s Webmaster Guidelines.

We don’t want to put any trust in links that are artificial or unnatural. We recommend removing any unnatural links to your site. However, we do realize that some links are outside of your control. As a result, for this specific incident we are taking very targeted action on the unnatural links instead of your site as a whole. If you are able to remove any of the links, please submit a reconsideration request, including the actions that you took.

If you have any questions, please visit our Webmaster Help Forum.

Das ist doch viel schöner so. Von “inbound links” und “links pointing to your site” ist die Rede. Hier sind Missverständnisse ausgeschlossen. Liebes Google Search Quality Team, bitte in Zukunft nur noch Warnmails in englischer Sprache. Die beherrscht ihr besser 😉

Man kann sich die englische Mail intern auch übersetzen lassen, aber dann würde wohl niemand mehr die Nachricht für voll nehmen:

Wir haben festgestellt, dass einige der Links, die auf Ihrer Website werden mit Hilfe von Techniken außerhalb Googles Richtlinien für Webmaster . Wir wollen nicht, Vertrauen in Links, die künstlich oder unnatürlich sind gestellt. Wir empfehlen, keine unnatürliche Links zu Ihrer Website. Aber wir wissen, dass einige Links außerhalb Ihrer Kontrolle sind. Als Ergebnis für diesen speziellen Vorfall nehmen wir sehr gezielte Wirkung auf die unnatürliche Verknüpfungen statt Ihrer Website als Ganzes. Wenn Sie in der Lage, einen der Links zu entfernen sind, reichen Sie bitte einen Antrag auf erneute Überprüfung , einschließlich der Aktionen, die Sie übernahm. Wenn Sie irgendwelche Fragen haben, besuchen Sie bitte unsere Webmaster-Forum .

Genau, besser hätte ich es auch nicht ausdrücken können.

In den letzten Wochen und Monaten wurde der Klickraten-Vorteil durch Sternchenbewertungen von vielen SEOs heiß diskutiert. Seit der öffentlichen Anprangerung durch Arthur ist das Thema auch in öffentlichen Blogs und Foren. Ich zeige euch in diesem Artikel, wie ihr solche Bewertungen ganz einfach in eure WordPress-Artikel einbinden könnt.

Nachtrag: Bitte auch die Kommentare unter diesem Artikel bezüglich Manipulation durch Mitbewerber und Integration direkt ins Template (ohne Shortcode in jedem Beitrag) beachten.

Focus.de mit Sternen in den Google SERP für Tagesgeld.

Focus.de mit Sternen in den Google SERP für Tagesgeld

Weiterlesen

Panda UpdateSo, da haben wir den Salat. Das lange angekündigte Panda Update ist jetzt auch in Deutschland angekommen. So zu lesen seit heute Mittag auf den Seiten der Google Webmasterzentrale. Nachdem im April 2011 das internationale Panda Update nur gegen englischsprachige Webseiten gerichtet war, erfolgte jetzt also ein weltweiter Panda Rollout. Damit ist Panda endlich auch in Deutschland angekommen. Noch sind die Gewinner und Verlierer des Updates nicht klar zu erkennen, die Tool- und Statistik-Experten von Sistrix und Searchmetrix sind aber schon schwer zugange die neuen Daten zu erheben.

Sehe gerade, Sistrix ist mit seiner Panda Meldung soeben rausgekommen und verkündet die ersten Verlierer. Demnach hat es Seiten wie Kelkoo, Wikio, Webnews, Suite101, Helpster, Yasni, 123People, Dooyoo oder Ciao erwischt, dagegen scheint Idealo als einer der Gewinner aus dem Panda Wettstreit hervor zu gehen. Die Infos sind sicher noch mit der heißen Nadel gestrickt und nicht vollständig, morgen solls dann für alle Sistrix User klarer werden. Johannes spielt die neuen Daten morgen in die Sixtrix Toolbox ein, zudem können weitere Infos per eMail bezogen werden.

Über die Ergebnisse wird sicher noch in Wochen diskutiert. Google nimmt auch Kollateralschäden in Kauf, wenns der guten Sache dient. Letztendlich sind einige der Opfer ja nicht wirklich qualitativ weit daneben. Google versucht mit dem Panda-Update halt für mehr Qualität durch Diversifikation zu sorgen. Es bedarf keiner 8 Preisvergleicher auf der ersten Suchergebnisseite, ergo wird bei den Preisvergleichern die Schere angesetzt und zugeschnitten. Die in Pandas Augen “qualitativ besten” überleben, der Rest wird abgeschossen. Ähnlich wie bei den Preisvergleichern werden auch die News- und Artikel-Produzenten, die Namen- und Datensammler, die Frage- und Antwort-Geber durchgesiebt und abgeschüttelt. Der Qualität des Google Index dürfte das zugute kommen, einigen Geschäftsmodellen aber das Genick brechen. Der Panda ist nämlich lange nicht so harmlos und ungefährlich wie er aussieht. Er vernichtet nicht nur fragwürdige virtuelle Inhalte, er vernichtet auch reale Existenzen. Wollen wir hoffen, dass die Google-Experten auch wirklich sorgfältige und gute Arbeit geleistet haben.

Autsch, wie ich diese Meldungen hasse. Google Plus ist noch nicht richtig draußen, da kommen schon die ersten statistikunterlegten Unkenrufe. Ist Google Plus nur ein Strohfeuer? Der Traffic von Google Plus scheint zu sinken. Auslöser der negativen Berichterstattung ist eine Untersuchung von Hitwise die belegen soll, dass Googles Zugriffszahlen für den neuen Service mittlerweile minus anstatt plus sind. (Übrigens, das Cover-Foto vom Feuerdrachen gibt es hier in noch höher Auflösung und stelle ich hiermit für die allgemeine Nutzung euch allen zur Verfügung.)

Hitwise selber finde ich ganz spannend als Datenlieferant, die haben in der Vergangenheit auch einige interessante Trends und Entwicklungen analysiert und ausgemacht. Doch wie immer wenn es um Statistiken geht, man muss sie auch interpretieren können. Ganz zu Schweigen von den Manipulationsmöglichkeiten die man im Rahmen statistischer Auswertungen hat. Maßstab, Skalierung und/oder gewählter Ausschnitt machen hier den Unterschied. Und manchmal sind die Daten die man “nicht” erhebt bzw anzeigt von entscheidender Bedeutung. In Fall der Google Plus Untersuchung mag da zwar wenig geschoben worden zu sein, ich stelle mir aber dennoch die Frage, wie diese Kurven damals bei Twitter und Facebook ausgesehen haben mögen.

Bei Google Plus kommt erschwerend hinzu, dass der Dienst nur über Einladungen zugänglich gemacht wird und die Kapazitäten gedrosselt werden. Wen wundern insofern die leicht zurückgegangenen Besucherzahlen? Als der erste Schwung User auf den Dienst losgelassen wurde, waren die natürlich erst mal schwer aktiv. Der Reiz des Neuen, die Lernkurve im Umgang mit dem Dienst und die ersten Testballons haben natürlich für anfängliche Hyperaktivität gesorgt. Wenn ich einen dicken Stein ins Wasser werfe, dann schmeisst der halt am Anfang eine große Welle, danach ebbt die Sache langsam ab 😉 Es greift die Gewöhnung.

Ich bin aber fest davon überzeugt, dass Google Plus kein Strohfeuer ist. Twitter dürfte es so langsam heiß werden, da brennt das Feuer immer heller. Denn Google Plus greift von seinen Funktionalitäten erst einmal Twitter an, Facebook kommt erst eine Stufe später. Wenn Google dann aber auch noch Firmen & Fan-Pages integriert, wirds langsam auch für Facebook wärmer. Es ist auch durchaus Platz für zwei, Google als auch Facebook könnten gut und gerne nebeneinander existieren, aber beim dritten Platz in der Mitte, da wo heute noch Twitter zwitschert, da wirds immer enger.

Update: Aus aktuellem Anlass noch ein Nachtrag. Der fehlende Edit Button bei Twitter und Facebook nervt. Hier sehe ich einen entscheidenden Vorteil von Google gegenüber seinen beiden Konkurrenten. Twitter und Facebook kommen mir vor wie eine Patchwork-Sammlung. Hier mal was drangebaut, da mal was gefrickelt. Twitter hat zudem viel zu wenig an Entwicklungen nachgereicht. Google kann einige Dinge wahrscheinlich viel leichter umsetzen als die beiden Konkurrenten, weil die Architektur und Struktur von Hard- und Software fortschrittlicher angelegt zu seien scheint. Vorsprung durch Innovation sozusagen 🙂