Google hat in der letzten Woche seine Trends in den Google Labs um den Punkt Websites erweitert.
Damit rückt Google neben Alexa, Compete, Comscore, Quantcast und Co nun auch in den Markt der unabhängigen Reichweitenmessung vor.
Nach ersten Tests scheint mir der Dienst bisher noch ein wenig unausgereift. Ein Blick auf unser Portfolio zeigt, dass
sowohl die Unique Visits (nur eingeloggt sichtbar) deutlich unter unsere Daten liegen, aber auch auch der generelle Trend häufig in die falsche Richtung geht. Wie bei Alexa auch schon darf man vorallem die Daten von kleineren Websites nichts zu ernst nehmen und sollte bei der Konkurrenz-Analyse besser bei einer thematischen Ausrichtung bleiben und nicht etwa Newsportale mit Communities vergleichen.
Ansonsten noch sehr interessant – und zumindest für mich neu – ist die Einsicht in alternative Suchabfragen und ebenfalls besuchte Webseiten. So könnte man z.B. sehr schön herausfinden, ob und welche Kooperationen sich lohnen könnten.
Nachdem die meisten der oben genannten Anbieter für deutsche Reichweitenmessung eher unbrauchbar sind, ist die neue Funktionalität für hiesige Webmaster auf jeden Fall eine Bereicherung – und so wie man Google kennt, auch noch lange nicht fertig entwickelt.
Das dies ein langer und schwieriger Weg ist, weiß Fred Wilson als Boardmember von Comscore aus eigener Erfahrung. Mit seinem *hust* etwas representativeren *hust* Portfolio hat er international ähnliche Erfahrungen wie wir gemacht. Auch bei ihm gingen die Daten im Vergleich zu den Platzhirschen häufig in die falsche Richtung. Wobei man verteidigend auch sagen muss, dass gerade die Genauigkeit von Compete und Quantcast im US amerikanischen Raum aufgrund der lokalen ISP Daten international auch ihre große Schwäche darstellt. So sind diese Dienste für eropäische Erhebungen nahezu nutzlos.
Für mich war eine Mischung der verschiedenen Dienste immer ein interessanter Ansatz, Quantcast und Compete liefern für nordamerikanische Haushalte erstaunlich genaue Daten, Alexa und Google haben die weltweite Masse um diese in Relativität zu setzen. So kann man z.B. die 58 bzw. 65 Millionen (Compete/ Quantcast) US User von youtube mit der geografischen Verteilung von Alexa multiplizieren. Laut Alexa kommen 25,8% der User von Youtube aus den USA, 4,6% aus Deutschland. Bei groben 60 Millionen eindeutigen Besuchern im Mai aus den USA , hat Youtube weltweit also geschätzte 232,5 Millionen Uniques und ca. 10,7 Millionen davon in Deutschland.
Von Google selbst bekommt man übrigens keine Angaben zu Youtube oder anderen Projekten des Unternehmens, so sind neben Youtube oder Blogger.com auch Daten zu Google selbst nicht abrufbar. Gemäß Google Operating System handelt es sich um eine interne Richtlinie:
„We have policy of not providing interim financial guidance, and have decided not to release Google numbers in accordance with that policy.“
Ob dies nun der ausschlaggebende Grund ist, oder die eigenen Daten schlicht und einfach die ganze Reichweitenmessung verzerren würden bleibt vorerst ein Geheimnis. Bisher ist anzunehmen, dass bei der Erhebung vorallem die Google Toolbars zum Einsatz kommen, und der Dienst somit Alexa am ähnlichsten ist.
Unterm Strich gilt jedoch weiterhin: „Traue keine Statistik, die du nicht selber gefälscht hast“ oder wie Tom Melcher richtig hervorhebt, sind gerade die primitiveren Dienste wie Alexa leicht fakebar und somit mit Vorsicht zu genießen:
As it turns out, there are many firms you can hire to increase your rankings. Their algorithms are quite sophisticated – you can say things like “I’m currently number 35,000 globally and 6,000 in China. Within China I want to get to the top 1,000, and within the top 10,000 globally, but do it over 3 months so it doesn’t look fake.”
In China wird so gerne auch mal die due dilligence oder das Mediakit etwas auf- oder besser gesagt interpoliert.
Wie gut, dass wir im schönen Deutschland sind ;-)
Ich vermute, dass auch die Klick auf Suchergebnisse einen wesentlichen Teil zu den Statistiken beitragen und nicht nur die Toolbar.
Langfristig sehe ich Googles Vorteil (z.B. gegenüber Alexa) gerade in dem Datenmix:
Google kann zurückgreifen auf Daten aus:
– Klicks auf Suchergebnisse
– Daten von Analytics-Nutzern
– Toolbar
– u. a.
Das hatte ich am Anfang auch vermutet, wenn man sich aber mal Seiten wie z.B. justsayhi.com anschaut, die komplett aus dem Index geschmissen wurden, erkennt man gegenüber den anderen System keinen stärkeren Abfall. Würden die Ergebnisse vom Google Traffic abhängen wäre dies sicherlich deutlich prägnanter.
Analytics schließe ich momentan eher aus, da
a) die Ergebnisse dafür zu sehr von unseren tatsächlichen Daten abwichen
b) Google sicherlich (auch nicht indirekt) solche private Daten in öffentliche Tools einfließen lassen würden.
Danke für die qualifizierte Antwort!
Für meine Vermutung, dass in den Datenpool (auch) Suchvorgänge und Ergebnisklicks miteinfließen, spricht allerdings folgende Aussage, die ich bei Google gefunden habe:
„Our graphs are based on aggregated data from millions of searches done on Google over time.“ (http://www.google.com/intl/en/trends/about.html#19)
Das Argument der von Google gebannten Seiten (Bsp. justsayhi.com) hat seine Berechtigung. Dazu aber drei Punkte:
1. Google normalisiert starke Ausschläge.
2. Es ist ja gerade der Datenmix! So könnte ein Algorithmus starke Ausschäge bei Ergebnisklicks ignorieren, die stark von den Toolbarwerten abweichen.
3. Etliche Leute (mehr als man gemeinhin denkt), geben URLs nicht direkt in die Adresszeile, sondern bei Google ein (=> Daten für Google).
Viele Grüße,
Benjamin