Der Domainhandel boomt! Wer heute ein Business startet und nach freien Domains mit sprechenden Namen sucht, muss teilweise viel Geduld mitbringen. Insbesondere bei ccTLDs (country code Top Level Domains) scheint der Markt teilweise vollständig abgegrast. In Deutschland sind bereits knapp 16 Mio. DE Domains registriert. Nach China mit .CN ist die DE-Domain die erfolgreichste Länder-Domain der Welt. Kein Wunder das gute Domainnamen heiß begehrt sind und teuer gehandelt werden. Der Markt ist dabei hoch spekulativ geworden und die Preise orientieren sich meist eher an den Träumen und Wünschen der Verkäufer als an objektiven Kennzahlen. Vielleicht auch ein Grund dafür, dass von den (angeblich) 10 teuersten Domainverkäufen in 2014 gerade mal zwei Domains wirklich projektiert sind. Domains also als spekulative Wertanlage? Definitiv ja. Gute Domainnamen können sich nicht abnutzen und werden tendenziell immer teurer werden. Im Vergleich zu anderen Wertanlageformen ist auch der Unterhalt mit ein paar € pro Jahr an Domainkosten sehr vertretbar. Wer mehr aus seiner Domain holen will kann aber auch proaktiv deren Wert steigern. Projektierte Domains mit soliden Suchmaschinenrankings heben den Wert noch einmal deutlich an. Zumal man sog. EMD (Excact-Match-Domains) also Domains wo die typische Suchphrase identisch mit Domainnamen ist („Auskunft“ -> „Auskunft.de“) nachsagt(e) schon fast automatisch bei dem jeweiligen Begriff Top zu ranken. Zwar veröffentlichte Google im September 2012 das sog. EMD Update um das teils abstruse Ranken von EMDs (mit wenig und billigem Content) ein wenig einzudämmen, jedoch wird eine EMD auch heute noch, bei entsprechend qualitativen Rahmenbedingungen, alleine durch die höhere CTR beim Google-Snippet es leichter haben, sich zu positionieren. Die Jagd und der Handel mit Excact Match Domains geht damit munter weiter!

Tipps zum Finden guter und freier .DE Domains

Wer heute versucht ohne irgendwelche Hilfswerkzeuge gute sprechende Domains zu finden steht meist auf verlorenem Posten da. Die Zeiten wo man mit einem Wörterbuch bewaffnet Domains registrieren konnte sind lange vorbei. Schon längst haben professionelle Domain-Grabber ganze Wörterbücher und Synonymdatenbanken automatisiert weg registriert. Wie man trotzdem noch die ein oder andere freie Perle entdecken kann zeigt das folgende Beispiel.

SEM-Tool in Kombination mit der Chrome-Extension „EMD Scanner“

Unter SEM-Tool.com findet sich ein kostenlos verfügbares Keyword Recherche Tool. Ähnlich wie andere Tools dieser Art – z.B. Ubersuggest, Keywordtool.io oder soovle – handelt es sich um einen sog. Suggest / Autocompletion Scraper. Auf Basis des Vorschlagssystems einer Suchmaschine werden hier für das gewünschte Keyword verschiedene Kombination abgefragt, um möglichst viele artverwandte Suchanfragen zu generieren.

Beispiel: „wasserkocher“

wasserkocher.keys

Beim SEM-Tool werden dabei die Ergebnisse von verschiedenen Suchmaschinen wie Google, Bing, YouTube oder aber auch Amazon zusammen aggregiert. Dadurch entstehen umfangreiche Listen von Keyword Vorschlägen, die Aufgrund der verschiedenen Quellen auch aus unterschiedlicher Suchintention heraus entstanden sind. Alle Ergebnisse können zusätzlich mit weiteren Kennzahlen wie Häufigkeit des Keywords, Suchtreffer, CPC, Suchvolumen oder Anzahl der verschiedenen Werbeanzeigen angereichert werden. Für die reine Keyword Recherche schon ein sehr mächtiges Tool!

Als verstecke Ergänzung gibt es speziell für Domainjäger noch eine kleine Chrome-Extension – den EMD Scanner.

EMD-Scanner
Installierbar über: https://chrome.google.com/webstore/detail/emd-scanner/mchjdjdnfgcnmkaipccibilnaehbiomc

Diese Extension prüft beim Klick auf das EMD Scanner Icon für jede Ergebnisliste (sofern CPC & Suchvolumen aktiviert ist), ob das jeweilige Keyword als .DE Domain verfügbar ist. Die Prüfung erfolgt dabei über eine schnelle DNS Rekord Abfrage (A/MX) so dass die Ergebnisse schon nach wenigen Sekunden verfügbar sind.

wasserkocher_emd_scan

Um bei der möglichen Auswahl der freien Domains die Spreu vom Weizen zu trennen muss nun überprüft werden welches Potenzial der jeweilige Domainname hat. Um den Marktwert einer Exact Match Domain bewerten zu können haben sich die folgenden vier Kennzahlen als gute „erst Indikatoren“ herausgestellt:

Suchvolumen
(Durchschnittliche Anzahl der Suchanfragen nach genau diesem Keyword pro Monat bei Google. Quelle der Information ist der Google AdPlanner)
Klickpreis
(Googles Schätzung was ein Werbetreibender für die Schaltung einer Anzeige als Klickpreis bieten sollte. Der Wert ist eine Schätzung die tatsächlichen Kosten können teils signifikant abweichen.)
Anzahl Treffer
(Suchergebnisse in der Suchmaschine)
Anzahl der Werbeanzeigen
(Wie viele Werbetreibende schalten Werbeanzeigen bei diesem Suchbegriff)
In diesem Beispiel zum Keyword „Wasserkocher“ meldet der SEM-Tool EMD Scanner die freie Domain „Wasserkocher-retro.de“.

Mit einem monatlichen Suchvolumen von 9900, einem Klickpreis von 0,61 € sowie einer hohen Anzahl von gefunden Werbeanzeigen (9) haben wir hier eine nicht gänzlich uninteressante Domain für einen Domainhändler, Wasserkocher Hersteller oder SEO / Affiliate. Allein wenn man für seine gut 3,- € Domainkosten Investment diese Domain innerhalb eines Jahres zu einem durchaus realistischen Mindestpreis von 50,- € verkauft liegt der Gewinn bei mehr als 1500%.

Eine Website besteht aus vielen Einzelseiten. Je älter sie ist und je umfangreicher, umso komplizierter wird es, Zahl und Struktur aller Seiten im Auge zu behalten und Probleme darin zu finden. Technisch gesehen, erzeugt sogar jeder verwendete URL-Parameter in Kombination mit seinem Wert eine neue Seite. Gerade, wenn es dann darum geht, Stolpersteine aufzudecken und Optimierungen durchzuführen, hilft Handarbeit in Form von manuellen Analysen vielfach nicht weiter.

Gleichzeitig verlangt eine verstärkte Tendenz hin zu mobil verwendbaren Websites eine Beachtung aller möglichen Fallstricke, die die Ladezeiten von Seiten negativ beeinflussen. Nachdem nun die Telekom eine Datendrosselung ihrer DSL-Anschlüsse eingeführt hat, ist selbst die großflächige Verfügbarkeit schneller Internetverbindungen keine Ausrede mehr für langsame Websites – ganz abgesehen davon, dass Suchmaschinen wie Google ganz offiziell schnelle Websites bevorzugen.

Fragen zu diesem Thema laufen mir im SEO-Alltag deshalb regelmäßig über den Weg. Schließlich ist die technische Optimierung der eigenen Website einer der drei Grundpfeiler für die Optimierung – und vor allem etwas, was der Websitebetreiber i.d.R. selbst in der Hand hat. Zentrales Element technischer Analysen sind für mich nach wie vor eigene Crawls der Kundenwebsites. So finde ich relativ schnell Probleme, mit denen auch Suchmaschinencrawler auf diesen Websites konfrontiert werden.

Bekannte Tools, denen jeder SEOler regelmäßig begegnet, sind Xenu’s Link Sleuth, Microsofts IIS SEO Toolkit oder der Screaming Frog – alle kostenfrei oder sehr günstig verfügbar und für den alltäglichen Gebrauch durchaus hilfreich. Dennoch haben alle drei ihre speziellen Anforderungen und natürlich ihre Grenzen. Gerade bei extrem umfangreichen Websites begeben wir uns hier regelmäßig an das Limit der Möglichkeiten. Ich war deshalb sehr froh, dass ich kürzlich die Gelegenheit bekam, ein noch recht junges Tool zu testen, dessen Entwickler sich zum Ziel gesetzt haben, genau diese Grenzen nicht zuzulassen: strucr.com.

Grundsätzlich ist strucr.com in vier Varianten verfügbar. Eine kostenfreie Schnupperversion taugt zum Kennenlernen und erlaubt das Analysieren kleiner privater Websites. Geht es um eine Erweiterung des Umfangs sind nach oben fast keine Grenzen gesetzt:

Die unterschiedlichen Pakete von strucr.com

Dabei zielt strucr.com ganz klar auf den Einsatz im Enterprise-Bereich. Sämtliche Daten, die der Crawler erhebt, sind via API abrufbar und können so in eigene Tools und Auswertungen integriert und mit Daten aus anderen Anwendungen kombiniert werden. Ganz klar, dass die Entwickler von strucr.com deshalb enorme Anforderungen an die Qualität der Daten stellen. Bugs und Fehler dürfen hier einfach nicht passieren und müssen – sollten sie doch einmal auftreten – in kürzester Zeit behoben werden. Zur Qualitätssicherung muss der Crawler regelmäßige Tests gegen seine eigenen Bugs und natürlich seine Mitbewerber bestehen. Nach eigenen Aussagen, schaffen alternative Crawler gerade mal 65% dieser Tests.

Gleichzeitig liefert strucr.com den Großteil seiner Daten in absoluter Rohform und versucht Interpretationen weitestgehend zu vermeiden. Gegenüber einigen Wettbewerbern wirkt das zwar relativ plump und nicht so „hübsch“, hat aber den großen Vorteil, dass die Auswertung der Daten dem Kunden selbst überlassen bleibt, was gerade bei Verwendung der API sehr vorteilhaft ist. So können die gefunden Fehler im Kontext der Website selbst interpretiert werden. Es gibt einfach „Fehler“, die durchaus ihre Daseinsberechtigung haben. So kann beispielsweise eine große Anzahl an Seiten mit dem Meta-Tag robots=“noindex,nofollow“ für einen Shop typisch sein und sollte deshalb nicht zwangsläufig als negativ bewertet werden. Für ganz konkrete Fragestellungen oder zur Behebung komplexer Probleme sind die Entwickler hinter strucr.com übrigens auch gern bereit, weitere Features in ihren Crawler zu integrieren oder mit sehr speziellen Parametern zu crawlen.

Technisch steht hinter dem Tool eine solide IT-Infrastruktur, die bei dem Umfang der erhobenen Daten aber auch notwendig ist. Wer einmal versucht hat, die Website eines Onlineshops mit 200.000 Produkten und zahllosen Parametern (z.B. SessionIDs) mit einem der herkömmlichen Tools zu crawlen, wird – einen leistungsstarken PC vorausgesetzt – nach spätestens 12 Stunden verzweifelt sein. Im Agenturalltag passiert es mir in solchen Fällen nicht selten, dass zwischendurch entweder die IT des Kunden meine IP-Adresse blockiert oder mein Telefon klingelt und es Beschwerden hagelt. Im Gegensatz zu herkömmlichen Tools läuft strucr.com hingegen auf einem eigenen Server. Die Geschwindigkeit des Crawlvorgangs kann individuell abgestimmt werden. Um Einbrüche bei der Performance der gecrawlten Website zu vermeiden, kann und muss der Crawl daher mit der zuständigen IT-Abteilung abgestimmt werden.

Schauen wir uns aber mal die Auswertung, die strucr.com standardmäßig für einen Crawl liefert, beispielhaft anhand der Website eines relativ großen deutschen Reiseanbieters an. Die Basisfeatures verstehen sich fast von selbst und sind schnell erklärt:

  • Anzeige beim Crawl gefundener Fehler mit konkreter Fehlerangabe, URL und Ladezeit
  • Anzahl der gecrawlten Seiten, gefundenen Links und Ebenen, in denen die Seiten strukturell organisiert sind
  • Anzahl der Seiten sortiert nach Typ (z.B. Nofollow, External) und http-Status (z.B. 301/302-Weiterleitungen, 404-Fehler)
  • Gecrawlte Domains und Subdomains (intern und extern) mit Anzahl eingehender und ausgehender Links
  • Anzahl eingehender und ausgehender Links pro gecrawlter Seite

Darüber hinaus erhebt strucr.com weitere Daten und Reports, die im Hinblick auf eine umfassende Websiteoptimierung extrem hilfreich sind:

Seiten nach Ladezeit

Während des Crawls werden die reinen HTML Response Times der Seiten gemessen und aufgezeichnet. So lassen sich schnell Probleme bei der Seitengröße identifizieren und damit die Seiten gezielt auf Geschwindigkeit optimieren.

Aufschlüsselung der Seiten nach Antwortzeiten

Mein Crawl zeigt mir beispielsweise auf den ersten Blick, dass meine Website bei den Ladezeiten zwar schon ein ganz gutes Bild abgibt, ich aber gerade im 200-300ms-Bereich noch einige Ausreißer habe, die ich mir einmal ansehen sollte. Ein Klick auf den Eintrag liefert detaillierte Informationen zu den Seiten, um die es sich dabei handelt. Offensichtlich sind dies Seiten, bei deren Bereitstellung im CMS viele verschiedene Informationen, wie z.B. Buchungszeitraum, Verfügbarkeit, Anzahl der Personen usw., berücksichtigt werden. Das sollte ich mir mal näher anschauen und eventuell die Zahl der Abfragen verringern. Hier ist es übrigens gut, dass strucr.com die Daten nicht interpretiert, denn ich weiß ebenso, dass es sich um Seiten handelt, die ich mit „noindex, nofollow“ markiert habe. Diese Aufgabe hat für mich aus SEO-Sicht deshalb keine hohe Priorität. Im Hinblick auf Usability und User Experience hingegen, sollte ich hier bei Gelegenheit trotzdem aktiv werden.

Seiten mit Anmerkungen

In dieser Übersicht liefert strucr.com eine Liste mit Anmerkungen zu meinen Seiten und die Zahl der Seiten, die zum jeweiligen Kriterium passen.

Seiten aufgeschlüsselt nach Hinweisen

Die für mich aus SEO-Sicht besonders interessanten Hinweise habe ich gelb markiert. Hier sollte ich mir vor allem die Page Titles, Metadaten und Alt-Attribute anschauen, um meine Keywords besser einzusetzen und in den Suchergebnissen besser dazustehen. Gleichzeitig kann ich durch Auslagerung von CSS und Skripten sowie Größenangaben bei den Bildern bessere Ladezeiten bei meinen Seiten erreichen. Und nicht zuletzt sollte ich mir auch meine URL-Struktur einmal anschauen. Welche Fälle das genau betrifft, kann ich mir in diesem Report mit einem weiteren Klick auflisten lassen und zum Beispiel als Excel-Datei exportieren, die ich dann gezielt abarbeite. So brauche ich nur die Seiten anzufassen, die es wirklich betrifft.

Seiten und Content nach Level

Wie weit müssen Nutzer von der Startseite bis zu meinen wichtigsten Seiten bzw. meinem wichtigsten Content klicken? Diese Frage ist im Hinblick auf Usability und User Experience extrem wichtig, denn „verstecke“ ich meine wichtigsten Inhalte zu tief innerhalb meiner Websitestruktur, sind sie unter Umständen nicht auffindbar und bleiben deshalb unbeachtet.

Crawlbare Seiten nach Ebenen

Alle Urls nach Ebenen

Hier gibt es bei meiner Website nichts zu bemängeln. Nutzer werden auf den ersten Ebenen nicht mit Inhalten erschlagen, finden aber bei weitergehender Recherche mit wenigen Klicks auch umfangreichere Informationen. Wäre es anders, fände ich hier sicher gute Ansatzpunkte zur Verbesserung der internen Verlinkung.

Seiten mit hohem 2D-Rank

Zur Berechnung der Stärke einer Seite verwendet strucr.com zwei relativ leicht zu erhebende Werte: den PageRank, der von strucr.com selbst auf Basis der eingehenden Links pro Seite berechnet wird, und den sog. CheiRank, der auf der Anzahl ausgehender Links basiert. Der von strucr.com berechnete PageRank hat mit dem von Google bekannten Wert allerdings wenig zu tun. Lediglich das zugrunde liegende mathematische Rechenmodell ist gleich, ansonsten ist der Wert hier glücklicherweise von Google unabhängig. Aus der Kombination von Page- und CheiRank bekommt man schließlich ein gutes Bild seiner stärksten und wertvollsten Seiten. Tauchen in dieser Liste vorrangig URLs auf, die keinen Wert für das Unternehmensziel bzw. Ziel der Website haben, sollte man an der internen Verlinkung arbeiten.

Abschließende Worte

Wie bereits erwähnt, sind alle von strucr.com erstellten Listen und erhobenen Daten per API verfügbar und können ebenso als CSV, TSV oder Excel-Datei heruntergeladen werden. So steht einer individuellen Weiterverarbeitung nichts im Wege. Gerade für Agenturen oder große Unternehmen ergeben sich damit viele Möglichkeiten. Gleichzeitig sind Freigaben aller Crawls und Accounts über bis zu vier verschiedene Nutzerrollen möglich. So sind beispielsweise jederzeit Freigaben für Kunden oder andere Abteilungen möglich, die sich gern selbst ein Bild von den Daten machen möchten.

Die Einsatzbereiche von strucr.com sind vielfältig. Im Agenturbereich sind eine einmalige Verwendung für eine konkrete Analyse, aber auch ein dauerhafter Einsatz für laufende, vor allem Technik-bezogene Optimierungen denkbar. Gerade Agenturen mit starkem technischem Fokus bekommen hier über den Crawler hinaus einen Partner, dem kein Problem zu komplex ist. Ebenso vorteilhaft ist aber auch der Einsatz von strucr.com im Unternehmensalltag. Von der IT- bis zur E-Commerce- oder SEO-Abteilung können hier alle profitieren. Warum nicht gleich strucr.com im Deploymentprozess einbinden um Änderungen an der Website vor dem Live-Gang direkt auf Herz und Nieren zu testen?

 

Über den Autor:

André Scharf ist Senior SEO Account Manager bei LBi und Betreiber eines eigenen Blogs.

Ladezeiten eine WebseiteAus aktuellem Anlass habe ich beschlossen etwas zum Thema Ladezeiten zu schreiben. Wie einige sicher wissen crawlen wir mit unserem Strukturanalysedienst strucr.com meist große Webseiten und gehen dabei sehr tief. Oft sind die gecrawlten Webseiten in großen Bereichen extrem langsam. Teilweise ist die Performance an einigen Stellen so schlecht, dass mehrere Sekunden vergehen bis der HTML-Code ausgeliefert ist und ein Crawl mit einigen wenigen Requests die Seite spürbar langsamer werden lässt. Scheinbar ist die Performance der Webseite bei den meisten Firmen noch immer kein Thema.

Ladezeiten sollten ein Thema sein:

Argumentiert man bei Ladezeiten mit Usability, Ressourcenverbrauch oder möglichen Einnahmesteigerungen so stößt dies meist auf taube Ohren. Es geht aber bei der Performance von Webseiten auch darum Schreckensszenarien wie das folgende (frei erfunden) zu vermeiden:

Ein 13 jähriger Bengel hat sich über Ihre Webseite geärgert und möchte Sie dies spüren lassen. Da seine Ressourcen stark eingeschränkt sind überlegt er sich, wie genau er die Seite möglichst effizient lahmlegen kann. Er sucht sich also genau den Typ von Unterseiten heraus, die überdurchschnittliche Ladezeiten aufweisen, und ruft von diesen so viele wie möglich in kurzer Zeit ab. Ihre Seite geht wegen schlecht performender Unterseiten in die Knie obwohl für den Betrieb der Seite mehrere Server zur Verfügung stehen und der Angriff stümperhaft und gerade mal mit einer einzelnen DSL-Leitung durchgeführt wird.

Durch schlechte Ladezeiten droht also schnell mal ein kompletter Ausfall der Seite. Ladezeitenprobleme sind mitunter Sicherheitsprobleme und diese sollten eine hohe Priorität haben und mit ausreichend Ressourcen abgearbeitet werden.

Die Problemanalyse und Problembehebung:

Die Aufgabenstellung ist denkbar einfach. Zunächst müssen die langsamen Seiten identifiziert werden. Dafür kann entweder ein Crawler benutzt werden, der in der Lage ist die Antwortzeiten zu erfassen (z.B. strucr.com), oder aber man baut einfach ein simples Logging der Zeiten in den Code der Webseite ein. Sobald man eine langsame Seite gefunden hat, muss man sich im Detail anschauen was an der Seite langsam ist (Debugger nutzen) und dann Abhilfe schaffen.

Hier einige Optimierungsansätze:

  • Häufig haben Webseiten Probleme mit langsamen Datenbankabfragen. Oft lassen sich die Abfragen optimieren indem sie einfach anders geschrieben werden. Manchmal fehlen auch einfach nur die Indizes. Viele Datenbankserver sind darüber hinaus falsch konfiguriert und können daher Anfragen nicht performant beantworten.
  • Bei PHP-Seiten fehlt häufig ein sogenannter Opcode-Cache der den interprätierten Code zwischenspeichert. Der Code muss daher ständig neu übersetzt werden was zu deutlichen Verzögerungen führt.
  • Vereinzelt wird bei Seiten auf externe Daten zugegriffen anstatt diese lokal vorzuhalten oder zwischenzuspeichern.
  • Paginierte Inhalte sind oft nicht in der Seitenzahl beschränkt und damit auf den hinteren Seiten zwangsweise deutlich langsamer. Denn dort werden in der Regel die Inhalte datenbankseiting bis zu der betreffenden Seite vorbereitet und dann die entsprechende Anzahl Datensätze übersprungen. Auf der letzten Seite bedeutet das dann einen Full Table Scan auf einer temporären Tabelle. Ein Performance-Alptraum.
  • Statt den schnellen und optimierten Funktionen der Programmiersprache werden oft eigene Funktionen geschrieben die dann langsamer sind.

Und das Beste zum Schluss:

Verbesserte Usability, niedrigerer Ressourcenverbrauch oder möglichen Einnahmesteigerungen gibt es bei der Beseitigung des Sicherheitesproblems nun gratis mit dazu.

Als fleißiger SEO wird man tagtäglich mit vielen verschiedenen Aufgaben konfrontiert, welche man kategorisieren, priorisieren, strukturieren und dann umsetzen muss. Neben der Recherche nach vielversprechenden Keywords, der Organisation des passenden Contents und der entsprechenden Onpage Optimierung bestimmen auch – bzw. vor allem – stetig neue Links unsere Rankings.

Wer eine Vielzahl unterschiedlicher Projekte betreut, weiß, wie komplex es sein kann immer den richtigen Linkmix, die wichtigsten KeyWords und die benötigten Deeplinks im Auge zu behalten. Denn wer ein organisches Linkprofil aufbauen möchte, der sollte ein gesundes Verhältnis zwischen Start- und Unterseitenverlinkung beachten, einige starke, einige mittlere und einige schwache Links aufbauen, zwischen Links aus Artikeln, Forenlinks, Blogkommentaren, Profilen, Bookmarks usw. abwechseln und auch kontinuierlich seine Projekte anschieben.

Dies setzt in erster Linie ein hohes Maß an Ordnung voraus, bedarf einer gewissen Organisation und lässt sich durch das Delegieren einiger Linkbuilding-Aufgaben entscheidend beschleunigen.

Doch neben dem eigenetlichen Umsetzen des Linkbuildings muss ein SEO auch noch das Budget im Auge haben, den Traffic kontrollieren, seine Rankings und die Konkurrenz beobachten und und und. Um den Linkbuilding-Part effektiver und effizienter zu gestalten, stets den Überblick zu behalten und das Linkbuilding outsourcen zu können, haben wir aus eigenem Bedarf heraus den Linkmanager linkbird entwickelt, als dessen Kernfunktionen folgende zu benennen sind:

• unbegrenzt Links, Projekte und Linkbuilder anlegen und auswerten
• regelmäßiger Backlink-Check und Alert bei Ausbau
• Linktauschpartnerverwaltung nach Tags und E-Mail Verteiler
• genaue Auswertung der Linkprofile nach Linktext, Linkart, PR, Unterseite etc.
• Überwachung der Budgets für Linktausch und Linkkauf
• Kontrolle von internen und externen Linkbuildern

Es folgt eine kleine Vorstellung des Tools, welche ich mit einigen Screenshots aufgepeppt habe – also SEOs und Linkbuilder: zurücklehnen und genießen 😉

1. Links hinzufügen und archivieren
Der erste Schritt bei der Nutzung von linkbird ist die saubere Archivierung der gesetzten Links. Diese kann durch einen CSV-Import oder aber auch einzeln durch das manuelle Eintragen im Interface geschehen:

Das Eintragen ist selbsterklärend und geht spielend einfach. Hinter den kleinen „?“ verstecken sich jedoch auch noch Tooltipps, die die Funktionen genau erklären und gerade das Outsourcing an externe oder weniger erfahrene Linkbuilder vereinfacht. Wichtig ist hierbei, dass die Daten korrekt eingetragen werden, da daran später die Linkprofile einzelner Seiten und Linkbuilder erstellt werden.

2. Links als Einzelnen auswerten
Wurde der Link eingetragen, kann dieser in der Linkübersicht detailliert betrachtet und als Einzelnes ausgewertet werden:

Anhand der vielen verschiedenen Filter kann hier auch genau selektiert werden und linkbird zum Beispiel nur die Links zu Projekt X von Linkbuilder X anzeigen, nur gekaufte Links anzeigen oder auch nur Links aus Webkatalogen ausgeben – die Kombinationen sind nahezu unbegrenzt, sodass jeder Statistikwunsch befriedigt werden kann.

3. Linkprofile der Projekte auswerten und steuern
Sehr interessant und wichtig für die Auswertung ist die Projektübersicht. Hier können alle Projekte oder jedes Projekt als einzelnes ausgewertet werden und entsprechende Schritte für den weiteren Linkaufbau gezogen werden. Fragen wie „Mit welchem KeyWord sollten wir häufiger verlinken?“, „Haben wir zu viele Links der gleichen Art?“, „Brauchen wir ein paar High-PR-Links?“ oder „Warum rankt diese Unterseite eigentlich auf einmal so gut?“ lassen sich hier beantworten:

Wer hier sorgfältig arbeitet, kann mit nur wenigen Klicks genau auswerten auf welche KeyWords er diesen Monat den Fokus legen sollte, ob er es mit den Bookmarks übertrieben hat oder ob er eventuell auch mal ein bisschen auf die Unterseitenverlinkung gehen sollte.
Auch das in die jeweiligen Projekte investierte einmalige oder monatliche Budget lässt sich mit linkbird tracken und auswerten:

4. Auslagern des Linkbuildings
Es ist ratsam nicht immer nur alleine für seine Projekte Links aufzubauen, sondern die kleinen Links und den organischen Linkaufbau mithilfe von externen oder internen Linkbuildern ein Stück weit schneller zu skalieren. Durch das Linkbuilder Controlling kann die Arbeit eines jeden Linkbuilders exakt ausgewertet und überwacht werden:

Jeder Linkbuilder lässt sich nach Projekt und dann auch noch nach Linkart aufschlüsseln, sodass es für den SEO ein leichtes ist, die Abrechnung und Steuerung der Arbeiten perfekt kontrollieren und umsetzen zu können.

Für einen sauberen Ablauf kann beim Anlegen jedes Mitarbeiters auch noch entschieden werden, ob er

• Master oder Linkbuilder Rechte hat
• Einen Wochenreport mit von ihm gesetzten Links bekommen soll
• Zugriff auf die in der Linkakquise stehenden Aufträge hat
• Zugriff auf Linktauschanfragen hat, welche über die dafür eingerichtete Seite eingegangen sind – Beispiel: http://linkbird.seobird.de/ (PW: test)

Durch den zeitlichen Verlauf kann zudem die Performance eines jeden Linkbuilders ausgewertet und dieser entsprechen kontrolliert werden.
Alles in Allem ist der linkbird Linkmanager und Backlinkchecker das perfekte Tool für jeden SEO der sein Linkbuilding auf das nächste Level bringen möchte – egal ob er alleine oder im Team arbeitet.

Die hinzugewonnene Übersicht (der Effekt, wenn du deine Links aus Excel Files in das Tool importierst ist grandios ), die Möglichkeiten das Linkbuilding auszulagern und mehr Zeit für die Strategie zu haben, der automatische Backlink-Check und einfach alles kontrollieren zu können eröffnen völlig neue Möglichkeiten und sorgen zwangsläufig zu einer besseren Verwendung des zur Verfügung stehenden Linkjuices.

Keine unbemerkt ausgebauten Links mehr, sofortiger Überblick, mehr Zeit durch Outsourcing und bessere Entscheidungsgrundlagen: das ist linkbird!
Wer mehr erfahren möchte, kann unter www.linkbird.de ein Testlogin anfordern und eine Videopräsentation anschauen.

Gewinnspiel für seo.de Leser!
Unter allen, die bis zum 31.12.2010 einen Blogbeitrag zu linkbird schreiben oder über linkbird twittern und auf diesen Beitrag hier verweisen, verlosen wir

– einen 12 Monatszugang zu linkbird im Wert von netto 238,80 € (gilt nicht für Kunden)

PS: Bitte gebt dann noch ein Kommentar ab, damit Ihr berücksichtig werden könnt!

Viele Grüße
Nicolai, linkbird.de

Ich bin heute auf einen sehr interessanten Artikel gestoßen, der sich mit der WordPress Memory Problematik beschäftigt. Schon lange habe ich mich gefragt, warum mit jeder neuen WordPress Version auch immer mehr Memory angefordert wird. Dieser Artikel von Heiko Rabe klärt auf und zeigt, dass PHP selber der größte Bösewicht im Kampf um knappe Speicherplätze ist. Da tut einem schon beim Lesen das Optimierer-Herz weh. Ich, der es früher geliebt hat in Assembler um jedes Byte auf dem Motorola 68.000er Prozessor zu kämpfen, bekomme Krämpfe, wenn ich vom verschwenderischen Umgang mit des Speichers Ressourcen lesen muss.

Doch diese Aufklärung tut Not. Bislang hatte ich vor allem WordPress selber in Verdacht, der größte Platzverschwender auf dem Server zu sein. Nach dem Lesen dieses Artikels bin ich vorsichtiger geworden mit derartigen Verdächtigungen. Es gehören immer Zwei dazu, doch scheint mir diesmal PHP den größten Anteil am Misserfolg zu haben. Ob 32 oder 64 Bit, das PHP Memory Management ist Shit 🙂

Unbedingt lesen, obiger Artikel ist Pflicht für jeden selbsthostenden WordPressler.

Es mag viele Gründe geben einen Domainwechsel vorzunehmen. Wenn man dabei sowohl Besucher wie Suchmaschinen optimal bedienen will, sollte man einige Punkte beachten, die über 301-Redirects hinausgehen.

Wir haben uns – tut mit Leid Gerald – von suchmaschinen-optimierungen.info verabschiedet, obwohl ich es nach all den Jahren mittlerweile ausreichend schnell tippen konnte. Daher bot sich die ideale Gelegenheit, dies langfristig anzugehen und genau zu beobachten. Es folgen die Schritte in Form einer knappen Checkliste sowie die beobachteten Folgen, welche mich dann doch vereinzelt überrascht haben.

1. Ausgangssituation
Alle Inhalte sind auf der so genannten alten Domain online.

2. Neue Domain per 301 auf alte Domain
Als erstes haben wir die neue Domain registriert (in unserem Fall gekauft) und pauschal per 301 auf die alte Domain weitergeleitet.

3. Links auch auf die neue Domain
Die Monate danach folgten vereinzelt einige wenige Links auch auf die neue Domain, die per 301 natürlich noch auf die alte Domain weitergeleitet wurden. Kann ja nicht schaden.

4. Neue Domain befüllen
Im Hintergrund erarbeiteten wir Struktur, Inhalte etc. der neuen Domain. Alle anderen „Besucher“ wurden nach wie vor auf die alte Domain per 301 geleitet. Das geht beispielsweise per .htaccess auf IP-Basis ganz einfach. Dazu als Bedingung für die 301-Weiterleitung einfach die aktuelle eigene IP ausschließen. Das kann allenfalls ganz wenige Besucher versehentlich auf die neue, noch nicht öffentliche Webseite führen. Die könnte man dann per Overlay darauf hinweisen und/ oder anders erfassen und weiterleiten.

5. Vorbereitung des Domainwechsels
Nun haben wir alle URLs der alten Domain erfasst und den neuen URLs zugeordnet. Daraus wurden dann 301-Weiterleitungen erstellt. Zusätzlich haben wir auf der alten Domain das durchaus nicht ungefährliche rel=canonical auf die jeweilige URLs der neuen Domain gesetzt. Wer sich jetzt fragt, wieso ungefährlich, der braucht nicht lange zu suchen, bis er dieses Tag findet, indem auf allen Seiten nur die Domain eingetragen ist. Dadurch wollten wir sicherstellen, dass keinerlei Anschein doppelter Inhalte aufkommt und der Wechsel möglichst schnell und reibungslos verläuft.

Weiter sind beide Domains in den Google Webmaster Tools registriert. Unter Website-Konfiguration kann man hier Google direkt eine Adressänderung (nur der Second-Level-Domain) mitteilen. Dies geht aber nur vor der 301-Weiterleitung. Zusätzlich wurde auch eine neue XML-Sitemap angemeldet.

6. Domainwechsel
Dann haben wir die 301-Weiterleitungen sowie das rel=canonical veröffentlicht. Zudem fangen wir alle Referrer der 404-Fehlerseite der neuen Domain ab, um Lücken oder Tippfehler zu finden. Denn hier unterlaufen einem schnell auch mal kleine Fehler. Soweit möglich und zeitlich vertretbar haben wir dann auch ein paar Links von alte auf neue Domain angepasst.

7. Warten
Erstmal passierte rein gar nichts. Nicht mal die Blog-Subdomain auf WordPress-Basis wollte Google via Blog-Suche kennen. Für die PageRank-Fetischisten:
Domain-alt hatte PR5, die Blog-Subdomain PR4.
Domain-neu hatte PR5, die Blog-Subdomain PR4. Die auf die neue Domain gesetzten Links rechtfertigten diese Einstufung nicht, so dass ich von einer Spiegelung der Werte in den Google-Datacentern ausgehe.

8. Tag 4 nach dem Wechsel
Am vierten Tag nach dem Domainwechsel kam dann die erste kleine Überraschung. Beide Domains waren im Index: Domain-alt wie bisher und Domain-neu stieg ordentlich ein, meist nur ca. 8 bis 14 Plätze hinter Domain-alt. Im Index der neuen Domain waren nur 14 Seiten, die neue Blog-Subdomain war noch gar nicht indiziert.

9. Tag 5 nach dem Wechsel
Ich kann es vorweg nehmen: jetzt wurde es kurios. Denn am Tag 5 rankten beide Domains praktisch untereinander als eigenständige, verschiedene Treffer. Domain-alt dabei immer noch vor Domain-neu. Die Masse der Besucher kam nach wie vor über die alte Domain. Aufgrund der vielen „doppelten“ Rankings kamen sogar ca. 15% mehr Besucher. Nun waren schon 75 Seiten der neuen Domain im Index, wobei im Wesentlichen die Blog-Subdomain dafür verantwortlich war.

10. Tage 6 bis 10 nach dem Wechsel
Am Tag 6 nach dem Domainwechsel haben wir sicherheitshalber nochmals die ganzen Weiterleitungen der alten Domain gecheckt: keine Fehler. Besucher auf der Domain-alt gleich 0. Dennoch waren noch alle Seiten der alten Domain im Index und der Index der neuen Domain wuchs und wuchs. Die doppelten Rankings ebenso! Das ging ganze 4 Tage so. Dabei kann eigentlich keiner meckern, denn Missbrauch liegt hier fern. Ganz im Gegenteil wollten wir das sogar möglichst sauber machen. Wer also beispielsweise am Valentinstag oder einem ähnlich kurzen Zeitraum mit organischen Rankings seinen Umsatz macht, könnte das bei Gelegenheit mal im „Labor“ testen und prüfen.

11. Tag 11 nach dem Wechsel
Am 11. Tag wechselte dann die Reihenfolge: nun war die neue Domain vor der alten Domain. Aber die doppelten Ergebnisse untereinander waren nach wie vor in den Ergebnisseiten – und das obwohl wir einen wohl überdurchschnittlichen Aufwand unternommen hatten, um es Google offensichtlich möglichst leicht zu machen. PR-Einschub: der PR der neuen Domain wurde nun jeweils auf -1 verringert, was eher dem Wert der bisherigen Links auf die neue Domain entsprechen dürfte. Genauer habe ich das aber nicht verfolgt.

12. Tag 12 nach dem Wechsel
Nun fielen die Rankings der alten Domain langsam einige wenige Plätze zurück aber nach wie vor waren noch fast alle Seiten der alten Domain im Index. Es folgte praktisch der Vollzug des Wechsels synonym zum Anfang.

13. Tag 20 nach dem Wechsel
Ich hatte eigentlich damit gerechnet, dass Google nun endgültig die Rankings der alten Domain komplett raus nimmt und den Index abbaut. Aber noch heute, am Tag 20 nach dem Wechsel, sind fast alle Seiten der alten Domain im Index und manche ranken noch „irgendwo“ in den Top 100. Sistrix’ Toolbox weist daher auch noch einen kleinen Wert von 0,03 zu.

Ansonsten hat die neue Domain komplett die Rankings der alten übernommen. Da sich viele Dinge wie Inhalte, Struktur auch geändert haben, kann ich nicht beurteilen, inwieweit es durch den Domainwechsel zu einem Verlust, einem Filter oder Puffer, gekommen ist. Jedenfalls war ich über die lange Präsenz der doppelten Treffer mehr als erstaunt. Dies hätte ich eher bei 302 ohne weitere Aktionen erwartet. Letztlich gab es daher keinen kurzen Einbruch, wie man hätte erwarten können und die folgende Grafik aus Sistrix’ Toolbox nahelegt – ganz im Gegenteil.

Eure Erfahrungen?
Was hättet Ihr anders gemacht? Wie geht Ihr vor? Habt Ihr vergleichbare Erfahrungen beobachtet?

Robert Hartl ist Inhaber von NETPROFIT, einer kleinen Agentur in Passau, die sich vorwiegend um CMS, SEO und SEM kümmert. Wie dem Artikel zu entnehmen, findet Ihr mehr über NETPROFIT nun unter www.netprofit.de.

Vor 4 Wochen hat es im Google Index ordentlich gekracht, ein paar schwergewichtige Webseiten, mit Millionen von Unterseiten im Google Index, haben weiche Beine bekommen und den Rücksturz zur Erde angetreten. Den Auftakt machten Chip und Netzwelt mit ihren suchfreudigen Subdomains, ein paar Tage später folgte YiGG. Während man über den Abflug der Subdomains nicht großartig zu spekulieren braucht, Google konnte ausgekippte Suchseiten noch nie gut leiden, scheint die Sache bei YiGG (blaue Kurve) komplizierter.

Sichtbarkeitsindex der Sistrix Toolbox: suche.netzwelt.de, suche.chip.de und yigg.de

Einen eindeutigen Grund kann ich zur Zeit nicht sehen. Vielleicht hat sich Yigg ein paar Experimente erlaubt, die nicht so richtig gelungen sind. Nach dem missratenen Relaunch vor 1,5 Jahren ist das auf jeden Fall der zweite herbe Rückschlag für das Portal. Dass dieser Erdrutsch bei Yigg auch deutliche Einbußen bei den Besucherzahlen nach sich zieht, dürfte niemanden verwundern.

Ob es sich hier, wie vom Seonauten behauptet, um eine Google-Penalty handelt oder um eine unglückliche Verkettung technischer Missgeschicke, darüber kann man jetzt streiten. Der Begriff Penalty selber ist ja schon diskussionswürdig. Bei den oben erwähnten Pseudo-Suchseiten von Chip und Netzwelt würde ich von einer manuellen Penalty ausgehen und darauf wetten, dass da jemand von Googles Spamtruppe auf den roten Knopf gedrückt hat. Bei Yigg ist die Sache weniger offensichtlich.

Was könnten die Gründe für solch einen krassen Einbruch sein? An eine Strafe wegen Linkverkaufs mag ich nicht glauben, da wäre eher der PageRank mal schnell degradiert worden. Alles weitere ist jetzt aber Spekulation. Ich weiss nicht, was Yigg in den letzten Wochen schon an seinen Seiten geschraubt hat. Mir persönlich missfällt ja dieses Pseudo-Seitenhijacken mit der Yigg-Toolbar. Alleine dafür würde ich die rauskicken, sozusagen als erzieherische Maßnahme 😉 Doch eigentlich scheint die Toolbar sauber zu sein, sie wird via robots.txt aus dem Suchmaschinen-Index rausgehalten. (Frage, war das schon immer so?).

Meist sind es ja Probleme mit DC (Duplicate Content), die große Seiten ins Nirvana schicken. Was auffällt sind einige https-Seiten, die es in den Google Index geschafft haben. Auch die Inhalte. welche unter upcoming.yigg.de rumliegen könnten als DC-Kandidaten gelten. Dann kippen viele Experten ihre Pressemitteilung auch auf Yigg ab, und wenn ich mir dann noch anschaue, wieviele Schlagwörter Yigg bei solch einem an und für sich schon recht überflüssigen Pressebeitrag zulässt, so wird mir leicht schwindelig. 60+ Schlagwörter müssen nicht sein. Generell würde ich nicht mehr als 6-10 Schlagwörter erlauben um solchen Auswüchsen entgegen zu wirken.

Neben den inflationären Schlagwörtern frage ich mich auch schon seit langem, wer braucht eigentlich diese merkwürdigen Gruppen? Die Seiten selber bestehen aus ein paar Links, wenig Text und ihren Mitgliedern. Ziemlich dünn, wenn ihr mich fragt. Nicht wirklich eine Offenbarung was den Content angeht. Wie fast alles was die Yigg Inhalte betrifft. Ich würde schon beim Einstellen der Artikel eine gewisse Mindestmenge an Text erzwingen. Yigg ist ja nicht Twitter 🙂 Hoppla, gerade kippt jemand seinen halben Online Shop bei Yigg aus. Das ist natürlich ein Problem, die lieben Spammer. Da müsste auch mehr getan werden, damit solchen Experten das Handwerk gelegt wird.

Wie auch immer, es gibt halt einige Macken und Mängel bei Yigg, die der Plattform seotechnisch nicht zum Vorteil gereichen. Neben der Technik ist dann da noch der menschliche Aspekt. Man muss schon geben können, damit andere auch etwas geben. Den Seos die Follow Links, den Webmastern den Direkteinsprung ohne Toolbar, der Blogosphäre ein Yigg-Blog, das nicht nur yiggzentrisch spricht, sondern auch mit der Außenwelt kommuniziert, den Usern mehr Komfort und weniger Spam und Werbung – und den Suchmaschinen mehr unique und weniger doppelten Content. Dann klappt es am Ende auch wieder mit dem Nachbarn im Web, mit Google.

Update: Gretus via Twitter: “Zu viele Toolbars, Popups, Werbung usw. Die Seite hat momentan so einfach 0 Mehrwert #yigg

Da ist viel Wahres dran. Das Popup nervt, auf die Video-Werbung bin ich schon mehr als einmal reingefallen, weil ich annahm es gehöre zum Top-Artikel. Und die Toolbar brauche ich auch nicht, die behindert mehr als dass sie hilft. Und wo wir hier schon die ganze Zeit über Yigg reden, eigentlich müßte ich den Artikel jetzt noch bei Yigg einstellen. Aber das ist mir zu blöd. Seos sind dort ja eh nicht willkommen.

Lange durften wir auf Suchmaschinenoptimierung.de nur auf einen Platzhalter schauen, jetzt ist die Zeit abgelaufen und das Geheimnis gelüftet. Jochen Maaß und seine Mannen haben wochenlang schwer an ihrer Software geschuftet und die SEO Analyse Software heute der Öffentlichkeit vorgestellt. Anbei ein erster Eindruck vom SEOlytics Dashboard:

SEOlytcis Analyse Tool

Weitere Infos folgen im Kürze. Bin erst mal auf Achse.

Update: Mittlerweile gibt es eine detailierte Besprechung von SeoLytics.

Domainumzüge sind bekanntlich ein heikles Thema, was SEO angeht. Ich selbst habe diesbezüglich bisher recht wenig Erfahrung sammeln können. Dies auch aus dem einfachen Grund, dass man solche Maßnahmen bei privaten Projekten tunlichst vermeidet. In einschlägigen Foren liest man zum Thema Domainumzug meist Sätze wie „..ich war drei Monate weg vom Fenster, dann kam ich mit der „neuen Domain“ wieder. Gesicherte Informationen gibt es nicht! Der vorherrschende Ratschlag beim Thema Domainumzug lautet „lass es!“.

Aus diesem Grund lasse ich den Leser an dieser Stelle an einem Fallbeispiel teilhaben. Auf den Marketingaspekt möchte ich hierbei nicht näher eingehen. Wichtig sind suchmaschinenrelevante Erkenntnisse. Schlussfolgerungen überlasse ich dem Leser.

Im November des letzten Jahres wurde seitens meines Teilzeitarbeitgebers darüber nachgedacht die Domain traveltrex.de aus Gründen des Marketings auf eine „neue Domain“ umzuziehen. Da zu diesem Zeitpunkt nicht klar war, ob und wann umgezogen wird, sondern lediglich ein Zeitpunkt der endgültigen Entscheidung im Raum stand, habe ich traveltrex.de bis zu dem Zeitpunkt der endgültigen Entscheidung erstmal „ruhen lassen“, was man anhand der Sistrix Toolbox schön nachvollziehen kann.

Travel-Dom Sistrix Rank

Ende Dezember 2008 wurde von traveltrex.de auf de.summertrex.com geswitcht. Über einen permanenten Umzug (301) wurden die Urls von traveltrex.de umgeleitet. Ausser dieser Maßnahme wurden keine weiteren getroffen. Es wurden weder eingehende Links geändert, noch entfernt. Der Umzug ging relativ komplikationslos von statten. Eine Woche später war de.summertrex.com mit dem Großteil der relevanten Suchphrasen im Schnitt circa fünf bis zehn Plätze hinter den alten Positionen von traveltrex.de.

Sommer-Dom Sistrix Rank

Das Keyword „Urlaub“ war von der Top10 in die Top 500 abgerutscht. Am 09.01 diesen Jahres habe ich die vorhandenen Einträge der Webmasterzentrale geändert (im bestehenden Account traveltrex.de entfernt und durch de.summertrex.com ersetzt).

Am 11.11 war de.summertrex.com mit dem Keyword „Urlaub“ von der Top 500 auf Platz 31 gestiegen, was sich seitdem auch so hält. An den restlichen Positionen hat sich nach dem Eintrag in der Webmasterzentrale nichts geändert.

Ich stehe den Tools von Google selbst kritisch gegenüber. Auf eigenen Projekten setze ich nur zu einem Bruchteil Analytics oder die Webmasterzentrale ein. Ich selbst möchte für Google möglichst intransparent bleiben. Der geschilderte Fall bietet viel Raum für Spekulationen.

Ein gelungenes Beispiel eines Domainumzuges

Erfolgreicher Domain-Wechsel
(ich hoffe, dass die Kurven traveltrex.de vs. de.summertrex.com bald ähnlich aussehen werden) ist sicher auch ohne die Nutzung der Webmasterzentrale möglich. Nichtsdestotrotz würde ich sie nach dem geschilderten Fall auch bei privaten Domainumzügen nutzen.

Wie ihr sicherlich schon alle bemerkt habt, ist vor einigen Tagen die Neuauflage von Website Boosting an den Start gegangen. Hier auf SEO.de haben wir auch schon eine erste Rezension zu Website Boosting 2.0 veröffentlicht und ich selber bin ganz angetan von dem Buch. Ein echter Volltreffer. Das spiegelt sich natürlich auch in den Kundenbewertungen bei Amazon wider.

Website Boosting Amazon Ranking

Bei Amazon wird das Buch zur Zeit mit 4,5 Sternen angezeigt. Das war mir schon vor langer Zeit aufgefallen, auf der einen Seite positiv, weil damit schon so ziemlich top, auf der anderen Seite negativ, einfach deshalb, weil ich mir den fehlenden halben Stern nicht so recht erklären konnte. Doch beim Blick auf die Rezensions-Statistik ging mir ein Licht auf. Das Buch wurde Opfer einer Amazon De-Optimierung. Sozusagen die umgekehrte Form einer Amazon Bücher Optimierung bei der dafür gesorgt wird, dass das Buch nicht ganz oben gerankt wird bei den Leser-Bewertungen.

Es ist doch schon ziemlich seltsam, dass zwei derartige Ausreisser in der Statistik zu finden sind. Hinzu kommt, dass ich glaube ganz gut beurteilen zu können was ein Buch zum Thema SEO taugt oder nicht. Und 1 Stern für dieses Buch zu vergeben bedeutet m. E. nur eines, man möchte das Amazon-Ranking des Buches drücken. Sicher wäre es unauffälliger gewesen, man hätte es mit 3er oder 2er Wertungen versucht, das wäre aber mathematisch nicht so effektiv gewesen. Es wurde zudem kein Realname angegeben bei den beiden 1-Stern Rezensionen, was die Manipulation zumindest nicht unwahrscheinlicher macht. Auch dass der Rezensent kein weiteres Buch bewertet hat ist nicht gerade vertrauensfördernd. Und beide Rezensionen erscheinen mir von Stil und Art her recht ähnlich aufgebaut und schließen mit noch ähnlicherem Text die Rezension ab:

Fazit: Fehlkauf, höchstens für Anfänger interessant

Das Buch ist höchstens für absolute Neulinge im Bereich SEO kaufenswert.
Fazit: Fehlkauf

Von den 45 Rezension enden sonst nur noch 4 oder 5 in der letzen Zeile mit dem Wort “Fazit:”! Zufall? Ich glaube nicht. Für mich sieht das so aus, als seien die beiden negativen Rezensionen mit der Absicht eingestellt worden, dem Buch den 5. Stern zu rauben. Schauen wir mal auf den mathematischen Durchschnittswert:

((39 * 5) + (3 * 4) + (1 * 3) + (2 * 1)) / 45 = 4.71111111

Ich habe vorhin selber eine Rezension abgegeben, dadurch hat sich das ganze jetzt wie folgt verändert:
((40 * 5) + (3 * 4) + (1 * 3) + (2 * 1)) / 46 = 4.7173913

Ihr seht, das geht ganz schön langsam voran mit den Durschnittswerten. Wenn jetzt noch 5 weitere 5-Sterne Rezensionen in Folge kämen, dann wären wir erst bei
((46 * 5) + (3 * 4) + (1 * 3) + (2 * 1)) / 52 = 4.75
angelangt. Ich weiss leider nicht den genauen Durchschnittswert, ab dem Amazon von 4,5 auf 5 Sterne umschaltet, könnte mir aber gut vorstellen, dass 4.75 der Grenzwert dafür ist. Wie dem auch sei, in Summe spricht so einiges dafür, dass hier jemand bei Amazon nach den Sternen gegriffen hat. Stellt sich mir zum Schluß nur noch die Frage: Wer hat Website Boosting den (halben) Stern geklaut?