Am 19.07.2012 gab es für die Website eines Kunden eine Benachrichtigung von den Google Webmaster-Tools über unnatürliche Links mit folgendem Wortlaut:

Sehr geehrter Inhaber oder Webmaster von xxx, [Anmerkung der Redaktion, aus nicht schwer nachvollziehbaren Gründen wurde der Link entfernt.]

Wir haben festgestellt, dass auf einigen Seiten Ihrer Website eventuell Techniken verwendet werden, die gegen die Webmaster-Richtlinien von Google verstoßen. [Wie nun, auf der Website selber? Klingt ja eher so, als ginge es um die eigenen Inhalte.]

Suchen Sie insbesondere nach möglicherweise künstlichen oder unnatürlichen Links, die auf Ihre Website verweisen und zur Manipulation von PageRank dienen könnten. Zur unnatürlichen Verlinkung können beispielsweise gekaufte Links, die PageRank weitergeben, oder die Teilnahme an Textlink-Börsen gehören. [Das wiederum klingt sehr nach externen Komponenten.]

Wir empfehlen Ihnen, Ihre Website entsprechend unseren Qualitätsrichtlinien zu bearbeiten. Nachdem Sie die Änderungen vorgenommen haben, stellen Sie einen Antrag auf erneute Überprüfung Ihrer Website. [Wieso erneute Überprüfung. Es gab doch vorher noch nie einen Reconsideration Request für die Website. Sehr ihr das vielleicht zu sehr durch die eigene Brille?]

Sollten Sie unnatürliche Links zu Ihrer Website finden, die Sie nicht steuern oder entfernen können, fügen Sie in Ihrem Antrag auf erneute Überprüfung entsprechende Angaben hinzu. [Das sind doch sowieso die Links, die man heutzutage nicht mehr haben möchte. Weil in einem alten Gästebuch vergraben, in einem Spamblog versackt oder von einem Konkurrenten verxrumert. Die Links solltet ihr selbst schon längst erkannt und entwertet haben.]

Falls Sie weitere Fragen zur Lösung dieses Problems haben, besuchen Sie das Webmaster-Hilfeforum. [Darf man da auf klare und konkrete Hinweise gespannt sein. Oder wird das auch so ein Wische-Waschi Geblubbere wie in den GWTs]

Mit freundlichen Grüßen

Ihr Google Search Quality Team

Was meines Erachtens schon für die erste Irritation sorgt, ist diese Zeile: “Wir haben festgestellt, dass auf einigen Seiten Ihrer Website eventuell Techniken verwendet werden”. Das klingt ja eher nach Onpage-Problem. Zumal der Mail-Titel “unnatürliche Links, die auf xxx gefunden wurden” ähnliches vermuten lassen. Wahrscheinlich handelt sich aber eher um eine schlechte Übersetzung. Und das wäre peinlich bis ärgerlich, weil es die Leute nur noch zusätzlich verunsichert.

Da lobe ich mir doch die englischen Mails, die sind da deutlich präziser. Diese hier schneite dann am 23.07.2012 ins GWT-Postfach.

xxx: Unnatural inbound links July 23, 2012

We’ve detected that some of the links pointing to your site are using techniques outside Google’s Webmaster Guidelines.

We don’t want to put any trust in links that are artificial or unnatural. We recommend removing any unnatural links to your site. However, we do realize that some links are outside of your control. As a result, for this specific incident we are taking very targeted action on the unnatural links instead of your site as a whole. If you are able to remove any of the links, please submit a reconsideration request, including the actions that you took.

If you have any questions, please visit our Webmaster Help Forum.

Das ist doch viel schöner so. Von “inbound links” und “links pointing to your site” ist die Rede. Hier sind Missverständnisse ausgeschlossen. Liebes Google Search Quality Team, bitte in Zukunft nur noch Warnmails in englischer Sprache. Die beherrscht ihr besser 😉

Man kann sich die englische Mail intern auch übersetzen lassen, aber dann würde wohl niemand mehr die Nachricht für voll nehmen:

Wir haben festgestellt, dass einige der Links, die auf Ihrer Website werden mit Hilfe von Techniken außerhalb Googles Richtlinien für Webmaster . Wir wollen nicht, Vertrauen in Links, die künstlich oder unnatürlich sind gestellt. Wir empfehlen, keine unnatürliche Links zu Ihrer Website. Aber wir wissen, dass einige Links außerhalb Ihrer Kontrolle sind. Als Ergebnis für diesen speziellen Vorfall nehmen wir sehr gezielte Wirkung auf die unnatürliche Verknüpfungen statt Ihrer Website als Ganzes. Wenn Sie in der Lage, einen der Links zu entfernen sind, reichen Sie bitte einen Antrag auf erneute Überprüfung , einschließlich der Aktionen, die Sie übernahm. Wenn Sie irgendwelche Fragen haben, besuchen Sie bitte unsere Webmaster-Forum .

Genau, besser hätte ich es auch nicht ausdrücken können.

Ladezeiten eine WebseiteAus aktuellem Anlass habe ich beschlossen etwas zum Thema Ladezeiten zu schreiben. Wie einige sicher wissen crawlen wir mit unserem Strukturanalysedienst strucr.com meist große Webseiten und gehen dabei sehr tief. Oft sind die gecrawlten Webseiten in großen Bereichen extrem langsam. Teilweise ist die Performance an einigen Stellen so schlecht, dass mehrere Sekunden vergehen bis der HTML-Code ausgeliefert ist und ein Crawl mit einigen wenigen Requests die Seite spürbar langsamer werden lässt. Scheinbar ist die Performance der Webseite bei den meisten Firmen noch immer kein Thema.

Ladezeiten sollten ein Thema sein:

Argumentiert man bei Ladezeiten mit Usability, Ressourcenverbrauch oder möglichen Einnahmesteigerungen so stößt dies meist auf taube Ohren. Es geht aber bei der Performance von Webseiten auch darum Schreckensszenarien wie das folgende (frei erfunden) zu vermeiden:

Ein 13 jähriger Bengel hat sich über Ihre Webseite geärgert und möchte Sie dies spüren lassen. Da seine Ressourcen stark eingeschränkt sind überlegt er sich, wie genau er die Seite möglichst effizient lahmlegen kann. Er sucht sich also genau den Typ von Unterseiten heraus, die überdurchschnittliche Ladezeiten aufweisen, und ruft von diesen so viele wie möglich in kurzer Zeit ab. Ihre Seite geht wegen schlecht performender Unterseiten in die Knie obwohl für den Betrieb der Seite mehrere Server zur Verfügung stehen und der Angriff stümperhaft und gerade mal mit einer einzelnen DSL-Leitung durchgeführt wird.

Durch schlechte Ladezeiten droht also schnell mal ein kompletter Ausfall der Seite. Ladezeitenprobleme sind mitunter Sicherheitsprobleme und diese sollten eine hohe Priorität haben und mit ausreichend Ressourcen abgearbeitet werden.

Die Problemanalyse und Problembehebung:

Die Aufgabenstellung ist denkbar einfach. Zunächst müssen die langsamen Seiten identifiziert werden. Dafür kann entweder ein Crawler benutzt werden, der in der Lage ist die Antwortzeiten zu erfassen (z.B. strucr.com), oder aber man baut einfach ein simples Logging der Zeiten in den Code der Webseite ein. Sobald man eine langsame Seite gefunden hat, muss man sich im Detail anschauen was an der Seite langsam ist (Debugger nutzen) und dann Abhilfe schaffen.

Hier einige Optimierungsansätze:

  • Häufig haben Webseiten Probleme mit langsamen Datenbankabfragen. Oft lassen sich die Abfragen optimieren indem sie einfach anders geschrieben werden. Manchmal fehlen auch einfach nur die Indizes. Viele Datenbankserver sind darüber hinaus falsch konfiguriert und können daher Anfragen nicht performant beantworten.
  • Bei PHP-Seiten fehlt häufig ein sogenannter Opcode-Cache der den interprätierten Code zwischenspeichert. Der Code muss daher ständig neu übersetzt werden was zu deutlichen Verzögerungen führt.
  • Vereinzelt wird bei Seiten auf externe Daten zugegriffen anstatt diese lokal vorzuhalten oder zwischenzuspeichern.
  • Paginierte Inhalte sind oft nicht in der Seitenzahl beschränkt und damit auf den hinteren Seiten zwangsweise deutlich langsamer. Denn dort werden in der Regel die Inhalte datenbankseiting bis zu der betreffenden Seite vorbereitet und dann die entsprechende Anzahl Datensätze übersprungen. Auf der letzten Seite bedeutet das dann einen Full Table Scan auf einer temporären Tabelle. Ein Performance-Alptraum.
  • Statt den schnellen und optimierten Funktionen der Programmiersprache werden oft eigene Funktionen geschrieben die dann langsamer sind.

Und das Beste zum Schluss:

Verbesserte Usability, niedrigerer Ressourcenverbrauch oder möglichen Einnahmesteigerungen gibt es bei der Beseitigung des Sicherheitesproblems nun gratis mit dazu.

Jobsuche einmal anders. Stammleser werden sich erinnern, Neulinge werden sich vielleicht wundern. Seo.de gehört der Ideawise Ltd. aus Hongkong, genau besehen den Gebrüdern Dreyer, die es vor Jahren aus dem heimischen Bielefeld ins ferne China trieb, wo sie sich mit großem Engagement dem Aufbau neuer Community-Plattformen widmeten.

Eine Plattform die in der Heimat verblieb war Gays.de. Vor wenigen Tagen firmierte Gays.de um in Gay.de. Damit einhergehend kam es auch zu einem Domainumzug, bei dem alle wesentlichen Bereiche der alten Domain auf die neue Domain umgezogen wurden. Nachdem das hoffentlich alles gut funktioniert hat, kommt jetzt der nächste Schritt. Der Aufbau der Zukunft. Und das bedeutet den Ausbau des Systems.

Zur Weiterentwicklung der Plattform sucht Gay.de momentan nach einem Webdesigner und nach erfahrenen PHP-Entwicklern. Wer Interesse an einem solchen Job hat, der sollte sich bei philip@office.gays.de mit Lebenslauf und weitergehenden Infos melden.

Wenn ihr euch also berufen fühlt und dem Job und dem Webseiten-Thema positiv gegenüber steht, dann bewerbt euch doch einfach. Vielleicht treffen wir uns dann mal in Bielefeld, ich wohne ja quasi um die Ecke.