Christian arbeitet bei Ranksider.de.

PageSpeed sorgt für Ranking-Schub

Januar 22, 2013 by  
Filed under Optimierung, SEO

Unter den vielen Rankingfaktoren gibt es viele Faktoren die wichtig sind, aber auch welche, die weniger wichtig sind. Mit der Zeit kann es aber auch passieren dass bestimmte Faktoren an Wichtigkeit verlieren oder eben gewinnen. Beim PageSpeed war es so, denn er war lange Zeit ein ruhender Faktor, der kaum ernstgenommen wurde. Mit der Zeit hat er immer mehr an Bedeutung gewonnen und kann mittlerweile sogar für einen richtigen Rankingschub sorgen. Nicht umsonst stellt Google sogar das PageSpeed-Tool bereit und gibt sogar direkte Tipps, mit denen sich der PageSpeed verbessern lassen kann.

Read more

Ladezeiten Supergau – Warum Ihre Seite schnell sein sollte

Juli 16, 2012 by  
Filed under Analyse, Grundlagen, Optimierung

Ladezeiten eine WebseiteAus aktuellem Anlass habe ich beschlossen etwas zum Thema Ladezeiten zu schreiben. Wie einige sicher wissen crawlen wir mit unserem Strukturanalysedienst strucr.com meist große Webseiten und gehen dabei sehr tief. Oft sind die gecrawlten Webseiten in großen Bereichen extrem langsam. Teilweise ist die Performance an einigen Stellen so schlecht, dass mehrere Sekunden vergehen bis der HTML-Code ausgeliefert ist und ein Crawl mit einigen wenigen Requests die Seite spürbar langsamer werden lässt. Scheinbar ist die Performance der Webseite bei den meisten Firmen noch immer kein Thema.

Ladezeiten sollten ein Thema sein:

Argumentiert man bei Ladezeiten mit Usability, Ressourcenverbrauch oder möglichen Einnahmesteigerungen so stößt dies meist auf taube Ohren. Es geht aber bei der Performance von Webseiten auch darum Schreckensszenarien wie das folgende (frei erfunden) zu vermeiden:

Ein 13 jähriger Bengel hat sich über Ihre Webseite geärgert und möchte Sie dies spüren lassen. Da seine Ressourcen stark eingeschränkt sind überlegt er sich, wie genau er die Seite möglichst effizient lahmlegen kann. Er sucht sich also genau den Typ von Unterseiten heraus, die überdurchschnittliche Ladezeiten aufweisen, und ruft von diesen so viele wie möglich in kurzer Zeit ab. Ihre Seite geht wegen schlecht performender Unterseiten in die Knie obwohl für den Betrieb der Seite mehrere Server zur Verfügung stehen und der Angriff stümperhaft und gerade mal mit einer einzelnen DSL-Leitung durchgeführt wird.

Durch schlechte Ladezeiten droht also schnell mal ein kompletter Ausfall der Seite. Ladezeitenprobleme sind mitunter Sicherheitsprobleme und diese sollten eine hohe Priorität haben und mit ausreichend Ressourcen abgearbeitet werden.

Die Problemanalyse und Problembehebung:

Die Aufgabenstellung ist denkbar einfach. Zunächst müssen die langsamen Seiten identifiziert werden. Dafür kann entweder ein Crawler benutzt werden, der in der Lage ist die Antwortzeiten zu erfassen (z.B. strucr.com), oder aber man baut einfach ein simples Logging der Zeiten in den Code der Webseite ein. Sobald man eine langsame Seite gefunden hat, muss man sich im Detail anschauen was an der Seite langsam ist (Debugger nutzen) und dann Abhilfe schaffen.

Hier einige Optimierungsansätze:

  • Häufig haben Webseiten Probleme mit langsamen Datenbankabfragen. Oft lassen sich die Abfragen optimieren indem sie einfach anders geschrieben werden. Manchmal fehlen auch einfach nur die Indizes. Viele Datenbankserver sind darüber hinaus falsch konfiguriert und können daher Anfragen nicht performant beantworten.
  • Bei PHP-Seiten fehlt häufig ein sogenannter Opcode-Cache der den interprätierten Code zwischenspeichert. Der Code muss daher ständig neu übersetzt werden was zu deutlichen Verzögerungen führt.
  • Vereinzelt wird bei Seiten auf externe Daten zugegriffen anstatt diese lokal vorzuhalten oder zwischenzuspeichern.
  • Paginierte Inhalte sind oft nicht in der Seitenzahl beschränkt und damit auf den hinteren Seiten zwangsweise deutlich langsamer. Denn dort werden in der Regel die Inhalte datenbankseiting bis zu der betreffenden Seite vorbereitet und dann die entsprechende Anzahl Datensätze übersprungen. Auf der letzten Seite bedeutet das dann einen Full Table Scan auf einer temporären Tabelle. Ein Performance-Alptraum.
  • Statt den schnellen und optimierten Funktionen der Programmiersprache werden oft eigene Funktionen geschrieben die dann langsamer sind.

Und das Beste zum Schluss:

Verbesserte Usability, niedrigerer Ressourcenverbrauch oder möglichen Einnahmesteigerungen gibt es bei der Beseitigung des Sicherheitesproblems nun gratis mit dazu.

Nur Twitter ist Web 2.0!

Die meisten Online-Marketeers können den Begriff „Web 2.0“ wahrscheinlich schon nicht mehr hören; ich behaupte jedoch, dass eigentlich nur Twitter diese Bezeichnung wirklich verdient hat!

Um dieses Statement zu untermalen, möchte ich kurz in Erinnerung rufen, wie Internet und Online-Marketing vor Google und SEO tickte:

Wer Besucher auf seine Webseite bekommen wollte, konnte durch die Wahl eines guten Domainnamens (Vgl. Sex.com Story) beachtlichen Type-In-Traffic bekommen. Des Weiteren waren neben Offline-Marketing, Einträge in Web-Verzeichnissen, Newsgroups und sonstige Links von externen Seiten die wichtigsten Besucherquellen. Werbeplätze gab es kaum und Suchmaschinen kämpften indes noch mit Problemen bei der Indizierung, der sinnvollen Sortierung der Ergebnisse, sowie inflationären Auswüchsen von Spam. Den (Modem-)Nutzern dienten sie nur leidlich gut zum Auffinden der überschaubaren Anzahl von sinnvollen Web-Inhalten.

Und was hat das nun mit Twitter zu tun?

Der Microblogging-Dienst ist die am schnellsten wachsende Applikation im Internet und das Szenario ist dem frühen „Web 1.0“ gar nicht so unähnlich:

Es gibt zwar Suchmaschinen für Twitter, aber auch die fristen noch eher ein Nischendasein. Reichweite für die eigenen Meldungen bekommt man beispielsweise, indem man Nutzer „von außen“ zuführt (~Offline-Marketing), über Re-Tweets (~Links) oder Twitter-Gruppen (~Newsgroups); selbst die früher oft genutzten Top-Listen und Verzeichnisse existieren im Twitterreich.

Twitter Accounts = Domains?

Immer bekannter wird inzwischen auch die Tatsache, dass es bei Twitter im Vergleich zu anderen Social Media Plattformen wegen der einfachen URLs durchaus beachtlichen Type-In-Traffic gibt – erkennbar u.a. daran, dass selbst ungenutzte Profile fleißig Follower sammeln (z.B. IKEA).

Das „Domain-Grabbing“ hat daher auch das Zwitscherland längst erreicht und der Handel mit guten Profilnamen kann – obwohl Twitter lt. AGB Besitzer aller Accounts ist – sehr lukrativ sein. (Siehe auch.)

TWO – TWitter Optimization

Spannend ist auch zu beobachten, wie die SEO-Szene ihre Taktiken auf Twitter adaptiert, um an mehr Follower (~einen höheren PageRank!?) und Reichweite zu kommen:

Während Spammer mittels Followertausch o.ä. wohl eher größtenteils unnütze Kontakte generieren, schafft es der Marcus beispielsweise durch informative und amüsante Tweets über die Content-is-King bzw. Linkbaiting-Masche. Thomas platziert regelmäßig Gewinnspiele und SEO-United pflanzt Bäume, um an Links Follower zu kommen. Kreativität ist also auch beim „TWO“ gefragt.

Und wie geht es jetzt weiter im „echten Web 2.0“?

Auch wenn ich der Überzeugung bin, signifikante Parallelen zwischen der Geschichte des frühen Internets und der Entwicklung bei Twitter zu erkennen, und ich mich daher zum Titel dieses Beitrages habe verleiten lassen, so sind die Rahmenbedingungen jedoch völlig andere. Dazu werde ich mich ein anderes Mal äußern – wer das nicht verpassen will, darf mir folgen 🙂

Reputation Management SEO

März 11, 2009 by  
Filed under Allgemein, Google, SEO, Social Media

Das Internet ist bekanntermaßen eine der wichtigsten Informationsquellen für Kaufentscheidungen und die Meinungsbildung über Dienstleister, Bewerber, Kooperationspartner etc. Und gerade für Unternehmen können daher einzelne, im Internet veröffentlichte, Negativ-Meinungen zum existenziellen Problem werden – vor allem dann, wenn die Kritiker für die Suche nach dem Anbieter oder dessen Produkte prominent platziert sind.

Da Google keine jedoch Einträge löscht, sofern diese nicht gegen gesetzliche Bestimmungen verstoßen, und die klassische Presse- und Öffentlichkeitsarbeit keinen adäquaten Schutz gegen ein gutes Suchmaschinen-Ranking von Neidern, Konkurrenten oder Wichtigtuern bietet, versuchen viele Unternehmen ihr Recht einzuklagen. (Wer wissen will, wie wenig sinnvoll das ist, möge mal „Seoline“ googeln.)

Die Frage lautet daher: „Was kann man tun, wenn sich der Publisher beharrlich weigert, seine Meinung zu revidieren und ich das Problem nicht durch rechtliche Schritte verschlimmern möchte?“
Eine Antwort ist: Reputation Management SEO!

Rand Fishkin beschrieb dazu kürzlich in einem Blogpost die Methode des „Outrankings“ zugunsten der eigenen Reputation, d.h. man verdrängt den ungeliebten Eintrag in den SERPs durch:

  1. Erstellung optimierter Inhalte zu dem entsprechenden Begriff + klassisches SEO.
  2. Das gezielte Publishing auf sehr starken und somit potenziell gut rankenden Plattformen.
  3. Die Verbesserung des Rankings bereits existierender Positiv-Meinungen durch Linkbuilding.

Auch wenn Randfish diese Methodik als sehr aufwändig und teuer bezeichnet, und Dan Larkin einst vom „SEO-Olymp“ sprach, möchte ich anhand ein paar kleiner Beispiele zeigen, wie Reputation Management per SEO weder zutiefst manipulativ, noch unglaublich teuer sein muss:

  • SEAT listet auf der Übersicht für das Modell „Leon“ aktuelle Pressestimmen. Würde man das etwas geschickter machen, wären die Testsiege sicher Top platziert für Suchkombinationen mit „Test“ oder „Vergleich“.
  • Das „Seeding“ von positiven Darstellungen der eigenen Produkte muss gar nicht selbst durchgeführt werden. Bittet oder belohnt man „Fans“ seiner Marke für Berichte auf Meinungsplattformen – insbesondere dort, wo schon Negativ-Berichte vorhanden sind – füllen sich die SERPs mit wohlwollenden und gleichzeitig sehr glaubhaften Einträgen.
  • Befinden sich die Negativ-Meinungen in Foren, kann man durch weitere Einträge absichtlich Keyword Cannibalization hervorrufen und durch Backlinks deren Reihenfolge steuern.
  • Man kann auch Social Bookmarking oder Social News nutzen. Erstellt man hier einen optimiert getexteten Eintrag und nutzt die eigene Seite oder den eigenen Newsletter zur Unterstützung, kann man dank Aktualitätsbonus meist relativ schnell etwas bewegen.
  • Firmen, die ohnehin Gewinnspiele, Umfragen oder Pressearbeit machen, können durch eine geschickte Titulierung ihrer Veröffentlichungen die SERPs für bestimmte Suchkombinationen dominieren.
  • uvm.

Dass man negative Meinungen durch Reputation Management SEO nicht vollständig unsichtbar für alle Begriffe machen kann, sollte klar sein. Außerdem sollte nicht erst gehandelt werden, wenn das Kind in den Brunnen gefallen ist und die Gefahr besteht, dass einzelne Meinungen durch Dritte aufgegriffen, bestärkt und verbreitet werden. Daher empfiehlt sich in der Praxis, die proaktive Beeinflussung des Meinungsbildes in Suchmaschinen als festen Bestandteil einer Online-Kommunikationsstrategie zu integrieren.

SEO = PR?

März 12, 2008 by  
Filed under Allgemein

Als Entwickler von Communities sind wir stark auf Suchmaschinenoptimierung angewiesen und fragen uns regelmäßig wie unsere Firma auf die ständigen Änderungen reagieren sollte. Da wir keine SEO Agentur sind und nur bedacht einstellen können, fragen wir uns welche Position langfristig am meisten Sinn machen würde.

Nachdem der Pagerankwahn und stumpfe Linkeinkauf nun glücklicherweise ihr Ende gefunden haben, scheint der Markt gereift zu sein und hochwertiger Content sich wie von selbst am besten durchzusetzen. Die Zeiten in denen Praktikanten massenhaft Links eingekauft haben, sind also von Kreativität und hochwertigem Inhalt abgelöst worden.
Link Bait (deutsch: Link Köder) ist das Zauberwort und Social Media scheint der Schlüssel zum Erfolg.

Es gilt eine Story oder ein Produkt zu schmieden, einen Reißer, der mit minimalen Einsatz größtmögliche Reichweite erzielt. Etwas, das durch die Medien geht, weil es unterhaltend, kontrovers, revolutionär, genial gut oder einfach nur erwähnenswert ist.
Klingt schwer nach PR oder?

Ist es nicht Aufgabe einer PR Agentur eine Firma auf die Öffentlichkeit vorzubereiten (SEO: on page Optimierung), mit kreativen Ideen und gezielten Events (SEO: Link Bait) möglichst viel Medienrummel (SEO: Social Media Presenz) zu verursachen, mit Hilfe von Presseverteilern (SEO: Social Networks und Social Media Sites) Pressemitteilungen (SEO: Blogbeiträge/ virale Videos) zu verteilen und für ständigen Gesprächsstoff zu sorgen?

 

Die beiden Branchen scheinen sich ähnlicher zu sein als man denkt. Und momentan deutet vieles darauf hin, dass diese sich zukünftig noch mehr aufeinander zubewegen werden. Eine klassische PR Agentur muss zwangsläufig umdenken und ebenso mangelt es vielen SEOs noch an klassischer PR Erfahrung.

Man bedenke nur, wieviele Blogger auf Artikel der führenden Tageszeitungen eingehen, oder wie klassische Pressemitteilungen auch von Online Redaktionen aufgenommen werden und dementsprechend die Runde machen. Umgekehrt werden mittlerweile auch Superdiggs nicht selten am nächsten Tag in den klassischen Medien aufgegriffen.
Strategische Kooperationen wären in vielen Fällen wohl durchaus lohnenswert – ich bin mal gespannt ob wir in der Richtung zukünftig was sehen werden.


Nur was bedeutet das nun für mich? Soll ich lieber einen kreativen PR Spezialisten oder einen technikaffinen SEO einstellen? Am besten wäre natürlich das Doppelpack, oder was meint ihr?

Google und die Zukunft des noindex-Tags

Februar 25, 2008 by  
Filed under Google

Matt Cutts, Googles Spamhausmeister, berichtet hier über die interne Diskussion, wie in Zukunft das noindex-Meta-Tag behandelt werden soll.

Im Moment wird eine mit noindex markierte Seite vom Spider besucht und alle Links werden auch korrekt verfolgt (wenn nicht noch ein nofollow mit angegeben wird), jedoch wird die Seite selber nicht im Index aufgenommen. Google liefert keine Suchergebnisse dafür aus .

Nun wird darüber diskutiert, ob es nutzerfreundlicher ist wie bei MSN und Yahoo zumindest einen Link auf diese Seite zu liefern. So würden explizite Suchen nach diesen Seiten erfolgreiche Ergebnisse liefern und somit unwissenden Webmastern das Leben vereinfacht werden.

Als Lösung dazwischen könnte Google versuchen nur „gut bekannte“ Seiten anhand des DMOZ und anderen Quellen mit dem einfachen Link beglücken.

Mir ist immer noch schleierhaft warum diese Diskussion überhaupt aufkommt.

Als Webmaster und SEO will ich entscheiden können was in den Index kommt und was nicht. Ich habe zwar noch die Möglichkeit per robots.txt den Spider fernzuhalten, aber das verhindert auch das die Links auf diesen Seiten verfolgt werden. Mit noidex hab ich aktiv der Suchmaschine mitgeteilt das diese Seite, aus welchen Gründen auch immer nicht, nicht in den SERPS auftauchen soll.

Google hat keine Möglichkeit zu erkennen, ob der Tag aus Versehen da steht oder nicht.
Es steigert auch in keinster Weise die Benutzerfreundlichkeit wenn plötzlich Suchergebnisse ohne Beschreibung auftauchen oder der Benutzer auf Seiten kommt,auf denen ich ihn nicht haben will.

Was ist eure Meinung dazu ?

css.php