Wie soeben auf dem GoogleWatchBlog gelesen, wurde Google Suggest für den deutschen Markt auf Google.de aktiviert.

Für uns SEO’s kann die Erweiterung als Tool bzw. als kleine Hilfe für eine Keywordrecherche genutzt werden, denn die vorgeschlagenen Suchbegriffe müssen ein bestimmtes Suchvolumen besitzen bevor sie von Google vorgeschlagen werden.

Beispiel anhand des Keywords “Suchmaschinenoptimierung“:
suggest
Die Berliner und die Münchner sollten mal die lokalen Branchenergebnisse auch in Kombination mit “Suchmaschinenoptimierung” verbessern (oder bin ich der Einzige, der keine Maps dazu sieht?). Die Meisten setzen wohl auf das Keyword “SEO” in Kombination mit der Stadt.

Wem die Suchbegriffsvorschläge von Google zu störend sind, der kann sie ganz einfach in den Einstellungen deaktivieren.

Über den Autor

Ernest Mavriqi ist Internet-Unternehmer und als Experte für Suchmaschinenoptimierung bei einer der bekanntesten Online-Marketing-Agenturen Deutschlands tätig.

Beim Überprüfen einiger Suchbegriffe in den Google News, ist mir heute die Google News Archiv-Suche und später dann noch die dazu passende Zeitachse zum Keyword aufgefallen.

Sucht man z. B. nach “Boris Becker” sieht man das er die beste Zeit hinter sich hat:
Boris Becker Google News Zeitachse
Archiv-Suche nach Boris Becker

1985 hat Boris Becker als erster Deutscher und jüngster Sieger mit 17 Jahren das Wimbledon-Turnier gewonnen! Google weiß natürlich dass der Name “Boris Becker” am häufigsten mit dem Jahr 1985 in Verbindung steht.

Bei der Suche nach “Beethoven” führt die Zeitachse sogar bis ins Jahr 1760! Und man erhält relevante Informationen über Beethoven aus dem Jahr 1760.
Beethoven Google News
Archiv-Suche nach Beethoven

Eine ziemlich coole Erweiterung! Mit dem Tool sind dann natürlich auch positive und negative Trends zu erkennen. Einfach mal selber testen: http://news.google.de/archivesearch

Über den Autor

Ernest Mavriqi ist Internet-Unternehmer und als Experte für Suchmaschinenoptimierung bei einer der bekanntesten Online-Marketing-Agenturen Deutschlands tätig.

Das Internet ist bekanntermaßen eine der wichtigsten Informationsquellen für Kaufentscheidungen und die Meinungsbildung über Dienstleister, Bewerber, Kooperationspartner etc. Und gerade für Unternehmen können daher einzelne, im Internet veröffentlichte, Negativ-Meinungen zum existenziellen Problem werden – vor allem dann, wenn die Kritiker für die Suche nach dem Anbieter oder dessen Produkte prominent platziert sind.

Da Google keine jedoch Einträge löscht, sofern diese nicht gegen gesetzliche Bestimmungen verstoßen, und die klassische Presse- und Öffentlichkeitsarbeit keinen adäquaten Schutz gegen ein gutes Suchmaschinen-Ranking von Neidern, Konkurrenten oder Wichtigtuern bietet, versuchen viele Unternehmen ihr Recht einzuklagen. (Wer wissen will, wie wenig sinnvoll das ist, möge mal “Seoline” googeln.)

Die Frage lautet daher: „Was kann man tun, wenn sich der Publisher beharrlich weigert, seine Meinung zu revidieren und ich das Problem nicht durch rechtliche Schritte verschlimmern möchte?“
Eine Antwort ist: Reputation Management SEO!

Rand Fishkin beschrieb dazu kürzlich in einem Blogpost die Methode des “Outrankings” zugunsten der eigenen Reputation, d.h. man verdrängt den ungeliebten Eintrag in den SERPs durch:

  1. Erstellung optimierter Inhalte zu dem entsprechenden Begriff + klassisches SEO.
  2. Das gezielte Publishing auf sehr starken und somit potenziell gut rankenden Plattformen.
  3. Die Verbesserung des Rankings bereits existierender Positiv-Meinungen durch Linkbuilding.

Auch wenn Randfish diese Methodik als sehr aufwändig und teuer bezeichnet, und Dan Larkin einst vom “SEO-Olymp” sprach, möchte ich anhand ein paar kleiner Beispiele zeigen, wie Reputation Management per SEO weder zutiefst manipulativ, noch unglaublich teuer sein muss:

  • SEAT listet auf der Übersicht für das Modell “Leon” aktuelle Pressestimmen. Würde man das etwas geschickter machen, wären die Testsiege sicher Top platziert für Suchkombinationen mit “Test” oder “Vergleich”.
  • Das “Seeding” von positiven Darstellungen der eigenen Produkte muss gar nicht selbst durchgeführt werden. Bittet oder belohnt man “Fans” seiner Marke für Berichte auf Meinungsplattformen – insbesondere dort, wo schon Negativ-Berichte vorhanden sind – füllen sich die SERPs mit wohlwollenden und gleichzeitig sehr glaubhaften Einträgen.
  • Befinden sich die Negativ-Meinungen in Foren, kann man durch weitere Einträge absichtlich Keyword Cannibalization hervorrufen und durch Backlinks deren Reihenfolge steuern.
  • Man kann auch Social Bookmarking oder Social News nutzen. Erstellt man hier einen optimiert getexteten Eintrag und nutzt die eigene Seite oder den eigenen Newsletter zur Unterstützung, kann man dank Aktualitätsbonus meist relativ schnell etwas bewegen.
  • Firmen, die ohnehin Gewinnspiele, Umfragen oder Pressearbeit machen, können durch eine geschickte Titulierung ihrer Veröffentlichungen die SERPs für bestimmte Suchkombinationen dominieren.
  • uvm.

Dass man negative Meinungen durch Reputation Management SEO nicht vollständig unsichtbar für alle Begriffe machen kann, sollte klar sein. Außerdem sollte nicht erst gehandelt werden, wenn das Kind in den Brunnen gefallen ist und die Gefahr besteht, dass einzelne Meinungen durch Dritte aufgegriffen, bestärkt und verbreitet werden. Daher empfiehlt sich in der Praxis, die proaktive Beeinflussung des Meinungsbildes in Suchmaschinen als festen Bestandteil einer Online-Kommunikationsstrategie zu integrieren.

Seitdem Google die Vorherrschaft des Internets übernommen hat, wünschen sich nicht wenige Marktteilnehmer etwas mehr Konkurrenz auf dem Markt der Suchmaschinen. Zu groß jedoch ist der technologische Vorsprung, zu ausgereift der Algorithmus von Google. Wo tausende Entwickler, Quality Rater und Millionen von Nutzern tagtäglich den Index verbessern haben es selbst Giganten wie Microsoft nicht einfach bemerkenswerte Reichweiten zu erlangen. Mittlerweile ist man sich wohl darüber einig, dass ein Emporkömmling Google nicht in der eigenen Disziplin schlagen kann, sondern etwas grundlegend Neues vorweisen müsste. Und dennoch, trotz vieler Versuche gibt es bis heute leider noch immer keine nennenswerte Konkurrenz, zu gleich sind die Angebote der Großen, zu klein die der Kreativen.

Mögest du in interessanten Zeiten leben

Eine chinesische Verwünschung lautet: “Mögest du in interessanten Zeiten leben”. Denn interessante Zeiten birgen in der Regel viel Potential für grundlegende Veränderungen der Wirtschafts- und Machtverhätlnissen. Und in der Tat, wenn man zu verstehen sucht, was es bedarf Google aufzumischen, muss man sich vergegenwärtigen, wie sehr die Welt einem ständigen Wandel unterliegt. Der Telefon löst die Telegramme ab, der Computer den Fernseher und Web 2.0 die statischen Riesen der ersten Internetgeneration. Wenn immer es zu drastischen Veränderungen kommt, werden die Karten neu gemischt und Machtverhältnisse neu verteilt. Genau aus diesem Grund haben viele Unternehmen in schnelllebigen Sektoren Probleme dauerhaft erfolgreich zu sein. Einmal groß geworden sind viele von ihnen zu unflexibel um rechtzeitig auf die Änderungen der Zeit reagieren zu können. Derartige Trägheit bedeutet wiederum Chancen für Startups welche die Probleme der Zeit lösen können. Bisher hat Google einen großartigen Job gemacht, ihre Fühler in die richtigen Richtungen auszustrecken und sich mit Produkten wie analytics, maps, gmail, youtube, feedburner und anderen strategisch ständig auf neue Gegebenheiten eingestellt oder sich zumindest bemüht die Optionen weitestgehend offen zu halten. Lässt man den Blick mit diesem ständigen Wandel im Hinterkopf aber mal in Richtung 1999 zurückschweifen, stellt man fest, dass Google in der damaligen Internetlandschaft mit seinem PageRank zwar ein Problem der Zeit gelöst hat, seitdem aber weitestgehend mit der strategischen Erweiterung seiner Marktstellung beschäftigt war. Mit Erfolg muss man sagen, denn selbst ähnlich gute oder gar etwas bessere Suchdienste würden Google wahrscheinlich nicht mehr den Rang ablaufen können. “Googlen” ist zu tief in den Köpfen der Menschheit verankert. Die stärkste Marke der Welt ist für zuverlässig funktionierende Einfachheit bekannt, der Mensch als Gewohnheitstier macht da keine unnötigen Experimente mit anderen Anbietern.

Was hat sich verändert?

In den Jahren seit 1999 ist natürlich unheimlich viel passiert, Google hat durch die Gewichtung von Links einem unstrukturierten Internet eine Rangordnung eingehaucht und das Internet hat sich von einem etwas einseitigen Konsummedium zu einer in sich kommunizierenden Cloud gewandelt. Daten werden immer spezifischer und ihre Formate immer konzentrierter, wo früher eine Fachzeitschrift gekauft wurde, werden heute nur einzelne Blogbeitrage gelesen. Menschen schließen sich in sozialen Netwerken oder Interessengruppen zusammen und tauschen im Instant Messanger, auf Facebook und natürlich Twitter ihre Erkenntnisse, Fundstücke, Errungenschaften und sonstigen geistigen Ergüsse aus. Was speziell bei geistigen Ergüssen oder fliegenden Schafen etwas aberwitzig klingen mag sind in der Regel auf mich zugeschnittene und somit hochrelevante Informationen. Ähnlich wie bei meinem Google Reader erreichen mich nur Information von Leuten die ich als relevant eingestuft habe. Es hat also eine grundlegende Richtungsänderung stattgefunden – wo früher Informationen gesucht werden mussten, kommen heutzutage die Informationen auf mich zu.

Sag mir mit wem du gehst, und ich sage dir was du suchst

Was Google schon vor Jahren richtig erkannt hat, ist das auch Ihre Informationsbeschaffung immer umfangreicher werden muss, wo früher der Link von Webseite A zu Webseite B als Qualitätskrierium ausgereicht hat, mussten bald weitere Hintergrundinformationen mit einfließen. Als auch dies nicht mehr ausreichte, wurden der in die Jahre gekommene PageRank von einem Trustrank abgelöst und mittels der gigantischen Reichweite von Google Nutzungsdaten gesammelt. Und dennoch, trotz allem Sammeln, Speichern und Verwerten bleibt Google doch immer nur der stille Beobachter, maximal fähig mathematische Schlüsse aus mehr oder weniger anonymen Benutzerdaten zu ziehen. Die Versuche unter Einbeziehung von Digg und anderen Social Media Diensten eine virale Komponente mit in den Algorithmus einfließen zu lassen kann man zwar erfolgreich nennen, aber auch sie kratzen eigentlich nur an der Oberfläche dieses neuen Internets. Um wirklich tiefgreifend verstehen zu können wie soziale Gruppen oder Interessengemeinschaften mit einander interagieren, braucht man nicht statistische sondern echte, personenbezogene Daten…

Wie Facebook Twitter Konkurrenz machen wird

Als ich das neue Layout von Facebook letzte Woche in der Vorschau zum ersten Mal sah, ist mir nicht direkt aufgefallen was diese Design Änderung eigentlich für Auswirkungen haben könnte. Erst als ich später über den Spiegel Artikel Facebook baut sich zur Webschwatzbude um gestolpert bin und mir das Techcrunch Interview mit Ex Googlerin Sheryl Sandberg sowie die gescheiterte $500 Mio Übernahme von Twitter ins Gedächtnis rief, setzten sich die Stücke bei mir langsam zusammen. Was Facebook da eigentlich baut ist nicht nur ein Live Stream, sondern könnte vielmehr zu einem gigantischen Internet Aggregator werden. Denn dank der neuen Pages kann ich nicht nur mich mit Millionen von Fans, Supportern oder Kunden verknüpfen, sondern diese auch mittels meiner Statusmeldungen und anderen Aktivitäten auf dem Laufenden zu halten – sämtliche Änderungen kommen direkt in die Livefeed meiner Entourage. Im Gegensatz zu Twitter ist Facebook dabei kein aufstrebendes Startup sondern vermutlich bereits an die 200 Millionen User schwer und auf dem besten Wege die meistbesuchteste Website der Welt zu werden. David gegen Goliath also und darüber hinaus auch ungleich mehr Möglichkeiten sich auf Facebook zu präsentieren. Bei gays.com z.B. haben wir neben unserem Twitter Account sehr viel Energie in den Aufbau der Facebook Page gesteckt, über welche wir jetzt unsere Blogbeiträgen verbreiten, Events planen, oder Newsletter an unsere 18.000 Fans schicken können. Twitter kann da nicht mithalten.

Wenn man sich zu Gemüte führt wie Dell nach eigenen Angaben $1 Mio. Umsatz durch Twitter generiert hat und Obama seinen Wahlsieg unter anderem der ausgezeichneten Kommunikation mit fast 6 Millionen Facebook Supportern und annähernd 400.000 Twitter Folgern zu verdanken hat, wird klar was für ein gigantisches Potential in der Verknüpfung von Nutzermassen mit Unternehmen liegt. Mit bereits einem Fünftel der Internet Bevölkerung und noch immer 2stelligen Wachsumsraten in den bevölkerungsstarken asiatischen Ländern wird Facebook bald das zentrale Bindeglied zwischen Produkten, Firmen, Persönlichkeiten und den Menschen dieser Welt darstellen. Als Betreiber der Datingseite Poppen.de habe ich mich immer gefragt, warum Facebook nicht einfach einen Premiumaccount anbietet, um so sicherlich 1% der Nutzer zu regelmäßigen Zahlern zu machen. Nun habe ich verstanden, dass sie ihr Geld wahrscheinlich ganz wo anders machen werden…

Facebook Connect als sozialer Aggregator

Doch mehr noch, mittels Facebook Connect und den Social Applications können nun auch noch meine Aktivitäten von anderen Seiten in meinen Livefeed gestreamt werden. Eine Art Beacon 2.0 also, nur dass Webseiten dieses Mal nicht freiwillig bei Facebook einbuchen werden um Werbung zu machen, sondern früher oder später nicht umhinkönnen auch mit Facebook verküpft zu sein wenn sie ein Stück vom Traffic Kuchen abbekommen wollen. Das Endresultat wird je nach Privatsphäre-Einstellungen also ein universeller Feed für die Internet-Aktivitäten meiner Freunde, Produkte und Businesspartner. Über die Möglichkeit meine Facebook Freunde in Gruppen einzuteilen, kann ich dann leicht zwischen dem gebündelten Livefeed von Familienmitgliedern, Freunden und Geschäftspartnern unterscheiden, ich würde könnte mir sogar vorstellen, dass mein geliebter Google Reader bald überflüssig werden könnte, da immer mehr Blogger ihre RSS Feeds mit ihren Facebook Accounts verbinden werden.

Die Informationen kommen auf mich zu

Wenn ich mir nun noch mal die neue Facebook Startseite anschaue, fällt mir darüber hinaus auf wie “Share” das zentrale Element der Homepage geworden ist. Facebook hat erkannt, dass die relevantesten Informationen heute nicht mehr gegoogelt werden müssen, sondern mir über die “Shares” meines digitalen sozialen Netwerkes ganz natürlich zugetragen werden. Ich stelle mir vor, wie zum Beispiel ein Forscher in Zukunft neben der Unterteilung in Familie und Freunde (links im Screenshot) auch noch Gruppierungen “Forscher”, “Gesundheitsministerien”, “Firmen” etc. in seinem Facebook Stream hätte. Mit einem Klick kann er dann schnell sehen, was es alles Neues in der Welt von BASF, Ulla Schmidt oder den Forscherkollegen gibt.

Vielleicht muss man Google gar nicht besser machen, vielleicht muss man einfach nur die Zeichen der Zeiterkennen und entsprechende Produkte liefern?

Facebook als Google Killer

Es ist natürlich gewagt eine solche reißerische Aussage zu machen, doch wenn überhaupt eine Firma Google Konkurrenz machen könnte, dann ist es Facebook. Vielleicht nicht wegen, aber auf jeden Fall zu einem großen Teil dank Microsofts großzügiger Bewertung von 15 Milliarden für Facebook, wurden so auch Türen geöffnet und dem heimlichen Ziehsohn ein bisschen Ruhe beim Entwickeln und vor anderen Angeboten durch Microsoftkonkurrenten gewährt.

Ob Microsoft irgendwann mal ihre Live.com Suche in Facebook integrieren wird bleibt reine Spekulation. Fakt ist auf jeden Fall, dass ein Haufen guter Google Mitarbeiter sich entschieden haben zu Facebook zu wechseln. Fest steht auch, dass Facebook vorallem Dank des intelligenten Adservers mittlerweile die Möglichkeit haben dürfte, seine User in thematische Gruppen einzuteilen, und auch deren Gewohnheiten tracken könnte.

Mit Wissen, was bestimme Usergruppen auf Facebook an Informationen und Links teilen und wie andere Usergruppen das zu schätzen wissen (I like this/ I dont like this), hätte man durchaus eine echte Alternative  zu Googles TrustRank entwickelt. Würde man dann noch das Klickverhalten dieser Usergruppen in den SERPS tracken und meine Suchergebnisse anhand dieser Daten und meinem direkten sozialen Umfeld optimieren müsste Google sich wahrscheinlich warm anziehen.

Wie auch immer es kommen wird, es wird spannend bleiben und ich freu mich drauf.

Bitte nicht zögern, Eure Kommentare sind willkommen und sogar gewünscht 😉

P.S. Dieser Beitrag ist auch in englischer Sprache unter julius-dreyer.com zu finden.

Ich muss schon sagen, die SeoCampixx hat mich wirklich positiv überrascht. Marco und die Macher haben einen dollen Job gemacht, die Veranstaltung professionell organisiert und damit allen Anwesenden ein tolles Wochenende im Hotel Müggelsee (am Ende der Welt) ermöglicht. Mit drei Worten – ein voller Erfolg!

seocampixx09 003

seocampixx09 485 seocampixx09 486 seocampixx09 432 seocampixx09 116

So ziemlich alles was Rang und Namen hat ist auf der Konferenz erschienen. Von der großen Telekom bis zur kleinen SEO-Klitsche war alles vertreten. Die SeoCampixx war mit 350 Teilnehmern voll ausgebucht, eine beachtliche Leistung die Marco und Co. da hingelegt haben. Viele interessante Vorträge, üppige Pausenzeiten für das Networking zwischendurch, ausreichend Getränke und Verpflegung und eine Menge Fun, das ist der Stoff, aus dem ein unterhaltsames Wochenende gewebt wird.
Thomas Promny und Alan Webb

Endlich wurde auch die Frage beantwortet, wer der größte SEO Deutschlands ist. Alan Webb oder Thomas Promny – das war hier die Frage. Doch seht selbst, das obige Foto gibt euch den entscheidenden Hinweis dazu. Thomas geht im Fotofinish eindeutig als Sieger hervor.

Ein weiterer Gewinner dieser Verantaltung dürften die Jungs von Seo-United gewesen sein, sie konnten sich mit einigen SEOs der Szene wieder vertragen. Nur bei Stereophone wurde Heiner Hemken noch etwas handgreiflich, wie das folgende Bild demonstrieren sollte.
Stereophone und Seo United

Alles in allem war es eine schöne Veranstaltung, vielleicht mit leichten Abstrichen beim Mittagessen. Den Auftritt der toten Crackhuren habe ich leider im wahrsten Sinne des Wortes verpennt, aber Gerüchten zufolge soll das kein großer Verlust gewesen sein. Und gemessen an den Musikeinlagen bei Radio4SEO hatte ich das auch nicht anders erwartet. Der Rest der SeoCampixx verlief umso erfreulicher. Zum Abschluss noch ein zufälliger visueller Querschnitt durch das Wochenende.

seocampixx09 076seocampixx09 038seocampixx09 039seocampixx09 051seocampixx09 058seocampixx09 073seocampixx09 075seocampixx09 106seocampixx09 128seocampixx09 137seocampixx09 165seocampixx09 161seocampixx09 172seocampixx09 176seocampixx09 242seocampixx09 213seocampixx09 251seocampixx09 312seocampixx09 349seocampixx09 363seocampixx09 391seocampixx09 407seocampixx09 518seocampixx09 533seocampixx09 529

Noch mal vielen Dank den Veranstaltern Marco, Nicole, Denis, Markus und Sammy 🙂

Und hier findet ihr alle SeoCampixx 2009 Bilder auf Flickr.

Die Seo-Meldung des Tages. Die Firma von Johannes Beus, die Sistrix GmbH, wurde gestern von der Seoline Gmbh abgemahnt. Grund soll ein alter Blogpost sein, in dem in einigen Kommentaren despektierlich über die Firma Seoline hergezogen wurde. Dass Abmahnungen aber nicht immer die sinnvollste Lösung eines Problems sind, schon gar nicht im Web, hat Randolf Jorberg in seinem Artikel Seoline GmbH übt sich im Abmahnungs-Linkbait – kleines 1×1 sehr schön dargelegt. Eine solche Aktion geht fast immer auch nach hinten los. Und wenn man das in einem Umfeld wissen sollte, dann im Seo und Marketing Umfeld.

Und so kommt es wie es kommen musste, die Seo-Szene reagiert wie immer empfindlich auf so einen Abmahn-Fall und solidarisiert sich mit dem Abmahn-Opfer. Welche Kreise die Sache noch ziehen wird ist noch nicht klar, aber eines scheint schon jetzt sicher, mit dieser Abmahnung hat sich Seoline seinen Ruf noch ein Stückchen mehr ramponiert.