Der erste Tag am Müggelsee ist um. Neuer Tag, neues Glück. Auch am zweiten Tag lachte die Sonne den Frühaufstehern freundlich ins Gesicht. Das konnte nur gut werden. Dachte sich auch der Veranstalter und legte eine flotte Sohle aufs Parkett.

marco-tanzt Veranstalter Marco Janck tanzt den M3-Campixx Shuffle.

Die Frühstücksgespräche liefen locker ab. Sowohl drinnen im Hotel als auch draußen.

IMG_3439

Und weil es so schön draußen war, hielt Mala Ullal ihre Session “Authentic Entrepreneurship” im Freien ab. Im weiten Rund des Innenhofes lauschten rund 20 aufmerksame Teilnehmer ihren Worten und Anweisungen.

IMG_3452

Und während draußen eine Frau in der Mehrzahl von Männern verfolgt wurde, war es drinnen genau anders herum. Die Frauen waren in der Überzahl. Kein Wunder, denn Alexander Posselt referrierte hier über das Thema “Female Shopping”.

IMG_3474IMG_3469

Maximilian muss sich gefühlt haben wie der Hahn im Korb. Ich glaube er dachte gerade “Ich könnte schreien vor Glück” 😉

Im selben Raum, aber eine halbe Stunde später, ging es zwar nicht darum zu schreien, weder vor Glück noch vor Wut, sondern eher darum, wie man entspannt durch den beruflichen Alltag kommen kann.

IMG_3538 Mood Management von Kai Paulsen machte den Teilnehmern Mut, sich selbst besser zu managen.

Zwischenzeitlich hatte ich auch noch einen Abstecher in die Session von Jörg Wukonig gemacht. Frei nach dem Motto “Mein Marketingproblem sucht eine kreative Lösung” wurde in lockerer Runde über Probleme und mögliche Lösungen nachgedacht und diskutiert.
IMG_3510 Live Marketing Crowdsourcing mit Jörg Wukonig, ganz smart präsentiert.

IMG_3486 Kommunikation ist alles. Die Gruppe hätte am liebsten noch eine Stunde länger diskutiert, doch leider reichte die Zeit nicht dafür 🙂

Beim Weg durch die Gänge bin ich dann auch einmal kurz beim 3D Drucker Stand hängen geblieben.
IMG_3524 Ganz nett, was man sich heutzutage für rund 1000 Euro schon zusammenbasteln kann.

Dann war da noch ein Intermezzo der besonderen Art. Ich versuchte einen Blick vom zweiteiligen Workshop “Wie macht man einen Workshop” zu erhaschen, um dann überrascht festzustellen, dass man einen Workshop hinter verschlossen Türen macht, damit keine Störenfriede alles wieder durcheinander bringen. Die Tür zum Vortragsraum war verschlossen. Und zwar von innen. Ich sah mich also genötigt nach draußen vors Fenster zu wandern und mit Gesten um Einlass zu bitten. Ich hatte Glück. Sören “Eisy” Eisenschmidt ließ Gnade vor Recht ergehen und öffnete mir die Türe zum Workshop 🙂
IMG_3608

So landete ich doch noch inmitten des Workshops. Vorne weg mit Sebastian Vogt und Sören Eisenschmidt.
IMG_3576IMG_3606

Die beiden Vortragenden arbeiteten mit Flipchart und Karten und läuteten gerade die zweite Runde ein.
IMG_3597

Unter den Workshop Teilnehmern fanden sich neben Heiko Stiegert noch einige weitere bekannte Gäste, bemerkenswerter Weise aber nur ein Mädel.

Nachdem mich Eisy wieder zur Tür hinaus gelassen hatte, trieb es mich erst einmal raus an die frische Luft, wo Caroline Kliemt ihren Gästen beibrachte, wie man inspirierter präsentieren kann.
IMG_3656

Die Funke der Inspiration war auf die Teilnehmer übergesprungen, so dass ganze Beifallsstürme durch den Innenhof hallten.

IMG_3657

Ok, da ging die Phantasie mit mir durch. Aber glaubt’s mir, Spass gemacht hat es den Teilnehmern 🙂

Um keinen Preis wollte ich dann den Vortrag von Netzninja Markus Laue verpassen.
IMG_3780

Markus zeigte uns, wie man mit teilweise nur sehr kleinen und einfachen Eingriffen glücklichere Kunden trotz, aber auch dank höherer Preise gewinnen kann.
IMG_3774 Auch das Publikum war engagiert bei der Sache und sorgte für die eine oder andere Diskussion. Nicht alles Gelernte darf veröffentlicht werden, Markus legte wert auf Diskretion.

Katja Köhler arbeitet gerne mit Menschen zusammen und bringt ihnen bei, wie man mit Struktur und Kommunikation, gerade im KMU Umfeld, weiterkommen kann.
IMG_3841 Dem Vernehmen nach soll der Vortrag sehr unterhaltsam gewesen sein und den Teilnehmern gut gefallen haben.

Last but not least galt es den Vortrag über Implizite Codes und Behavioral Patterns von Alexander Staats zu besuchen.
IMG_3871

Ein sehr interessanter Vortrag über psychologische Wirkprinzipien. Insbesondere die mehrfache Erwähnung von Karl Kratz als Beispiel für eine erfolgreiche Umsetzung hatte Charme & Witz.

IMG_3876Denn eines steht außer Frage. Wenn einer die Wirkprinzipien verstanden und clever umgesetzt hat, dann der gute Karl 🙂

So langsam kam dann Aufbruchstimmung auf. Das M3-Campixx Team packte seine Siebensachen ein, die ersten Teilnehmer machten sich auf den Nachhausweg.

IMG_3891-konv

Und ich begab mich zum großen Lexware Raum, um dort der Abschlussrede von Marco Janck beizuwohnen.

IMG_3919Dieser bedankte sich beim Publikum, beim Team und bei seinem Eventmanager Stefan Rudolph.

IMG_3926Viele Teilnehmer hatten bis zur Abschlussveranstaltung ausgeharrt. M.E. sogar mehr als bei den letzten Seo Campixxen. Interessant.

IMG_3959Das war’s dann vom offiziellen Teil. Letzte Gespräche, dann ging’s an den Abbau der Gerätschaften.

Und dann wurde es Zeit für den Abschied vom Müggelsee. Mir haben die zwei Campixx Tage sehr gut gefallen. Es gab viele Gespräche, auch und gerade draußen an der frischen Luft. Das tolle Wetter machte es noch erfreulicher. Seo wurde kaum thematisiert. Das Ganze war deutlich stressfreier und entspannter als auf der letzten Seo Campixx. Mein Zimmer lag optimal, so kurze Wege musste ich noch nie gehen 🙂

Mein Dank an Marco, sein Team und alle Referenten und Gäste. Gemeinsam sind wir stark 😉

IMG_3972

Und dann gings heimwärts mit der Bahn. Doch das war ein ganz besonderes Kapitel, über den ich den Mantel des Schweigens ausbreite.

Auf Wiedersehen und bis zum nächsten Jahr.

Eine Website besteht aus vielen Einzelseiten. Je älter sie ist und je umfangreicher, umso komplizierter wird es, Zahl und Struktur aller Seiten im Auge zu behalten und Probleme darin zu finden. Technisch gesehen, erzeugt sogar jeder verwendete URL-Parameter in Kombination mit seinem Wert eine neue Seite. Gerade, wenn es dann darum geht, Stolpersteine aufzudecken und Optimierungen durchzuführen, hilft Handarbeit in Form von manuellen Analysen vielfach nicht weiter.

Gleichzeitig verlangt eine verstärkte Tendenz hin zu mobil verwendbaren Websites eine Beachtung aller möglichen Fallstricke, die die Ladezeiten von Seiten negativ beeinflussen. Nachdem nun die Telekom eine Datendrosselung ihrer DSL-Anschlüsse eingeführt hat, ist selbst die großflächige Verfügbarkeit schneller Internetverbindungen keine Ausrede mehr für langsame Websites – ganz abgesehen davon, dass Suchmaschinen wie Google ganz offiziell schnelle Websites bevorzugen.

Fragen zu diesem Thema laufen mir im SEO-Alltag deshalb regelmäßig über den Weg. Schließlich ist die technische Optimierung der eigenen Website einer der drei Grundpfeiler für die Optimierung – und vor allem etwas, was der Websitebetreiber i.d.R. selbst in der Hand hat. Zentrales Element technischer Analysen sind für mich nach wie vor eigene Crawls der Kundenwebsites. So finde ich relativ schnell Probleme, mit denen auch Suchmaschinencrawler auf diesen Websites konfrontiert werden.

Bekannte Tools, denen jeder SEOler regelmäßig begegnet, sind Xenu’s Link Sleuth, Microsofts IIS SEO Toolkit oder der Screaming Frog – alle kostenfrei oder sehr günstig verfügbar und für den alltäglichen Gebrauch durchaus hilfreich. Dennoch haben alle drei ihre speziellen Anforderungen und natürlich ihre Grenzen. Gerade bei extrem umfangreichen Websites begeben wir uns hier regelmäßig an das Limit der Möglichkeiten. Ich war deshalb sehr froh, dass ich kürzlich die Gelegenheit bekam, ein noch recht junges Tool zu testen, dessen Entwickler sich zum Ziel gesetzt haben, genau diese Grenzen nicht zuzulassen: strucr.com.

Grundsätzlich ist strucr.com in vier Varianten verfügbar. Eine kostenfreie Schnupperversion taugt zum Kennenlernen und erlaubt das Analysieren kleiner privater Websites. Geht es um eine Erweiterung des Umfangs sind nach oben fast keine Grenzen gesetzt:

Die unterschiedlichen Pakete von strucr.com

Dabei zielt strucr.com ganz klar auf den Einsatz im Enterprise-Bereich. Sämtliche Daten, die der Crawler erhebt, sind via API abrufbar und können so in eigene Tools und Auswertungen integriert und mit Daten aus anderen Anwendungen kombiniert werden. Ganz klar, dass die Entwickler von strucr.com deshalb enorme Anforderungen an die Qualität der Daten stellen. Bugs und Fehler dürfen hier einfach nicht passieren und müssen – sollten sie doch einmal auftreten – in kürzester Zeit behoben werden. Zur Qualitätssicherung muss der Crawler regelmäßige Tests gegen seine eigenen Bugs und natürlich seine Mitbewerber bestehen. Nach eigenen Aussagen, schaffen alternative Crawler gerade mal 65% dieser Tests.

Gleichzeitig liefert strucr.com den Großteil seiner Daten in absoluter Rohform und versucht Interpretationen weitestgehend zu vermeiden. Gegenüber einigen Wettbewerbern wirkt das zwar relativ plump und nicht so „hübsch“, hat aber den großen Vorteil, dass die Auswertung der Daten dem Kunden selbst überlassen bleibt, was gerade bei Verwendung der API sehr vorteilhaft ist. So können die gefunden Fehler im Kontext der Website selbst interpretiert werden. Es gibt einfach „Fehler“, die durchaus ihre Daseinsberechtigung haben. So kann beispielsweise eine große Anzahl an Seiten mit dem Meta-Tag robots=“noindex,nofollow“ für einen Shop typisch sein und sollte deshalb nicht zwangsläufig als negativ bewertet werden. Für ganz konkrete Fragestellungen oder zur Behebung komplexer Probleme sind die Entwickler hinter strucr.com übrigens auch gern bereit, weitere Features in ihren Crawler zu integrieren oder mit sehr speziellen Parametern zu crawlen.

Technisch steht hinter dem Tool eine solide IT-Infrastruktur, die bei dem Umfang der erhobenen Daten aber auch notwendig ist. Wer einmal versucht hat, die Website eines Onlineshops mit 200.000 Produkten und zahllosen Parametern (z.B. SessionIDs) mit einem der herkömmlichen Tools zu crawlen, wird – einen leistungsstarken PC vorausgesetzt – nach spätestens 12 Stunden verzweifelt sein. Im Agenturalltag passiert es mir in solchen Fällen nicht selten, dass zwischendurch entweder die IT des Kunden meine IP-Adresse blockiert oder mein Telefon klingelt und es Beschwerden hagelt. Im Gegensatz zu herkömmlichen Tools läuft strucr.com hingegen auf einem eigenen Server. Die Geschwindigkeit des Crawlvorgangs kann individuell abgestimmt werden. Um Einbrüche bei der Performance der gecrawlten Website zu vermeiden, kann und muss der Crawl daher mit der zuständigen IT-Abteilung abgestimmt werden.

Schauen wir uns aber mal die Auswertung, die strucr.com standardmäßig für einen Crawl liefert, beispielhaft anhand der Website eines relativ großen deutschen Reiseanbieters an. Die Basisfeatures verstehen sich fast von selbst und sind schnell erklärt:

  • Anzeige beim Crawl gefundener Fehler mit konkreter Fehlerangabe, URL und Ladezeit
  • Anzahl der gecrawlten Seiten, gefundenen Links und Ebenen, in denen die Seiten strukturell organisiert sind
  • Anzahl der Seiten sortiert nach Typ (z.B. Nofollow, External) und http-Status (z.B. 301/302-Weiterleitungen, 404-Fehler)
  • Gecrawlte Domains und Subdomains (intern und extern) mit Anzahl eingehender und ausgehender Links
  • Anzahl eingehender und ausgehender Links pro gecrawlter Seite

Darüber hinaus erhebt strucr.com weitere Daten und Reports, die im Hinblick auf eine umfassende Websiteoptimierung extrem hilfreich sind:

Seiten nach Ladezeit

Während des Crawls werden die reinen HTML Response Times der Seiten gemessen und aufgezeichnet. So lassen sich schnell Probleme bei der Seitengröße identifizieren und damit die Seiten gezielt auf Geschwindigkeit optimieren.

Aufschlüsselung der Seiten nach Antwortzeiten

Mein Crawl zeigt mir beispielsweise auf den ersten Blick, dass meine Website bei den Ladezeiten zwar schon ein ganz gutes Bild abgibt, ich aber gerade im 200-300ms-Bereich noch einige Ausreißer habe, die ich mir einmal ansehen sollte. Ein Klick auf den Eintrag liefert detaillierte Informationen zu den Seiten, um die es sich dabei handelt. Offensichtlich sind dies Seiten, bei deren Bereitstellung im CMS viele verschiedene Informationen, wie z.B. Buchungszeitraum, Verfügbarkeit, Anzahl der Personen usw., berücksichtigt werden. Das sollte ich mir mal näher anschauen und eventuell die Zahl der Abfragen verringern. Hier ist es übrigens gut, dass strucr.com die Daten nicht interpretiert, denn ich weiß ebenso, dass es sich um Seiten handelt, die ich mit „noindex, nofollow“ markiert habe. Diese Aufgabe hat für mich aus SEO-Sicht deshalb keine hohe Priorität. Im Hinblick auf Usability und User Experience hingegen, sollte ich hier bei Gelegenheit trotzdem aktiv werden.

Seiten mit Anmerkungen

In dieser Übersicht liefert strucr.com eine Liste mit Anmerkungen zu meinen Seiten und die Zahl der Seiten, die zum jeweiligen Kriterium passen.

Seiten aufgeschlüsselt nach Hinweisen

Die für mich aus SEO-Sicht besonders interessanten Hinweise habe ich gelb markiert. Hier sollte ich mir vor allem die Page Titles, Metadaten und Alt-Attribute anschauen, um meine Keywords besser einzusetzen und in den Suchergebnissen besser dazustehen. Gleichzeitig kann ich durch Auslagerung von CSS und Skripten sowie Größenangaben bei den Bildern bessere Ladezeiten bei meinen Seiten erreichen. Und nicht zuletzt sollte ich mir auch meine URL-Struktur einmal anschauen. Welche Fälle das genau betrifft, kann ich mir in diesem Report mit einem weiteren Klick auflisten lassen und zum Beispiel als Excel-Datei exportieren, die ich dann gezielt abarbeite. So brauche ich nur die Seiten anzufassen, die es wirklich betrifft.

Seiten und Content nach Level

Wie weit müssen Nutzer von der Startseite bis zu meinen wichtigsten Seiten bzw. meinem wichtigsten Content klicken? Diese Frage ist im Hinblick auf Usability und User Experience extrem wichtig, denn „verstecke“ ich meine wichtigsten Inhalte zu tief innerhalb meiner Websitestruktur, sind sie unter Umständen nicht auffindbar und bleiben deshalb unbeachtet.

Crawlbare Seiten nach Ebenen

Alle Urls nach Ebenen

Hier gibt es bei meiner Website nichts zu bemängeln. Nutzer werden auf den ersten Ebenen nicht mit Inhalten erschlagen, finden aber bei weitergehender Recherche mit wenigen Klicks auch umfangreichere Informationen. Wäre es anders, fände ich hier sicher gute Ansatzpunkte zur Verbesserung der internen Verlinkung.

Seiten mit hohem 2D-Rank

Zur Berechnung der Stärke einer Seite verwendet strucr.com zwei relativ leicht zu erhebende Werte: den PageRank, der von strucr.com selbst auf Basis der eingehenden Links pro Seite berechnet wird, und den sog. CheiRank, der auf der Anzahl ausgehender Links basiert. Der von strucr.com berechnete PageRank hat mit dem von Google bekannten Wert allerdings wenig zu tun. Lediglich das zugrunde liegende mathematische Rechenmodell ist gleich, ansonsten ist der Wert hier glücklicherweise von Google unabhängig. Aus der Kombination von Page- und CheiRank bekommt man schließlich ein gutes Bild seiner stärksten und wertvollsten Seiten. Tauchen in dieser Liste vorrangig URLs auf, die keinen Wert für das Unternehmensziel bzw. Ziel der Website haben, sollte man an der internen Verlinkung arbeiten.

Abschließende Worte

Wie bereits erwähnt, sind alle von strucr.com erstellten Listen und erhobenen Daten per API verfügbar und können ebenso als CSV, TSV oder Excel-Datei heruntergeladen werden. So steht einer individuellen Weiterverarbeitung nichts im Wege. Gerade für Agenturen oder große Unternehmen ergeben sich damit viele Möglichkeiten. Gleichzeitig sind Freigaben aller Crawls und Accounts über bis zu vier verschiedene Nutzerrollen möglich. So sind beispielsweise jederzeit Freigaben für Kunden oder andere Abteilungen möglich, die sich gern selbst ein Bild von den Daten machen möchten.

Die Einsatzbereiche von strucr.com sind vielfältig. Im Agenturbereich sind eine einmalige Verwendung für eine konkrete Analyse, aber auch ein dauerhafter Einsatz für laufende, vor allem Technik-bezogene Optimierungen denkbar. Gerade Agenturen mit starkem technischem Fokus bekommen hier über den Crawler hinaus einen Partner, dem kein Problem zu komplex ist. Ebenso vorteilhaft ist aber auch der Einsatz von strucr.com im Unternehmensalltag. Von der IT- bis zur E-Commerce- oder SEO-Abteilung können hier alle profitieren. Warum nicht gleich strucr.com im Deploymentprozess einbinden um Änderungen an der Website vor dem Live-Gang direkt auf Herz und Nieren zu testen?

 

Über den Autor:

André Scharf ist Senior SEO Account Manager bei LBi und Betreiber eines eigenen Blogs.