Matt Cutts, Googles Spamhausmeister, berichtet hier über die interne Diskussion, wie in Zukunft das noindex-Meta-Tag behandelt werden soll.

Im Moment wird eine mit noindex markierte Seite vom Spider besucht und alle Links werden auch korrekt verfolgt (wenn nicht noch ein nofollow mit angegeben wird), jedoch wird die Seite selber nicht im Index aufgenommen. Google liefert keine Suchergebnisse dafür aus .

Nun wird darüber diskutiert, ob es nutzerfreundlicher ist wie bei MSN und Yahoo zumindest einen Link auf diese Seite zu liefern. So würden explizite Suchen nach diesen Seiten erfolgreiche Ergebnisse liefern und somit unwissenden Webmastern das Leben vereinfacht werden.

Als Lösung dazwischen könnte Google versuchen nur “gut bekannte” Seiten anhand des DMOZ und anderen Quellen mit dem einfachen Link beglücken.

Mir ist immer noch schleierhaft warum diese Diskussion überhaupt aufkommt.

Als Webmaster und SEO will ich entscheiden können was in den Index kommt und was nicht. Ich habe zwar noch die Möglichkeit per robots.txt den Spider fernzuhalten, aber das verhindert auch das die Links auf diesen Seiten verfolgt werden. Mit noidex hab ich aktiv der Suchmaschine mitgeteilt das diese Seite, aus welchen Gründen auch immer nicht, nicht in den SERPS auftauchen soll.

Google hat keine Möglichkeit zu erkennen, ob der Tag aus Versehen da steht oder nicht.
Es steigert auch in keinster Weise die Benutzerfreundlichkeit wenn plötzlich Suchergebnisse ohne Beschreibung auftauchen oder der Benutzer auf Seiten kommt,auf denen ich ihn nicht haben will.

Was ist eure Meinung dazu ?

8 Kommentare
  1. Alex
    Alex sagte:

    Da bin ich genau deiner Meinung, die Diskussion ist eigentlich sinnvoll. Irgendwo hat Googles Methode und die von MSN, Yahoo sicher auch, beidermaßen Vorteile, aber Google wird damit sicher nicht die Benutzerfreundlichkeit beeinflussen und wenn doch, dann eher ins negative.

  2. Centershock
    Centershock sagte:

    ich finde die Diskussion auch total überflüssig. Noindex ist noindex. Man könnte vielleicht in den Webmastertools einen punkt einfügen, der den Webmaster warnt, das einige seiten mit noindex gesegnet sind. Das wäre sicherlich besser also selber zu entscheiden was der Webmaster wirklich will.

  3. Wini
    Wini sagte:

    Hmmm, was daran die Benutzerfreundlichkeit steigern soll, wenn der Google-Nutzer vermehrt Impressums-, AGB- oder sonstige Seiten bei seiner Suche findet, ist mir ebenfalls schleierhaft…

  4. Html-Metatags
    Html-Metatags sagte:

    Das sehe ich ganz genauso wie Du. Auch ich möchte vollkommen selbständig entscheiden können, ob meine Webseite im Google-Index erscheint. Die einzige Möglichkeit bisher ist “noindex”-Metatag (bzw der Eintrag in der Robots.txt)

Trackbacks & Pingbacks

  1. […] Die Zukunft des meta tags noindex. weitere beliebte Artikel:9 Quick Tipps zur Sicherheit – oder Hilfe mein Blog wurde gehacktSEO für WordPress – doppelter Content – Feeds mit noindex belegen […]

  2. […] Mit der Robots.txt kann ein Webmaster kontrollieren, welche Unterseiten seiner Website von Suchmaschinen indiziert werden sollen. Eine robots.txt ist leicht zu erstellen, man benötigt nicht mehr als einen Texteditor. Dennoch greifen viele Webmaster gerne auf Tools zurück, die den Prozess automatisieren. Die bekannteste Alternativ ist der Meta-Tag noindex. […]

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.