Webseite findbar machen

Die Suchmaschinen schicken automatisierte Programme durch das Internet, die Webseiten finden und einlesen sollen. Welche Webseiten gefunden werden bestimmen die Programmierer dieser Programme. Diese Programme werden "Bots", "Spider" oder "Crawler" genannt. Wer mit den eigenen Log-files auf seinen Server umgehen kann, kann feststellen, welcher Bot die Seite wann besucht hat. Die Bots der Suchmaschinen indexierung die Seiten einer Domain - es gibt aber auch "fiese Bots", die zum Beispiel von email-spammern zum Sammeln von emailadressen ausgeschickt werden.

Vor jeder Suchmaschinenoptimierung steht die Frage, ob eine Webseite überhaupt gefunden werden kann. Kann der Google-Bot die Seite überhaupt lesen?

Kann meine Webseite indexiert werden?

Google gibt in seinen Guidelines für Webmaster eine Reihe von Tipps, worauf man achten soll. Google unterscheidet dabei zwischen Design, Content und technischen Guidelines und Quality Guidelines. Für die Frage, ob eine Webseite indexiert werden kann, geht es um die Technischen Richtlinien.

Auf folgende Dinge weist die Suchmaschine hin:

  1. Scheuen sie sich Ihre Seite einmal mit einem „Text Browser“ wie Lynx an. Alles, was sie hier nicht sehen, wird der Such-Spider auch nicht finden. Dies schließt insbesondere Elemente wie Cookies, Session IDs, Frames, DHTML oder Flash ein. Insbesondere wer eine Aufwendige Programmierung einer Flash- Seite bezahlt hat, wird sich bereits an dieser Stelle ärgern: Keine Suchmaschine kann Flash-Filme einlesen – der ganze Inhalt einer solchen Seite wird immer vor Suchmaschinen versteckt sein. Auch was auf einem Bild geschrieben steht oder was in einem Mp3-File gesagt wird, ist für eine Suchmaschine nicht lesbar.
  2. Achten Sie darauf, das sie die Bots nicht aus Versehen aussperren. Wenn ein robots.txt vorhanden ist, sollten die Suchmaschinen-Bots im öffentlichen Teil nicht ausgesperrt werden. Eine Falle für zum Beispiel email-Sammler im Netz durch die htacess sollte so gebaut werden, das die guten Bots nicht betroffen sind. Im „Header“ Bereich kann man mit den Befehlen „noindex“ oder „nogoogle“ eine Indexierung der Seite verhindern.
  3. Wer dynamische Seiten verwendet, den Warnt Google vor der Verwendung des Parameters "&id=".
  4. Jede Einzelne Seite sollt durch mindestens einen statischen Textlink erreichbar sein. Wenn keine andere Webseite auf die Seite verweist, wird sie nicht gefunden.

Deutlich wird: Das Beste ist, wenn eine Webseite für den Google Spider genau so aussieht wie eine handgemachte Seite.

Artikel-Source

Blog Themen

Formalia