Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Spider Viewer Frage

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
hatte05
PostRank 7
PostRank 7
Beiträge: 504
Registriert: 28.03.2007, 10:38
Wohnort: Giessen

Beitrag von hatte05 » 27.06.2007, 19:01

Hallo,
ich hab mal eine Frage:
Ein Spider Viewer soll mir ja meine Webseite aus Sicht der Robots anzeigen. Wenn ich jetzt mit verschiedenen SpiderViewern oder mit dem Lynx-Browser (FF-Plugin) meine Site überprüfe, bekomme ich die Links incl. SessionID und den gesperrten Verzeichnissen angezeigt. Die SIDs habe ich aber für Bots deaktiviert und diverse Verzeichnisse mittels robots.txt ausgeschlossen.

Erkennen das die Spider Viewer nicht, oder anders gefragt, wie kann ich überprüfen, ob ich die SIDs für Robots entfernt und die Verzeichnisse richtig gesperrt habe?

Gruß

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

expy
PostRank 8
PostRank 8
Beiträge: 797
Registriert: 29.10.2005, 14:58
Wohnort: Frechen

Beitrag von expy » 28.06.2007, 08:03

vielleicht indem du uns kurz die einträge in der robots.txt postest

hatte05
PostRank 7
PostRank 7
Beiträge: 504
Registriert: 28.03.2007, 10:38
Wohnort: Giessen

Beitrag von hatte05 » 28.06.2007, 10:39

Danke expy, aber ich weiss in diesem Fall, dass die robots.txt ok ist. Ich suche eher nach einem Tool oder einer Möglichkeit, welche mir visuell anzeigt (nicht anzeigt), welche Verzeichnisse per robots.txt ausgeschlossen sind und ob die Sid für Bots tatsächlich deaktiviert ist. Bevor ich echte Sumas auf die Seiten loslasse.