Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Spider Viewer Frage

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
hatte05
PostRank 7
PostRank 7
Beiträge: 504
Registriert: 28.03.2007, 10:38
Wohnort: Giessen

Beitrag von hatte05 » 27.06.2007, 19:01

Hallo,
ich hab mal eine Frage:
Ein Spider Viewer soll mir ja meine Webseite aus Sicht der Robots anzeigen. Wenn ich jetzt mit verschiedenen SpiderViewern oder mit dem Lynx-Browser (FF-Plugin) meine Site überprüfe, bekomme ich die Links incl. SessionID und den gesperrten Verzeichnissen angezeigt. Die SIDs habe ich aber für Bots deaktiviert und diverse Verzeichnisse mittels robots.txt ausgeschlossen.

Erkennen das die Spider Viewer nicht, oder anders gefragt, wie kann ich überprüfen, ob ich die SIDs für Robots entfernt und die Verzeichnisse richtig gesperrt habe?

Gruß

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

expy
PostRank 8
PostRank 8
Beiträge: 797
Registriert: 29.10.2005, 14:58
Wohnort: Frechen

Beitrag von expy » 28.06.2007, 08:03

vielleicht indem du uns kurz die einträge in der robots.txt postest

hatte05
PostRank 7
PostRank 7
Beiträge: 504
Registriert: 28.03.2007, 10:38
Wohnort: Giessen

Beitrag von hatte05 » 28.06.2007, 10:39

Danke expy, aber ich weiss in diesem Fall, dass die robots.txt ok ist. Ich suche eher nach einem Tool oder einer Möglichkeit, welche mir visuell anzeigt (nicht anzeigt), welche Verzeichnisse per robots.txt ausgeschlossen sind und ob die Sid für Bots tatsächlich deaktiviert ist. Bevor ich echte Sumas auf die Seiten loslasse.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Clarius
PostRank 1
PostRank 1
Beiträge: 25
Registriert: 07.04.2005, 14:59

Beitrag von Clarius » 28.06.2007, 11:48

Wahrscheinlich meinst Du die PreventSpiderSessions Einstellung von osCommerce oder Forks. Hier gibt es eine Datei, in der alle UserAgents eingetragen sind, deren Browser oder Bot keine Session-Id bekommt. Du muß im Firefox über ein Plugin einen UserAgent einstellen, der in der Datei steht und dann testen.

Das hat mit der robots.txt nichts zu tun, der Spider Viewer soll imho nur zeigen, welcher Text auf einer Seite zu finden ist, damit dem SEO(-Anfänger) klar wird, warum seine Seite bei einer KW-Kombi nicht zu finden ist.

Grüße.

hatte05
PostRank 7
PostRank 7
Beiträge: 504
Registriert: 28.03.2007, 10:38
Wohnort: Giessen

Beitrag von hatte05 » 28.06.2007, 12:28

Du muß im Firefox über ein Plugin einen UserAgent einstellen, der in der Datei steht und dann testen.
Habe mir jetzt den UserAgent Switcher runtergeladen und mich als Googlebot getarnt. Keine SessioIDs :D
Vielen Dank für den Tipp @Clarius

robots.txt, dachte eben es gäbe vielleicht einen Viewer der das kann, aber egal.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag