Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Überprüfung der robots.txt

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
SSIM!de
PostRank 4
PostRank 4
Beiträge: 174
Registriert: 08.02.2005, 00:59
Wohnort: paderborn

Beitrag von SSIM!de » 17.10.2006, 14:47

Hallo SEOs!

Ich würde euch mal bitten meine erstellte Robots.txt zu überprüfen, denn
ich habe das Problem, dass der Googlebot im März noch 15x vorbeigeschaut hat und dann ein einziges mal im August und seitdem garnicht mehr.
Vielleicht liegt es ja tatsächlich an der robots.txt.
Die Seite hat nämlich einen Pagerank 6 und irgendwo habe ich hier mal gelesen, dass die Seiten häufiger indexiert werden, wenn der Pagerank höher ist. (ICH WEIß: Hier wird viel erzählt... :lol: )

Hier die robots.txt:
User-agent: *
Disallow: /counter/
Disallow: /cgi-bin/
Disallow: /admin/
Disallow: /includes/
Disallow: /uploads/
Ich hoffe Ihr habt Tipps für mich...

Gruß
Sven