Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt dateien ausschließen und ranking

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Straddi
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 06.09.2004, 16:42
Wohnort: Kaiserslautern

Beitrag von Straddi » 30.09.2004, 07:53

Hallo,

Ich habe einige Dateien die für die Suche in SUMAS nicht relevant sind (z.B. Passwort vergessen - ca. 20 Dateien).

Wenn ich diese in der robots.txt über

Disallow:

ausschließe , macht das Sinn oder lässt man das besser.

Kann es passieren, dass ein Bot vor einer zu grossen robots.txt kapituliert unjd einfach wieder geht und darüber dann dass page Rank bei GOOGLE leidet?

Gruss Straddi