Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Zeitliche Einschränkung in robots.txt?

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
michaelskw
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 14.09.2005, 13:16

Beitrag von michaelskw » 20.05.2009, 12:05

Hallo,

ich hätte eine Frage zu einer robotos.txt

Wir haben das Problem, dass unsere Suche wegen täglicher Datenbankupdates (mehrere Millionen Produkte) jede Nacht ca. 20 Minuten nicht erreichbar ist.

Im Webmaster Tool haben wir daher ziemlich viele "Nicht erreichbare URLs" - die es aber gibt. Ein Grund hierfür wäre natürlich, dass der Spider diese Seiten versucht hat zu indexieren, als Sie wegen des DB-Updates nicht erreichbar waren.

Kann mit z.B. in der robots.txt eine zeitliche Einschränkung angeben, dass die Seiten z.B. zwischen 3 und 4 Uhr nachts nicht gecrawled werden sollen?

Oder kann man das irgendwie anderes lösen?

Viele Grüße
Michael