Beitrag
von Pfauli » 31.10.2011, 14:41
Moin Zusammen
Ich habe keinen wertvoll passenden Thread zu meiner Frage gefunden,
daher schreibe ich einmal hier weiter...
Ich habe Schwierigkeiten zu verstehen, wie ich mit den Webseiten umgehe,
die ich durch eine Robots.Txt hab spereen lassen.
Führt man, der Vollständigkeit halber in einer Sitemap auch die Unterseiten auf,
die man ja eigentlich durch die robots.txt gesperrt hat? Dies führt ja unweigerlich zu einer
Endlosschleife /Crawling Fehlern, aber führe ich diese nicht auf, erhalte ich ja auch einen Crawling Fehler.
Wie reguliert man das sauber?