Beitrag
von Downer » 04.01.2007, 15:11
Ich unterdrücke nun das crawlen aller php-Seiten mit Disallow: /*.php
Welches auch laut den Statistiken in den Webmaster-Tools funzt.
Was anderes: Wann aktuallisiert Google eigentlich die robots.txt ? Es werden immer noch Seiten unterdrückt, die garnicht mehr in der robots.txt aufgeführt sind.
Außerdem: Wann werden endlich mal Seiten, die ein 404 oder 401 liefern aus dem Index von Google rausgenommen ? Es werden immer noch Seiten, die einige Jahre alt und nicht mehr vorhanden sind, gecrawlt.