Über die Präsenz der Googlebots auf meiner Seite kann ich mich nicht beklagen. Habe in den Webmaster-Tools die Crawl-Geschwindigkeit auf schnell gestellt.
Allerdings muss ich feststellen, dass die Anzahl der indexierten Seiten bei Google immer weniger werden. Vor 3 Monaten waren es noch insgesamt 650000, jetzt nur noch ca. 225000, tendez fallend.
Eigentlich wollte ich nur statische Seiten aus der SEO des phpBB speichern lassen, die meisten davon sind aber noch aus alten Zeiten viewtopic.php(viele mit sid) -Seiten
Meine Absicht ist es nun alle dynamischen Seiten des phpBB aus dem Googleindex entfernen zu lassen.
Laut dieser Anleitung https://www.google.com/support/webmaste ... swer=35303 kann man dies über die robots.txt machen.
Hilft das?
Meine Vermutung ist nämlich, das es am Double Content liegt.
Oder kann das noch andere Gründe haben?
Zuletzt geändert von Downer am 05.01.2007, 10:04, insgesamt 1-mal geändert.
Ich unterdrücke nun das crawlen aller php-Seiten mit Disallow: /*.php
Welches auch laut den Statistiken in den Webmaster-Tools funzt.
Was anderes: Wann aktuallisiert Google eigentlich die robots.txt ? Es werden immer noch Seiten unterdrückt, die garnicht mehr in der robots.txt aufgeführt sind.
Außerdem: Wann werden endlich mal Seiten, die ein 404 oder 401 liefern aus dem Index von Google rausgenommen ? Es werden immer noch Seiten, die einige Jahre alt und nicht mehr vorhanden sind, gecrawlt.