Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Dynamische Seiten aus Index verschwinden lassen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Downer
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 11.01.2003, 03:23

Beitrag von Downer » 14.12.2006, 09:20

Über die Präsenz der Googlebots auf meiner Seite kann ich mich nicht beklagen. Habe in den Webmaster-Tools die Crawl-Geschwindigkeit auf schnell gestellt.

Allerdings muss ich feststellen, dass die Anzahl der indexierten Seiten bei Google immer weniger werden. Vor 3 Monaten waren es noch insgesamt 650000, jetzt nur noch ca. 225000, tendez fallend.

Eigentlich wollte ich nur statische Seiten aus der SEO des phpBB speichern lassen, die meisten davon sind aber noch aus alten Zeiten viewtopic.php(viele mit sid) -Seiten
Meine Absicht ist es nun alle dynamischen Seiten des phpBB aus dem Googleindex entfernen zu lassen.
Laut dieser Anleitung https://www.google.com/support/webmaste ... swer=35303 kann man dies über die robots.txt machen.

Hilft das?
Meine Vermutung ist nämlich, das es am Double Content liegt.
Oder kann das noch andere Gründe haben?
Zuletzt geändert von Downer am 05.01.2007, 10:04, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Downer
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 11.01.2003, 03:23

Beitrag von Downer » 14.12.2006, 14:27

Merker:
https://www.webdesign-in.de/mts/immer-w ... -gefunden/

Hatte ich schon seit längerem geändert mit dem Topic-Titel vorne.
Funzt auch ganz gut (Rang 1): https://www.google.de/search?sourceid=n ... Vidia+680i
Zuletzt geändert von Downer am 05.01.2007, 10:05, insgesamt 1-mal geändert.

Downer
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 11.01.2003, 03:23

Beitrag von Downer » 15.12.2006, 09:21

Nochmal zum Thema dyn. Seiten löschen lassen.

Hier steht ja https://www.google.com/support/webmaste ... swer=35303 , dass man das mit

UserAgent: *
Disallow: /*?

geht.


Jetzt steht hier aber https://www.bjoernsworld.de/suchmaschin ... s-txt.html , dass in Disallow kein Wildchar * erlaubt ist.

Hat schonmal jemand das gemacht, und funzt das bei Google?
Zuletzt geändert von Downer am 05.01.2007, 10:05, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 15.12.2006, 09:37

Siehe hier:
https://www.google.de/support/webmaster ... swer=40367

Der Googlebot unterstützt entsprechende Suchmuster.

Downer
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 11.01.2003, 03:23

Beitrag von Downer » 04.01.2007, 15:11

Ich unterdrücke nun das crawlen aller php-Seiten mit Disallow: /*.php
Welches auch laut den Statistiken in den Webmaster-Tools funzt.

Was anderes: Wann aktuallisiert Google eigentlich die robots.txt ? Es werden immer noch Seiten unterdrückt, die garnicht mehr in der robots.txt aufgeführt sind.

Außerdem: Wann werden endlich mal Seiten, die ein 404 oder 401 liefern aus dem Index von Google rausgenommen ? Es werden immer noch Seiten, die einige Jahre alt und nicht mehr vorhanden sind, gecrawlt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag