Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

DC Problem - tausende phpsessid Dateien kleben im Index fest

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Fisch
PostRank 1
PostRank 1
Beiträge: 14
Registriert: 09.02.2006, 17:09

Beitrag von Fisch » 27.09.2006, 16:57

Hallo,

habe leider ein ziemliches Problem bekommen, als Google vor Monaten anfing, die phpsessid Seiten zu spidern und in den Index zu spülen.

Ehe ich bemerkt habe, dass Google auf einmal alle Seiten auch mit dem phpsessid-Anhängsel indexiert (was über 2 Jahre lang nicht der Fall gewesen ist!), waren schon gut 200.000 doppelte Seiten im Index, die Page besteht aber nur aus ca. 20.000 Seiten. Nach der Behebung des Problems und dem Verbot, die phpsessid Sache zu spidern, wurden es auch täglich weniger bis es schon auf ca. 15.000 doppelte Seiten mit diesem phpsessid-Anhängsel heruntergefahren war. Plötzlich waren aber wieder rund 80.000 dieser doppelten Dateien im Index, wo es nun schon seit vielen Wochen unverändert festhängt.

Rund 80.000! doppelte Dateien kleben also seit Ewigkeiten im Index fest, was mir beim letzten großen Update vor gut zwei Wochen natürlich einen gehörigen Ärger gebracht hat, ein Besuchereinbruch von 80%. Die Domain jetzt total abgestraft wegen DC, dabei war sie jahrelang eine Autorität mit einer riesigen Linkpop, Content ist bis zum Abwinken dar und von Spam kann keine Rede sein. Einzig und allein dieser technische Fehler von mir, dass ich dem Google Bot nicht rechtzeitig die phpsessid-Dateien verboten habe aufzunehmen, bereitet mir nun einen Ärger von immensem Ausmaß, schließlich wurde in die Website jahrelang viel Arbeit und Geld investiert.

Wie bekomme ich die rund 80.000 Dateien mit der phpsessid Endung nun aus dem Index? Die phpsessid Endung zu spidern habe ich ja verboten, also werden die 80.000 im Index befindlichen Seiten ja nicht mehr besucht, aber rausfliegen tun sie halt nicht, an der Anzahl der doppelten Seiten tut sich überhaupt nichts mehr.

Für jeden kleinen Tipp oder Erfahrungsbericht Eurerseits wäre ich dankbar!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

HBurk
PostRank 6
PostRank 6
Beiträge: 451
Registriert: 11.04.2006, 13:14
Wohnort: Süd Hessen

Beitrag von HBurk » 27.09.2006, 17:23

Hi Fisch,

blockiert durch robots.txt heist für Google nicht das es die Seiten nicht mehr giebt.
Sobald Tante G auf diese Seiten zugreifen möchte solltest Du besser ein 404 Error
im Seiten Header haben oder einen 301 redirect auf die Seite die es wirklich sein soll.

Gruß Helmut

Fisch
PostRank 1
PostRank 1
Beiträge: 14
Registriert: 09.02.2006, 17:09

Beitrag von Fisch » 27.09.2006, 17:54

Also eigentlich habe ich schon alles richtig gemacht und anfangs hat das ja auch funktioniert, dass die doppelten Seiten mit dem phpsessid rausfliegen. Wie gesagt waren es mal über 200.000 und irgendwann immerhin nur noch 15.000, aber dann hat Google wieder einen alten Datensatz hochgespült und es waren wieder über 80.000 von den Seiten drin im Index. Diese ganzen doppelten Seiten werden auch gar nicht mehr gespidert, sonst wäre es ja kein großes Problem, da Google erkennen würde, dass die Seiten nicht mehr da sind und er sie rausschmeißen würde aus dem Index. Aber leider liegen da jetzt 80.000 Dateileichen im Index, die ich einfach nicht mehr loswerde.

Das sieht mir ziemlich nach einem Bug von Seiten Googles aus, dass er bereits rausgeschmissene Dateien wieder hochspült und diese dann nicht mehr anpackt und entfernt. Habe das selbe Problem leider schon mal gehabt und nicht gelöst bekommen.