Mehr ausgeschlossene Seiten als Seiten insgesamt!!??
Verfasst: 06.09.2011, 17:56
Hallo,
wir haben in den letzten drei Tagen massive Einbrüche im Shop und sehen, dass viel weniger Besucher über google zu uns kommen als vorher.
Bei unserer Recherche haben wir eine - für uns - seltsame Entdeckung gemacht.
Über die Abfrage "site:www.Unsere-Domain.de" erhalten wir 28.400 Ergebnisse.
Über die Abfrage "site:www.Unsere-Domain.de inurl:XTCsid" erhalten wir 40.400 Ergebnisse.
Das ist neu. Früher war die zweite Zahl kleiner als die erste; ist ja auch vollkommen logisch, da ja nicht mehr Seiten mit "XTCsid" im Index sein können als insgesamt Seiten im Index sind; es gibt ja schließlich auch noch viele tausend ohne "XTCsid".
Habt Ihr eine Erklärung dafür?
Wir haben in den Webmaster-Tools die Seiten mit "XTCsid" in der URL über "Crawler-Zugriffe -> URL entfernen" schon vor vier Monaten entfernen lassen. Es gibt in den Webmaster-Tools auch die Besätigung "Entfernt". In unserer robots.txt gibt es die Zeile "Disallow: /*XTCsid*".
Wir befürchteten halt doppelten Kontent über diese ID-Geschichte von xtc und haben die Seiten ja gerade deshalb entfernen lassen und auch in der robots.txt blockiert.
Warum nimmt die google die Seiten trotzdem in den Index auf?
Clemens
wir haben in den letzten drei Tagen massive Einbrüche im Shop und sehen, dass viel weniger Besucher über google zu uns kommen als vorher.
Bei unserer Recherche haben wir eine - für uns - seltsame Entdeckung gemacht.
Über die Abfrage "site:www.Unsere-Domain.de" erhalten wir 28.400 Ergebnisse.
Über die Abfrage "site:www.Unsere-Domain.de inurl:XTCsid" erhalten wir 40.400 Ergebnisse.
Das ist neu. Früher war die zweite Zahl kleiner als die erste; ist ja auch vollkommen logisch, da ja nicht mehr Seiten mit "XTCsid" im Index sein können als insgesamt Seiten im Index sind; es gibt ja schließlich auch noch viele tausend ohne "XTCsid".
Habt Ihr eine Erklärung dafür?
Wir haben in den Webmaster-Tools die Seiten mit "XTCsid" in der URL über "Crawler-Zugriffe -> URL entfernen" schon vor vier Monaten entfernen lassen. Es gibt in den Webmaster-Tools auch die Besätigung "Entfernt". In unserer robots.txt gibt es die Zeile "Disallow: /*XTCsid*".
Wir befürchteten halt doppelten Kontent über diese ID-Geschichte von xtc und haben die Seiten ja gerade deshalb entfernen lassen und auch in der robots.txt blockiert.
Warum nimmt die google die Seiten trotzdem in den Index auf?
Clemens