Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Mehr ausgeschlossene Seiten als Seiten insgesamt!!??

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Clemens
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 29.12.2004, 18:03

Beitrag von Clemens » 06.09.2011, 17:56

Hallo,

wir haben in den letzten drei Tagen massive Einbrüche im Shop und sehen, dass viel weniger Besucher über google zu uns kommen als vorher.

Bei unserer Recherche haben wir eine - für uns - seltsame Entdeckung gemacht.

Über die Abfrage "site:www.Unsere-Domain.de" erhalten wir 28.400 Ergebnisse.

Über die Abfrage "site:www.Unsere-Domain.de inurl:XTCsid" erhalten wir 40.400 Ergebnisse.

Das ist neu. Früher war die zweite Zahl kleiner als die erste; ist ja auch vollkommen logisch, da ja nicht mehr Seiten mit "XTCsid" im Index sein können als insgesamt Seiten im Index sind; es gibt ja schließlich auch noch viele tausend ohne "XTCsid".

Habt Ihr eine Erklärung dafür?

Wir haben in den Webmaster-Tools die Seiten mit "XTCsid" in der URL über "Crawler-Zugriffe -> URL entfernen" schon vor vier Monaten entfernen lassen. Es gibt in den Webmaster-Tools auch die Besätigung "Entfernt". In unserer robots.txt gibt es die Zeile "Disallow: /*XTCsid*".

Wir befürchteten halt doppelten Kontent über diese ID-Geschichte von xtc und haben die Seiten ja gerade deshalb entfernen lassen und auch in der robots.txt blockiert.

Warum nimmt die google die Seiten trotzdem in den Index auf?

Clemens

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 06.09.2011, 23:33

eventuell irgendwelche unstimmigkeiten bei verschiedenen data centern.

Nichts. worüber man sich Gedanken machen müsste.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 06.09.2011, 23:46

Forced Cookies wären eine "Lösung", aber dann können die Leute die keine Cookies akzeptieren nichts bestellen, was weitaus schlimmer wäre.

Abwarten, die robots.txt ist korrekt.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

nerd
PostRank 10
PostRank 10
Beiträge: 4023
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 07.09.2011, 01:35

wer blockt den heute noch cookies? 95% aller user aendern nie die standardeinstellungen einer software.

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 07.09.2011, 10:14

In den WMT gibt's die Parameterbehandlung. Schliesst "XTCsid" dort aus.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Clemens
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 29.12.2004, 18:03

Beitrag von Clemens » 07.09.2011, 18:19

luzie hat geschrieben:In den WMT gibt's die Parameterbehandlung. Schliesst "XTCsid" dort aus.
ja, dort ist XTCsid schon eingetragen gewesen.

Clemens

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag