ich betreue eine Webseite und habe da ein recht verzwicktes Problem.
Die Seite hat in etwa 120 Unterseiten, sitemap ist hinterlegt. Dennoch indiziert google etwa 50.000 Seiten (schwankender Wert):
geht man jetzt auf die 23ste google Suchseite, dann kommt das:
quasi, google hat 230 einzelne Seiten im Index (das passt auch so, da die blog einträge auch gezeigt werden)
ich hätte ggf. auch eine idee, woher das Problem kommen kann.
Es ist so, dass es auf der Seite ca. 100 Pofilseiten gibt und bei den einzelnen profilseiten werden im footer randomly links auf andere profile generiert. d.h. wenn man so eine profilseite aufruft, dann ist die jedes mal etwas anders (da ja im footer immer andere links generiert werden)
Jetzt die Frage, kann das sein, dass google diese profilseiten als unterschiedliche Seiten indiziert und diese dann in der suche wieder zusammenfasst?
Danke und Gruß
cybergoofy
P.s. die crawling Statistik zeigt auch sehr hohe aktivität:
die Seiten die angezeigt werden sind auch alle in Ordnung. (also die 232) aber warum angeblich über 50.000Seiten im index sein sollen, ist mir ein rätsel. vor allem wüsste ich gerne was das für seiten sind. (auch wenn ich suche unter einbeziehung der übersprungenen Ergebnisse wiederholen) drücke, ändert sich nicht wirklich was.
dann schau in die WMT. Unter interne Links kannst du ableiten, was Google alles findet. Wenn über 50.000 Seiten für deine Seite gecrawlt wurden und im Index sind, dann solltest du ja auch auf deine Startseite annähernd 50.000 Interne Links haben.
Tja, vermutlich ist da ein CMS am Werk, das massenhaft doppelte Inhalte produziert, also die gleiche Seite unter verschiedenen URLs erreichbar, z.B. durch verschiedene Parameter in den URLs.
dieses Verhalten der Site Abfrage ist mir die letzten Tage auch aufgefallen.
Eine Seite welche in der eingereichten Sitemap 3,5k hat wird über die site Abfrage mit 20k bzw 30k Seiten angezeigt (je nach dem ob Abfrage mit oder ohne www), wobei natürlich wie bei dir nur die eigentlich richtigen Ergebnisse angezeigt werden. Vor der letzten Updatewelle bei big G war alles i.O. und an der Seite wurde nix geändert.
@e-fee: nein, in diesem Fall ist es eine selbstgebaute webseite ohne cms.
@gerd_w: jop, das hat irgend etwas mit dem Update zu tuen
@om-labs: ahh okay, das ist jetzt wieder merkwürdig bei mir
vielleicht noch kurz vorab:
Am Anfang der Webseite gab es leider ca. 40.000 Städte Profilseiten auf denen leider überall die gleiche leere Suchseite kam. Okay, das Problem wurde behoben, es existieren jetzt nur noch ca. 25 Städte Seiten denen die Anbieter zugeordnet sind. Die "Altlasten" wurden mit 404 versehen und sind inzwischen fast alle aus dem index geflogen.
aber jetzt
im Webmaster tools unter interne links sind sehr sehr viele Links vorhanden:
gerade die Seiten welche im Footer verlinkt sind, tauchen sehr oft auf.
aber jetzt doch etwas sehr interessantes, wenn ich mir die links z.b. von /agb anschaue:
die alten Städte Seiten, welche mit 404 versehen sind und eigentlich bereits aus dem index sind, werden hier unter links angezeigt.
aufmalen in einem netzwerkdiagramm hilft oder eine excel tabelle machen und mit ein paar funktionen auswerten oder auch ne pivot tabelle.
kann dir hier nicht weiterhelfen. deine eigene webseite muss du schon so weit kennen, das du verstehst wo die links herkommen bzw. warum sie entstehen.