Seit einiger Zeit liefert Google ja bei vielen Seiten bei der Site: Abfrage eine viel zu hohe Anzahl an Seiten. Habe ich z.b. eine Seite mit 2000 Unterseiten, kein DC usw. liefert Google mir bei der Abfrage die Zahl von 5000. Soviel Seiten gibt es aber defintiv nicht.
Das ganze scheint scheinbar daran zu liegen, dass Google die Einträge in seinen unterschiedlichen Datecentern vermischt. Interessant ist, dass es häufig bei Webkatalogen, Pseudosuchmaschinen und Seiten mit sehr viel Unterseiten auftritt (meist DB gestützte).
Bei "händisch" erstellten Seiten konnte ich das bisher nicht reproduzieren.
Ich würde auch einfach mal darauf tippen dass es an Variablen in der URL liegt - da können schnell eine Menge zusätzlicher "Seiten" entstehen.
Ich hatte das mal mit einer Shoutbox auf einer Seite. Die hat die aufgerufene Shoutbox-Seite (1-5) über die URL weiter gegeben. Da die Shoutbox auf jeder Unterseite eingebunden war, hatte ich praktisch 5 mal so viele Seiten im Index als es eigentlich gab.
Ich habe den gleichen Effekt bei mir, beruhigt mich, daß es noch anderen so geht.
3fache Menge von (dynamischen) Seiten indiziert, als ich überhaupt habe.
Hatte erst irgendwo Duplicate Content vermutet aber keine Möglichkeit gefunden, wie dieser entstehen kann. Auch gibt es keine "versteckten" Parameter an die Google gekommen sein könnte.
Daher schiebe ich es auch schon seit längerem auf Fehler von Google.
War schon seit Beginn der Indizierung (vor ca. 2 Monaten) so ... ich konnte es praktisch mitverfolgen.
Bei mir ist es ebenso:
Domain hat ca. 170.000 Seiten. Bei Google sind es aber 1,3 Millionen Seiten. Bis vor 10 Tagen waren es noch 2 Millionen Seiten. Seitdem ist das Ganze auf Rückmarsch nach unten.
und was lernen wir daraus? vielleicht bilder in dynamischen php-zoom seiten vergrössern mittels zoom.php?bild.xyz ? oder druckversionen mit print.php?index.html ? oder auch kleine häppchen auf vielen seiten wiederholen, leicht umgestaltet?
ich fühle mich soo inspiriert. und mal ehrlich: die seiten ohne dynamische inhalte werden immer weniger ganz oben, nur noch generiertes zeug.
wetten, in einem halben jahr bietet google ein eigenes cms an. denn ohne wird man dann gar nicht mehr aufgenommen
Ich habe zwar statische html Seiten aber das Phänomen tritt bei mir auch auf.
Ich glaube also nicht dass es speziell mit php zu tun hat. Allerdings scheint sich, seit ca. einer Woche, zu normaliesieren.
Seiten: online ca. 3000, bis letzter Woche indiziert 9100, jetzt "nur" noch 6100
Ich habe zwar statische html Seiten aber das Phänomen tritt bei mir auch auf.
Ich glaube also nicht dass es speziell mit php zu tun hat. Allerdings scheint sich, seit ca. einer Woche, zu normaliesieren.
Seiten: online ca. 3000, bis letzter Woche indiziert 9100, jetzt "nur" noch 6100
Ich hatte gestern ebenfalls etwas komisches bei der Site-Abfrage festgestellt. Es waren nur 10% der Seiten gelistet. Heute stimmt es wieder. Es scheint also ein Google-Problem sein. Also am besten nicht drüber nachdenken
Ich würde fast sagen, die Anzahl der Seiten schwankt zeitlich irgendwie wie der PR oder die Links.
Habe vor einer Woche von einer Domain die Unterseiten mit dem Removal Tool entfernen lassen und per robots.txt gesperrt.
Jetzt bekomm ich bei einer Site-Abfrage immer:
Ergebnisse 1 - 1 von ungefähr 4.610
und nix mit "weitere Ergebnisse" oder sowas .
Ich finds ja niedlich .