Gibt es irgendwelche - belastbaren - Erkenntnisse, ob Googel - ich nenne es mal so - Schwellenwerte bei der Seitenindexierung hat?
Meine Seite pendelt seit Wochen immer zwischen 28300 und 29300 indexierten Seiten, obwohl nach meiner groben Berechnung ca. 250000 Seiten für Googel zu finden sein müssten...
Die Seite ist relativ neu (Januar 2007) und hat auf der Startseite aktuell einen angezeigten Pagerank von 3.
Es handelt sich um ein bundesweites - spezialisiertes - Branchenverzeichnis, bei dem für jeden Ort ca. 200 Spezialgebiete eine eigene Seite haben. Daher die hohe Zahl an Seiten.
Las mal raten... robotinho.de? Wie der Name schon sagt, per robots ausgelesener Fremd-Content. Finde ich persönlich äußerst ärgerlich, weil die gelisteten Firmen (in der Regel kleine Anbieter die nur regional gefunden werden wollen) geziehlt verdrängt werden.