ist normal, vor allem bei Projekten mit großer Seitentiefe! Wir betreuen z.B. eines mit etwa 10K Seiten. Das Maxiumum was wir je mit der site:wwwetc....-Abfrage bei google drin hatten waren 9880 Seiten! Heute sind es mal wieder nur 2900...
Ich glaube die Daten sind wie auch die der link:wwwetc....-Abfrage absolut nicht richtig! Wir testen das gerade!

Alle 2900 angezeigten Seiten werden mit dem Originalbestand abgeglichen. D.h. wir finden die Seiten, welche anscheinend gerade nicht mehr im Index sind! Dann wird bei google gezielt nach unique Content dieser "fehlenden" Seiten gesucht!
Ich schätze mal grob, dass wir die Seiten trozdem über die Suche finden werden!

Da würde ich sogar ´ne Kiste Weihnachtsbier drauf setzen!
Grüße
Nicos