hallo,
nach integration der verschiedenen short url modfikationen verzeichnet ein von mir betreutes forum zwischenzeitlich bei rund 140.000 beiträgen schon fast 450.000 fundstellen bei google, selbst bei berücksichtigung einer keyphrase sind es immer noch 176.000.
per se ist das ja sicherlich nicht so schlecht - nichtsdestotrotz würde mich interessieren, wie ich herausfinden kann, ob letztendlich 'nur' double content das ergebnis verfälscht bzw. welche seiten wirklich vollständig im cache vorhanden sind.
es ist übrigens diese robots.txt im einsatz, um doppelten content aus den SERP herauszuhalten.