Google hat erkannt, dass die Zahl (automatisch) generierter Seiten schneller als ihre Speicher/Suchmöglichkeiten wächst. Die massenhafte Verbreitung von "Doorway-Scripten", Amazon-API-Shops, Produkt-CSV-Dateien usw hat dazu geführt, dass jeder einige 100.000 wenn nicht sogar Millionen Seiten in den Index schießen kann. Verstärkt wird das Problem durch die ganzen schlampig programmierten Forenscripte, bei denen Anzahl an Seiten häufig über dem 10-fachen der Postings liegt ("Archiv", usw).Hasenhuf hat geschrieben:Die Frage ist doch welchen Sinn es haben soll sauber Seiten nicht in den Index zu nehmen (ob wegen zu wenig eingehender Links oder warum auch immer ist fast egal).
Nun braucht Google ein Kriterium, um die Anzahl der Seiten im Index zu limitieren - also zwischen Seiten zu unterscheiden, die reinkommen und die draußenbleiben. Und da ist es doch naheliegend, dass auf die gleiche Methode wie beim Ranking zurückgegriffen wird: Wert bzw. Anzahl der eingehenden Links, eventuell kombiniert mit Abwertung durch "böse" ausgehende.
Gruß Johannes