Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 18.05.2006, 10:19

Hasenhuf hat geschrieben:Die Frage ist doch welchen Sinn es haben soll sauber Seiten nicht in den Index zu nehmen (ob wegen zu wenig eingehender Links oder warum auch immer ist fast egal).
Google hat erkannt, dass die Zahl (automatisch) generierter Seiten schneller als ihre Speicher/Suchmöglichkeiten wächst. Die massenhafte Verbreitung von "Doorway-Scripten", Amazon-API-Shops, Produkt-CSV-Dateien usw hat dazu geführt, dass jeder einige 100.000 wenn nicht sogar Millionen Seiten in den Index schießen kann. Verstärkt wird das Problem durch die ganzen schlampig programmierten Forenscripte, bei denen Anzahl an Seiten häufig über dem 10-fachen der Postings liegt ("Archiv", usw).

Nun braucht Google ein Kriterium, um die Anzahl der Seiten im Index zu limitieren - also zwischen Seiten zu unterscheiden, die reinkommen und die draußenbleiben. Und da ist es doch naheliegend, dass auf die gleiche Methode wie beim Ranking zurückgegriffen wird: Wert bzw. Anzahl der eingehenden Links, eventuell kombiniert mit Abwertung durch "böse" ausgehende.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 18.05.2006, 10:33

kleiner einwurf:
die einzige domain die bei mir nicht von der schrumpfung betroffen ist ist die die zu 95% reziprok verlinkt ist.
allerdings auch 100% themenrelevant.

alle anderen haben ca 30% verloren.
gruss axel

twiggie
PostRank 8
PostRank 8
Beiträge: 887
Registriert: 30.05.2005, 09:23

Beitrag von twiggie » 18.05.2006, 10:48

SISTRIX hat geschrieben: Google hat erkannt, dass die Zahl (automatisch) generierter Seiten schneller als ihre Speicher/Suchmöglichkeiten wächst. Die massenhafte Verbreitung von "Doorway-Scripten", Amazon-API-Shops, Produkt-CSV-Dateien usw hat dazu geführt, dass jeder einige 100.000 wenn nicht sogar Millionen Seiten in den Index schießen kann. Verstärkt wird das Problem durch die ganzen schlampig programmierten Forenscripte, bei denen Anzahl an Seiten häufig über dem 10-fachen der Postings liegt ("Archiv", usw).

Nun braucht Google ein Kriterium, um die Anzahl der Seiten im Index zu limitieren - also zwischen Seiten zu unterscheiden, die reinkommen und die draußenbleiben. Und da ist es doch naheliegend, dass auf die gleiche Methode wie beim Ranking zurückgegriffen wird: Wert bzw. Anzahl der eingehenden Links, eventuell kombiniert mit Abwertung durch "böse" ausgehende.

Gruß Johannes
Klingt für mich absolut einleuchtend und wäre auch zu begrüßen :)
Twigg