Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 18.05.2006, 10:19

Hasenhuf hat geschrieben:Die Frage ist doch welchen Sinn es haben soll sauber Seiten nicht in den Index zu nehmen (ob wegen zu wenig eingehender Links oder warum auch immer ist fast egal).
Google hat erkannt, dass die Zahl (automatisch) generierter Seiten schneller als ihre Speicher/Suchmöglichkeiten wächst. Die massenhafte Verbreitung von "Doorway-Scripten", Amazon-API-Shops, Produkt-CSV-Dateien usw hat dazu geführt, dass jeder einige 100.000 wenn nicht sogar Millionen Seiten in den Index schießen kann. Verstärkt wird das Problem durch die ganzen schlampig programmierten Forenscripte, bei denen Anzahl an Seiten häufig über dem 10-fachen der Postings liegt ("Archiv", usw).

Nun braucht Google ein Kriterium, um die Anzahl der Seiten im Index zu limitieren - also zwischen Seiten zu unterscheiden, die reinkommen und die draußenbleiben. Und da ist es doch naheliegend, dass auf die gleiche Methode wie beim Ranking zurückgegriffen wird: Wert bzw. Anzahl der eingehenden Links, eventuell kombiniert mit Abwertung durch "böse" ausgehende.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 18.05.2006, 10:33

kleiner einwurf:
die einzige domain die bei mir nicht von der schrumpfung betroffen ist ist die die zu 95% reziprok verlinkt ist.
allerdings auch 100% themenrelevant.

alle anderen haben ca 30% verloren.
gruss axel

twiggie
PostRank 8
PostRank 8
Beiträge: 887
Registriert: 30.05.2005, 09:23

Beitrag von twiggie » 18.05.2006, 10:48

SISTRIX hat geschrieben: Google hat erkannt, dass die Zahl (automatisch) generierter Seiten schneller als ihre Speicher/Suchmöglichkeiten wächst. Die massenhafte Verbreitung von "Doorway-Scripten", Amazon-API-Shops, Produkt-CSV-Dateien usw hat dazu geführt, dass jeder einige 100.000 wenn nicht sogar Millionen Seiten in den Index schießen kann. Verstärkt wird das Problem durch die ganzen schlampig programmierten Forenscripte, bei denen Anzahl an Seiten häufig über dem 10-fachen der Postings liegt ("Archiv", usw).

Nun braucht Google ein Kriterium, um die Anzahl der Seiten im Index zu limitieren - also zwischen Seiten zu unterscheiden, die reinkommen und die draußenbleiben. Und da ist es doch naheliegend, dass auf die gleiche Methode wie beim Ranking zurückgegriffen wird: Wert bzw. Anzahl der eingehenden Links, eventuell kombiniert mit Abwertung durch "böse" ausgehende.

Gruß Johannes
Klingt für mich absolut einleuchtend und wäre auch zu begrüßen :)
Twigg

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

costa_es
PostRank 1
PostRank 1
Beiträge: 16
Registriert: 07.07.2005, 08:31
Wohnort: Marbella

Beitrag von costa_es » 18.05.2006, 11:36

Ganz ehrlich

wenn Yahoo nur noch 40 (!) Seiten :o im Google Index hat
kann da was nicht stimmen - "Prominente" Beispiele:

Yahoo - 40 Seiten
https://www.google.de/search?hl=de&q=si ... o.de&meta=

Web.de - 35 Seiten
https://www.google.de/search?hl=de&q=si ... b.de&meta=

Fireball - 3 Seiten - alles andere supllemental :lol:
https://www.google.de/search?hl=de&q=si ... l.de&meta=

FAZ - 16 Seiten - da komme mir einer mit wenig relevanz !
https://www.google.de/search?hl=de&q=si ... z.de&meta=

Hingegen bleibt Lycos relativ stabil mit 1,4 Mio im Index
https://www.google.de/search?hl=de&q=si ... s.de&meta=

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 18.05.2006, 11:42

Bild
SEOigg ... SEO News satt

BHProject
PostRank 3
PostRank 3
Beiträge: 70
Registriert: 27.02.2006, 08:30

Beitrag von BHProject » 18.05.2006, 11:43

@costa_es:
Jetzt kommt bestimmt wieder ein schlauer Spruch von OldInternetUser, der da eine Erklärung dafür hat :)

Google ist so kaputt wie nie zuvor. Das Faz Beispiel ist sozusagen ein Paradebeispiel.

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 18.05.2006, 11:44

Datencrash!!1111
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 18.05.2006, 11:55

costa_es hat geschrieben:FAZ - 16 Seiten - da komme mir einer mit wenig relevanz !

BHProject hat geschrieben:@costa_es:
Jetzt kommt bestimmt wieder ein schlauer Spruch von OldInternetUser, der da eine Erklärung dafür hat :)
Yep - nicht einmal surfen könnt Ihr.

Geht auf faz.de - Ihr werdet nach faz.net weitergeleitet (was im übrigen schon lange so ist und bsp. in Zeitungsartikeln zu lesen war) - davon kennt google bei mir 3.090.000 Millionen.

Kama
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 07.02.2005, 23:26

Beitrag von Kama » 18.05.2006, 11:56

die Faz ist auch unter .net und nicht .de im Netz.

costa_es
PostRank 1
PostRank 1
Beiträge: 16
Registriert: 07.07.2005, 08:31
Wohnort: Marbella

Beitrag von costa_es » 18.05.2006, 11:57

nicht ganz - bei deiner abfrage ohne www kommen die ganzen subdomains von web.de - xxxxxx.web.de

Subdomains scheinen davon weniger betroffen zu sein was mehrere Beispiele zeigen

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 18.05.2006, 11:57

BHProject hat geschrieben:@costa_es:
Jetzt kommt bestimmt wieder ein schlauer Spruch von OldInternetUser, der da eine Erklärung dafür hat :)

Google ist so kaputt wie nie zuvor. Das Faz Beispiel ist sozusagen ein Paradebeispiel.
Also ich bin nicht der alte Mann, aber man sollte sich doch sowas mal genauer anschauen, bevor man etwas übernimmt faz.de ist auf faz.net weitergeleitet und da findet man 2.5 mio indizierte Seiten. Yahoo einfach mal ohne www eingeben und auf einmal passiert etwas. :wink:

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 18.05.2006, 12:01

Also, ich habe bei yahoo.com Seiten bei Keywords im Index (sogar an Top-Positionen), die NICHT in der site:-Abfrage auftauchen. Vielleicht sollte man einfach auf die Site-Abfrage nicht mehr soviel Wert legen - hat uns Google bei der BL-Anzeige ja auch gele(h/e)rt.

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 18.05.2006, 12:04

Subdomains scheinen davon weniger betroffen zu sein was mehrere Beispiele zeigen
ja das wollte ich damit sagen
Bild
SEOigg ... SEO News satt

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 18.05.2006, 12:29

SISTRIX hat geschrieben:Google hat erkannt, dass die Zahl (automatisch) generierter Seiten ...
Haben diese Seiten einen sinnvollen Content und kein DC? Es geht doch nicht darum das auch Spamseiten betroffen sind aber wenn es eine Maßnahme gegen Spam ist, dann ist sie ungeeignet.
SISTRIX hat geschrieben:Nun braucht Google ein Kriterium, um die Anzahl der Seiten im Index zu limitieren - also zwischen Seiten zu unterscheiden, die reinkommen und die draußenbleiben. Und da ist es doch naheliegend, dass auf die gleiche Methode wie beim Ranking zurückgegriffen wird:
Nein, das ist nicht naheliegend. Erstens steht nicht jede Seite auf Pos. 1 und zweitens, werden dadurch zum Beispiel Seiten mit Conten, der selten ist und selten gefragt wird (also selten und noch seltener themenrelevant verlinkt ist), auch über die seltenen Keys nicht gefunden.
twiggie hat geschrieben:
SISTRIX hat geschrieben:...
Klingt für mich absolut einleuchtend und wäre auch zu begrüßen :)
Twigg
Weiterdenken.

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 18.05.2006, 12:55

Hasenhuf hat geschrieben:
SISTRIX hat geschrieben:Google hat erkannt, dass die Zahl (automatisch) generierter Seiten ...
Haben diese Seiten einen sinnvollen Content und kein DC? Es geht doch nicht darum das auch Spamseiten betroffen sind aber wenn es eine Maßnahme gegen Spam ist, dann ist sie ungeeignet.
Nö. Sistrix hatt völlig recht.
Was heißt "sinnvoll"? Es geht doch nicht darum ob da Sätze formuliert sind die irgendeinen Sinn ergeben, es geht darum ob SuMa-Nutzer so etwas finden wollen.
Google hat nicht einen einzigen User der tatsächlich nach automatisch generiertem Content sucht.
Produktdaten aus Affili-Systemen haben in einem Suma-Index gar nichts zu suchen, wenn überhaupt gibts dafür Froogle und demnächst Base.
Und genau so sieht das Google: Der ganze Schmarrn muß raus.
Nur: Da man das kaum von Hand aussortieren kann braucht G. Algos die z.B. eine handgeschriebene DVD-Rezension aus nzig Millionen Produktseiten herausfiltert.
Daran arbeiten sie, das erste Ergebnis kann man sich jetzt (langsam) anschauen.
Das es schon fertig ist glaubt mit Sicherheit auch bei G. keiner.
Genauso steht es mit Foren- hier ist es wohl noch komplizierter.
Jeder weiß es: Unter 1000 Foren-Unterseiten im Netz sind 999 voll mit Meinungs-Entäußerungen die die Welt wahrhaftig nicht braucht.
Die eine übriggebliebene enthält oft aber gerade genau das was man gesucht hat.
Das ist ein Problem das -wenn überhaupt- nur über einen Linkpop-Algo wenigstens im Ansatz lösbar ist.

Ich plädiere für folgendes:
Diejenigen die glauben G. wäre kaputt fahren mit Schraubenzieher und Ersatzfestplatte nach Mountain View zum mithelfen.
Der Rest versucht weiter herauszufinden was jetzt zu tun sein könnte. 0X

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag