Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Maximale Anzahl an Seiten im Google Index ?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
dirk
PostRank 8
PostRank 8
Beiträge: 712
Registriert: 24.11.2003, 18:30
Wohnort: TmV1c3M=

Beitrag von dirk » 17.05.2004, 17:10

Hi,

gibts eigentlich irgendwelche Richtwerte, wieviele Seiten man pro Domain/Site/Projekt/IP/etcpp. bei Google in den Index kriegt ? Wo ist Schluss mit lustich ? Wie wirkt sich der Pagerank auf die maximale Seitenzahl aus ? Was passiert, wenn die maximale Seitenzahl (sofern es die gibt) überschritten ist ? Fliegen dann ältere Seiten für neuere raus ? Was würde passieren, wenn man Teile eines Projekts auf mehrere Subdomains splittet ?

Gaaanz viele Fragen :roll:

Wenn ich wüsste, wie man hier so ne Umfrage startet, würde ich das ja glatt mal machen, aber irgendwie finde ich DAU den Button nicht ;-)

thx,
dirk

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

testimax123
PostRank 6
PostRank 6
Beiträge: 453
Registriert: 16.03.2004, 16:30

Beitrag von testimax123 » 17.05.2004, 18:01

was für eine größenordnung strebst du an ??
die abfrage site ergibt bei abakus-internet blablabla 62200 !!

du kannst ja mal webby fragen ob er die mal eben durchschaun kann ob ihm was auffällt :lol:

dirk
PostRank 8
PostRank 8
Beiträge: 712
Registriert: 24.11.2003, 18:30
Wohnort: TmV1c3M=

Beitrag von dirk » 17.05.2004, 18:06

Es geht nicht darum, was ich anstrebe. Ich denke, jeder strebt irgendwas ala max($site) an ;) Da ich nicht weiss, wieviele Seiten abakus*.* wirklich hat, kann ich die 62200 nicht einschätzen. Da ich auch nicht sagen kann, ob es immernoch 62200 wären, wenn Alan bzw. a-i-m.de nur PR1 hätte, ist diese Aussage nicht sonderlich hilfreich :wink:

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

testimax123
PostRank 6
PostRank 6
Beiträge: 453
Registriert: 16.03.2004, 16:30

Beitrag von testimax123 » 17.05.2004, 18:14

ich
Da ich auch nicht sagen kann, ob es immernoch 62200 wären, wenn Alan bzw. a-i-m.de nur PR1 hätte
das ist zb eine frage die dir keiner beantworten kann. du könntest betimmte tools einsetzen um zb die links/domains von großen projekten zählen zu lassen (ich empfehle xenu) und dann schaun wieviel sind im index und welchen pr hat die site.
wenn du dann mit ner pr0 beginnst und bis zu einer pr 6 site gehst könntest du vielleicht eine struktur erkennen. aber es ist eine aufwendige sache und morgen kann das ganze bereits wieder hinfällig sein

dirk
PostRank 8
PostRank 8
Beiträge: 712
Registriert: 24.11.2003, 18:30
Wohnort: TmV1c3M=

Beitrag von dirk » 17.05.2004, 18:16

einfacher wäre ja, wenn sich hier mal jemand äussern könnte, der PR-technisch gewachsen ist und von Anfang an viele Seiten hatte. :roll:

testimax123
PostRank 6
PostRank 6
Beiträge: 453
Registriert: 16.03.2004, 16:30

Beitrag von testimax123 » 17.05.2004, 18:32

ok du willst es vielleicht nicht hören /lesen:
ich habe ein kleines projekt mit einem PR 4 alle 3760 seiten sind im index,
die waren auch bei pr 3 drin (flache Llnkstruktur), wie gesagt klein aber fein.

ich vermute es hängt viel an der linkstruktur bei ner pr 0 schaut der bot nicht so oft vorbei und wühlt sich mit sicherheit dann auch nicht bis in die 7 ebene ein.
idealerweise ist ein hoher pr mit einer äußerst flachen linkstruktur (vermutung!!)

dirk
PostRank 8
PostRank 8
Beiträge: 712
Registriert: 24.11.2003, 18:30
Wohnort: TmV1c3M=

Beitrag von dirk » 17.05.2004, 18:40

ok du willst es vielleicht nicht hören /lesen:
Klar will ich das lesen ... sonst hätte ich ja nicht gefragt. :lol:

UweT
PostRank 10
PostRank 10
Beiträge: 5601
Registriert: 03.01.2003, 00:07

Beitrag von UweT » 17.05.2004, 18:44

ich denke nach oben hin sind keine grenzen gesetzt, zumindest was die seiten anzahl im index pro domain angeht.
wie das IP mäsig aussieht ist schwer zu sagen, denn gerade bei großen geclusterten seiten die also jede anfrage an den server möglichst effektiv auf eine anzahl an servern mit unterschiedlichen, jedoch meist in der gleichen ip range liegenden ips, weitergeben, sieht es so aus, als könne man schlussfolgern, dass es pro ip eine grenze gibt. Beispiel: clustering systeme, die die lastverteilung zb. nur auf 2 ips beschränken, so wie bei listings.ebay.de ist es also durchaus möglich knapp 1,5 millionen seiten/domain in den index zu bekommen, teilt man das durch 2 kommt man pro ip auf einen max. wert von 750.000 Seiten pro IP/Domain, obs stimmt weiss ich nicht :P Voraussetzung der PR stimmt.

testimax123
PostRank 6
PostRank 6
Beiträge: 453
Registriert: 16.03.2004, 16:30

Beitrag von testimax123 » 17.05.2004, 18:46

wenn die obigen sachen zutreffen, könnte ich mir vorstellen das es keine begrenzung gibt. doppelter content wird eh ausgeblendet und irgendwann ist die linkstruktur (jedenfalls wenns einen sinn ergeben soll) nicht mehr "flach". man müsste theoretisch nur wissen bis zu welcher tiefe bei welchem pr gespidert wird.

so das wars jetzt aber

Pingo
PostRank 1
PostRank 1
Beiträge: 21
Registriert: 02.03.2004, 11:03
Wohnort: momentan Madrid

Beitrag von Pingo » 17.05.2004, 18:52

Hi,

kann auch nicht so viel beisteueren, außer dem hier:
Eine Seite mit keinen eingehenden Links bei Google angemeldet. Wurde dann relativ schnell aufgenommen, allerdings nur die erste Seite. Diese eben auch die ganze Zeit mit PR0 und auch weiterhin nicht um eingehende Links gekümmert.

Die Seite wurde daher nie tiefer als die Index gespidert und nach drei Updates war die Seite dann komplett raus aus den Googleschen SERPs.

Gruß,
Pingo

testimax123
PostRank 6
PostRank 6
Beiträge: 453
Registriert: 16.03.2004, 16:30

Beitrag von testimax123 » 17.05.2004, 19:01

eine seite von mir (linktrade-opfer-geworden, aus fehlern lernt man) ist jetzt nur noch mit der index seite drin.
ach ja, die seite hatte mal pr 3 und alle unterseiten drin. jetzt (pr0) sind es nur noch die ??ehemaligen?? linktrade links die im index drin sind...

dirk
PostRank 8
PostRank 8
Beiträge: 712
Registriert: 24.11.2003, 18:30
Wohnort: TmV1c3M=

Beitrag von dirk » 17.05.2004, 19:03

man müsste theoretisch nur wissen bis zu welcher tiefe bei welchem pr gespidert wird.
Wobei das ja auch relativ ist. Wenn ich beispielsweise von Ebene1 oder einer anderen, externen Domain auf Ebene7 linke, dann wird Ebene7 ja auch wieder zu Ebene1. Wenn man also mal "mitten ins Schwarze" ballert, müsste ja theoretisch der bot ziemlich ins schwitzen kommen, wenn er dann noch irgendwelche ebenen einhalten will.

dirk

testimax123
PostRank 6
PostRank 6
Beiträge: 453
Registriert: 16.03.2004, 16:30

Beitrag von testimax123 » 17.05.2004, 19:12

ich glaube ich verstehe dich nicht so ganz...

ebene 1 verlinkt auf ebene 7
dh. bei mir, 1 und 7 sind drin.aber auch nur die...

ebene 1 auf ebene 2
ebene 2 auf ebene 3
ebene 3 auf ebene 4
ebene 4 auf ebene 5
ebene 5 auf ebene 6
ebene 6 auf ebene 7
dann würde ich darauf tippen das nur 1 und 2 drin sind....

testimax123
PostRank 6
PostRank 6
Beiträge: 453
Registriert: 16.03.2004, 16:30

Beitrag von testimax123 » 17.05.2004, 19:20

Wobei das ja auch relativ ist. Wenn ich beispielsweise von Ebene1 oder einer anderen, externen Domain auf Ebene7 linke, dann wird Ebene7 ja auch wieder zu Ebene1. Wenn man also mal "mitten ins Schwarze" ballert, müsste ja theoretisch der bot ziemlich ins schwitzen kommen, wenn er dann noch irgendwelche ebenen einhalten will.
probier doch mal folgendes, setzte eine "nackte" Index ins netz mit folgender linkstruktur
ebene 1 auf ebene 2
ebene 2 auf ebene 3
ebene 3 auf ebene 4
ebene 4 auf ebene 5
ebene 5 auf ebene 6
ebene 6 auf ebene 7
melde die seite bei goog.. an und setze von einer "populären" seite einen link auf die sechs. bin mal gespannt welche nachher drin ist

dirk
PostRank 8
PostRank 8
Beiträge: 712
Registriert: 24.11.2003, 18:30
Wohnort: TmV1c3M=

Beitrag von dirk » 17.05.2004, 19:20

pass auf ... ebene1 auf ebene2, ebene2 auf ebene3, usw. - wie Du geschrieben hast. Wenn man jetzt nur ebene1 anmelden würde, müsste sich der Bot von Ebene1 bis Ebene7 durchgrasen. Also recht tief. Wenn ich jetzt aber irgendwo einen Link direkt auf Ebene7 kriege, merkt der Bot ja nicht, dass es Ebene7 ist sondern nimmt sich die Seite und fängt dann von "unten" an und gräbt sich bis ebene1 hoch. Von daher ist es wohl ziemlich egal, wie tief die Struktur ist - solanger der Bot von irgendwo (wo er schonmal war) nach "unten" geschickt wird.

Ich teste das Prozedere grade auf der site in meiner sig. Beispielsweise ist folgende Seite https://www.myodp.de/cgi-bin/dir.pl?863871 bei google drin. Das ist laut Site-Struktur Ebene11. Und das nur wegen o.g. "Effekt".

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag