offenbar sind hier ja einige schlaue Leute zugegen.
Deshalb denke ich mal, dass ich hier sicher ne Lösung zu meinem
Problem finde.
Ich habe ne Seite gebastelt, die über ne größere Zahl an Unterseiten
verfügt. Nun will ich natürlich, dass Google diese rasch in seinen Index aufnimmt, und habe daher viel Suchmaschinenoptimierung betrieben. Ich habe mir hochwertige Backlinks besorgt (wikipedia etc.) um dadurch vielleicht den Googlebot in bißchen zu beschleunigen.
Auch habe ich schon Sitemaps hochgeladen und im Webmaster-Tools wurden die auch als OK aufgenommen. Nun warte ich schon einen Monat und Google hats grade mal geschafft 165 Unterseiten in den Index aufzunehmen. Yahoo hat zu meinem Erstaunen bereits 1200 Unterseiten im Index. Eigentlich war ich davon ausgegangen, dass es eher umgekehrt der Fall sein würde. Nach dem Webmaster-Tools crawlt der Googlebot jeden Tag um die 200 Seiten.
Warum sind da noch nicht mehr Seiten im Index?
Warum das so ist: diese Frage kann Dir nur Google beantworten – aber ob das normal sei? Ja es ist so –i.d.R. Yahoo – Live(MSN) und dann erst Google – Google kann sich das leisten und die anderen noch nicht. Meine Antwort hat Dir vielleicht nicht viel geholfen aber Dich ev. beruhigt... Viel Erfolg!
Ah ok...
Wenn das die Regel ist, dann läuft ja alles klar.
Ich denke das kann einem jeder Webmaster nachempfinden,
dass man natürlich ungeduldig ist, wenn man seine Seiten im Index
haben will. Am liebsten würde ich mich n halbes Jahr lang einfrieren und dann nochmal nachschauen.
Ich dank dir für deine Antwort!
Ach echt?
Hmm.. also ich habe schonmal gelesen, dass da viele drüber streiten,
ob Wikipedia nofollow links hat oder die links doch viel wert sind.
Naja mir egal, hab ja auch noch andere Backlinks.
Geh ich recht in der Annahme, dass Google schneller crawlt bzw. mehr Seiten crawlt, wenn ich mehr Backlinks habe?