meine Webseite besteht aus ca. 1000 Seiten und vor einigen Tagen hat der Google-Bot endlich alle Seiten gelesen, zumindest sagen das meine Logfiles.
Im Index sind aber erst 120 Seiten hinzugekommen. Wenn der Bot die Seiten liest, kann man sicher davon ausgehen, dass die auch im Index erscheinen?
Wenn die Seiten ganz neu sind und zum ersten mal gespidert werden, war es meist der freshbot von google. Erkennste an der ip. Diese Seiten sind für wenige Tage im index. Dann verschwinden meist sie wieder.
Erst wenn der google Deep Crawler kommt und ein paar mal da war,bleiben sie beständig im index.
Vorraussetzung Seiten immer online, keine Schweinereien,etc
Wie lange es dauert bis alle drin sind?
Kommt drauf an, wie untereinander verlinkt (->Sitemap) und strukur der Seiten.
Kann zwischen schnell (1monat) und ewig (nie) dauern.