Bei meiner Seite sind noch einige Unterseiten, die noch nicht bei google indexiert sind.
gemäss meinen Reports besucht der Google Bot meine Seiten wie auch unterseiten regelmässig, jedoch stagniert die indexierung seit einigen monaten.
Bei den Metatags kann man ja die Info hinerlegen in welchen Abständen die robots wiederkehren sollen. Gibt es da einen Richtwert. Bei Zeitungen bspw. ist dort alle 1 h hinterlegt, ich habe derzeit alle 15 Tage.
Hat das vor resp. Nachteile - werden die Seiten rascher indexiert wenn der Bot aufgefordert wird alle 3 Tage vorbei zu schauen oder hat dies keinen Einfluss?
Das mit dem revisit kannst du dir ersparen. Keiner der crawler oder spider halten bzw. berücksichtigen den metatag robots. Wie oft die crawler auf einer Website vorbeischauen hängt einzig von der Popularität und Aktualität einer Seite ab.