Hallo.
Mit 5400 indexierten Seiten, alleine in den 17 Tagen hat der GoogleBot die Seiten doppelt so oft indexiert, wie sonst.
Woran kann das liegen? Ich habe zwar ein "revisit after"="7 days"-Metatag, kann es mir davon aber nicht erklären.
Ist das gut oder schlecht?
Das "revisit after"-Metatag kannst du getrost vergessen, der Googlebot holt sich die Dateien dann und so oft wie er will.
Um so öfter die Seiten indexiert werden um so schneller sind Änderungen sichtbar, von dem her ist es gut. Allerdings macht der Bot auch eine Menge Traffic, eher schlecht. Nur kannst du da gar nicht viel dran ändern, geschweige denn dem Bot etwas sagen. Also freu dich dass er deine Seite mag und bau einfach dran weiter.
wäre trotzdem besser, wenn sich der Google-Bot zumindest dann an die revisit-after-Angabe halten würde, wenn die seine Aktivitäten etwas ausbremsen soll.
mir würde einmal pro Woche in einem Angebot wo sich alle paar Wochen mal was ändert, völlig ausreichen. Stattdessen tummelt der Bot sich da alle zwei Tage.
Hallo Thomas, sehe es in diesem Licht, Googlebot ermöglicht dir durch das extensive crawlen eine Listung und Ranking in der populärsten Suchmaschinen der Welt. Das bisschen extra Traffic ist ein kleiner Preis den man zahlt.
Falls es jedoch extrem wird, kann man immer mal eine mail mit der Problemstellung an googlebot@google.com schicken (englisch, dann gehts schneller).
Mich besucht der google-bot auch jeden Tag. Finde es angenehm wenn der jeden Tag die Seiten aktualisiert Hab den revisit-after Tag auf 5 days gesetzt, bringt aber (zum Glück) nichts. Vielleicht beachten paar SuMa's diesen Tag, hauptsache ist aber das die beste SuMa immer schön vorbeischaut
hehe, gerade vor paar minuten war google wieder da :eggface: