in letzter Zeit wird mein Forum hervorragend gecrawlt, neue Beiträge sind innerhalb von 24 Stunden indexiert. Nun habe ich einen Artikel in der ct' gelesen, dass Sitemaps sich sogar negativ auf das Bot-Verhalten auswirken, resp. garkeine Wirkung zeigen könnte. Bitte spart mir jetzt selbstgefällige Kommentare über diese Aussage, denn ich denke die Autoren haben schon sorgfältig recherchiert.
Meines Erachtens kann der Bot nicht effektiver in meinem Forum crawlen. Zu was ratet ihr mir? Welche Erfahrungen habt ihr gemacht?
Google Sitemaps (es gibt ja seit Beginn des Internet auch andere ...) wurde eingeführt, um möglichst schnell, aktuell und vollständig alle einzelnen Seiten zu erfassen.
Wie will man diese Argumente zerreden? - Blödsinn. Aber auch bereits die Frage.
Schnell: kein Bot braucht sich irgendwo durchzuwuseln und spart Ressourcen - alles steht an einem Platz.
Aktuell: nicht zufällig wird irgendwannn irgendetwas aktuelles, neues entdeckt, sondern wiederum immer am konkreten Platz.
Vollständig: alles, was veröffentlicht werden soll, ist zu erreichen, selbst die unmöglichsten Strukturen und URLs und sogar bei fehlender innerer Verlinkungen.
Was möchtest du denn eigentlich auf deine Frage hören, wenn die Recherche der Redakteure nicht in Frage gestellt werden darf? Wenn du das blin glaubst, dann lass halt die Sitemap. Wie wird die Aussage denn begründet?