da bei einem unserer Projekte die XML Sitemap inzwischen über 50.000 Einträge hatte, musste wir diese auf mehrere Sitemaps aufteilen. Dies haben wir über eine Index Sitemap gemacht, in der die 10 anderen Sitemaps gelistet werden.
Inzwischen wurde die Sitemap auch wieder von Google abgerufen, allerdings nur noch 35.000 URLs anstatt wie zuvor 48.000 URLs vor der Umstellung.
In den Webmaster Tools finde ich unter dem Punkt "In diesem XML-Sitemap-Index enthaltene XML-Sitemap" jedoch nur 6 der 10 gelisteten Sitemaps.
seit wann wrude die "index-sitemap" umgestellt. Das das alles nicht innerhalb von ein paar Tagen geht kann durchaus vorkommen.
Mein Tipp: noch ein wenig abwarten... Bei Fehlern sollte ja eigentlich in den Webmastertools was angezeigt werden.
Ich habe aktuell das Problem, dass ich um die 200k URLS unterbringen muss. Jetzt gibt es ja die Möglichkeit die sitemap.xml mit Verweisen zu weiteren Sitemaps auszustatten.
Zusätzlich kann man in der robots.txt mehrere Sitemaps einfügen.
Ich hatte jetzt vor in der robots.txt nur die Sitemaps aufzuführen, die auch in der sitemap.xml stehen. Oder sollte ich in der robots.txt die zusätzlich aufführen bzw. nur die?
Kommen eigentlich alle Suchmaschinen mit Sub-Sitemaps klar?
Am Rande: Die Angaben über die indexierten Urls der Sitemaps in den WMT waren in der Vergangenheit nicht zuverlässig. Angeblich nicht indexierte Urls waren bei manueller Recherche im G-Index zu finden. Insofern: Bevor man sich an die Ursachenforschung für eine mangelhafte Indexierung macht, erst einmal prüfen, ob die Angaben in den WMT wirklich den Tatsachen entsprechen.
Ich kann nur bestätigen, dass die Aufteilung auf mehrere Sitemaps funktioniert. Das dennoch nicht alle gecrawlt werden, geschweige denn im Index landen ist ein Problem, was nicht mit der Sitemap zusammenhängt, zumindest hätte ich dazu keine Erklärung parat. Bei 500.000 Einträgen in den Sitemaps wundert es mich ehrlich gesagt auch nicht, dass Google in paar davon ignoriert
Und ich kann nur bestätigen, das die Angabe" indizierte URLs" im GWT egal ist.
Habe 13 URLs übermittelt und laut GWT ist keine indexiert. Sind aber ALLE im Index und ranken zum Teil auf der ersten SERP
Die technische Grenze einer XML-Sitemap beträgt zwar 50k URLs, meiner Erfahrung nach ist es aber sinnvoller nur 20k bis 25k in eine einzelne XML-Sitemap zu packen, denn diese werden dann eher komplett indiziert.
Hi also ich würde nicht so viel in eine Sitmap packen ich schlisse mich da der meinung an.
Ich habe jede website in einem Unterordner meiner domain und für jeden Unterordner also jede website habe ich eigene Sitmaps erstellt so das in jeder sitmap ca 50 seiten stecken.
Wenn eine seite nicht indeiert wird liegt das wohl am Inhalt überarbeite einfach die Seite und warte 2 wochen dann müste sie indexiert sein denn meiner meinung nach indexiert google eigentlich jede seite solange ausreichend Content und ordentliche metas vorhanden sind.
mfg steffen. https://pc-repair.eu