der googlebot kommt regelmäßig unsere seite zu indizieren.
nun hat er aber in gut einem jahr knapp 8.000 seiten im index.
wenn ich nun eine robot.txt anlege und die unwichtigen seiten unserer plattform eintrage, erreiche ich dann das der googlebot schneller die wichtigsten seiten indiziert?
also kurz gesagt:
ich sgae dem bot wo er nicht hin soll und dafür geht er dann schneller zu den wichtigen seiten...
die sitemap habe ich schon vor langem eingereicht.
problem mit der sitemap ist, dass da 40.000 links dirn sind. die eingereichte sitemap ist aber nicht mehr richtig aktuell, da es schon längst einige neue seiten gibt.
am liebsten würde ich die sitemap wieder löschen, da wie gesagt auch alte links drin sind...
Bei solchen Indexierungsproblemen solltest Du dir Deine interne Verlinkung nochmal
ansehen und auch zumindest an wichtigen Knotenpunkten Deeplinks von extern setzen.
Interessant sollten auch verschiedene Sitemaps sein(zum Beispiel für einzelne Bereiche
der Seite) an wichtigen Knotenpunkten, die Du dann von aussen anlinkst.
Dann verliert auch die Sitemap bei g00gle ihre Wichtigkeit.