Beim checken von Logs eines Testshops ist mir was Merkwürdiges aufgefallen. Google findet beim crawlen keine Dateien und verursacht haufenweise 404.
Der Zugriff sieht folgendermaßen aus:
/pages-productinfo/category-5/product-21/language-de/
Zugreifen müsste er aber eigentlich auf /pages-productinfo/category-5/product-21/language-de/index.html
Ich habe bei der Domain mit der Sitemap der Webmastertools gearbeitet und in der XML Datei steht auch alles richtig drin.
Mitlerweile habe ich die Sitemap aber wieder gelöscht.
Jetzt die Fragen:
1. Beim Aufruf einer Domain wird ja automatisch die index.html geladen. Müsste das hier nicht auch der Fall sein, wenn man nur ein Verzeichnis angibt und sich eine index.html darin befindet?
2. Kann ich per 301 Umleitung festlegen, dass wenn Google wie oben nur auf das Verzeichnis zugreift, der Bot umgeleitet wird auf die in diesem Order vorhandene Index.html und wenn ja wie?
3. Wie kommt so ein Müll überhaupt zustande?