Folgendes: Um Duplicate Content zu vermeiden, habe ich meine Website https://meineseite.de permanent per .htaccess auf http:www.meineseite.de weitergeleitet. Soweit so gut.
(Unter site:www.meineseite.de waren bisher ca. 50 Seiten indexiert. Unter site:meineseite.de ca. 70)
Trotzdem habe der .htaccess und auch goo in den Webmaster-Tools mitgeteilt, bitte alle Seiten mit www.meinedomain.de anzuzeigen. (Ich fand es einprägsamer und schicker und alles ist auf www.... verlinkt.)
Nu hab ich bei dieser bei 1x1 gehosteten Site eine Sitemap erstellt und an goo weitergeleitet und entdeckt, dass in dem XML-Dokument alle Seiten-Adressen mit https://meinedomain.de (der Seite, die weitergeleitet wird) angegeben sind. Nicht mit https://WWW.meineseite.de (das eigentliche Ziel).
Was passiert nun, da diese Seite ja in der .thaccess auf WWW.meineseite.de weitergeleitet ist? Indexiert der Bot trotzdem alles korrekt, weil er bei jeder Adresse die Weiterleitung entdeckt oder bricht er nach der ersten Adresse ab, weil die Domain nicht stimmt?
PS: Nach meinem Dafürhalten wird der Bot bei jeder einzelnen Seite jeweils auf die "richtige" Seite weitergeleitet und diese indexieren. Aber ob das wirklich so ist? Ich hätte es natürlich lieber, wenn der 1und1 Sitemap-Generator in der Sitemap gleich die Adresse mit www... ausspucken würde.