Hallo, habe mich gestern auch bei Sitemaps angemeldet und mich der Einfachheit halber und auch wegen der Dateigröße für das Textformat entschieden. Die angemeldeten Dateien werden von einem perl-Skript erzeugt und von Google auch gefunden. Die Datei hat folgendes Format:
Ich weiß, daß die Datei UTF-8 codiert sein muß, da ich allerdings davon leider gar keine Ahnung habe, hab ich also die Datei wie üblich erstellt und angemeldet. Google quittiert die auch mit ok. Heute hat sich der robot Dateien aus der Sitemap abgeholt, allerdings so:
Das ist natürlich schlecht. Ich denke mal, das liegt an falscher Codierung. Habe daher mal eine Datei im Notepad in UTF-8 manuell angelegt und die ASCII-Werte der Zeichen ausgelesen. Da kommt beim Leerzeichen aber auch 32 raus. Was ist falsch? Habe in anderen Beiträgen zum Thema nichts passendes gefunden und generell zum Thema Sitemap-txt im Web nicht allzuviel. Hat jemand Erfahrungen damit? Mit den aufgeblähten XML-Datei will ich aufgrund der großen Anzahl URLs nicht hantieren. Danke für Hinweise.
Danke, achso, hatte das allerdings bei google irgendwo so gesehen, könnte aber auch eine Vorlage zum Import in den Sitemap-Creator oder sowas gewesen sein. Also komme ich um xml wohl nicht herum, wenn ich google (und mir) das Leben durch das ziemlich sinnvolle lastmod erleichtern will. Danke Dir