Theoretisch ja, aber:
Kristian hat geschrieben:Er hat die Daten hier ja als ISO-8859-1 eingelesen.
Das stimmt nicht.
Edit: Genauer gesagt: Es stimmt schon, aber in Kombination mit den anderen Informationen ist genau dies das Problem.
{Exkurs: edit.com zeigt nur 1-Byte-Zeichen an.
Speichert mal per Notepad eine Datei mit ein paar Buchstaben und Umlauten als Ascii, UTF-8 und Unicode ab und seht euch die Dateien mit edit.com an.}
Da calusa-xx bestätigte, daß die ersten drei Zeichen nicht komisch waren, fehlt das BOM - das umfaßt bei UTF-8 drei Zeichen und müßte am Anfang stehen. Da er ebenfalls bestätigte, daß im edit.com die Umlaute komisch aussahen (wohl ü als zwei Zeichen), wurde der Datenstrom als UTF-8 codiert geliefert. Sprich: Der Datenstrom war UTF-8 ohne BOM und müßte deshalb - gemäß Standard - als UTF-8 interpretiert werden. Gleichzeitig wird aber in der ersten Zeile behauptet, daß es ISO-8859-1 sei.
Das Problem ist jetzt: Liest man diesen Datenstrom als ISO-8859-1 ein, dann ist ab dann alles falsch - weil Datenstrom und behauptete Codierung nicht zusammenpassen. Es gibt jedoch keine Meldung - weil für den Parser kein Problem existiert, er macht bloß das, was man ihm sagt. Wird jetzt bei der Ausgabe (an den Browser) der Datenstrom als Quasi-Html interpretiert, dann funktioniert alles prächtig, weil nicht scharf genug geprüft wird. Deshalb 'sieht' das Ergebnis bis zu diesem Zeitpunkt korrekt aus.