Das Programm ByteReducer spart ja bekanntlich so ca. 20% des benötigten Speicherplatzbedarfs für konventionell erzeugte HTML-Seiten ein. Gibt es Erfahrung darüber, ob sich die Benutzung von Bytereducer irgendwie auf das Spidern der Seiten durch Google auswirkt?
Kannst du uns vielleicht von 2 Beispielseiten, eine "unoptimierte" und eine "optimierte", den Quellcode posten?
Ich selber bin ja der Meinung dass man lieber standardgetreue Seiten bauen die auf CSS setzen und wenn möglich mod_gzip aktivieren sollte, damit hat man sicher mehr Erfolg wie wenn man riessige Tabellengebilde so "optimiert", aber anschauen will ich mir das trotzdem mal.
So ich konnte mal wieder nicht abwarten und habe selbst rumprobiert.
Die Software entfernt einfach alle Zeilenumbrüche und "sinnlosen" Anführungsstriche und Tabulatoren, ersetzt Farben durch passende Konstanden und entfernt Kommentare - So stehts auf jeden Fall im Programm.
Bei mir wurde nebenbei aber noch die Validität, die Lesbarkeit und die Editierbarkeit der Seite entfernt, sprich ich konnte mit der Seite nicht mehr wirklich viel anfangen nach der "Optimierung".
Ob das Auswirkungen auf die Suchmaschinen hätte kann ich nicht sicher sagen, guter, sauberer und vor allem lesbarer Code hat aber noch nie geschadet.
Ich rate von dem Programm ab, der Nutzen ist zu klein als dass ich hässlichen Quellcode online haben will.
lesbar ist er ja noch - jedenfalls für den browser...
ich habe mal auf einer domain alle seiten "komprimiert", allerdings mit einem anderen tool, und konnte keinen unterschied zu nicht "komprimierten" seiten feststellen.