Seite 1 von 1
nur 32% ihrer Seite enthält lesbaren Inhalt
Verfasst: 07.11.2008, 14:40
von Soccout
Das lieferte mir
https://de.linkvendor.com/ !
Nun habe Ich mal ne Frage, warum juckt es Google, wie mein Code aussieht?
Zu xhtml 1.1 Standards muss man halt um jeden Link und alles ne <div> machen und es ist nicht mehr so leicht 50% lesbaren Inhalt zu generieren.
Ihr habt wie immer mehr Infos, also los belehrt mich!
Verfasst: 07.11.2008, 16:21
von e-fee
Es ist doch erstmal nur eine rein statistische Feststellung von irgendeinem Tool eines Dritten. Ob das Google tatsächlich juckt, geht daraus nicht hervor - das können die schließlich handhaben, wie sie wollen.
BTW mach ich bestimmt nicht um jeden Link ein DIV!!! (was ohnehin nicht grad viel Code wäre.)
Und ein paar DIVs schön mit CSS, das produziert im allgemeinen tatsächlich viel weniger Code als das alte Rumgehampel mit zig Tabellenzellen, Blind-GIFs, FONT-haste-nicht-gesehen ...
Es kann - muss nicht - aber halt auch sein, dass jemand tatsächlich extrem wenig Inhalt auf seiner Seite hat, wodurch er dann auch einen extrem niedrigen Anteil am Gesamtcode hat. Das ist dann tatsächlich unter Umständen nicht so optimal, aber aus anderen Gründen.
Viele auch gut rankende Seiten von großen, bekannten Auftritten sind regelrechte Codemonster. Google schneidet sich ohnehin das raus, was es braucht.
Verfasst: 07.11.2008, 16:35
von Soccout
Ja, das stand unter allgemeine SEO und darum wollte ich bei euch nachfragen.
Klar gibt es weniger Code, als mit den Zellen, aber mit Xhtml ist es wieder mehr geworden.
Google liest ja eh nur den Text und bestimmte Codes. Cloaking behandelt sie auch anders.
Hat mich halt gewundert.
Danke für deine Ansicht. Ich werd weiterhin nichts drauf geben.