Seite 1 von 1
Spider-Simulator und Text-Code-Verhältnis
Verfasst: 14.02.2011, 10:10
von neffetshd
Angenommen, eine Webseite enthält richtig viel Code und wenig Text. Damit ist das Text-code-Verhältnis unvorteilhaft.
Wenn ich aber diese Webseite mit dem Spider-Simulator betrachte, sieht man eben nur den Text. Und es sieht dadurch auch gar nicht mehr so unvorteilhaft aus.
Ich ziehe daraus den Schluss, dass es egal ist, wieviel Code man in der Seite hat (Ladegeschwindigkeit usw. ausgenommen): Ein schlechtes Text-Code-Verhältnis wirkt sich aus SEO-Sicht nicht direkt negativ aus.
Kann man das so stehen lassen?
Verfasst: 14.02.2011, 11:32
von Hirnhamster
Meiner Meinung nach schon. Es gibt keinen Grund (wie gesagt, außer Ladezeit) sowas negativ zu bewerten.
Verfasst: 15.02.2011, 09:37
von xlb
Dazu mal ein Link:
https://www.clemensplainer.com/seo/text-to-code-ratio/
.. mit interessantem Google-Kommentar von Adam Lasnik.
Verfasst: 15.02.2011, 10:45
von Hirnhamster
In dem Quote geht es um Validität...
Verfasst: 15.02.2011, 11:07
von xlb
... that have really crufty sites, and sites that won’t validate
Der Aussage nach geht's um (technisch) "grottige" Seiten, die eben u. U.
auch nicht valide sind. Wie der Autor meint:
Warum sollte das Ranking einer Website, die qualitativ hochwertigen Content zur Verfügung stellt ... nur aufgrund eines schlechten Markups verschlechtert werden?
Schlechtes ("crufty") Markup ist für mich z.B. auch Spagetti-Tabellen-Markup mit inline CSS, dass aber nichts desto trotz valide sein kann, das Code/Content-Verhältnis aber kräftig verschlechtert. Kernaussage bei beiden: In erster Linie zählt Content ... - was auch die ursprüngliche Frage des Fred-Starters war. Das valides und schlankes Markup, in pucto Performance, Accessibility, ... seine Vorteile hat, ist keine Frage.
Verfasst: 16.02.2011, 12:17
von neffetshd
Danke für die Antworten.
Und der Artikel hat mir echt geholfen.
Grüße
Verfasst: 16.09.2011, 10:57
von nikl
Was mich mal interessierne würde, ist wie dieses Verältnis überhaupt errechnet wird. Gibt es hier eine Liste von tags, deren inhalt als Text gewertet werden, also evtl <p> <h..> <span> etc? Und was zählt dann als Code - alles andere? Ich finde es mehr als schwierig, korrekt nachzuvollziehen, wieso manche Seiten ein gutes Text/Content Verhältnis haben, obwohl z.B. vergleichsweise wenig Text vorhanden ist und der Code allgemein sehr unsauber ist, während Seiten mit mehr Text und sauberen Code oft ein schlechteres Verhältnis haben..
Verfasst: 16.09.2011, 17:57
von tmyp
nikl hat geschrieben:Was mich mal interessierne würde, ist wie dieses Verältnis überhaupt errechnet wird. Gibt es hier eine Liste von tags, deren inhalt als Text gewertet werden, also evtl <p> <h..> <span> etc?
Allgemein nicht. Textnodes werden als Text gewertet, die Gesamtgröße abzüglich der Textnodes als Code.
nikl hat geschrieben:Ich finde es mehr als schwierig, korrekt nachzuvollziehen, wieso manche Seiten ein gutes Text/Content Verhältnis haben
womit testest Du das?
Übrigens: nur weil es nicht direkt ins Ranking einfließt heißt das nicht, dass es für das Ranking unerheblich ist. Text to Code-Ratio ist eine beliebte Methode, um den Inhaltsbereich von HTML-Dokumenten zu erkennen. Die These dahinter ist simpel: Navigationen haben relativ viel Code zu wenig Text, der Content hat relativ viel Text zu wenig Code. Entsprechend könnte man (und es wäre extrem sinnvoll!) den Text im Content-Bereich mit mehr Gewicht in's Ranking einfließen lassen als den in der Navigation. Entsprechend ist ein einfaches "ich nehm die Tags weg und habe den Text und das, was der Spider auswertet" eher unwahrscheinlich. Text to Code-Ratio ist dabei eines der einfacheren Verfahren, das nutzen auch eher einfacher Spider, ich bin sicher, Google und Co setzen weitaus komplexere Sachen ein.