Beitrag
von axelm » 23.05.2005, 10:56
Interessanter Artikel.
Bedeutet, dass also, dass wenn eine Seite kleiner ist (in Kb, dank CSS statt großen Tabellen Layouts) der Bot sich schneller durcharbeiten kann weil weniger Zeilen/Code vorhanden ist? Laut deinem Artikel müßte das ja so sein.
Dementsprechend müßte der Bot ja durch eine Valide Seite schneller vorran kommen als wenn er eine Schleife durchgehen muss wie: "ups, da kommt im a href Tag das Attribut 'hier'", "Kenne ich das ja/nein...If a href Länge nach der URL großer als 60 Zeichen gehe davon aus, dass HTML Fehler vorhanden ist, Tag nicht beachten." etc.
Müßte nach deiner Beschriebung ja so sein. Nicht anderes macht übrigens der Browser der sich sagt :"ok, das TD Tag ist hier nicht geschlossen, was mache ich jetzt?" Spring in die Fehlerschleife entscheide ob der Fehler so schwerwiegend ist ob ich die Seite noch darstellen kann oder nicht. Sprich dauert länger (in der Praxis mußte ich leider feststellen, dass der Geschwindgkeitszuwachs beim Rendern im Browser erst ab Seiten von 100-200 Kb meßbar wird, spielt also kaum eine Rolle).
Bloß warum sollte Google nicht bei den Zahlreichen parametern die für das Ranking benutzt werden eine Rule haben wie: "Hey, die Seite ist valide. Der gebe ich mal 0,01 Punkte mehr als ne nicht valide Seite"? Oder "Hey, die Seite ist valide. Das bewerte ich jetzt noch nicht (weil noch zuviele Seiten unvalide sind), aber ich merk mir mal seit wann die Valide ist um das später einzusetzen". Ein Wenig so wie, "seit wann gibt es die Domain?", oder "seit wann gibt es diesen Backlink?".
Warum nicht?