Beitrag
von auer » 03.11.2003, 21:07
Bei google gibt es c.a. 3 Milliarden Seiten, nimmt man an, daß jede Seite fünf Links enthält, landet man bei 15 Milliarden auszuwertender Links. Der wesentlichste Test ist, ob der Link intern oder extern ist. Beginn nicht mit http:// -> intern, Fall erledigt, Beginn mit http:// ... ach, da müssen wir ja noch prüfen, ob es nicht doch ein interner Verweis ist.
Jede Datenbank lebt davon, daß Informationen möglichst normalisiert, also redundanzfrei abgelegt werden. Warum also soll man eine Seite hoch bewerten, die quälend schrecklich redundant ist und damit unnötig Rechenzeit vergeudet? Was würdest Du als Suma-Betreiber machen, wenn eine Seite suggeriert, lauter externe Verweise zu haben, denen man also nachgehen sollte, bei der man nach viel Rechenleistung feststellt, daß die meisten Verweise intern sind? Der Quotient (Größe der Seite) / (Zeit für die Analyse der Seite) ist doch sicherlich interessant, um verschiedene Seiten miteinander zu vergleichen und zwischen diesen zu entscheiden. Dieser Quotient ist bei Seiten, die sich an den XHTML-Standard halten und nicht unnötig aufgebläht sind, natürlich höher. Und eine 'lohnende Seite', bei welcher das Verhältnis von Ertrag und Aufwand (Analysezeit) positiv ist, kann man natürlich auch häufiger überprüfen und neu einlesen, das kostet ja nicht so viel.
Man kann es auch altmodisch formulieren: Html-Seiten gemäß dem aktuellen XHTML-Standard zu erstellen ist Handwerkskunst, die gewisse Kenntnisse voraussetzt und die man nicht in drei Tagen lernt. Alles andere ist natürlich ein Grund zur Abwertung - weshalb auch nicht.
--------------
Gruß, Jürgen Auer