SloMo hat geschrieben: Ich würde Google am ehesten mit dem Wetter oder anderen chaotischen Systemen vergleichen. Mehr als tendenzielle Aussagen sind einfach nicht möglich, weil es viel zu viele Einflussfaktoren gibt.
Da hast Du Recht. Und ich denke auch, dass Google selber die ganzen Algorithmen nie richtig beherrschen kann. Man wird immer wieder massenhaft Effekte beobachten, die jeder Logik entbehren und die mit Sicherheit so nicht beabsichtigt sein können. Denkbar ist lediglich, dass das Auftreten dieser Effekte beabsichtigt ist, nicht die Effekte selber. Anders gesagt, die Algorithmen sind absichtlich derart komplex, um 1. das akademische Niveau des Apparats Google und 2. die Verwirrung unter den Gegnern, den SEOs (vgl. die Aussagen von Prof. Henzinger), aufrecht zu erhalten.
Die Antwort darauf kann nur sein, seine Arbeitsweise möglichst breit zu streuen. Gute Seiten, böse Seiten, große, kleine, mit und ohne Adsense, verschiedene IPs oder auch nicht, Contentseiten, Kataloge, Affili usw. usw. Dann ist man eigentlich sicher. Nur darf man sich nicht der Illusion hingeben, man wüsste vorher, welche Seiten gefährdet sind. Einmal erwischt es die guten, einmal die bösen usw. Die Definition, welche Seiten "wertig" - oder im Google-Slang "relevant" - sind, gibt es nicht. Nicht einmal bei Google.
Genug der Philosophie, ich fange jetzt an zu arbeiten. Schönen Tag noch...
