Es ist natürlich eine Frage des Standpunkts, klar.hard_pollux hat geschrieben:Was soll ich dagegen argumentieren? Deine Argumente sind ähnlich richtig oder falsch wie die meinigen, ist halt eine Sache des Standpunkts und der Perspektive.
Ist das ein Zeichen eines guten Algos? Daß ein gutes Projekt spammen muß, um seine Leistungen honoriert zu bekommen?hard_pollux hat geschrieben:Aber, und das halte ich für entscheidend, warum soll ein nach vorne gespammtes Projekt nicht vorne stehen, wenn es denn tatsächlich das beste zum eingegebenen Suchbegriff ist? Und soll zu jedem Suchbegriff ein Elferrat über die Top10 entscheiden - soviele Menschen gibt es garnicht. Also automatisieren, und damit ist der Manipulation Tür und Tor geöffnet.
Nein, natürlich muß ein Algo dahinter arbeiten. Aber ein Algo als Resultat menschlicher Bewertungen und nicht auf der Basis von Links.
Was wurde Linux schon alles prophezeit? Was Wikipedia? Beide laufen dennoch einigermaßen stabil. Gerade ein öffentlicher Algo ist zum Einen fair für alle Webmaster, und ermöglicht zum Anderen jedem an Verbesserungen daran zu arbeiten.hard_pollux hat geschrieben:Öffentlicher Algo! Stell' Dir mal vor, G würde seinen Algo veröffentlichen - die könnten morgen zumachen - der dümmste Hansel würde die dann manipulieren - es sei denn, das Portfolio reicht nicht.
Guter Content ist keine Frage der Quantität sondern der Qualität. Sollte eigentlich klar sein.hard_pollux hat geschrieben:Content = King! Wieviel MB per Page sind denn da so für Rang 1 angedacht? Kann garantiert mehr liefern !!!
Die Aussage ist mir zu pauschal. Das kann sein, muß aber nicht.hard_pollux hat geschrieben:Ich behaupte mal, in ganz DE ist niemand auch nur annähernd in der Lage, einen besseren Algo zu entwickeln, wie der aktuelle von G.
Was ist besser? Ein Algo der manipuliert werden muß, damit er relevante Ergebnisse liefer, oder einer der's auch ohne Manipulationen schafft?hard_pollux hat geschrieben:Und daß er gut ist, beweisen Dir die vielen Tränen hier, Billigmanipulation läuft nicht mehr, und selbst wenn in einzelnen Fällen doch - wo liegt das Problem, wenn das Ergenis relevant ist, ich vermag das nicht zu erkennen. Und auch das ist möglicherweise als gut zu bewerten, daß Spam zugelassen wird, wenn das Ergebnis relevant ist, sofern nicht explizit gegen die Richtlinien verstoßen wird. Irgendwie muß man doch nach vorne kommen, oder?
Du, meine Seiten stehen auch fein da. Aber wieso denn eigentlich? Ich hab mit Sicherheit nicht immer den besten Content (auch nicht den Schlechtesten), aber ich hab einfach mehr Links als die Konkurrenz und fertig.hard_pollux hat geschrieben:Meine Projekte stehen z.Zt. besser als je zuvor, weil ich mir den Arsch aufgerissen habe, seit den Abstürzen. Die Zeiten, wo man ein paar Seiten ins Netz klatscht, paar gekaufte Links drauf und im Beutel klingelt es, sind vorbei. Wenngleich die Masse der Webbies danach handelt. Erlebe es jeden Tag.
Das wird immer als Argument angeführt. Mag sicherlich auch was dran sein, aber bewiesen ist's nicht.hard_pollux hat geschrieben:Sicher, der Algo hat auch Bugs, und deren Nutzung ist nur ganz Wenigen vorbehalten.
M$ wartet auch regelmäßig mit Bugfixes auf. Und wäre Linux derart verbreitet wie M$, der Community würde ganz schnell Hören und Sehen vergehen, wenn sich gewisse Elemente darauf stürzen würden. Aber kaum jemand sucht nach Bugs in Lin.
Gruß
HardPollux
Es geht ja auch nicht darum eine SuMa zu entwickeln, die Google von heut auf morgen 80% Marktanteil wegschnappt. Das wird nicht möglich sein. Es geht nur um eine echte Alternative. Innovationen beleben den Markt, letztlich würden alle davon profitieren.
Selbst Microsoft legt inzwischen deutlich mehr Wert auf Sicherheit als jemals zuvor. Da sind alternative Betriebssysteme sicherlich nicht ganz unschuldig dran.