Seite 1 von 1

Suchmaschinenlistings jetzt abhängig von der Aufenthaltszeit

Verfasst: 14.08.2003, 00:19
von Herbert
So oder ähnlich könnte doch eines nicht allzu fernen Tages eine Schlagzeile über die Listings von Suchmaschinen lauten!

Dann nämlich, wenn sich ein Algo gefestigt hat, der den Rang einer site im wesentlichen festmacht an der Dauer der Aufenthalte aller Besucher auf dieser site und wenn sich diese Ranking-Idee, die ich im Netz gelesen habe, einmal durchsetzt. Es ist dann so, als wenn man sagt: an diesem Buch habe ich mich festgelesen, das ist so gut, daß ich garnicht mehr aufhöre, hier zu lesen....;)
Vielleicht müßte man für StartUps noch einen Bonus geben: neue sites stehen weiter hinten, deren (relative) Aufenthaltszeiten werden mit Faktor 10 gewichtet....?

Nur ist die Frage, ob sowas machbar ist, ob es berechenbar ist und ob es nicht schon wieder Gegenmaßnahmen gibt, um seinen lieben Konkurrenten möglichst oft mit möglichst kurzen Blitzbesuchen (sog. Flash-Visits) abzustrafen...;)

Wie seht ihr das mit euren Erfahrungen? Könnte solch eine Ranking-Methode Zukunft haben?

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 14.08.2003, 07:11
von pi-de
Die Relevanz bezieht sich bisher auf ein bestimmtes Thema,
wenn ich z.B. einen Artikel über Jungfräulichkeit suche und auf spiegel.de o.ä. lande, dann da noch andere Artikel zum Kinoprogramm und einer Seuche auf dem Mars finde, bin ich ja recht lange auf der Seite.

Bei deinem Ranking würde die Suchmaschine theoretisch denken, dass der gesuchte Artikel sehr relevant ist, weil ich ja lange auf spiegle.de war...
Andere Seiten, die wesentlich kleiner sind, würden als weniger relevant eingestuft, obowhl deren Artikel, über das gesuchte Thema, vielleicht wesentlich interessanter sind.

Ein anderer Aspekt dürfte die Technik und Datenschutz sein.
Es würden Massen an Menschen in Ihrem Surfverhalten kontrolliert werden müssen...

Verfasst: 14.08.2003, 09:25
von Noki
allein die Menge an Protokolldateien wäre/ist so groß das wir da man noch locker 20 Jahre Zeit haben bevor sowas realisierbar wäre ;)

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 17.08.2003, 00:34
von Herbert
Hmm...und wenn bereits bestimmte Dienste Protokolldaten sammeln? Über client-basierte cookies, toolbars usw? Sammler gibts ja genug...sieh dir z.B. die Kombination von Google und Alexa an (hab sie installiert, daher die Idee ;): dort steht unter
"Alexa Web Search provides:
Search Results -- Google search with added Alexa information helps you to surf smarter.
Site Reviews -- Learn what other surfers think of a site, and share your experience by writing your own reviews.
Traffic Rankings -- Find out how popular a site is with other users.
Related Links -- Where have other surfers gone from here? Follow them to find related sites.
Related Categories -- One-click access to a directory of related sites...(...).

Also bereits eine Menge gesammelter Daten...;)

Verfasst: 17.08.2003, 02:15
von Southmedia
Das ist aber (leider) alles nicht repräsentativ. Und wird es auch nie sein.

Verfasst: 17.08.2003, 06:54
von viggen
Bill Gates weiss dank Microsoft XP ja auch schon eine ganze menge, :-?

Verfasst: 17.08.2003, 12:17
von bugscout
moin moin herbert,

dann sind die seiten weiter vorn bei denen die leute nur langsam lesen können.
z.b www.bild.de 8)
während www.online-netzwerk-lernen.de/schnell-lesen/ abgewertet wird

alexa geht den weg von anzahl der besucher x anzahl der besuchten seiten

auch nicht der letzte schluss, weil ein shop, in dem ich mit 3 klicks zum ziel komme, ist dann schlechter bewertet als einer mit 5 klicks.

grüsse