Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Traffic wichtig für Ranking?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Henk
PostRank 8
PostRank 8
Beiträge: 796
Registriert: 11.03.2005, 18:01

Beitrag von Henk » 26.12.2005, 14:57

Wo aber kommt denn der meiste Traffic her? Über Suchmaschinen...
Kann Fridanite nur zustimmen - halte ich auch für ne Milchmädchenrechnung. Es ist ja nicht erst der Traffic da und dann kommt die Positionierung. Andersherum wird ein Schuh draus. Und selbst wenn - der hohe Traffic ist dann Ergebnis interessanten Contents oder qualitativ sehr guter Seiten. Das diese nach und nach dann besser gerankt werden ist aber nicht Folge des Traffics (der sicher sehr hoch sein kann), sondern der Qualität, ansteigender Verklinkung etc.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Thor
PostRank 7
PostRank 7
Beiträge: 643
Registriert: 21.05.2003, 20:14
Wohnort: Sankt Ingbert

Beitrag von Thor » 26.12.2005, 15:37

warum sollte Google nicht irgendwann den Traffic mit einfließen lassen ?

Nehmen wir mal "Google Analytics", welche Werte könnten herangezogen werden ?

1. Besucher Seitenansicht (P/V)
2. Neu u. Wiederkehrende Besucher
3. Besuchertreue
4. Verweisende Quelle (P/Besuch)
5. Keywords (P/Besuch)
6. Beliebteste Inhalte
7. Tiefe des Besuchs
8. Länge des Besuchs

dies könnte man auswerten, egal ob 10, 100 oder 10.000 Besucher/Tag
Diese Daten über die Toolbar auszuwerten wäre sicher auch kein Problem...

wentura
PostRank 4
PostRank 4
Beiträge: 101
Registriert: 17.03.2005, 13:29

Beitrag von wentura » 26.12.2005, 16:04

traffic einfließen lassen?

ich suche kw x komme auf domain 1

das suchwort wird zwar nicht hinreichend erklärt aber ich finde domian oder vielleicht nur das design so ansprechend, dass ich mir noch seite 1.1 und 1.2 und 1.3 anschaue,

was sagt dass aus zum suchergbnis kw x ??????


ich speichere die seite, weil sie zwar nicht kw x erklärt aber dafür zum kw y interessante informationen liefert! so werde ich zum wiederkehrenden besucher?

wo und wie will google dass einordnen?

ich bräuchte dann nur eine vernünftiges kw dass bei google auf platz 1 ist, dann werden alle anderen unterseiten auch besser gerankt????

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Thor
PostRank 7
PostRank 7
Beiträge: 643
Registriert: 21.05.2003, 20:14
Wohnort: Sankt Ingbert

Beitrag von Thor » 26.12.2005, 16:25

wentura hat geschrieben:traffic einfließen lassen?

ich suche kw x komme auf domain 1

das suchwort wird zwar nicht hinreichend erklärt aber ich finde domian oder vielleicht nur das design so ansprechend, dass ich mir noch seite 1.1 und 1.2 und 1.3 anschaue,

was sagt dass aus zum suchergbnis kw x ??????
????Was sagen die Seiten aus die mit Linktext gepusht worden sind.
ala Diese Begriffe erscheinen nur in Links, die auf diese Seite verweisen:
wentura hat geschrieben:ich bräuchte dann nur eine vernünftiges kw dass bei google auf platz 1 ist, dann werden alle anderen unterseiten auch besser gerankt????
kann dir nicht folgen...

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 26.12.2005, 16:34

Ihr denkt immer zu geradeaus und kompliziert... 8)
Nehmen wir mal an ich wollte die optimale Suchmaschine bauen.
Nehmen wir weiter an ich hätte die Rechenpower zusätzlich zu Verlinkungen auch noch das Besucherverhalten auf Websites auszuwerten.
(Traffic allein ist viel zu simpel)
Ein Algorythmus aber, der Besucherdaten wie Anzahl der Besucher die nicht von Sumas kommen, Anzahl aufgerufener Seiten, Verweildauer etc. auswertet und mit den Ergebnissen der Linkanalyse kombiniert könnte das Spamproblem recht wirkungsvoll bekämpfen.

wentura
PostRank 4
PostRank 4
Beiträge: 101
Registriert: 17.03.2005, 13:29

Beitrag von wentura » 26.12.2005, 17:08

man könnte neben dem text natürlich auch noch schöne bilder einbauen,

vielleicht von bunnys oder anderen possierlichen tierchen,

dass könnte auch die verweildauer oder klickrate erhöhen ;-)



ergo meine seite und der testosteronspiegel der männlichen surfer steigt, so haben alle etwas davon...

tobsn
PostRank 7
PostRank 7
Beiträge: 495
Registriert: 26.10.2005, 02:10

Beitrag von tobsn » 26.12.2005, 17:41

google tracked partial die klicks auf die results.
Unterhalte Dich mit anderen im SEO & ADSENSE IRC CHAT! :D
/server irc.german-elite.net -j #SEO
_________________
theonlybushilike.com!
_________________
"There are three kinds of lies: lies, damned lies, and statistics."
— Benjamin Disraeli (1804-1881), British politician

Radagast
PostRank 6
PostRank 6
Beiträge: 378
Registriert: 22.09.2004, 07:01

Beitrag von Radagast » 26.12.2005, 19:15

@patte

wieso nicht.
Kannst ja jeder den Traffic seiner seite abfragen
Hochwertige Links gesucht? Hier klicken

Radagast
PostRank 6
PostRank 6
Beiträge: 378
Registriert: 22.09.2004, 07:01

Beitrag von Radagast » 26.12.2005, 19:24

@wentura

wenn ich etwas suche dann ist das absolut die ausnahme dass ich auf einer seite zu anderem Thema hängenbleibe. Also für Google statistisch vernachlässigbar.

@all
ich glaube nicht dass Google den Traffic einer Seite direkt in den Algo einfliessen lässt. Das würde nix bringen, sogar den Spammern (sind sie mal top) helfen.

Aber die "Comeback-Rate" ist sehrwohl ein wichtiger Indikator für ein gutes Ergebnis. Wenn Google den Traffic partiell, wie tobsn schreibt trackt dann wird sich das Ganze noch in einer Betaphase befinden. Aus Sicht der Spambekämpfung wäre dieses Mittel einer der effektivsten.
Hochwertige Links gesucht? Hier klicken

Anonymous

Beitrag von Anonymous » 26.12.2005, 20:28

Patte hat geschrieben:Hallo alle zusammen,

habe gestern die neue CT' gelesen. Dort ist die Auswetung von dem SEO Wettbewerb "Hommingberger Gepardenforelle"...

Dort steht nun, das SEOs herausgefunden haben, das auch Traffic einer Seite eine entscheidende Rolle für das Ranking spielt.

Was meint Ihr?

Schöne Feiertage

Christoph Paterok
Das ist 100% richtig. Habe hier dazu auch schon mal was gepostet gehabt.
Der Algorithmus ist eigentlich sogar ziemlich simpel.
Google muss ja nur schauen wie viele Seiten-Besucher von deiner Seite kommen und schon hat man werte die man hochrechnen kann.

Was ebenfalls eine rolle spielt und viel wichtiger ist, wie lange bleibt der Besucher auf deiner Seite. Damit kann man erstens Spam und zweitens Brückenseiten, nach einer gewissen zeit, ganz gut aussortieren.

Aber das c't so einen kalten Kaffe als Neuigkeit herausgibt verwundert mich schon etwas. Unter echten Seo’s ist das eigentlich bereits seit gut 2 Jahren bekannt und wirklich nur noch kalter Kaffe.

Lg.
Pink

ION
PostRank 6
PostRank 6
Beiträge: 396
Registriert: 24.05.2005, 14:58
Wohnort: Schwerin

Beitrag von ION » 26.12.2005, 22:11

nur mal so: das geisterte anfang november als "webeffekt®-theorie" durchs netz:
https://www.abakus-internet-marketing.d ... 59802.html
https://openpr.de/news/66550.html
E-Book: Tipps & Tricks: Werbung mit Google AdWords
Konkrete Linktauschanfragen willkommen.

Patte
PostRank 3
PostRank 3
Beiträge: 95
Registriert: 23.09.2005, 14:00
Wohnort: Mittenwald

Beitrag von Patte » 27.12.2005, 13:06

O.k. wenn auch noch die Zeit, die der User auf der seite verbringt gewertet wird, dann ergibt das schon einen Sinn.

Sonst könnte ja jeder 10.000 Mailtausch-Mails am Tag losballern und dann ein spitzenmäßiges Ranking genießen.

DJTonic
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 18.03.2005, 05:27

Beitrag von DJTonic » 27.12.2005, 13:37

für mich ist das absoluter quatsch.
wenn ich programmiere und bei einem problem festhänge, lande ich oft auf foren. dort finde ich ohne eine 2. seite aufzurufen, in 90% der fälle die lösung.
Die Qualität des Contents ist also so gut, dass eine 2. PI nicht notwendig ist.
und das soll abgestraft werden? *kopfschüttel*

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 27.12.2005, 14:15

DJTonic hat geschrieben:für mich ist das absoluter quatsch.
wenn ich programmiere und bei einem problem festhänge, lande ich oft auf foren. dort finde ich ohne eine 2. seite aufzurufen, in 90% der fälle die lösung.
Die Qualität des Contents ist also so gut, dass eine 2. PI nicht notwendig ist.
und das soll abgestraft werden? *kopfschüttel*
Nein. :roll:
Ich versuchs mal einfacher:
Nehmen wir mal an G. würde folgende zwei Qualitätsparameter festlegen:
-der Durchschnittsuser sollte mehr als 2,0 Seiten anschauen
-mindestens 20% der Besucher sollten nicht von Suchmaschinen kommmen.
Damit hätten Deine Qualitätsforen kein Problem.
Mehr als 90% des Spams wären erstmal wech. 8)

Der Charme der Idee liegt doch darin das dies viel einfacher wäre als mit paradiesgeometrischen Differentialalgrythmen Linkstrukturen über 24 Ecken zu untersuchen.

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 27.12.2005, 15:30

JenaTV hat geschrieben:Nehmen wir mal an G. würde folgende zwei Qualitätsparameter festlegen:
-der Durchschnittsuser sollte mehr als 2,0 Seiten anschauen
-mindestens 20% der Besucher sollten nicht von Suchmaschinen kommmen.
Damit hätten Deine Qualitätsforen kein Problem.
Mehr als 90% des Spams wären erstmal wech.
Prinzipiell mag eine derartige Überlegung richtig sein. Das Problem dürfte aber darin liegen, größere "Kollateralschäden" zu vermeiden. Nehme ich z.B. meine eigene Domain k-faktor.com als Vergleich, liege ich bei knapp 80% Besucheranteil von Google und im Durchschnitt bei nur wenig mehr als 2 besuchten Seiten pro Besucher (etwa 2.5). Unter der - hoffentlich konsensfähigen - Grundannahme, daß es sich bei der o.a. Domain um halbwegs sinnvolle Inhalte handelt, zeigt sich m.E., wie sorgfältig solche Stellschrauben justiert werden müßten, wollte Google nicht das Kind mit dem Bade ausschütten.

Ich persönlich vertrete die Meinung, daß die Zukunft einer sinnvollen maschinellen Beurteilung der Relevanz von Webseiten mehr in einer semantischen Textanalyse denn in Besuchertracking liegt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag