Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

könnte man so den traffic erhöhen?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Edwin
PostRank 5
PostRank 5
Beiträge: 210
Registriert: 28.08.2005, 13:16

Beitrag von Edwin » 31.12.2005, 19:59

@pink:

Lies dir erst mal mein posting durch:
Ich habe es NICHT vor.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

bubbles
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 06.10.2005, 17:54

Beitrag von bubbles » 01.01.2006, 00:53

würde mich auch über einen lösungsansatz freuen :)

btw, was noch wichtig wäre, wäre diese künstlichen besucher von den echten zu unterscheiden....

ecommerce
PostRank 5
PostRank 5
Beiträge: 251
Registriert: 19.11.2004, 08:58

Beitrag von ecommerce » 01.01.2006, 02:23

Also, wir haben uns mal vor einiger Zeit ein paar Millionen (3) Traffic gebucht. schlechte Qualität aber immerhin TRAFFIC.

Eine Verbesserung der gepushten Seiten konnten wir nicht feststellen.

PS: Man braucht keine Inder mehr dazu... 1 Million unique Besucher gibts schon für knapp 400 EUR netto

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


bbnetch
PostRank 8
PostRank 8
Beiträge: 869
Registriert: 02.06.2005, 17:24
Wohnort: Philippinen

Beitrag von bbnetch » 01.01.2006, 08:38

wenn sowas miteingebaut wird ins ranking, dann nicht die menge, sondern wie lange ein user auf der zielseite bleibt, und wievile andere seiten auf der selben url aufgerufen werden.

dann koennen inder klicken wie sie wollen.....

mit weiteren filtern koente man noch rausfinden welchen keywords der user volgte und weitere dinger.

so koennte man sehr wohl sehr genaue suchergebnisse erzielen, weil auf keiner spamseite ein user laenger bleibt, oder dort noch was sucht...

im gegenzug koennte man genausogut schlechte seiten erkennen die eben genau sehr viel traffic haben, aber alles nur 1 sec.besucher, und evt. entfernen aus dem index.
Geld verdienen im Schlaf und so ...Webmasterforum

Suche Linktausch Thema: Reisen, Philippinen, Ferienwohnung/Apartment, Tauchen, Urlaub etz. PN bitte!
.

Edwin
PostRank 5
PostRank 5
Beiträge: 210
Registriert: 28.08.2005, 13:16

Beitrag von Edwin » 01.01.2006, 08:43

Jetzt können wir den Spieß aber auch umdrehen:

Wenn die Gefahr besteht, dass Seiten aus dem Index fliegen (wegen 1 sec. z.B.), dann nehme ich wieder meinen dead-link checker und gebe die URL der Konkurennz ein... wenns sein muss mache ich mal einen ganzen Tag nichts anderes.

Das tool surft 1 sec. über alle Seiten und schon ist die Konkurrenz aus dem Index....

Kann also nicht der Weg sein.

bbnetch
PostRank 8
PostRank 8
Beiträge: 869
Registriert: 02.06.2005, 17:24
Wohnort: Philippinen

Beitrag von bbnetch » 01.01.2006, 08:58

denke das muesstest du dan monate machen, und bei einer sonst stabilen guten seite merkt man dann schon das da was faul ist.

ein wettruesten zwischen google und eben kleveren webmastern wird es immer geben.

und beim ranking haben ja 100 andere faktoren noch ein einfluss.

also mehr infos durch toolbar kann eigentlich nur gut sein fuer die ergebnisse, aber diese infos eben dann richtig auszulesen und ins ranking einflissen zu lassen, damit werden sie wohl einfach experimentieren muessen, und wie bis jetzt schon immer, halt jede woche wieder was dran schrauben muessen :)
Geld verdienen im Schlaf und so ...Webmasterforum

Suche Linktausch Thema: Reisen, Philippinen, Ferienwohnung/Apartment, Tauchen, Urlaub etz. PN bitte!
.

schaf
PostRank 2
PostRank 2
Beiträge: 48
Registriert: 21.05.2004, 07:38

Beitrag von schaf » 01.01.2006, 15:16

dieser thread bestätigt wiederum meine theorie, daß gurgle in das ranking den traffic miteinbezieht.
habe schon des öfteren beobachtungen gemacht, daß seiten, die nicht optimiert waren, keinen oder kaum pr - somit auch nur sehr wenige backlinks - hatten, bei umkämpften keys in den top ten gefunden wurden.

Anonymous

Beitrag von Anonymous » 01.01.2006, 20:46

bbnetch hat geschrieben:damit werden sie wohl einfach experimentieren muessen, und wie bis jetzt schon immer, halt jede woche wieder was dran schrauben muessen :)
da experimentieren die schon seit zwei jahren.
und je besser es läuft je mehr wird es im ranking von relevanz werden.

ich mache mir da jetzt bereits seit langer zeit gedanken drüber wie es funktioniert und wie es manilulierbar wäre. einziges ergebniss sind jedoch schlaflose nächte und die erkentniss das sauberer linktausch mit partner wo die links auch sichtbar eingebaut werden und dementsprechent user bringen noch das beste ist.

ich bin mir zimlich sicher das es anhand der eingehenden links (wie auch dem google ranking) so etwas wie eine sollbesucher zahl gibt, und anhand der ausgehden links so etwas wie eine back to google zahl berechnet wird. als resultat dafon geht dann jeder saubere link in das ranking ein und jeder link auf versteckten linklisten relativiert, durch den zusätzlichen algorithmus, den wert des links gegen null.

der vorteil, die algorithmen beeinflussen sich gegenseitieg in einer art welche rechenintensive filterprozesse volständieg ersetzen können.

lg.
pink

schirmerklaus
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 12.04.2006, 10:53

Beitrag von schirmerklaus » 12.04.2006, 10:54

eBesucher (und ähnliche Dienste) sind absoluter Müll!

Lest mal folgenden Bericht, dann lässt man schnell die Finger von sowas:
https://www.beehave.de/forum/viewtopic.php?t=863

Man bekommt nämlich über eBesucher NULL Besucher, lediglich die Seite wird aufgerufen!! (und das nur automatisch)

DB

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag