Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Die Webeffekt-Theorie

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
UweT
PostRank 10
PostRank 10
Beiträge: 5601
Registriert: 03.01.2003, 00:07

Beitrag von UweT » 05.11.2005, 20:58

ich hab ja schon so einiges zum thema alexa hier im forum geschrieben... und halte die theorie gar nicht für so abwegig.

vermutet wird ja nur, dass google durch seine toolbar trafficdaten verwendet und diese als rankingkriterium nutzt.

vorstellbar, wenn man zb. das szenario "milliondollarhomepage.com" betrachtet - von 0 auf 100 in wenigen Wochen - ohne sandbox- durch überproportionalen anstieg an inbound links und einem überpropotionalen anstieg an besuchern.

Einige hier, die es mal versucht haben, ein neues projekt mit "massig" eingehenden links ad-hoc zu bestücken, mussten bei dieser methode feststellen, dass es genau das gegenteil bewirkte als erwartet - die beworbene seite verlagerte sich in die hinteren serps oder wurde direkt mit einem ausschluss-filter versehen.

Google hätte durch das einbeziehen von trafficdten aus der toolbar die möglichkeit zwischen einer "künstlich gepushten seite" und einer natürlich gepushten seite durch medien etc" zu differenzieren um missbrauch auszuschliessen. Gezählt würden dabei nur die aufrufe des pagerank bildchens bei dieser url...diese aufrufe werden mit sicherheit geloggt und sind dementsprechend und aufgrund der checksum eindeutig abrufbar. - Wäre auf jeden fall machbar und realistisch.

Eine andere und eher wahrscheinlichere möglichkeit bestände für google derartigen missbrauch zu entdecken, indem man die eingehenden links analysiert und dabei die spreu (authoritäten) vom weizen (spam) trennt und danach das rankingkriterium ermittelt.

gruß
tbone.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

minivip
PostRank 4
PostRank 4
Beiträge: 165
Registriert: 14.03.2003, 19:55

Beitrag von minivip » 05.11.2005, 21:19

google wird versuchen jede info zu nutzen derer sie habhaft werden koennen. nur glaube ich nicht an ein all zu direktes einfliessen in die serps, denn das liesse sich schnell feststellen und sofort hat die methode mit klickspam aller art zu kaempfen. directhit hat frueher auf basis von klicks ergebnisse ranken wollen, hotbot hat es in einer variante implementiert gehabt - warum ist die technik denn gestorben, wenn nicht aufgrund von manipulationen und implementationsmaengeln?
Unterhaltsames aus der Welt der Suchmaschinen findet ihr in meinem SOS SEO Blog.

Henk
PostRank 8
PostRank 8
Beiträge: 796
Registriert: 11.03.2005, 18:01

Beitrag von Henk » 05.11.2005, 21:25

Google hätte durch das einbeziehen von trafficdten aus der toolbar die möglichkeit zwischen einer "künstlich gepushten seite" und einer natürlich gepushten seite durch medien etc" zu differenzieren
Diese Mgl. hätte Google auch mit Links von Trust- bzw. Authority Sites.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 05.11.2005, 23:34

@mc
https://www.abakus-internet-marketing.d ... beffekt.de

(abakus robots):

User-agent: *
Disallow: /outbound.pl


tja wohl arschkarte gezogen ;-)

willy
PostRank 4
PostRank 4
Beiträge: 161
Registriert: 20.08.2005, 14:47

Beitrag von willy » 05.11.2005, 23:52

aus den bisherigen Beiträgen entnehme ich eine gewisse Abwehrhaltung: was nicht sein darf, dass nicht sein kann :wink:. Tatsache ist, dass google die Verwendung von Benutzereingaben sogar zum Patent angemeldet hat (was nicht viel heißt, da die Amis alles zum Patent anmelden :lol:).

Trotzdem halte ich das ganze für sinnvoll und auch durchführbar! Wir wissen, dass die google-Ergebnisse starken Schwankungen unterworfen sind und neue Seiten einen Bonus haben. Warum wohl? Um zu sehen, was die Nutzer daraus machen. Hier ist es jetzt plausibel anzunehmen, dass google eine interne Liste führt, auf der steht, wie oft z.B. ein Link auf Pos. 43 durchschnittlich (in % aller Suchanfragen zu einem Begriff) angeklickt wird. Eine Seite die eine höhere Klickrate aufweist ist wahrscheinlich besser - eine mit einer unterdurchschnittlichen Klickrate entsprechend schlechter als der Durchschnitt. Bei besseren Seiten wird dann mal 'ausprobiert' wie sich diese z.B. auf Pos. 21 bewährt. Hat sie da immer noch eine überdurchschnittliche Klickrate wird sie halt weiter angehoben - andernfalls wieder abgesenkt. Usw.

Natürlich ist auch diese Vorgehensweise manipulierbar. Als ein zusätzliches Kriterium unter vielen ist es aber nicht nur vorstellbar, sondern sogar wahrscheinlich.

Grüße, Willy

Henk
PostRank 8
PostRank 8
Beiträge: 796
Registriert: 11.03.2005, 18:01

Beitrag von Henk » 06.11.2005, 08:42

Natürlich ist auch diese Vorgehensweise manipulierbar. Als ein zusätzliches Kriterium unter vielen ist es aber nicht nur vorstellbar, sondern sogar wahrscheinlich.
Ich denke das bestreitet hier auch niemand. Egal ob durch Toolbar, Klickverhalten bei Suchergebnissen, Einrichtung persönlicher Startseiten - alle Infos sind Gold wert und werden sicher auch genutzt (Wahrscheinlich in Zukunft noch umfangreicher, denn Menschen sind in der Beziehung sicher noch verlässlicher als Algorithmen).

Ich bin nur der Meinung, dass

a) nicht nur zwei, sondern wesentlich mehr Faktoren ebenfalls Einfluss haben und diese Auswertung nur ein kleiner Teil ist
b) die methodische Vorgehensweise nicht haltbar ist
c) eine schöne Pressemeldung auch ein wenig Aufmerksamkeit erregt
d) eigentlich nicht viel neues gesagt wurde

Wie gesagt, ich zweifle nicht aus Prinzip sondern aus Mangel an Überzeugung... ;)

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 06.11.2005, 08:50

Henk hat geschrieben:Ich bin nur der Meinung, dass

a) nicht nur zwei, sondern wesentlich mehr Faktoren ebenfalls Einfluss haben und diese Auswertung nur ein kleiner Teil ist
b) die methodische Vorgehensweise nicht haltbar ist
c) eine schöne Pressemeldung auch ein wenig Aufmerksamkeit erregt
d) eigentlich nicht viel neues gesagt wurde
e) und das man zuerst die eigenen Probleme angeht bevor man wilde Theorien entwickelt:
https://www.google.de/search?hl=de&q=si ... beffekt.de

Gruss

AnjaK
PostRank 9
PostRank 9
Beiträge: 2614
Registriert: 11.10.2004, 10:29
Wohnort: Riddermark

Beitrag von AnjaK » 06.11.2005, 09:11

Tststs... wer tippt denn so viel um ein wenig Werbung zu machen, da gibt doch bessere Methoden als dafür extra ein Forum zu belästigen...

Es kann nie und nimmer sein, dass die Toolbar als Kriterium herangezogen wird, das das Ranking beeinflusst. Das wäre höchstspekulativ und vollig abstrus. Dann kann Google auch gleich wieder Metas auslesen und daran das Ranking knüpfen.

Die Toolbar sammelt Daten, das ist Fakt. Aber diese Daten werden wohl ehr zu Statistikzwecken und zur Vergleichsmöglichkeit herangezogen aber sicherlich nicht zu Rankingzwecken. Die Toolbar ist derart leicht zu manipulieren, dass plötzlich ganz seltsame Seiten auf Platz 1 wären. Wenn ich weiß wie, kann ich der Toolbar so ziemlich alles verkaufen was ich will, nur nicht das was wirklich ist...
Wenn das in Ranking einflösse, na dann gute Nacht.
Penisneid hat einen Namen: WebLiga | Los! Artikel schreiben! | Onlineshop hier anmelden! | Staatl. geprüfte Boardbösewichtin | Keine PNs bitte, bitte nur email.

propaganda
PostRank 9
PostRank 9
Beiträge: 1267
Registriert: 20.08.2004, 14:21
Wohnort: Deutschland

Beitrag von propaganda » 06.11.2005, 10:44

Wow,

was für eine gewagte und neuartige These.
Steckt wahrscheinlich knallharte Forschungsarbeit hinter den Ergebnissen.
Oder ist da jemand einfach nur die Gülle von seoblackhat am reproduzieren?
Ich liebe diese Alexa-Märchen...

Anonymous

Beitrag von Anonymous » 06.11.2005, 11:48

minivip hat geschrieben:google wird versuchen jede info zu nutzen derer sie habhaft werden koennen. ................. warum ist die technik denn gestorben, wenn nicht aufgrund von manipulationen und implementationsmaengeln?
Weil da Leute am werke waren die nicht weiter gedacht haben als von der Wand bis zur Tapete. Ich habe es bereits geschrieben. Das Stichwort ist nicht in erster Linie die Toolbar sondern die Log. Dateien von Google. Und wie ebenfalls bereits geschrieben ist die Sache am ende dann doch um einiges Komplexer als wie sie hier diskutiert wird und auch jemals diskutiert werden kann.

Aus meiner Sicht, reine Vermutung, werden neue Sachen bei Google immer nur stück für stück eingeführt. Zuerst mit einem sehr geringen und meist mittelbaren Einfluss welcher dann, bei steigender Akzeptanz (Intelligenz), immer weiter ausgebaut wird.

Lg.
Pink

besserwisser
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.10.2004, 13:14
Wohnort: Monstern

Beitrag von besserwisser » 06.11.2005, 15:34

Es kann nie und nimmer sein, dass die Toolbar als Kriterium herangezogen wird, das das Ranking beeinflusst. Das wäre höchstspekulativ und vollig abstrus. Dann kann Google auch gleich wieder Metas auslesen und daran das Ranking knüpfen.
aber Anja, wie kommst du denn darauf.

Also ich kann an dieser These (des Themenstarters) wirklich nichts neues entdecken uns sie nur stützen. Meines Erachtens ist das ein alter Hut. Ich rechne mit Sicherheit damit, dass Toolbarergebnisse und noch viel mehr verwendet werden. Mein Tipp: Jagger3 ist die entgültige Implementierung des "Traffic-Ranks" und das ist nebenbei der Grund, warum ebay oder Kelkoo jetzt so oft vorne landen - weil sie eben auch hohe Besucherzahlen/-Akzeptanz haben.

AnjaK
PostRank 9
PostRank 9
Beiträge: 2614
Registriert: 11.10.2004, 10:29
Wohnort: Riddermark

Beitrag von AnjaK » 11.11.2005, 14:54

@Besserwisser.

Na überleg mal, warum das nicht sein kann.

Wer benutzt denn die Toolbar?
Fast nur SEOs und PR-Geier.
Ein normaler User braucht das Ding nicht, wofür auch? Um schneller was zu suchen?
Sicher nicht, bis ich meine maus dahibewegt hab und was eingetippt hab, hab ich dreimal auf den Link zu Google geklickt und dort was eingegeben.
Zumal der Standard-Büro-Säufer äähh -Surfer die Toolbar nicht installieren kann, wegen Firmenfirewall.

Fazit: Die Toolbar wird nur von denen benutzt die mit aller Macht in die Top wollen.
Würde das nun mit ins Ranking einfließen... achgottchen, stell dir vor, wie die SERPS aussehen würden ;)
NOCH schlimmer als jetzt schon. Und alle SEO-Seiten wären auf Platz 1 ;)

Dem ist aber nicht so und das wird auch sicher nie so sein, also kann es unmglich sien, dass die Ergebnisse dort mit einfließen. Wenn dem doch so ist, bin ich morgen überall auf Platz 1, isch schwör Alda! :D
Penisneid hat einen Namen: WebLiga | Los! Artikel schreiben! | Onlineshop hier anmelden! | Staatl. geprüfte Boardbösewichtin | Keine PNs bitte, bitte nur email.

Ranking-Check
PostRank 7
PostRank 7
Beiträge: 514
Registriert: 05.08.2003, 18:09
Wohnort: Köln

Beitrag von Ranking-Check » 11.11.2005, 15:32

[editiert von admin, war promotional]
Was promotional ist gut. Ob das hier der richtige Ort für reine Pressemitteilungen sind??

sumako
PostRank 2
PostRank 2
Beiträge: 42
Registriert: 12.11.2005, 19:02

Beitrag von sumako » 12.11.2005, 19:05

Eine sehr schöne Kompanie hat Robert hier gestartet und gleich in mehreren Foren und Blogs... :D'

Im Grunde genommen sollten wir hier nicht über einen Webeffekt sprechen, sondern viel mehr über einen Keyword Web-Faktor. Wage hier eine Theorie hier zu stellen :)

Es ist bekannt, dass Google nicht nur über seinen Toolbar Daten sammelt, sondern auch Cookies setzt, die praktisch unsterblich sind. Vergessen wir auch nicht die Log. Dateien.
Natürlich kann Google dadurch eine Statistik rausholen, wir oft eine Website bei einem bestimmten Keyword angeklickt wurde, aber was noch wichtiger ist, er kann anzusehen ob die Suche bei diesem bestimmten User gleich weitergeführt wird oder nicht.

Hat der User innerhalb von einigen Sekunden – nehmen wir eine abstrakte Zahl von 5 als Kriterium an – die Suche fortgesetzt, empfand diesen bestimmten User die vorher angeklickte Website als unrelevant. Hat er die notwendigen Informationen gefunden, wird die Suche abgestellt oder zu einem viel späterem Zeitpunkt weitergeführt.
Haben viele „Millionen“ User das gleiche Verhalten bei den gleichen Websites ausgewiesen, kann man über eine bestimmte Tendenz bezüglich Topsites in SERPs sprechen. Und zwar für diesen bestimmten Suchbegriff.

Die gesammelten Statistiken können rein theoretisch verwendet werden, um eine bestimmte Relation zwischen Keyword und Website PR (Ohne PRMoss nix los) hergestellt werden, und zwar als einen durchschnittlichen Wert. Nennen wir ihn tenorethisch keywort-average-value

Es wird bedeuten, dass vielen Websites die den gleichen PR aufweisen, werden für einen bestimmten Suchbegriff solche nach vorne gestellt, die einen höheren Durchschnittwert ausweisen.
PR wird dadurch nicht beeinflusst, gleichwohl die SERPs :D

Anonymous

Beitrag von Anonymous » 12.11.2005, 21:29

Endlich hat es einer kapiert!
Jetzt müsste man nur noch den richtigen Algorithmus knacken können. :D
Da haben sich aber schon einige dran versucht und sind gescheitert. :(

Lg.
Pink

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag