Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Traffickontrolle

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
daberlo
PostRank 4
PostRank 4
Beiträge: 131
Registriert: 24.01.2008, 10:10

Beitrag von daberlo » 11.02.2011, 17:06

Wenn es denn so ist, könnte man ja mal in seinen Stats alle anderen Suchmaschinen zusammenfassen und dann deren "Verhalten" mit dem der Googlebesucher gegebüberstellen. Also einfach mal ins Verhältnis gesetzt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 11.02.2011, 17:12

@ SloMo - Ich kann mir schon vorstellen, dass es etwas ähnliches wie ein Kontingent oder Dämpfungssystem gibt. Nur eine Webseite, die mit 20 Single-KWs und 60 Longtails in den Top Ten ist, die verschwindet da halt nicht einfach zu einer bestimmten Uhrzeit mit den Singles und Longtails, nur weil eine bestimmte Besucherzahl erreicht wurde. Zumindest habe ich so etwas noch nicht bemerkt. Wenn, dann wird doch wohl mehr der Zuwachs gebremst, würde ich annehmen. Oder?

@ daberlo - Das würde ich jetzt auch für eine gute Idee halten, daraus würde sich ja entnehmen lassen, ob die anderen diese Verlaufskurven mitmachen oder nicht. Wenn es sich um "natürliche" Ursachen handelt, müsste sich bei den Zugriffen von anderen Sumas zumindest ein ähnliches Bild abzeichnen.

Shredder
PostRank 5
PostRank 5
Beiträge: 226
Registriert: 28.03.2005, 14:12

Beitrag von Shredder » 12.02.2011, 01:59


Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

daberlo
PostRank 4
PostRank 4
Beiträge: 131
Registriert: 24.01.2008, 10:10

Beitrag von daberlo » 12.02.2011, 07:30

Also wenn überhaupt, dann gefällt mir auch das Argument
My first thought is because of server speed (Searchers do not like slow servers or page load time)
Ich mein, Ladezeit ist ja sowieso irgendwie ein Ranking-Kriterium. Warum auch nicht ein Kriterium für die Suchenden. Also ich meine, das eben nur soviel angezeigt werden, wie der Server laut Googles "Erfahrung" auch verkraften kann, ohne bestimmte Kriterien zu unterschreiten.

Und wenn Google meint, am Tag passen nur xyz Leute auf den Server, dann gibts auch nur so viel Traffic.

Aber wie gesagt: Klick

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 12.02.2011, 12:49

Bis 2007 konnte mit Hilfe von https://seo-server.de/ noch eine Positionsabfrage von einzelnen KWs bei rund 700 Datacentern durchgeführt wurden, dann wurde der Dienst eingestellt. Wenn die Positionen für ein KW bei einem Teil der Datacenter deutlich von den Positionen bei den restlichen Datacentern abwichen, konnte das zu Sprüngen innerhalb eines Tages in den Serps führen, je nachdem von welchem Datencenter die Suchergebnisse im Tagesverlauf ausgeliefert wurden. Ich weiß jetzt nicht, ob es ein vergleichbar gutes Tool gibt.

Ich hatte das mal bei einen Trafficeinbruch, der sich über 3 Wochen erstreckte, erlebt und den Grund für diesen Einbruch fand ich dann mit diesem Tool. Google hatte einen Schluckauf bei einer Domain mit und ohne www, wobei alle Dantencenter, welche die Seiten ohne www listeten, deutlich schlechtere Positionen lieferten, als die Datencenter, welche die selben Seiten mit www erfasst hatten. Auch wenn Google dieses Problem mit und ohne dem www seit Jahren im Griff haben soll, so wäre es dennoch gut, bei rätselhaften Vorgängen mal die Positionen auf möglichst vielen einzelnen Datencentern zu testen, ob es da nennenswerte Unterschiede gibt.

Mercarior
PostRank 8
PostRank 8
Beiträge: 758
Registriert: 04.08.2007, 11:10
Wohnort: München

Beitrag von Mercarior » 12.02.2011, 15:07

moin,

ich habe kürzlich einen ähnlichen Thread gestartet, in dem ich meine "Verschwörungstheorie" (Google kontrolliert den Traffic "aktiv") zur Diskussion gestellt habe...ging aber weniger in Richtung Traffic-Masse, sondern mehr in die Richtung, ob google mir absichtlich "schlechte" User schicken kann / will

--> https://www.abakus-internet-marketing.d ... 92978.html

leider haben sich da recht wenige Leute an der Diskussion beteiligt...aber ich bin mir sicher, dass google a.) den Traffic von der Masse her kontrollieren kann und das auch tut (beispielsweise wenn sie testen, d.h. du kriegst einen gewissen Traffic XYZ zugewiesen und die restlichen Suchanfragen werden andere Ergebnisse zu Testzwecken ausgeliefert um die Reaktionen der User auf andere Seiten auszutesten). B.) bin ich mir ebenfalls sicher, dass google in der Lage ist "gute" und "schlechte" User zu trennen und zu "leiten"

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 12.02.2011, 15:45

Ich denke eher, eines der größten Fehler ist, die Referrer nicht selbst zu tracken. Erst dadurch fehlt der Überblick und verleitet zu möglichen Trugschlüssen. Also, mal angenommen der Referrer enthält q=meinKW und cd=3, dann bedeutet das nichts weiter, als das meinKW auf Platz 3 in den Serps zu finden war. Und wenn ich diesen Referrer mit cd=3 zu allen Tag- und Nachtzeiten bei meinKW geliefert bekomme, egal ob die Suchanfrage aus Hamburg oder München kam, dann weiß ich doch das Google keine Traffic limitierte.

Nachdenklich würde ich erst werden, wenn bei meinKW nur bis zu einem gewissen Zeitpunkt cd=3 mitgeliefert würde und nach diesem Zeitpunkt ein sehr viel schlechterer cd-Wert. Doch selbst dann würde ich erst einmal kontrollieren, ob es nicht einfach daran liegt, dass Google lediglich ein paar Bilder vorher einblendet, da bei cd jeder Link eingerechnet wird, der vor dem eigenen Ergebnis kommt und wenn da vorher zwei Ergebnisse und vier Bilder angezeigt werden, würde da halt cd=7 stehen.

Mercarior
PostRank 8
PostRank 8
Beiträge: 758
Registriert: 04.08.2007, 11:10
Wohnort: München

Beitrag von Mercarior » 12.02.2011, 17:47

@Melegrian:

wenn du die Refferer trackst und immer siehst, dass das KW auf Rang 3 steht...daraus kannst du doch nicht schließen, dass google das Keyword nicht z.B. ab einer bestimmten Zeit zu 50% nicht mehr auf Rang 3 sondern z.B. 100 ausliefert...wenns auf 100 steht, dann kommen auch keine Besucher darüber, ergo kannst du auch nirgendwo in deinen Tracking-Daten beim Referrer die 100 finden...mit caffeine dürfte das für google problemlos möglich sein

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 12.02.2011, 19:16

@ Mercarior - Wenn es sich um ein kurzzeitiges Abtauchen handelt, was den Kohl weder fetter noch magerer machen würde, so würde man es nicht an den Statistiken merken, da gebe ich Dir recht. Doch wenn Leute, die Google im Verdacht haben, den Traffic der eigenen Seiten zu limitieren, nicht mehrmals am Tag manuell kontrollieren, wie die Positionen ihrer wichtigsten KWs oder Longtails sich im Laufe des Tages verhalten, na dann gute Nacht.

Mercarior
PostRank 8
PostRank 8
Beiträge: 758
Registriert: 04.08.2007, 11:10
Wohnort: München

Beitrag von Mercarior » 12.02.2011, 20:27

naja...google is ja auch nicht blöd und weiß, dass ich der Besitzer der Seite X bin...dürfte für google ein leichtes sein, meine IP oder meine Erkennungsmerkmale auszuschließen

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 12.02.2011, 21:40

Wie wäre es dann mit einem Besuch im nächstgelegenen Internetcafe? Google wird nicht gleich den ganzen Ort mit trügerischen Serps beliefern. Ansonsten könnten auch entfernt wohnende Freunde oder Verwandte mit einer Stichprobe aushelfen. Ich meine, nur wenn wirklich ein begründeter Verdacht besteht. Habe auch schon einen Bekannten mal eine Mail geschrieben und gebeten eine Position zu checken, weil ich in einem Fall der Deaktivierung des Webprotokolls misstraute.

Mercarior
PostRank 8
PostRank 8
Beiträge: 758
Registriert: 04.08.2007, 11:10
Wohnort: München

Beitrag von Mercarior » 12.02.2011, 23:47

das Problem ist doch, dass wir hier über hunderte oder tausende von Suchanfragen sprechen...wenn google hier einen gewissen Prozentsatz "abzweigt" um Sachen zu testen, kann man zwar versuchen, eine stichprobenartige Kontrolle zu fahren, aber 100%ig belegen wird man es kaum können, wenn man nicht in der Lage ist, bundesweit von unterschiedlichen Rechnern eine gewisse Menge an Suchabfragen zu formulieren, um irgendwelche Regelmäßigkeiten festzustellen

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 13.02.2011, 01:26

Hunderte oder Tausende Suchanfragen pro Tag, wobei aber nur eine Handvoll von gleichlautenden Suchanfragen den größten Teil der Zugriffe bringt. Und diese Handvoll lässt sich kontrollieren. Das mag von Website zu Website recht unterschiedlich sein, doch ich sehe das ja bei meinen Seiten, dass da eine gute Frage auf Platz 1 etwa 30 bis 40% der Besucher liefern kann. Würde diese eine Frage mal nicht mehr so gut gelistet oder würde die zeitweilig in der Versenkung auf Platz 100 verschwinden, würde mir das auffallen und dann würde ich die Angelegenheit checken.

Bei anderen Seiten ist es etwas breiter mit den Suchanfragen gefächert, nur auch dort ist es nie die Masse der unterschiedlichen Seitentitel, sondern es sind einige Ausreißer, die mindestens 20 bis 30 Prozent der Besucher bringen und auch die lassen sich checken. Wenn Traffic bei einer gewissen Besucherzahl gedrosselt werden sollte, so müsste ja vor allen eben diese Handvoll der wichtigsten KWs oder Longtails aus den Serps verschwinden, um der sich der größte Teil der Suchanfragen dreht.

Jackwhite
PostRank 5
PostRank 5
Beiträge: 219
Registriert: 17.07.2010, 12:56

Beitrag von Jackwhite » 13.02.2011, 14:05

Es gibt definitiv so etwas wie eine Traffickontrolle. Dafür würde ich meine Hand ins Feuer legen.

Beispiel: Ein Projekt von mir besteht seit 2005 und konnte recht schnell auf rund 1.000 Uniques am Tag kommen. Zwischen 2007 und 2011 hat sich der Traffic praktisch nie verändert. Die Abweichungen pro Tag betragen MAXIMAL 3 Prozent und es gibt auch keine Ausschläge nach oben oder unten. In Analytics zeigt sich eine richtig schöne Flatline. Jedoch hat die Seite mittlerweile rund 1.500 hochwertige und zum größten Teil absolut einzigartige Contentseiten und verfügt auch über gute Links (C-Class-Pop: >350, Linkpop >550, alles "organisch" gewachsen, nur sehr sehr wenige Bookmarks (vielleicht 5) und WKs). Bei ihrem Hauptkey ist sie auf Platz 4 hinter Wiki, einer großen deutschen Tageszeitung und einem Shop (18,4 Mio. Ergebnisse). Trotzdem gelingt NIE der Sprung auf die "nächste Stufe".

Und ich habe zwei dieser Projekte, die seit Jahren trotz stetiger Optimierung fast täglich identische Trafficzahlen aufweisen, trotz steigender Rankings.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 13.02.2011, 14:48

Wobei man bei einer Betrachtung davon ausgehen müsste, dass auch das Internet einem normalen Sättigungsverhalten unterliegt und sich in dieser Beziehung nicht von anderen Wirtschaftszweigen unterscheidet. Ist eine Sättigung erreicht, handelt es sich nur noch um einen reinen Verdrängungswettbewerb.

In den 90er Jahren war ich noch in einem anderen Bereich selbständig und setzte damals auf Infopost, um neue Kunden zu gewinnen. Bei der ersten Aktion lag die Erfolgsrate pro 100 Briefe noch bei über 5 Prozent, bei der zweiten nur noch bei rund 3 Prozent und bei der letzten Aktion nur noch bei 0,5 Prozent und das, obwohl ich die Stückzahl der Briefe bei jeder Aktion erhöhte. Woran lag es?
Die wirtschaftliche Lage verschlechterte sich, die Zahlungsmoral nicht minder, zum anderen drängten immer neue Existenzgründer auf den Markt, um auch ein Teil vom Kuchen abzubekommen. Doch der Kuchen gab nun einmal nicht mehr her, er verteilte sich nur auf mehr Unternehmen. Einzige Lösung wäre es gewesen, ich hätte die Anzahl der Infobriefe nicht verdoppeln, sondern verzehnfachen müssen, damit mein Stück vom Kuchen sich nicht verkleinert, sondern annähernd gleich bleibt. Um einen Zuwachs zu erreichen, hätte eine Verzehnfachung aber noch nicht gereicht.

Diese Mechanismen steuern sich jedoch von allein innerhalb eines Marktes und nicht durch irgend einen Eingriff. Das sieht im Internet meiner Meinung nach nicht anders aus. Nur neue Seiten produzieren reicht nicht, wenn die Konkurrenz im selben Zeitraum in etwa genauso viele Seiten fertigt. Um einen Zuwachs am Jahresende zu erreichen, müsste man auf jeden Fall deutlich mehr Seiten als die Konkurrenz im selben Zeitraum fertigen.

Antworten