Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Hat Google eine Traffic-Drossel?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
GreenHorn
PostRank 10
PostRank 10
Beiträge: 4487
Registriert: 19.12.2005, 15:01

Beitrag von GreenHorn » 13.08.2009, 10:22

kreutzer hat geschrieben:Der Traffic gesamt bleibt stabil, die restliche (noch funktionierende) Website hat dann mehr Traffic abbekommen.
Dito. Sehr schön beobachtet. Kann man ggf. auch an auffälligen Positionsübernahmen in den SERP erkennen.
Eine Unterseite tieferer Ordnung übnimmt dann oft die Rolle der rausgeflogenen Landingpage.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

seo-theo
PostRank 7
PostRank 7
Beiträge: 536
Registriert: 18.10.2006, 21:10

Beitrag von seo-theo » 13.08.2009, 10:25

Ich kann die Vermutung - zumindest aus eigener Beobachtung - auch bestätigen.
Die Angaben von "kreutzer" ebenso.

Eine Webseite von mir war bereits 2x mit Benachteiligungsmaßnahmen belegt - und jedes Mal war dann bei exakt 2000 Besuchern über Google Schluß. Die waren gut über den Tag verteilt und die Tage glichen sich bis auf wenige Dutzend User.
Manchmal hatte sich das Googelchen wohl aber verrechnet - und ich hatte die 2000 User schon um 22:30/23:00 Uhr - dann kam bis 0:00 Uhr gar nichts mehr...... ;)

Sonntags und Montags habe ich auf der Seite immer 30% mehr Traffic, als den Rest der Woche - außer, wenn die Seite abgestraft war. Dann gab es auch Sonntags/Montags genau 2000 :D
Grüße
Seo-Theo

Und wenn du lange in einen Gockel blickst, blickt der Gockel auch in dich hinein.


Bist Du Admin eines großen Forums? Wenn ja, dann klick mal hier...

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 13.08.2009, 10:47

dann wären ja abstrafung und filter absolut erstrebenswert, traffic bleibt eh konstant und man kann mit konstanten sicheren einnahmen rechnen :roll:

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

URL
PostRank 3
PostRank 3
Beiträge: 87
Registriert: 08.09.2006, 11:16
Wohnort: Bochum

Beitrag von URL » 13.08.2009, 10:59

Die Sache mit den Filtern sollte man etwas differenzierter betrachten. Liegt z.B. ein grober Regelverstoss vor, bekommste von Google ne Strafe aufgebrummt. Traffic und Einnahmenverlust.

Wird aus einem anderen Grund gefiltert scheint die Sache schon wieder ganz anders auszusehen.
Beispiel: Stand lange Zeit mit einem Key (Eine Automobilmarke) bei Rund 80.000.000 Ergebnissen in den Top10. Diese KW hat den Großteil der Visits ausgemacht. Von jetzt auf gleich ist das Projekt mit dem KW auf 300+ gerutscht. Weiss bis heut nicht warum...

Dies habe ich aber anfangs nicht bemerkt, da das Projekt, mit abrutschen des Haupt-Key, plötzlich mit massig KeyCombos rankte, welche den Trafficverlust voll ausgeglichen haben...

Lord Lommel
PostRank 10
PostRank 10
Beiträge: 3227
Registriert: 18.02.2008, 02:43
Wohnort: Halle / Saale

Beitrag von Lord Lommel » 13.08.2009, 11:23

Some Traffic-Drossel wäre ja quasi ein Boster für MfA-Seiten. 8)

profo
PostRank 9
PostRank 9
Beiträge: 1703
Registriert: 18.01.2007, 18:51

Beitrag von profo » 13.08.2009, 11:26

URL hat geschrieben:@profo: Hast mal bitte einen Link zur Quelle?
Klaro, hier der Thread von internetheaven: Google Traffic Throttling
mano_negra hat geschrieben:dann wären ja abstrafung und filter absolut erstrebenswert, traffic bleibt eh konstant und man kann mit konstanten sicheren einnahmen rechnen
Das ja nun wieder auch nicht, aus ein paar Gründen. Den Verlust eines Money-Keys wirst Du mit Schrott-Key-Traffic kaum kompensieren können. Außerdem dürften Filter und Abstrafungen ja oft auch den Traffic-Korridor runterschrauben (sehe gerade, URL hat das eben auch gepostet).
GreenHorn hat geschrieben:
kreutzer hat geschrieben:Der Traffic gesamt bleibt stabil, die restliche (noch funktionierende) Website hat dann mehr Traffic abbekommen.
Eine Unterseite tieferer Ordnung übnimmt dann oft die Rolle der rausgeflogenen Landingpage.
Genau!

seo-theo
PostRank 7
PostRank 7
Beiträge: 536
Registriert: 18.10.2006, 21:10

Beitrag von seo-theo » 13.08.2009, 11:40

mano_negra hat geschrieben:dann wären ja abstrafung und filter absolut erstrebenswert, traffic bleibt eh konstant und man kann mit konstanten sicheren einnahmen rechnen :roll:
Quatsch! Für mich sind doch 2000 Tagesbesuchern nicht erstrebenswert, wenn ich sonst auf der Seite üblicherweise über 10.000 täglich habe?!
Grüße
Seo-Theo

Und wenn du lange in einen Gockel blickst, blickt der Gockel auch in dich hinein.


Bist Du Admin eines großen Forums? Wenn ja, dann klick mal hier...

Geo
PostRank 6
PostRank 6
Beiträge: 354
Registriert: 13.02.2004, 13:18

Beitrag von Geo » 13.08.2009, 11:48

Es gibt sicher keine gezielte Traficzuweisung, aber eine Laufleine oder einen Korridor gibt es allemal. Einfach mal über den Tellerrand des eigenen Blogs schauen. Einige Webgiganten müßten auf Grund ihrer Power rein theoretisch bei jeden zweiten key Traffic abräumen.
Sehe ich auch so.

Gerade in den letzten Wochen, kann ich in meinem Bereich bei Traffic-keys sehr gut sehen, wie starke Sites mit traumhafter Backlinkstruktur (Verlagshäuser) und Top-Content von Seite drei auf Seite eins wandern, um eine Tag später wieder auf Seite drei zu landen, wo sie auch sonst etwa stehen.

Da wird aktiv reguliert, da bin ich mir sicher, denn ich besitze eine Website, die sich seit Jahren schon ähnlich komisch verhält.

Dabei geht es vorrangig um (populäre) Single-Keys. Im Long tail haben diese Websites entsprechende rankings, die man erwartet...

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 13.08.2009, 12:06

was soll das ganze für einen sinn machen?
und wie soll das umsetzbar sein?

dass es bei contenterweiterung zur schwächung des restl. contents kommen kann oder bei einer algo-änderung sich das ranking von startseite und unterseiten ändert und dass es filter gibt, hat doch nichts mit einer "traffic-drossel" zu tun.

Lord Lommel
PostRank 10
PostRank 10
Beiträge: 3227
Registriert: 18.02.2008, 02:43
Wohnort: Halle / Saale

Beitrag von Lord Lommel » 13.08.2009, 12:13

Eben, ich vermute mal daß 80% der Leute, die diese Phänomene angeblich haben sich gar nicht die Mühe gemacht haben, mal nach alternativen Erklärungen zu suchen. Was bitte würde Google denn so etwas bringen ?

profo
PostRank 9
PostRank 9
Beiträge: 1703
Registriert: 18.01.2007, 18:51

Beitrag von profo » 13.08.2009, 12:20

Zum Sinn, da gäbe es ja viele sinnvollen Anwendungen:
1. Ungefähre Voraussagbarkeit des Traffics einer Site (auch für Sitebetreiber wichtig)
2. Eingrenzung von Spam-Traffic
3. Vielleicht sogar eine Reaktion auf Server-Überlastungen

Umsetzbar ist das ganz einfach als Ranking-Faktor bei der Serp-Zusammenstellung.

Natürlich spielen da wie immer viele Faktoren zusammen. Aber einige Dinge lassen sich schlecht mit verwässertem Pagerank oder ähnlichem erklären:
1. Das gelegentliche plötzliche Ausbleiben von Traffic, nachdem eine gewisse Besucherzahl vorzeitig erreicht wurde
2. Plötzliche Verbesserung von Neben-Keys, nachdem ein Hauptkey abgestraft wurde, so dass der Traffic gleich bleibt
3. Bei manchen Webmastern ein gleichbleibender Traffic an Wochentagen und Wochenenden

Und noch ein paar Phänomene. Ich denke, Greenhorn hat das am besten mit einem Traffic-Korridor beschrieben. Das ganze ist dann natürlich nur zu bemerken, wenn eine Site oben an die Korridorgrenze anstößt.

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 13.08.2009, 12:25

Wenn ich mich dazu herablasse und ein Thema zu einem Fernsehbericht einsetze, wo ich weiß, dass er in den nächsten Tagen gesucht wird, dann steigt der Traffic sofort. Gleiches kann ich beobachten, wenn ich eine Fehlermeldung zu einer Anwendung veröffentliche, die viele andere auch einsetzen. Vor kurzem war es z.B. (Pos 1):
https://www.google.de/search?hl=de&safe ... uche&meta=

Manchmal bauen einige große Seitenbetreiber auch saisonale Seiten auf wie z.B. zu Weihnachten Gedichte oder Lieder und verzeichnen dann für 1-3 Tage heftigen Traffic.

Dieser Traffic konvertiert zwar nicht sonderlich, also eine Spezialisierung lohnt nicht wirklich, aber damit kann ich sicher sagen, dass ein Volumen nicht existiert.

Trotzdem kann ich aus eigener Erfahrung sagen (auch bestätigt durch andere), dass schon der Einsatz eines besseren Servers langfristig mehr Traffic bedeutet. Das liegt aber dann daran, dass der Crawler öfter und schneller zu Besuch kommt und die eigenen Themen einfach schneller im Index stehen und sich so auch besser halten.
Ich kaufe Dein Forum!
Kontaktdaten

Geo
PostRank 6
PostRank 6
Beiträge: 354
Registriert: 13.02.2004, 13:18

Beitrag von Geo » 13.08.2009, 12:33

Trotzdem kann ich aus eigener Erfahrung sagen (auch bestätigt durch andere), dass schon der Einsatz eines besseren Servers langfristig mehr Traffic bedeutet.

Damit hat das hier angesprochene, sicher nichts zu tun...

HaraldHil
PostRank 9
PostRank 9
Beiträge: 1437
Registriert: 11.09.2007, 08:52

Beitrag von HaraldHil » 13.08.2009, 12:52

Einige der im Thread genannten Phänomene dürften eher serverseitige Ursachen haben denn durch Google verursacht sein.

web_worker
PostRank 8
PostRank 8
Beiträge: 893
Registriert: 12.12.2005, 13:00
Wohnort: Karlsruhe

Beitrag von web_worker » 13.08.2009, 12:52

Um Traffic zu messen müsste Google ja alle Links tracken, was sie definitiv nicht tun.

Ich kann mir auch kaum vorstellen, dass das die Google-Infrastruktur gehandled bekommt, täglich Abermillionen von Suchen dynamisch zu bedienen. Wir sprechen hier von gecacheten Indexfiles, die kann man nicht mal eben, wenn irgend eine kleine Popelseite XY ihre 200 Besucher abgekriegt hat, neu rechnen und andere Ergebnisse ausliefern. Das ist ein hochverfügbares, extrem verteiltes System - kein Blog, bei dem man die Besucher eben mal per Handschlag begrüßen kann :o

Ich lass mich aber auch gerne vom Gegenteil überzeugen..

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag