Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Jetzt ist es offiziell - Pinguin 2.0 ist da!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 29.05.2013, 21:52

paparatzi,

noe das stimmt nicht zu 100% mind. eine seite aus dem tourismusumfeld ist mir bekannt, wo laut xovi 1/3 der rankings weggebrochen ist. besagtes objekt wird von einem bekannten und "potententen" mitspieler gehostet ;-) also ... das hat mich schon beeindruckt ... ;-)

einen schutz vor der veralterung div. erkenntnisse gibt es nicht, dafuer heisst es ja so schoen, dass die seo nunmal eine fortlaufende sache ist. das liegt ja auch in der natur der sache, dass man bei der wechselhaften natur des internets hin und wieder die eigenen maßnahmen nachjustieren sollte. absolute sicherheit kriegst du bei hohen budgets via sem.


gruß

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 29.05.2013, 22:06

@lyk: ich meine damit dass Google sicher eine bestimmtes Spammuster erkennt und die Links vermutlich gar nicht ins Ranking einbezieht bzw. bei einem Update wie Penguin abwertet (Null-Wirkung).

Experiment hin oder her, wenn man die Kommentare liest dann zeigt die Realität doch ein sehr diffuses Bild: was bei dem einen funktioniert führt bei dem anderen ins Abseits. Scheinbar saubere Seiten sinken im Ranking während starke Spammer steigen....

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 29.05.2013, 22:20

noe das ist falsch. ziel von experimenten ist ja, einen kleinsten gemeinsamen nenner zwischen verschiedenen anwendungsgebieten herzustellen. so gesehen gehen die zu entwickelnden techniken auf, nur nicht immer unbedingt in einer skalierbaren und vorhersehbaren geschwindigkeit (abhaengig von der historie der seite, abhaengig vom ist-zustand und abhaengig von der nachfragesituation)

"saubere seiten" oder "whitehat" sind aus meiner sicht und analog zu meinen erfahrungen voellig subjektive definitionen mit einer extremen emotionalen komponente (ist ja logisch, dass der jeweilige webmaster das eigene projekt hoeher gewichtet ...) und der g-algo wird sicher nicht ruecksicht auf die befindlichkeiten deutscher webseitenbetreiber nehmen. ich finde, dass hier z.t. ein nicht nachvollziehbarer anspruch kommuniziert wird.