Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Update <> Algo <> Google Dance <> Filter &

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Fetischwerk
PostRank 1
PostRank 1
Beiträge: 14
Registriert: 12.02.2004, 17:46

Beitrag von Fetischwerk » 15.02.2004, 12:47

Liebes Forum,

in letzter Zeit lese ich häufig Beiträge wie: "Ich habe meine Linktexte deoptimiert und bin innerhalb von 2 Tagen im Ranking gestiegen" ... oder ... "Eine Woche nachdem ich die H1 verändert habe, ist meine Seite von x auf y gefallen"

Ich finde hier machen viele von Euch einen großen Gedankenfehler.

Um eine Seite in die Suchergebnisse (SERPs) zu bringen, braucht es folgende Schritte: Seite erstellen -> Indizierung vom GoogleBot -> Aufnahme in die Datenbank -> Ausgabe in den SERPs basierend auf den Algorithmus und ein paar Filtern.

Im Webmasterworld differenziert GoogleGuy die beiden Begriffe "Datenbasis" und "Algorithmus".
GoogleGuy:"I'm not sure if you'd call it an update exactly (different algorithms play more of a role than different data)."
cbpayne:"GG made good point - we keep talking about updates like in the past (when new data/sites added) when these most recent updates have been changes to the way Google ranks sites (algorithm changes). "
Quelle: https://www.webmasterworld.com/forum3/21949.htm


Wenn jetzt jemand seine Seiten ändert und sich seine Position innerhalb weniger Tage verschiebt, hat das meistens nur mit neuen Algorithmen zu tun und nicht mit einem neuen Datenbestand. Soll heissen: die geänderten Seiten sind noch gar nicht gespidert worden.

Seit 3 Wochen korrigiert Google an seinen neuen Filtern. Ich beobachte eine ständige Verschiebung der Serps auch bei Seiten, die sich überhaupt nicht geändert haben. Daher ist klar, dass sich geänderte Seiten ebenfalls verschieben.

Die Frage ist nur warum? Wegen der Änderung auf der Seite oder wegen der neuen Algorithmen?!?

Dieser Beitrag soll nur ein wenig Eure Wahrnehmung für diese Zusammenhänge schärfen, damit wir besser den neuen Google analysieren können.

Beim wissenschaftlichen Arbeiten ist das doch auch so: Wenn sich 2 Parameter ändern und sich das Ergebnis verschiebt oder auch gleichbleibt, kann niemand sagen woran es lag.

Für eine korrekte Analyse darf sich also nur ein Parameter ändern: die Webseite oder der Algo.

Im Moment schrauben alle rum: die SEOs und der Google.

Gruß

Frank
Fetischwerk Erotik Partnerprogramme
Abo Mitgliedschaften mit Abrechnung über NetDebit und 50% Provision
https://www.fetischwerk.de/
Fetischwerk Magazin: Das Erotikportal zum Geld verdienen

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 15.02.2004, 13:01

Genau so sehe ich das auch. Geduld ist wichtig und was mann in diese ganze 64.xxx etc sieht muss nicht und wird wahrscheinlich nicht was in die SERPS erscheinen sollte. Ich bin die meinung das die verschiedene ips nur eine teil das algo sind und das mann muss warten für was auf google.com erscheint. Kann sein das es eine kombination von die verschiedene ips ergebnissen sind.
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 15.02.2004, 13:06

Naja, so wie du es darstellt ist meiner Meinung nach auch ein wenig ein Gedankenfehler drin. Folgendes habe ich bei einem Kollegen beobachtet den das Update wirklich hart erwischt hatte:
  • 01.02: Seite ins Nirvana verschwunden
    02.02.04: h1 und title deoptimiert, hochgeladen
    03.02.04: Spider kommt vorbei, holt sich die neue Seite
    06.02.04: Seite ist auf #2 und hat als Aktualisierungsdatum den 03.02 und hat die neuen Quelltexte im Cache.
Bei sowas gehe ich einfach davon aus dass die Deoptimierung nachgeholfen hat aus den Filterkriterien herauszuschlüpfen.

Viel schlimmer finde ich dieses abgrasen der IPs nach neuen SERPs und so weiter. Was bringt es zu wissen dass auf 64.x.x.x neue Algos arbeiten, wenn diese im 12-Stunden-Rythmus geändert werden? .de und .com sind wichtig...

Aber zurück zu deinem Posting Mr Fetischwerk, den 2ten Parameter Google können wir kaum ausblenden. Was tun? Einfach die Arbeit an den eigenen Seiten einstellen?