Seite 1 von 2

Uralte Daten in den Serps

Verfasst: 15.04.2010, 20:49
von Rasputin
Ich habe gerade festgestellt, dass die meta description, die G bei einer meiner Seiten anzeigt, uralt ist. Die hatte ich schon vor weit über einem Jahr geändert und ist jetzt wieder in der Serps zu sehen!

Und jetzt kommt das Supertolle: Der meta title der Seite, den ich erst vor kurzem aktualisiert hatte, ist neu und aktuell.

Wie kann das sein: uralte Description und gleichzeitig neuer Title??

Verfasst:
von

Verfasst: 15.04.2010, 21:05
von linux
jupp oder noch besser mal alte daten mal neue zwischen 8 und 12 neue daten
ab 12-18 alte daten
dann wieder neue
dann alte immer schön so was dabei mal dmoz mal alte mal neue metas.

wie immer abwarten denn google wird rechnen

was nervt sie rechnen immer wider neu, mal sehen was diesmal rauskommt.

Verfasst: 15.04.2010, 21:09
von Rasputin
Bisher war ich davon ausgegangen, dass ein Datensatz wenigstens in sich stimmig ist...

Verfasst:
von

Verfasst: 15.04.2010, 21:29
von heino
Du setzt voraus, dass Google eine Seite als einen einzigen Datensatz abspeichert?

Verfasst: 15.04.2010, 21:30
von web_worker
Richtig cool ist, wenn Google die ersten Stücke des Contents als Description nimmt. Bei mir ist das oftmals ein Datum. Aktuell hab ich das Datum von heute als Ergebnis ist den Serps. Einer meiner Konkurrenten hat das auch, nur dass das Datum von Mitte 2008 (!) ist. Echt krass, was Google da grad treibt. Ich meine, wie können die Schnipsel fast 2 Jahre alt sein?

Im Übrigen sehe ich das genauso - Google hat grad irgendwie einen Wurm im Algo...

ww

Verfasst: 15.04.2010, 21:48
von mano_negra
web_worker hat geschrieben:Ich meine, wie können die Schnipsel fast 2 Jahre alt sein?
das ist nur einer und der ist sogar noch älter :lol:

Verfasst: 15.04.2010, 21:50
von linux
das gabs immer mal wieder ich habe z.b eine subdomain wo ich ums verrecken nicht die neuen descptions und tile reinbekomme, nein kein dmoz eintrag

mache daten sind auch von 2008 mit seiten die hölle alt sind

wie gesagt es rechnet sich zu tode

Verfasst: 15.04.2010, 21:55
von Rasputin
Das ist ja ein großer Spaß, derzeit Ursache und Wirkung einer Optimierung abzuschätzen. Das ist ja sonst schon schwer genug, den Effekt der eigenen Maßnahmen zu beurteilen, weil sich immer zahlreiche Einflüsse überlagern. Aber wenn ich mich nicht mal auf die Aktualität der Serps verlassen kann, wird es zum echten Ratespiel.

Verfasst: 16.04.2010, 17:52
von linux
könnte das der grund des übels sein?
https://googleblog.blogspot.com/2010/04 ... etter.html

locales suggest

Verfasst: 16.04.2010, 17:56
von Viktor1982
Aktualisieren, frischen und immer frischen content hilft immer.

Verfasst: 16.04.2010, 18:09
von Rasputin
locales suggest
Sorry, aber den Zusammenhang kann ich nicht nachvollziehen...
Aktualisieren, frischen und immer frischen content hilft immer.
Na ja, die Seite, bei der ich meine Beobachtung gemacht habe, wird alle paar Tage aktualisiert. Daran kann es nicht liegen. Ich will das auch nicht allzu sehr problematisieren - aber es schon ätzend, wenn man die Auswirkung von SEO kaum nachvollziehen kann, weil G gerade 1,5 Jahre alte Daten verwendet.

Verfasst: 16.04.2010, 18:20
von linux
nunja irgendwoher muß ja die lokalisierung kommen, und dadurch könnten auch die daten oder bewertung geändert werde.

gehen wir mal davon aus jemand verkauft uhren im internet seine seite ist in berlin,oder besser im impressum ist berlin. wenn ich das richtig verstehe kommt dann er weiter nach oben wenn jemand uhren berlin sucht, aber er ist weiter hinten wenn jemand uhren münchen eingibt

oder sehe ich das falsch

Verfasst: 16.04.2010, 18:35
von Rasputin
Das könnte schon stimmen, aber bei meinem Beispiel ging es ja erstens nicht um lokale Angebote und zweitens hatte ich eine uralte Description neben einem neuen Title entdeckt. Für diesen Datenquatsch kann es eigentlich keine rationale Begründung geben, oder?

Verfasst: 16.04.2010, 18:44
von linux
mal als linux gedacht. wenn ich etwas neu berechnen will nehme ich eine leere datenbank und lasse die scripte laufen.

leere datenbank geht nicht bei google aber eine alte. dann spider ich alles durch und berechnen alles neu.

warum nicht die neue nunja dann wäre die änderungen massiv.d.h

ich nehme das alte backup spider los und schau was rauskommt und stelle das online, überpüfe die ergebinsse. damit aber eine domain nicht von 100 auf 0% oder von 0% auf 100% geht mische ich immer wieder die normalen serps rein. das mache ich entweder für begriffe oder nach domain. so kann ich im live bertieb testen damit wären auch die alten desc und mischungen erklärt

ist nur ne meinung nicht steinigen );

Verfasst: 16.04.2010, 18:57
von w3news
Ich glaube kaum das bei Google da etwas live getestet wird ohne vorher es lokal zu auszuprobieren... ich würde eher sagen, dass da vielleicht ein DC ein Backup bekommen hat und die Updates erst noch eingespielt werden müssen.

Ist also nur eine Frage der Zeit, bis das wieder so ist wie es (für Google) sein sollte.