Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Cache update + Robots

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
ralph12345
PostRank 5
PostRank 5
Beiträge: 331
Registriert: 13.06.2006, 12:15
Wohnort: Hamburg

Beitrag von ralph12345 » 13.06.2006, 12:23

Hallo zusammen. Bin ganz neu hier und hab gleich zwei Fragen, die sich mir nach einer Weile lesen der übrigen Posts hier leider nicht beantworten.

Im Google Cache ist eine Version meiner Seite vom 1.6.06 drin, die Google offenbar nicht lesen konnte. Liegt vermutlich daran, daß die htm Datei mit UNICODE codiert gespeichert wurde. Nun ist sie seit gestern wieder ANSI. Wie lange dauert das im Normalfall, bis Google da mal wieder vorbei kommt und neu cachet?

Wie kann ich mir anzeigen lassen, wie oft der Google bot überhaupt vorbeikommt? Ist die Aussage in Google Sitemaps korrekt, dann war er am 1.6. da. Passt zum Alter des Chache. Heißt das, seitdem nicht mehr?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

homeofneeoo
PostRank 5
PostRank 5
Beiträge: 210
Registriert: 08.05.2006, 16:10

Beitrag von homeofneeoo » 13.06.2006, 12:28

wie war es denn bisher?
du hast nur 1 seite im index....jedoch ein paar backlinks...
schatze dauert nicht soooo lange 2-10 tage....wäre mein tipp..
-------------------------------------------
www.mountainstar.info --> Winterurlaub in Österreich


Suche immer seriöse Partner;
-> Hotel, Wellness, Tirol, Wäsche,... einfach PN

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 13.06.2006, 12:32

Die Angaben der bei den Google Sitemaps stimmen nicht, kommen zeitverzögert oder beziehen sich nur auf das Datencenter, das ggerade mit den Sitmaps correliert - das muss nicht immer eines von denen sein, die in Deiner Region abgefragt werden, wenn du die Google-suche benutzt. Sitemaps sind immer noch "beta" und haben haufenweise "Kinderkrankheiten".

Wie lange welche Seite im google-cache bleibt und auf welchen Datencentern, kann Dir niemand genau sagen. Ich habe Seiten drin, die regelmäßig gespidert werden und trotzdem mit dem Cache von 5/2005 angezeigt werden. Andere werden praktisch sofort am nächsten Tag neu angezeigt.

Wenn Google wieder richtig funktioniert, sollte nach jedem spidern der neue Cache erscheinen, zumindest wenns was Neues da gibt. WEnn Du glück hast, klappts auch schon jetzt nach nem neuen Spidern.

Wie oft der googlebot vorbeikommt und welche Seiten er sich holt, kannst du aus deinen Serverstatistiken ersehen bzw. mit entsprechenden Tools dort auslesen lassen.