Seite 1 von 1

aktualisierung sitemap & robots.txt - wann übernommen?

Verfasst: 24.01.2007, 22:32
von chrizz
hola,

ich wollte mal wissen, wie lange es dauert, bis änderungen die an der robots.txt und an der sitemap gemacht werden bei google berücksichtigung finden. irgendwie werden in ungleichmäßigen abständen seiten gecrawlt (und nicht gefunden) die so schon lange nicht mehr in der sitemap drin stehen....:/
klar das es da jedes mal ne 404 gibt...irgendwie fehlt mir dazu jetzt nen erklärungsversuch.
und wo wir schon beim thema sind: wenn eine seite u.a. title/description geändert werden, wird das von google beim nächsten besuch dann in den serps auch direkt berücksichtig, oder dauert das auch nochmal?

vielen dank für die antworten :)
cheers!

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 25.01.2007, 14:09
von Hasso
Die rasche Berücksichtigung hängt von mehreren Faktoren ab, die wichtige Frage ist ja - wie wichtig ist Deine Seite in "Google´s Augen". :wink:

Gruß
Hasso

Verfasst: 25.01.2007, 14:53
von chrizz
hm...dann kann das wohl dauern....hat da jemand erfahrungen und kann einen zeitraum nennen? ich mein, dauerts ne woche? nen monat? oder länger?

für jeden hinweis wäre ich dankbar...
cheers

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 25.01.2007, 15:00
von Alpinist
chrizz hat geschrieben:hm...dann kann das wohl dauern....hat da jemand erfahrungen und kann einen zeitraum nennen? ich mein, dauerts ne woche? nen monat? oder länger?
Zwischen gleich und länger ;-) Bei mir werden Änderungen normalerweise binnen 24h erkannt.

(a) Schau in die Logs ob die Dateien (insb. robots.txt) geholt wurden. Nur weil es aus der Sitemap draussen ist, ist dies KEINE Anweisung an Google, dass die Seite entfernt werden soll. Die Sitemap ist nur ein zusätzliches Hilfsmittel, so dass der Google Crawler (neue) Seiten schneller findet.

(b) Wenn die per robots.txt entgültig aus dem Index sollen, kannst Du die URL-Konsole von Google nehmen -> Suche! Dann werden die Seiten für 180 Tage (oder so) auf jeden Fall nicht neu indiziert.

Grüße

Verfasst: 25.01.2007, 15:32
von chrizz
na das war doch mal hilfreich....
vielen dank für die infos. ich werd mich denn mal auf die suche machen...:)

thx again!
cheers

Verfasst: 25.01.2007, 20:54
von chrizz
hm...irgendwie hab ich das problem, dass google konsequent versucht alte seiten zu crawlen....liegt das evtl. daran, dass für ein paar tage eine sitemap genau mit diesen alten links online war und google sich daraus noch fleißig bedient? mittlerweile ist seit fast 2 wochen eine aktuelle sitemap online, die links sind alle geändert usw....aber google meldet immernoch ab und an crawling fehler...
die neue sitemap wurde aber eingereicht, für ok befunden und erst vor ein paar tagen das letzte mal runtergeladen...
irgendwie raff ich nicht wo das problem ist, wenn google einfach direkt auf die aktuellen sitemaps/robots/seiten zugreift.... :cry: