Seite 1 von 1

robots.txt in g-webmastertools neu laden?

Verfasst: 24.11.2011, 07:29
von nerd
Hallo;

ich hab mir vor 2 tagen bei der optimierung meiner robots.txt selbst ins bein geschossen:

Code: Alles auswählen

User-agent: googlebot
Disallow: /disclaimer.php
Disallow: /about.php
Sitemap: /sitemap.php

User-agent: msnbot
Disallow: /disclaimer.php
Disallow: /about.php
Sitemap: /sitemap.php

User-agent: *
Disallow: /
wers nicht weiss: hier wird nur die letzte regel beachtet (Alle robots:Alles verboten), auch wenn ich die ersten 2 bots eigentlich damit erlauben wollte.

Meine frage nun: in den webmastertools sehe ich die warnung "zugriff auch / via robots.txt verboten"; aber keine moeglichkeit die neue robots.txt erneut zu crawlen.
Wielange dauert sowas in der regel; oder wie kann man es erzwingen das die robots.txt neu gelesen wird?

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 24.11.2011, 13:38
von bennos
die robots.txt wird gecachet vom Bot. so alle 16-18 Stunden aktualisiert er den Cache. Von wann die Robots.txt ist, kannst du in den WMT sehen.