Seite 1 von 1

durch robots.txt mehr ressourcen für wichtige seiten?

Verfasst: 03.03.2008, 20:04
von eanst
hallo forum,

bis dato habe ich noch keine robots.txt auf dem server. nun habe ich aber gemerkt das der googlebot sehr viele "unwichtige" seiten indiziert/crawlt.

wenn ich nun in der robots.txt die unwichtigen seiten sperre, müsste doch der goglebot schneller/öfter zu den wichtigen seiten kommen, oder?

vielen dank für eure tipps!

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 03.03.2008, 23:34
von Andreas I.
Grundsätzlich ja.
Aber für sowas kann man in der sitemap.xml auch verschiedene Grade von Wichtigkeit und Inhaltsaktualisierung (= Vorschlag für Besuchsfrequenz) vergeben.

Verfasst: 04.03.2008, 19:52
von eanst
hallo andreas,

danke für deine antwort.