Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

durch robots.txt mehr ressourcen für wichtige seiten?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 03.03.2008, 20:04

hallo forum,

bis dato habe ich noch keine robots.txt auf dem server. nun habe ich aber gemerkt das der googlebot sehr viele "unwichtige" seiten indiziert/crawlt.

wenn ich nun in der robots.txt die unwichtigen seiten sperre, müsste doch der goglebot schneller/öfter zu den wichtigen seiten kommen, oder?

vielen dank für eure tipps!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 03.03.2008, 23:34

Grundsätzlich ja.
Aber für sowas kann man in der sitemap.xml auch verschiedene Grade von Wichtigkeit und Inhaltsaktualisierung (= Vorschlag für Besuchsfrequenz) vergeben.

eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 04.03.2008, 19:52

hallo andreas,

danke für deine antwort.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag