Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Durch robots.txt schneller mehr Seiten im Index?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 13.02.2008, 15:21

hallo forum,

der googlebot kommt regelmäßig unsere seite zu indizieren.

nun hat er aber in gut einem jahr knapp 8.000 seiten im index.

wenn ich nun eine robot.txt anlege und die unwichtigen seiten unserer plattform eintrage, erreiche ich dann das der googlebot schneller die wichtigsten seiten indiziert?

also kurz gesagt:
ich sgae dem bot wo er nicht hin soll und dafür geht er dann schneller zu den wichtigen seiten...

vielen dank für eure hilfe!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

e-fee
PostRank 10
PostRank 10
Beiträge: 3893
Registriert: 08.05.2007, 12:53

Beitrag von e-fee » 13.02.2008, 15:54

Mach lieber 'ne sitemap.xml und gib die in den Webmastertools Google zu futtern!

eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 13.02.2008, 17:27

danke für deine antwort.

die sitemap habe ich schon vor langem eingereicht.

problem mit der sitemap ist, dass da 40.000 links dirn sind. die eingereichte sitemap ist aber nicht mehr richtig aktuell, da es schon längst einige neue seiten gibt.

am liebsten würde ich die sitemap wieder löschen, da wie gesagt auch alte links drin sind...