Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Durch robots.txt schneller mehr Seiten im Index?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 13.02.2008, 15:21

hallo forum,

der googlebot kommt regelmäßig unsere seite zu indizieren.

nun hat er aber in gut einem jahr knapp 8.000 seiten im index.

wenn ich nun eine robot.txt anlege und die unwichtigen seiten unserer plattform eintrage, erreiche ich dann das der googlebot schneller die wichtigsten seiten indiziert?

also kurz gesagt:
ich sgae dem bot wo er nicht hin soll und dafür geht er dann schneller zu den wichtigen seiten...

vielen dank für eure hilfe!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

e-fee
PostRank 10
PostRank 10
Beiträge: 3893
Registriert: 08.05.2007, 12:53

Beitrag von e-fee » 13.02.2008, 15:54

Mach lieber 'ne sitemap.xml und gib die in den Webmastertools Google zu futtern!

eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 13.02.2008, 17:27

danke für deine antwort.

die sitemap habe ich schon vor langem eingereicht.

problem mit der sitemap ist, dass da 40.000 links dirn sind. die eingereichte sitemap ist aber nicht mehr richtig aktuell, da es schon längst einige neue seiten gibt.

am liebsten würde ich die sitemap wieder löschen, da wie gesagt auch alte links drin sind...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


dadawowo
PostRank 8
PostRank 8
Beiträge: 784
Registriert: 17.12.2007, 10:55

Beitrag von dadawowo » 13.02.2008, 17:30

Na dann reiche doch einfach eine aktuelle ein?

Es gibt hier Leute die reichen täglich eine neue Sitemap ein. :roll:

eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 13.02.2008, 17:51

mit welchem tool kann man denn eine sitemap generieren lassen die mehr als 40.000 links enthält?

dadawowo
PostRank 8
PostRank 8
Beiträge: 784
Registriert: 17.12.2007, 10:55

Beitrag von dadawowo » 13.02.2008, 18:11

Ich verwende den gsitecrawler und kann mich nicht beschweren. Ob er 40.000
schafft liegt aber auch an der internen Verlinkung.

https://gsitecrawler.com/de/download/

Bei solchen Indexierungsproblemen solltest Du dir Deine interne Verlinkung nochmal
ansehen und auch zumindest an wichtigen Knotenpunkten Deeplinks von extern setzen.

Interessant sollten auch verschiedene Sitemaps sein(zum Beispiel für einzelne Bereiche
der Seite) an wichtigen Knotenpunkten, die Du dann von aussen anlinkst.

Dann verliert auch die Sitemap bei g00gle ihre Wichtigkeit.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag