Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

viele Einträge in robots.txt Auswirkungen aufs Ranking?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
okrim
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 13.07.2007, 11:30

Beitrag von okrim » 08.12.2011, 15:55

Hallo zusammen,

ich möchte in meiner robots.txt viele falsche Unterseiten (Fehler in einem Verzeichnis) vor der weiteren Indexierung ausschließen. Wirken sich diese vielen Einträge (10.000) auf die restlichen Url's bzw. deren Ranking aus.

Was sagt G. dazu wenn man plötzlich 10% (Größenordnung 10Tk von 100Tk Seiten) seiner Urls in der robots.txt für ihn "sperrt".

Help me, please

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 08.12.2011, 20:15

Werden unter den URL, die du sperren willst zur Zeit Dokumente mit Status Code 200 und internen Links auf anderen Unterseiten deiner Domain ausgeliefert? Haben diese eventuell sogar Backlinks von extern? Falls ja versuch es lieber mit "noindex,follow" auf diesen Unterseiten, da du sonst Linkjuice verlieren könntest. Alternativ könnte auch eine 301 Weiterleitung angebracht sein.

Falls es wirklich nur falsch zusammengesetzt URLs sind, die keine Inhalte, keine Backlinks und (ganz wichtig!) keine Rankings haben, kannst du sie per robots.txt ausschließen ohne mit negativen Konsequenzen rechnen zu müssen.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

okrim
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 13.07.2007, 11:30

Beitrag von okrim » 09.12.2011, 16:04

Vielen Dank für deine Antwort.

Also Backlinks kann ich ausschließen, denn die Seiten machen keinen wirklichen Sinn!

Das Problem ist, es wurden aus 50 falschen URls tausende, denn auf den Seiten wurden dynamisch andere Seiten erstellt mit unsinnigem Content! 301 macht auch keinen Sinn, denn es sind zuviele und vom Content gibt es kaum Alternativen, ausser alles auf die Startseite weiterzuleiten.

Aber Danke fürs Feedback, ich hoffe dass der Ausschluss der vielen Seiten keine negativen Auswirkungen auf meine anderen guten Seiten der Domain hat.

Dir noch ein schönes WE!