Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

viele Einträge in robots.txt Auswirkungen aufs Ranking?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
okrim
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 13.07.2007, 11:30

Beitrag von okrim » 08.12.2011, 15:55

Hallo zusammen,

ich möchte in meiner robots.txt viele falsche Unterseiten (Fehler in einem Verzeichnis) vor der weiteren Indexierung ausschließen. Wirken sich diese vielen Einträge (10.000) auf die restlichen Url's bzw. deren Ranking aus.

Was sagt G. dazu wenn man plötzlich 10% (Größenordnung 10Tk von 100Tk Seiten) seiner Urls in der robots.txt für ihn "sperrt".

Help me, please

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 08.12.2011, 20:15

Werden unter den URL, die du sperren willst zur Zeit Dokumente mit Status Code 200 und internen Links auf anderen Unterseiten deiner Domain ausgeliefert? Haben diese eventuell sogar Backlinks von extern? Falls ja versuch es lieber mit "noindex,follow" auf diesen Unterseiten, da du sonst Linkjuice verlieren könntest. Alternativ könnte auch eine 301 Weiterleitung angebracht sein.

Falls es wirklich nur falsch zusammengesetzt URLs sind, die keine Inhalte, keine Backlinks und (ganz wichtig!) keine Rankings haben, kannst du sie per robots.txt ausschließen ohne mit negativen Konsequenzen rechnen zu müssen.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

okrim
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 13.07.2007, 11:30

Beitrag von okrim » 09.12.2011, 16:04

Vielen Dank für deine Antwort.

Also Backlinks kann ich ausschließen, denn die Seiten machen keinen wirklichen Sinn!

Das Problem ist, es wurden aus 50 falschen URls tausende, denn auf den Seiten wurden dynamisch andere Seiten erstellt mit unsinnigem Content! 301 macht auch keinen Sinn, denn es sind zuviele und vom Content gibt es kaum Alternativen, ausser alles auf die Startseite weiterzuleiten.

Aber Danke fürs Feedback, ich hoffe dass der Ausschluss der vielen Seiten keine negativen Auswirkungen auf meine anderen guten Seiten der Domain hat.

Dir noch ein schönes WE!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 09.12.2011, 21:45

Ich würde nur Impressum, Shoppingcart e.t.c. ausschliessen
und dann in den Webmastertools nachschauen was Goolge
als Doppelte Title e.t.c. bemängelt und dann das ausschliessen
was Google bemängelt.

E.v.t. auch in der htaccess z.b. "&language=" und den ganzen
sesion kram.

Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag