Seite 1 von 1

DC vermeiden durch rel=nofollow?

Verfasst: 26.02.2008, 13:58
von MrJim
Hallo,

ich habe leider eine Seite mit suboptimaler Struktur. Bei mir können User ihre Meinung abgeben, aber nur wenn sie angemeldet und registriert sind.
Mein Problem ist, dass Gugl ständig den "Bewertung abgeben" Links folgt aber dann jedesmal den identischen "Bitte registrieren" Text angezeigt bekommt.
Wie erwähnt, ist die Struktur der Seite nicht sehr clever aufgebaut. Das habe ich gemacht, bevor ich den Begriff SEO gehört habe. Mit der Robot.txt habe ich keine Chance Gugl diese Links zu verbieten.
Reicht eventuell ein 'rel=nofollow' im Link aus? Es wäre eine miese Fummelarbeit, das überall einzubauen und deshalb wollte ich fragen, ob der Aufwand sich rechnet und Gugl so nicht den Eindruck bekommt, ich hätte zigtausend Seiten mit identischem Inhalt.

MrJim

Verfasst:
von

Verfasst: 26.02.2008, 14:24
von bennos
Was denn nun.

Hast du ein Problem mit den Links oder den Seiten die im Index sind? oder beides?


Nofollow hilft natürlich. Vielleicht solltest du auch über Noindex mal nachdenken.

bennos

Verfasst: 26.02.2008, 15:55
von MrJim
bennos hat geschrieben:Was denn nun.
Hast du ein Problem mit den Links oder den Seiten die im Index sind? oder beides?
bennos
Ich habe ca. 300 Seiten im Index mit dem identischen Text "Sie müssen eingeloggt sein ..." und meine Frage ist, ob es reicht die Links, denen der Guglbot folgt um auf diese Seiten zu kommen mit einem rel=nofollow zu versehen um 1. zu verhindern, dass er die restlichen 5000 Bewertungsseiten auch noch als nicht angemeldeter Besucher zu Gesicht bekommt und 2. die 300 Seiten, die bereits im Index sind da wieder raus zu bekommen.

Ich habe die Befürchtung, dass ich da überall ein rel=nofollow reinfummel und der Guglbot trotzdem dem Link folgt, den DC sieht und mich abstraft.

MrJim

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 26.02.2008, 16:13
von dadawowo
Du kannst Dir die Arbeit auch sparen, indem Du diese Seite einfach
über die robots.txt sperrst.

Verfasst: 27.02.2008, 10:02
von MrJim
kann ich in der robot.txt irgendwelche regulären ausdrücke zum sperren benutzen? ich wüsste nur, dass man verzeichnisse ausschliessen kann.
leider habe ich die option nicht, weil die sitestruktur das nicht hergibt. :-(

Verfasst: 27.02.2008, 10:11
von bennos
das ist aber dann eine beschissene seitenstruktur!
Sorry. Solltest du dir mal überlegen ob du nicht umbaust.

du kannst auch einzelene seiten ausschliessen. Nur den Pfad angeben + Datei.
also so

inhalt/login.php

bennos