Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Links ala Topliste per robots.txt Ausblenden?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
sibus
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 06.10.2005, 10:34
Wohnort: Leverkusen

Beitrag von sibus » 08.07.2008, 12:24

Hallo Leute,

folgendes Problem (eigentlich genau wie bei einer Toplist)
3.000+++ Seiten Linken auf unsere Seite.
Jedoch mit einer ID, da diese die Provision haben möchten.
Also zb www.domain.de/wsID=3320
Was wiederrum zur Startseite führt.

Nach meiner Information werden die Links ganz gering oder garnicht gewertet.
Das Hauptproblem ist aber dass all diese ID's von Google Indiziert sind, was warscheinlich als Spam aufgefasst wird.

Super wäre natürlich das ganze umzudrehen und Google verklickern dass es quasi normale Links auf die startseite sind und keine zu nicht vorhandenen Inhaltsseiten.

Frage: kann ich in robots.txt "Disallow: /wsID" schreiben?
Damit wäre evtl zumindest die Indizierung verhindert.
Andererseits habe ich befürchtung die abgewertete Linkkraft die vielleicht doch durch diese Links vorhanden ist ganz zu verlieren.

Vielen Dank vorab.