Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Links ala Topliste per robots.txt Ausblenden?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
sibus
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 06.10.2005, 10:34
Wohnort: Leverkusen

Beitrag von sibus » 08.07.2008, 12:24

Hallo Leute,

folgendes Problem (eigentlich genau wie bei einer Toplist)
3.000+++ Seiten Linken auf unsere Seite.
Jedoch mit einer ID, da diese die Provision haben möchten.
Also zb www.domain.de/wsID=3320
Was wiederrum zur Startseite führt.

Nach meiner Information werden die Links ganz gering oder garnicht gewertet.
Das Hauptproblem ist aber dass all diese ID's von Google Indiziert sind, was warscheinlich als Spam aufgefasst wird.

Super wäre natürlich das ganze umzudrehen und Google verklickern dass es quasi normale Links auf die startseite sind und keine zu nicht vorhandenen Inhaltsseiten.

Frage: kann ich in robots.txt "Disallow: /wsID" schreiben?
Damit wäre evtl zumindest die Indizierung verhindert.
Andererseits habe ich befürchtung die abgewertete Linkkraft die vielleicht doch durch diese Links vorhanden ist ganz zu verlieren.

Vielen Dank vorab.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Lord Pixel
PostRank 7
PostRank 7
Beiträge: 601
Registriert: 24.08.2007, 17:06

Beitrag von Lord Pixel » 08.07.2008, 12:50

Das Problem lässt sich umgehen, indem du den Referrer des Browsers verwendest, anstatt Links mit Partner-IDs zu verwenden. Bestehende Links dieser Art würde ich per 301er-Redirecht auf die Zielseite weiterleiten. Auf keinen Fall über Robots auschließen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag