Links ala Topliste per robots.txt Ausblenden?
Verfasst: 08.07.2008, 12:24
Hallo Leute,
folgendes Problem (eigentlich genau wie bei einer Toplist)
3.000+++ Seiten Linken auf unsere Seite.
Jedoch mit einer ID, da diese die Provision haben möchten.
Also zb www.domain.de/wsID=3320
Was wiederrum zur Startseite führt.
Nach meiner Information werden die Links ganz gering oder garnicht gewertet.
Das Hauptproblem ist aber dass all diese ID's von Google Indiziert sind, was warscheinlich als Spam aufgefasst wird.
Super wäre natürlich das ganze umzudrehen und Google verklickern dass es quasi normale Links auf die startseite sind und keine zu nicht vorhandenen Inhaltsseiten.
Frage: kann ich in robots.txt "Disallow: /wsID" schreiben?
Damit wäre evtl zumindest die Indizierung verhindert.
Andererseits habe ich befürchtung die abgewertete Linkkraft die vielleicht doch durch diese Links vorhanden ist ganz zu verlieren.
Vielen Dank vorab.
folgendes Problem (eigentlich genau wie bei einer Toplist)
3.000+++ Seiten Linken auf unsere Seite.
Jedoch mit einer ID, da diese die Provision haben möchten.
Also zb www.domain.de/wsID=3320
Was wiederrum zur Startseite führt.
Nach meiner Information werden die Links ganz gering oder garnicht gewertet.
Das Hauptproblem ist aber dass all diese ID's von Google Indiziert sind, was warscheinlich als Spam aufgefasst wird.
Super wäre natürlich das ganze umzudrehen und Google verklickern dass es quasi normale Links auf die startseite sind und keine zu nicht vorhandenen Inhaltsseiten.
Frage: kann ich in robots.txt "Disallow: /wsID" schreiben?
Damit wäre evtl zumindest die Indizierung verhindert.
Andererseits habe ich befürchtung die abgewertete Linkkraft die vielleicht doch durch diese Links vorhanden ist ganz zu verlieren.
Vielen Dank vorab.