Seite 1 von 1
Links für Robots sperren
Verfasst: 21.09.2004, 13:20
von Alex
Hallo alle miteinander,
wie ich für ordner über die robot.txt den zugriff für Robots sperre weiß ich nur wie mache ich das für links ?
Ich möchte z.B das die Robot diesen Link nicht aufrufen
index.php?we=105
Gruß
Alex
Verfasst: 21.09.2004, 13:26
von Metaman
das kannst Du soviel ich weiß nicht über die robots.txt machen.
du könntest höchstens in der Seite selber den Robots Metatag einbauen und auf noindex setzen.
allerdings ist dieser Meta Tag kein zwingender Befehl für die Spider sondern nur eine Empfehlung !!
Um wirklich sicher zu gehen das die Spider diese Seite nicht finden, könntest du über beispielsweise über PHP den USeragennt abfragen, und dann diese Links einfach nicht einblenden wenn gerade ein Spider auf der Seite ist...
Verfasst: 28.09.2004, 15:50
von Alex
Hallo,
Um wirklich sicher zu gehen das die Spider diese Seite nicht finden, könntest du über beispielsweise über PHP den USeragennt abfragen, und dann diese Links einfach nicht einblenden wenn gerade ein Spider auf der Seite ist...
Ist natürlich eine Überlegung wert jedoch mit etwas aufwand verbunden oder ?
Es ist ja nicht nur der googlebot sonder auch andere Sumas die ich mit ausschießen müsste.