Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Links für Robots sperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Alex
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 27.11.2003, 02:07

Beitrag von Alex » 21.09.2004, 13:20

Hallo alle miteinander,

wie ich für ordner über die robot.txt den zugriff für Robots sperre weiß ich nur wie mache ich das für links ?
Ich möchte z.B das die Robot diesen Link nicht aufrufen
index.php?we=105

Gruß
Alex

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Metaman
PostRank 7
PostRank 7
Beiträge: 602
Registriert: 17.04.2004, 07:37
Wohnort: Wittenburg (Mecklenburg)

Beitrag von Metaman » 21.09.2004, 13:26

das kannst Du soviel ich weiß nicht über die robots.txt machen.
du könntest höchstens in der Seite selber den Robots Metatag einbauen und auf noindex setzen.
allerdings ist dieser Meta Tag kein zwingender Befehl für die Spider sondern nur eine Empfehlung !!

Um wirklich sicher zu gehen das die Spider diese Seite nicht finden, könntest du über beispielsweise über PHP den USeragennt abfragen, und dann diese Links einfach nicht einblenden wenn gerade ein Spider auf der Seite ist...

Alex
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 27.11.2003, 02:07

Beitrag von Alex » 28.09.2004, 15:50

Hallo,
Um wirklich sicher zu gehen das die Spider diese Seite nicht finden, könntest du über beispielsweise über PHP den USeragennt abfragen, und dann diese Links einfach nicht einblenden wenn gerade ein Spider auf der Seite ist...
Ist natürlich eine Überlegung wert jedoch mit etwas aufwand verbunden oder ?
Es ist ja nicht nur der googlebot sonder auch andere Sumas die ich mit ausschießen müsste.