Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Links für Robots sperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Alex
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 27.11.2003, 02:07

Beitrag von Alex » 21.09.2004, 13:20

Hallo alle miteinander,

wie ich für ordner über die robot.txt den zugriff für Robots sperre weiß ich nur wie mache ich das für links ?
Ich möchte z.B das die Robot diesen Link nicht aufrufen
index.php?we=105

Gruß
Alex

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Metaman
PostRank 7
PostRank 7
Beiträge: 602
Registriert: 17.04.2004, 07:37
Wohnort: Wittenburg (Mecklenburg)

Beitrag von Metaman » 21.09.2004, 13:26

das kannst Du soviel ich weiß nicht über die robots.txt machen.
du könntest höchstens in der Seite selber den Robots Metatag einbauen und auf noindex setzen.
allerdings ist dieser Meta Tag kein zwingender Befehl für die Spider sondern nur eine Empfehlung !!

Um wirklich sicher zu gehen das die Spider diese Seite nicht finden, könntest du über beispielsweise über PHP den USeragennt abfragen, und dann diese Links einfach nicht einblenden wenn gerade ein Spider auf der Seite ist...

Alex
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 27.11.2003, 02:07

Beitrag von Alex » 28.09.2004, 15:50

Hallo,
Um wirklich sicher zu gehen das die Spider diese Seite nicht finden, könntest du über beispielsweise über PHP den USeragennt abfragen, und dann diese Links einfach nicht einblenden wenn gerade ein Spider auf der Seite ist...
Ist natürlich eine Überlegung wert jedoch mit etwas aufwand verbunden oder ?
Es ist ja nicht nur der googlebot sonder auch andere Sumas die ich mit ausschießen müsste.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


elo22
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 16.11.2003, 04:56

Beitrag von elo22 » 22.10.2004, 09:49

[quote="Metaman"]
Um wirklich sicher zu gehen das die Spider diese Seite nicht finden, könntest du über beispielsweise über PHP den USeragennt abfragen, und dann diese Links einfach nicht einblenden wenn gerade ein Spider auf der Seite ist...[/quote]

Bei mir ist es eher anderes rum. Wie kann ich einem bestimmten Useragenten eine andere Seite zeigen?

Lutz

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 22.10.2004, 09:59

Alle outbound-Skripte, wie sie auch z.B. in diesem Forum eingesetzt werden, haben ja das Ziel, Links nicht-verfolgbar zu machen - und so den PageRank-Abfluß zu verhindern. Zu diesem Zwecke ist das outbound-Skript via robots.txt als Disallowed angegeben (bitte Forum-Suche benutzen für Skript an sich). (Es gibt Gerüchte, wonach Google allerdings mittlerweile derartige Skripte erkennt - die kann bei einem Link wie "out.php?id=4444" nicht der Fall sein, und lediglich dann, wenn die volle Ziel-URL im outbound-Link angegeben ist.)

Was in diesem Faden hier allgemein diskutiert wird als "cloaking" bezeichnet, über dessen Auswirkungen im Falle einer Entdeckung durch Google man sich informieren möge.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag