Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Brauche kurze Hilfe (robots.txt)

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Pseudo
PostRank 4
PostRank 4
Beiträge: 153
Registriert: 18.05.2005, 23:01

Beitrag von Pseudo » 13.07.2005, 22:57

Hi,
möchte gerne eine Seite für Bots in der robots.txt sperren

Disallow: /test-error-id-2.html

Die Zahl ist dabei dynamisch sprich die 2 kann auch jede x beliebe Zahl sein...

kann mir mal einer erzählen wie der regexp dafür aussieht ???

Danke und Gruß

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 13.07.2005, 23:06

Code: Alles auswählen

Disallow: /test-error-id-
Damit wird alles gesperrt was mit test-error-id anfängt.

Oder willst Du nur die .html Dateien sperren?

Pseudo
PostRank 4
PostRank 4
Beiträge: 153
Registriert: 18.05.2005, 23:01

Beitrag von Pseudo » 13.07.2005, 23:18

Ich möchte nich nur die eine Sperren sondern alle die so anfagen...

Wenn der Teilstring reicht um alle Dateien zu sperren den du gepostet hast, bin ich damit zu frieden!

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 13.07.2005, 23:28

Sowas setze ich bei mir im Forum ein und funktioniert bei Google, Yahoo und msn.

Gruss
Chris

Pseudo
PostRank 4
PostRank 4
Beiträge: 153
Registriert: 18.05.2005, 23:01

Beitrag von Pseudo » 13.07.2005, 23:39

ok... Danke

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag