Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt und Wildcards

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
syco23
PostRank 4
PostRank 4
Beiträge: 144
Registriert: 12.03.2003, 15:27
Wohnort: Wien

Beitrag von syco23 » 01.02.2005, 22:43

Hallo,

Ich möchte verhinder, dass Google diese und ähnliche Urls zu spidert:

www.forum.tld/forum/archive/t-4278.html?pda=1

während

www.forum.tld/forum/archive/t-4278.html

indiziert werden soll.

Wäre das dafür die korrekte Schreibweise?
User-agent: googlebot
Disallow: /forum/archive/*?pda=1$
Gruß,
Syco

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


danielsoft
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 04.12.2004, 13:52

Beitrag von danielsoft » 02.02.2005, 17:04

Hallo,

habe auch eine Frage zu Wildcards in der robots.txt.

Wie kann man Spidern verbieten alle Unterordner der Domain zu spidern, außer einige bestimmte ??

Geht das so ?

User-agent: *
Disallow: /*/*
Allow: /de/*
Allow: /fr/*

Danielsoft

Elmar2
PostRank 8
PostRank 8
Beiträge: 812
Registriert: 05.04.2004, 23:49
Wohnort: in deinem Computer

Beitrag von Elmar2 » 02.02.2005, 18:32

https://www.suchmaschinenwiki.de/robots.txt

Das hatte Jan hier irgendwann mal gepostet. Wenn ich es recht verstehe, dann sind Wildcards nur für directories verwendbar. Korrigiert mich, falls ich mich irre.

Elmar

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag