Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt mit wildcard für googlebot

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 04.03.2008, 19:54

hallo forum,

möchte mit robots.txt ein paar unwichtige seiten für den bot sperren.

die seiten sind alle in der form:
- seite-1.html
- seite-2.html
- seite-4.html
usw.

ist die syntax dann so:
User-agent: Googlebot
Disallow: /seite-*.html

richtig?

vielen dank!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Liverson
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 03.10.2005, 11:47

Beitrag von Liverson » 05.03.2008, 10:20

Hi,

ich habe mit Wildcard in der robots.txt erfolgreich die URL´s mit Sessionparametern ausgeschlossen.

z.B. /*?sid

das funktioniert prima.

Müsste also auch deine Variante funzen, wobei ich glaube, dass du .html hinten weglassen kannst nach der Wildcard, ausser du hast noch z.B. .php Datein, die genauso heissen.

gruss

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag