Seite 1 von 1

Frage zu Robots.txt

Verfasst: 10.08.2008, 19:10
von rolbx
Hallo,

und zwar möchte ich mittels robots.txt diese Links hier sperren:


/forums/post100060.html oder auch
/forums/post100061.html
...
...

Nur wie sperre ich diese Links alle von Google?

Ich habe das einfach mal mit:
Disallow: /forums/post
gemacht.

Währe das so richtig oder muss ich das anders machen?

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 10.08.2008, 19:50
von Nutzer0815
Disallow: /forums/*?post*

Re: Frage zu Robots.txt

Verfasst: 11.08.2008, 09:43
von Mork vom Ork
rolbx hat geschrieben:/forums/post100060.html oder auch
/forums/post100061.html

Ich habe das einfach mal mit:
Disallow: /forums/post
gemacht.

Wäre das so richtig oder muss ich das anders machen?
Mit /forums/post sperrst du alles, was mit /forums/post anfängt. Das reicht also vollkommen, insbesondere Platzhalter braucht es da nicht. Und /forums/*?post* ist eh völlig verkehrt, weder enthalten deine URLs Fragezeichen, noch soll zwischen /forums/ und post irgendein anderer Text erscheinen.

Verfasst:
von

Verfasst: 11.08.2008, 09:58
von turgay
Wenn Du mit Wildcards arbeiten willst, wie von Nutzer0815 vorgeschlagen, solltest Du den Googlebot auch direkt ansprechen, um sicher zu gehen, dass die Anweisungen angenommen werden.

User-Agent: Googlebot
Disallow: und?so*weiterundsofort


Viele Grüße

Verfasst: 12.08.2008, 08:56
von pr_sniper
User-agent: *
Disallow: /forums/p

ist die beste Lösung - sie verschleiert gegenüber Schnüfflern zusätzlich deine Struktur ... :lol:

Voraussetzung natürlich, dass tatsächlich keine Dateien bzw. Verzeichnisse mit "p" beginnend unter "forums" gelistet werden sollen.