Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Frage zu Robots.txt

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
rolbx
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 10.08.2008, 19:03

Beitrag von rolbx » 10.08.2008, 19:10

Hallo,

und zwar möchte ich mittels robots.txt diese Links hier sperren:


/forums/post100060.html oder auch
/forums/post100061.html
...
...

Nur wie sperre ich diese Links alle von Google?

Ich habe das einfach mal mit:
Disallow: /forums/post
gemacht.

Währe das so richtig oder muss ich das anders machen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Nutzer0815
PostRank 9
PostRank 9
Beiträge: 1545
Registriert: 26.03.2008, 15:13
Wohnort: Mountain View (Kalifornien)

Beitrag von Nutzer0815 » 10.08.2008, 19:50

Disallow: /forums/*?post*

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 11.08.2008, 09:43

rolbx hat geschrieben:/forums/post100060.html oder auch
/forums/post100061.html

Ich habe das einfach mal mit:
Disallow: /forums/post
gemacht.

Wäre das so richtig oder muss ich das anders machen?
Mit /forums/post sperrst du alles, was mit /forums/post anfängt. Das reicht also vollkommen, insbesondere Platzhalter braucht es da nicht. Und /forums/*?post* ist eh völlig verkehrt, weder enthalten deine URLs Fragezeichen, noch soll zwischen /forums/ und post irgendein anderer Text erscheinen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


turgay
PostRank 4
PostRank 4
Beiträge: 196
Registriert: 02.04.2005, 01:17

Beitrag von turgay » 11.08.2008, 09:58

Wenn Du mit Wildcards arbeiten willst, wie von Nutzer0815 vorgeschlagen, solltest Du den Googlebot auch direkt ansprechen, um sicher zu gehen, dass die Anweisungen angenommen werden.

User-Agent: Googlebot
Disallow: und?so*weiterundsofort


Viele Grüße

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 12.08.2008, 08:56

User-agent: *
Disallow: /forums/p

ist die beste Lösung - sie verschleiert gegenüber Schnüfflern zusätzlich deine Struktur ... :lol:

Voraussetzung natürlich, dass tatsächlich keine Dateien bzw. Verzeichnisse mit "p" beginnend unter "forums" gelistet werden sollen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag