Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt Disallow vs. noindex

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Anonymous

Beitrag von Anonymous » 02.03.2011, 09:32

Ich möchte in meinem phpBB Forum paginierte Beiträge von der Indexierung ausschließen. Also die rotmarkeirten: [Gehe zu Seite: 1, 2, 3, 4, 5 ]

Die URLs dieser Seiten enden alle nach folgendem Schema:

-s20.html (Seite 2)
-s30.html (Seite 3)
-s40.html (Seite 4)
-s50.html (Seite 5)
usw.


Könnte ich mit:

Disallow: /-s*.html$

die Indexierung dieser Urls blockieren?
Zuletzt geändert von kitaro am 08.03.2011, 12:14, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 02.03.2011, 18:26

Richtig sollte es meiner Meinung nach so ausschauen:

Disallow: /*-s

Bei sprechenden URIs könntest Du dadurch aber mehr ausschließen als eigentlich vorgesehen, weil die Zeichenfolge zu kurz ist.

Wenn es sich um eine überschaubare Anzahl handelt, sollte es so möglich sein:

Disallow: /*s10.html$
Disallow: /*s20.html$
Disallow: /*s30.html$
Disallow: /*s40.html$
Disallow: /*s50.html$

Jetzt lese ich gerade, das man das Sternchen als Platzhalter verwenden kann.

https://www.google.com/support/webmaste ... wer=156449

Wie in Deinem Beispiel sollte es möglich sein:

Disallow: /-s*.html$

Womit Du aber auch sprechende URIs ausschließen würdest, wenn diese zum Beispiel auf eine Datei wie /ein-super-auto.html verweisen würden und in diesem Fall wäre

Disallow: /*s10.html$

die sichere Variante.

fiacyberz
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 23.02.2007, 18:19
Wohnort: Hamburg

Beitrag von fiacyberz » 03.03.2011, 09:11

Statt die per robots zu sperren solltest du sie mit noindex ausstatten. Robots sperrt nur den Aufruf, nicht aber die Indizierung