Google mit robots.txt sinnvoll Steuern?
Verfasst: 21.05.2008, 15:20
Hallo Freunde!
Ich bräuchte mal einen Rat von EUCH.
Wir haben seit einigen Tagen unser Forum SEO Tauglich gemacht und haben sehr viel Zeit in den lezten Monaten in die Optimierung investiert.
Wir möchten einen NEWS Bereich einrichten um unsere Besucher mit aktuellen NEWS zu versorgen. DOrt werden natürlich viele Dublikate auftauchen. Und das mag ja Google überhaupt nicht.
Wir haben uns für folgende Lösung entschieden, indem wir den Pfad mit dem robots.txt sperren.
Das würde dann z.B. so aussehen für
www.domain.de/world-news/thema1.html
www.domain.de/world-news/thema2.html
www.domain.de/world-news/thema3.html
-------------------------------
User-agent: *
Disallow: /world-news/
-------------------------------
Können wir mit dieser Anweisung alles hinter dem /world-news/ Pfand automatich aussperen?
Oder müssen komplette Pfade bei robots.txt eigetragen werden?
Z.B. SO:
-----------------------------------------
User-agent: *
Disallow: /world-news/thema1.html
Disallow: /world-news/thema2.html
Disallow: /world-news/thema2.html
-----------------------------------------
Vielleicht könnte jemand uns helfen, wer sich damit gut auskennt!
Danke sehr und schöne Grüsse.
Ich bräuchte mal einen Rat von EUCH.
Wir haben seit einigen Tagen unser Forum SEO Tauglich gemacht und haben sehr viel Zeit in den lezten Monaten in die Optimierung investiert.
Wir möchten einen NEWS Bereich einrichten um unsere Besucher mit aktuellen NEWS zu versorgen. DOrt werden natürlich viele Dublikate auftauchen. Und das mag ja Google überhaupt nicht.
Wir haben uns für folgende Lösung entschieden, indem wir den Pfad mit dem robots.txt sperren.
Das würde dann z.B. so aussehen für
www.domain.de/world-news/thema1.html
www.domain.de/world-news/thema2.html
www.domain.de/world-news/thema3.html
-------------------------------
User-agent: *
Disallow: /world-news/
-------------------------------
Können wir mit dieser Anweisung alles hinter dem /world-news/ Pfand automatich aussperen?
Oder müssen komplette Pfade bei robots.txt eigetragen werden?
Z.B. SO:
-----------------------------------------
User-agent: *
Disallow: /world-news/thema1.html
Disallow: /world-news/thema2.html
Disallow: /world-news/thema2.html
-----------------------------------------
Vielleicht könnte jemand uns helfen, wer sich damit gut auskennt!
Danke sehr und schöne Grüsse.