Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google mit robots.txt sinnvoll Steuern?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
komplecity
PostRank 2
PostRank 2
Beiträge: 42
Registriert: 21.03.2008, 23:18

Beitrag von komplecity » 21.05.2008, 15:20

Hallo Freunde!

Ich bräuchte mal einen Rat von EUCH.

Wir haben seit einigen Tagen unser Forum SEO Tauglich gemacht und haben sehr viel Zeit in den lezten Monaten in die Optimierung investiert.


Wir möchten einen NEWS Bereich einrichten um unsere Besucher mit aktuellen NEWS zu versorgen. DOrt werden natürlich viele Dublikate auftauchen. Und das mag ja Google überhaupt nicht.

Wir haben uns für folgende Lösung entschieden, indem wir den Pfad mit dem robots.txt sperren.

Das würde dann z.B. so aussehen für
www.domain.de/world-news/thema1.html
www.domain.de/world-news/thema2.html
www.domain.de/world-news/thema3.html

-------------------------------

User-agent: *
Disallow: /world-news/
-------------------------------

Können wir mit dieser Anweisung alles hinter dem /world-news/ Pfand automatich aussperen?

Oder müssen komplette Pfade bei robots.txt eigetragen werden?
Z.B. SO:

-----------------------------------------
User-agent: *
Disallow: /world-news/thema1.html
Disallow: /world-news/thema2.html
Disallow: /world-news/thema2.html
-----------------------------------------


Vielleicht könnte jemand uns helfen, wer sich damit gut auskennt!

Danke sehr und schöne Grüsse.