Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seiten mit bestimmter Linkstruktur nicht spidern lassen

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
oliboli
PostRank 1
PostRank 1
Beiträge: 12
Registriert: 21.09.2008, 07:20

Beitrag von oliboli » 24.12.2012, 06:02

Ich habe seit meinem Update von PhpBB2 auf PhpBB3 das Problem, dass sich meine Links leicht verändert haben. Da es das gleiche SEO-Mod nicht mehr gab. Gleichzeitig konnte das Forum aber so einrichten, dass die alten Link noch aufrufbar sind, intern sind sie aber nicht mehr verlinkt.

Der Vorteil dieser Art: Ich habe Links von anderen Seiten, die so immer noch funktionieren.

Der Nachteil: Ich habe nun bei Google Double Content - und das ist nicht so gut.

Ich habe mit gedacht, dass ich nun in der robots.txt die alten URLS sperren könnte. Das ist nicht so ganz ideal, aber immer noch das kleine Übel.

Daher meine Frage:

Ich möchte das sämtliche Seiten im Muster www.seite.de/ftopic1.html www.seite.de/ftopic2.html nicht mehr indexiert werden. Die richtigen URLS also www.seite.de/topic1 usw sollten aber nicht betroffen sein.

Weiss da jemand, wie ich das definieren kann?

Das gleiche gilt auch für ntopic und ptopic, bei denen ich auch nicht so recht verstehe, wo die herkommen...