Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wordpress: duplicate content trotz robots.txt u. 301

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
testerchen2
PostRank 3
PostRank 3
Beiträge: 73
Registriert: 01.03.2008, 22:53

Beitrag von testerchen2 » 10.08.2011, 13:22

Hallo zusammen,

habe folgendes "Problem":

habe eine Seite unter Wordpress am laufen, arbeite dort mit sprechenden URLs also:
domain.de/meine-unterseite/
diese ist auch unter
domain.de/?page_id=3
erreichbar.

In der robots.txt habe ich ?page_id= von der indizierung ausgeschlossen. Wenn ich den Header der Seite /?page_id=3 teste wird mir ein 301 ausgegeben mit der Weiterleitung auf domain.de/meine-unterseite/.

Sieht erst mal alles okay aus.

In den Webmastertools werden mir bei "URLs durch robots.txt eingeschränkt" auch alle URLs mit /?page_id= angezeigt.

Wenn ich aber eine site: Abfrage vornehme tauchen auf einmal alle URLs dort auf: die sprechenden URLs + die /?page_id= Urls - also bekomme ich die doppelte Anzahl an Seiten angezeigt wenn ich die site: Abfrage durchführe.
Im Google Index befinden sich also alle Seiten doppelt obwohl sie lt. webmastertools eingeschränkt und per 301 weitergeleitet werden.

Frage: verteilt sich jetzt meine Power auf die /page_id= Seiten oder ist das ein Darstellungsfehler der site-Abfrage oder hat Google hier tatsächlich DC erkannt ?

Sollte ich die page_id in den URL-Parametern der webmastertools ausschließen oder schließe ich hiermit automatisch auch die sprechenden URLs mit aus ?

Wie ist das Problem sonst zu lösen ? Hat jemand dasselbe Problem ? Oder ist es gar kein Problem nur ein Darstellungsfehler und die Power meiner Seite wird auf die page_id-Seiten gar nicht weitergegeben ?

Danke für eure Hilfe.