Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wordpress: duplicate content trotz robots.txt u. 301

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
testerchen2
PostRank 3
PostRank 3
Beiträge: 73
Registriert: 01.03.2008, 22:53

Beitrag von testerchen2 » 10.08.2011, 13:22

Hallo zusammen,

habe folgendes "Problem":

habe eine Seite unter Wordpress am laufen, arbeite dort mit sprechenden URLs also:
domain.de/meine-unterseite/
diese ist auch unter
domain.de/?page_id=3
erreichbar.

In der robots.txt habe ich ?page_id= von der indizierung ausgeschlossen. Wenn ich den Header der Seite /?page_id=3 teste wird mir ein 301 ausgegeben mit der Weiterleitung auf domain.de/meine-unterseite/.

Sieht erst mal alles okay aus.

In den Webmastertools werden mir bei "URLs durch robots.txt eingeschränkt" auch alle URLs mit /?page_id= angezeigt.

Wenn ich aber eine site: Abfrage vornehme tauchen auf einmal alle URLs dort auf: die sprechenden URLs + die /?page_id= Urls - also bekomme ich die doppelte Anzahl an Seiten angezeigt wenn ich die site: Abfrage durchführe.
Im Google Index befinden sich also alle Seiten doppelt obwohl sie lt. webmastertools eingeschränkt und per 301 weitergeleitet werden.

Frage: verteilt sich jetzt meine Power auf die /page_id= Seiten oder ist das ein Darstellungsfehler der site-Abfrage oder hat Google hier tatsächlich DC erkannt ?

Sollte ich die page_id in den URL-Parametern der webmastertools ausschließen oder schließe ich hiermit automatisch auch die sprechenden URLs mit aus ?

Wie ist das Problem sonst zu lösen ? Hat jemand dasselbe Problem ? Oder ist es gar kein Problem nur ein Darstellungsfehler und die Power meiner Seite wird auf die page_id-Seiten gar nicht weitergegeben ?

Danke für eure Hilfe.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

rico
PostRank 9
PostRank 9
Beiträge: 1256
Registriert: 09.08.2011, 11:04

Beitrag von rico » 10.08.2011, 13:35

probier platinum seo - wp plugin - setzt automatisch den canonical tag

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 10.08.2011, 13:36

Das Problem könnte dadurch auftreten, dass die Urls mal verlinkt waren und deshalb im Index auftauchen. Da du nun aber durch die robots.txt den Zugriff einschränkst, ist es nicht möglich den redirect zu erkennen. Ergo: die Seiten bleiben im Index.

Achtung, wenn eine Seite durch die robots.txt gesperrt ist, kann sie trotzdem im Index auftauchen, wenn auf die verlinkt wird. Google crawlt dann zwar den Inhalt nicht, kann aber auf grund der Ankertexte etc. eine Zuordnung der URL vornehmen.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter