Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wordpress: duplicate content trotz robots.txt u. 301

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
testerchen2
PostRank 3
PostRank 3
Beiträge: 73
Registriert: 01.03.2008, 22:53

Beitrag von testerchen2 » 10.08.2011, 13:22

Hallo zusammen,

habe folgendes "Problem":

habe eine Seite unter Wordpress am laufen, arbeite dort mit sprechenden URLs also:
domain.de/meine-unterseite/
diese ist auch unter
domain.de/?page_id=3
erreichbar.

In der robots.txt habe ich ?page_id= von der indizierung ausgeschlossen. Wenn ich den Header der Seite /?page_id=3 teste wird mir ein 301 ausgegeben mit der Weiterleitung auf domain.de/meine-unterseite/.

Sieht erst mal alles okay aus.

In den Webmastertools werden mir bei "URLs durch robots.txt eingeschränkt" auch alle URLs mit /?page_id= angezeigt.

Wenn ich aber eine site: Abfrage vornehme tauchen auf einmal alle URLs dort auf: die sprechenden URLs + die /?page_id= Urls - also bekomme ich die doppelte Anzahl an Seiten angezeigt wenn ich die site: Abfrage durchführe.
Im Google Index befinden sich also alle Seiten doppelt obwohl sie lt. webmastertools eingeschränkt und per 301 weitergeleitet werden.

Frage: verteilt sich jetzt meine Power auf die /page_id= Seiten oder ist das ein Darstellungsfehler der site-Abfrage oder hat Google hier tatsächlich DC erkannt ?

Sollte ich die page_id in den URL-Parametern der webmastertools ausschließen oder schließe ich hiermit automatisch auch die sprechenden URLs mit aus ?

Wie ist das Problem sonst zu lösen ? Hat jemand dasselbe Problem ? Oder ist es gar kein Problem nur ein Darstellungsfehler und die Power meiner Seite wird auf die page_id-Seiten gar nicht weitergegeben ?

Danke für eure Hilfe.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

rico
PostRank 9
PostRank 9
Beiträge: 1256
Registriert: 09.08.2011, 11:04

Beitrag von rico » 10.08.2011, 13:35

probier platinum seo - wp plugin - setzt automatisch den canonical tag

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 10.08.2011, 13:36

Das Problem könnte dadurch auftreten, dass die Urls mal verlinkt waren und deshalb im Index auftauchen. Da du nun aber durch die robots.txt den Zugriff einschränkst, ist es nicht möglich den redirect zu erkennen. Ergo: die Seiten bleiben im Index.

Achtung, wenn eine Seite durch die robots.txt gesperrt ist, kann sie trotzdem im Index auftauchen, wenn auf die verlinkt wird. Google crawlt dann zwar den Inhalt nicht, kann aber auf grund der Ankertexte etc. eine Zuordnung der URL vornehmen.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

testerchen2
PostRank 3
PostRank 3
Beiträge: 73
Registriert: 01.03.2008, 22:53

Beitrag von testerchen2 » 10.08.2011, 14:00

Danke für eure Antworten.

Also verlinkt habe ich die page_id nie - Links (auch interne) wurden immer auf die sprechende URL gesetzt.
Sollte ich also besser die URL nicht durch die robots.txt sperren und google durch die 301-Weiterleitung merken lassen dass die URL jetzt als sprechende URL existiert ?
canonical wurde gesetzt.

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 10.08.2011, 15:05

Ja. Sehe keinen Grund für den robots.txt Eintrag.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

testerchen2
PostRank 3
PostRank 3
Beiträge: 73
Registriert: 01.03.2008, 22:53

Beitrag von testerchen2 » 10.08.2011, 22:51

Ich wollte eigentlich nur die Ergebnisse der Suche aus dem Index raus haben. Oder macht das doch nichts aus ? Habe gedacht dass die Ergebnisse die mit /?=Suchbegriff indexiert werden zu DC führen. Ist das nicht der Fall ? Deshalb hatte ich Disallow: /*?* drin in der robots.txt
Wie sieht denn eure robots.txt bezüglich WP aus ?
Habe jetzt den Disallow: /*?* gelöscht und jetzt kann auch Google wieder drauf zugreifen und sieht den 301 Redirect.
Mal sehen ob die Anzahl der indexierten Seiten jetzt abnimmt.

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 11.08.2011, 14:06

Wenn Suchergebenisse haben aber immer noch einen Parameter. Standardmäßig ist das bei WP glaub ich "?s={suchwort}".

Aber auch hier würde ich eher zu noindex tendieren als zum ausschluss per robot.txt
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag