Seite 1 von 2

Doppelter Content - neuling braucht Hilfe

Verfasst: 03.02.2006, 10:31
von DaniP1976
Hallo,
ich brauche wieder mal eure Hilfe. Ich habe eine Hauptwebseite www.wohnungsboerse.net - die ich für die Suchmaschinen optimiere. Und ich habe mehrere Webseiten z.B. www.pwib.de, die den identischen Content haben. Ich benutze die verschiedenen Seiten für Werbezweckstatistiken, um herauszufinden woher die Interessenten kommen. Ich wollte die ganzen doppleten URLS mit robots.txt aus dem Index bekommen. Mit
User-agent: *
Disallow: /

Aber es sind immer noch etliche Seiten im Index. Zwar keine neuen im Cache aber halt die alten. Ich habe nun schon versucht die eine per googlekonsole mit angabe der Robots.txt manuell zu löschen, allerdings noch ohne Erfolg.

Reicht es denn schon aus, wenn z.B. nur die Indexseite der Domain www.pwib.de im Index ist, da es doppelten Content gibt?

Und wie könnte ich das Problem langfristig lösen? Ich denke, ich werde auf die Statistiken wohl verzichten müssen und die Seite umleiten auf die wohnungsboerse.net. Bringt das etwas?

LG Dani

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Doppelter Content - neuling braucht Hilfe

Verfasst: 03.02.2006, 10:38
von chris21
Ja, alle Seiten mit Duplicate Content per 301 redirect umleiten auf Deine Hauptdomain www.wohnungsboerse.net.

Da wirst Du nicht drum rum kommen.

Verfasst: 03.02.2006, 10:56
von DaniP1976
Hallo,
mmmh. OK. Wo macht man das, in der .htaccess ? Gibts da einen bestimmten Befehl für? Oder kann ich alternativ auch direkt beim Provider umleiten lassen?
LG Dani

Verfasst:
von

Doppelter Content - neuling braucht Hilfe

Verfasst: 03.02.2006, 11:15
von chris21
Falls alle Seiten genau gleich aufgebuat sind, also die gleiche Verzeichnis- und Dateistruktur haben, könnte man einfach folgendes in die .htaccess der www.pwib.de und anderen Seiten eintragen:

redirect permanent / https://www.wohnungsboerse.net

Damit würde z.B. ein Aufruf auf www.pwib.de/Frankfurt auf www.wohnungsboerse.net/Frankfurt weitergeleitet.

Verfasst: 03.02.2006, 11:28
von DaniP1976
Danke! Funktioniert perfekt. Weisst du nun noch ne Möglichkeit wie ich die bestehenden Seiten bei google rauskriege? Oder ist das nicht so schlimm wenn alte Seiten im Index sind?

LG Dani

Doppelter Content - neuling braucht Hilfe

Verfasst: 03.02.2006, 11:35
von Red Bull

Doppelter Content - neuling braucht Hilfe

Verfasst: 03.02.2006, 11:36
von chris21
Solange Google die bestehenden Seiten wie www.pwib.de noch spidert, wird es die Weiterleitung erkennen und die Seiten nach und nach aus dem Index entfernen. Falls sie nicht mehr gespidert werden, muss man eventuell nochmal von woanders einen Link auf diese alten Seiten setzen, damit Google da vorbeikommt und die Umleitung registriert. Letztlich sieht es so aus, dass Google manchmal noch alte Seiten wieder hochspült, wenn es an deren Datencentern gerade mal wieder hakt, dass ist aber nicht bedenklich, sondern vielmehr ein Problem, das Google mit seinen Datenbeständen hat.

Kann man auch nur diverse Seiten umleiten

Verfasst: 03.02.2006, 11:52
von scratchwood
nicht mehr aktuell

Verfasst: 03.02.2006, 12:14
von DaniP1976
Ich werde es nochmal über die Google Konsole probieren, ich denke nun kann ich ja die Dateien auf dem Server löschen und dann auf der Konsole via einzelne Seiten oder Domain löschen. Ich denke nicht daß die Domains noch gross gespidert werden, wegen der robots.txt.

Achos: muss ich diese Robots.txt denn nun löschen? denn sonst würde google ja theoretisch die Umleitung gar nicht lesen dürfen ???

Links bestehen noch zu allen Seiten.

LG Dani

Doppelter Content - neuling braucht Hilfe

Verfasst: 03.02.2006, 12:43
von chris21
Hallo Dani,

mir ist gerade aufgefallen, dass die oben von mir angebrachte Zeile so lauten sollte:

redirect permanent / https://www.wohnungsboerse.net/

Derzeit funktioniert diese Umleitung nämlich noch nicht für die Unterseiten.

Zu Deiner Frage: die Aussperrung über robots.txt hatte ich übersehen.

Wenn Du obige Änderung durchführst, wirst Du allerdings beim Aufruf der www.pwib.de/robots.txt sehen, dass diese Anfrage ebenfalls auf www.wohnungsboerse.net/robots.txt umgeleitet werden wird.

Die mit .htaccess definierte Umleitung greift den http-header an und führt zu einer 301-Umleitung für alles, was auf ww.pwib.de liegt. Auch auf die robots.txt. Daher würde z.B. eine erneute Spiderung trotz der vorherigen Sperrung zum Erkennen der Weiterleitung führen.

Verfasst: 03.02.2006, 13:58
von DaniP1976
Danke!! Habe es gleich geändert. Bin mal gespannt nun, ob die Seiten rausfliegen.

LG Dani

Verfasst: 03.02.2006, 15:38
von scratchwood
Schade dass niemand auf meine Frage eingeht :roll:

Verfasst: 03.02.2006, 15:48
von Moddy
Scratchwood die Suchfunktion ist immer bereit mit dir zusammen auf dein Problem einzugehen.

Verfasst: 03.02.2006, 16:58
von scratchwood
Wie funktioniert die Suche? !

Habe schon mehrere Artikel durchforstet, aber eine Antwort habe ich (noch) nicht gefunden. Werde weitersuchen. Möchte ja wenn ich groß bin auch so schlau sein wie du...
Moddy hat geschrieben:Scratchwood die Suchfunktion ist immer bereit mit dir zusammen auf dein Problem einzugehen.

Doppelter Content - neuling braucht Hilfe

Verfasst: 03.02.2006, 16:59
von chris21
Entschuldige, Scratchwood,

es ist immer etwas schwer, in einem Thread zwei Anfragen zu bearbeiten.

Du kannst das Problem folgendermaßen lösen:

Über die Einstellungen bei 1und1 für alle Domainnamen das gleiche Verzeichnis auf Deinem Webspace wählen.

In diesem Verzeichnis eine .htaccess ablegen mit folgendem Inhalt:

Code: Alles auswählen

RewriteEngine on

RewriteCond %{HTTP_HOST} !^www\.auslandskaerntner\.at$
RewriteRule ^(.*)$ http://www.auslandskaerntner.at/$1 [L,R=301]

Damit müsste Dir eigentlich geholfen sein.

Wenn noch Probleme auftauchen: Fragen!

Ansonsten ist folgender Thread die Empfehlung zur Einführung:

https://www.abakus-internet-marketing.d ... -7439.html