Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Doppelter Content - neuling braucht Hilfe

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
DaniP1976
PostRank 5
PostRank 5
Beiträge: 318
Registriert: 08.06.2005, 15:46

Beitrag von DaniP1976 » 03.02.2006, 10:31

Hallo,
ich brauche wieder mal eure Hilfe. Ich habe eine Hauptwebseite www.wohnungsboerse.net - die ich für die Suchmaschinen optimiere. Und ich habe mehrere Webseiten z.B. www.pwib.de, die den identischen Content haben. Ich benutze die verschiedenen Seiten für Werbezweckstatistiken, um herauszufinden woher die Interessenten kommen. Ich wollte die ganzen doppleten URLS mit robots.txt aus dem Index bekommen. Mit
User-agent: *
Disallow: /

Aber es sind immer noch etliche Seiten im Index. Zwar keine neuen im Cache aber halt die alten. Ich habe nun schon versucht die eine per googlekonsole mit angabe der Robots.txt manuell zu löschen, allerdings noch ohne Erfolg.

Reicht es denn schon aus, wenn z.B. nur die Indexseite der Domain www.pwib.de im Index ist, da es doppelten Content gibt?

Und wie könnte ich das Problem langfristig lösen? Ich denke, ich werde auf die Statistiken wohl verzichten müssen und die Seite umleiten auf die wohnungsboerse.net. Bringt das etwas?

LG Dani

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 03.02.2006, 10:38

Ja, alle Seiten mit Duplicate Content per 301 redirect umleiten auf Deine Hauptdomain www.wohnungsboerse.net.

Da wirst Du nicht drum rum kommen.

DaniP1976
PostRank 5
PostRank 5
Beiträge: 318
Registriert: 08.06.2005, 15:46

Beitrag von DaniP1976 » 03.02.2006, 10:56

Hallo,
mmmh. OK. Wo macht man das, in der .htaccess ? Gibts da einen bestimmten Befehl für? Oder kann ich alternativ auch direkt beim Provider umleiten lassen?
LG Dani

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 03.02.2006, 11:15

Falls alle Seiten genau gleich aufgebuat sind, also die gleiche Verzeichnis- und Dateistruktur haben, könnte man einfach folgendes in die .htaccess der www.pwib.de und anderen Seiten eintragen:

redirect permanent / https://www.wohnungsboerse.net

Damit würde z.B. ein Aufruf auf www.pwib.de/Frankfurt auf www.wohnungsboerse.net/Frankfurt weitergeleitet.

DaniP1976
PostRank 5
PostRank 5
Beiträge: 318
Registriert: 08.06.2005, 15:46

Beitrag von DaniP1976 » 03.02.2006, 11:28

Danke! Funktioniert perfekt. Weisst du nun noch ne Möglichkeit wie ich die bestehenden Seiten bei google rauskriege? Oder ist das nicht so schlimm wenn alte Seiten im Index sind?

LG Dani

Red Bull
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 03.11.2005, 09:45
Wohnort: Mannheim

Beitrag von Red Bull » 03.02.2006, 11:35


chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 03.02.2006, 11:36

Solange Google die bestehenden Seiten wie www.pwib.de noch spidert, wird es die Weiterleitung erkennen und die Seiten nach und nach aus dem Index entfernen. Falls sie nicht mehr gespidert werden, muss man eventuell nochmal von woanders einen Link auf diese alten Seiten setzen, damit Google da vorbeikommt und die Umleitung registriert. Letztlich sieht es so aus, dass Google manchmal noch alte Seiten wieder hochspült, wenn es an deren Datencentern gerade mal wieder hakt, dass ist aber nicht bedenklich, sondern vielmehr ein Problem, das Google mit seinen Datenbeständen hat.

scratchwood
PostRank 5
PostRank 5
Beiträge: 279
Registriert: 21.09.2005, 19:42

Beitrag von scratchwood » 03.02.2006, 11:52

nicht mehr aktuell
Zuletzt geändert von scratchwood am 23.09.2011, 10:18, insgesamt 1-mal geändert.

DaniP1976
PostRank 5
PostRank 5
Beiträge: 318
Registriert: 08.06.2005, 15:46

Beitrag von DaniP1976 » 03.02.2006, 12:14

Ich werde es nochmal über die Google Konsole probieren, ich denke nun kann ich ja die Dateien auf dem Server löschen und dann auf der Konsole via einzelne Seiten oder Domain löschen. Ich denke nicht daß die Domains noch gross gespidert werden, wegen der robots.txt.

Achos: muss ich diese Robots.txt denn nun löschen? denn sonst würde google ja theoretisch die Umleitung gar nicht lesen dürfen ???

Links bestehen noch zu allen Seiten.

LG Dani

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 03.02.2006, 12:43

Hallo Dani,

mir ist gerade aufgefallen, dass die oben von mir angebrachte Zeile so lauten sollte:

redirect permanent / https://www.wohnungsboerse.net/

Derzeit funktioniert diese Umleitung nämlich noch nicht für die Unterseiten.

Zu Deiner Frage: die Aussperrung über robots.txt hatte ich übersehen.

Wenn Du obige Änderung durchführst, wirst Du allerdings beim Aufruf der www.pwib.de/robots.txt sehen, dass diese Anfrage ebenfalls auf www.wohnungsboerse.net/robots.txt umgeleitet werden wird.

Die mit .htaccess definierte Umleitung greift den http-header an und führt zu einer 301-Umleitung für alles, was auf ww.pwib.de liegt. Auch auf die robots.txt. Daher würde z.B. eine erneute Spiderung trotz der vorherigen Sperrung zum Erkennen der Weiterleitung führen.

DaniP1976
PostRank 5
PostRank 5
Beiträge: 318
Registriert: 08.06.2005, 15:46

Beitrag von DaniP1976 » 03.02.2006, 13:58

Danke!! Habe es gleich geändert. Bin mal gespannt nun, ob die Seiten rausfliegen.

LG Dani

scratchwood
PostRank 5
PostRank 5
Beiträge: 279
Registriert: 21.09.2005, 19:42

Beitrag von scratchwood » 03.02.2006, 15:38

Schade dass niemand auf meine Frage eingeht :roll:

Moddy
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 08.09.2004, 11:16

Beitrag von Moddy » 03.02.2006, 15:48

Scratchwood die Suchfunktion ist immer bereit mit dir zusammen auf dein Problem einzugehen.

scratchwood
PostRank 5
PostRank 5
Beiträge: 279
Registriert: 21.09.2005, 19:42

Beitrag von scratchwood » 03.02.2006, 16:58

Wie funktioniert die Suche? !

Habe schon mehrere Artikel durchforstet, aber eine Antwort habe ich (noch) nicht gefunden. Werde weitersuchen. Möchte ja wenn ich groß bin auch so schlau sein wie du...
Moddy hat geschrieben:Scratchwood die Suchfunktion ist immer bereit mit dir zusammen auf dein Problem einzugehen.

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 03.02.2006, 16:59

Entschuldige, Scratchwood,

es ist immer etwas schwer, in einem Thread zwei Anfragen zu bearbeiten.

Du kannst das Problem folgendermaßen lösen:

Über die Einstellungen bei 1und1 für alle Domainnamen das gleiche Verzeichnis auf Deinem Webspace wählen.

In diesem Verzeichnis eine .htaccess ablegen mit folgendem Inhalt:

Code: Alles auswählen

RewriteEngine on

RewriteCond %{HTTP_HOST} !^www\.auslandskaerntner\.at$
RewriteRule ^(.*)$ http://www.auslandskaerntner.at/$1 [L,R=301]

Damit müsste Dir eigentlich geholfen sein.

Wenn noch Probleme auftauchen: Fragen!

Ansonsten ist folgender Thread die Empfehlung zur Einführung:

https://www.abakus-internet-marketing.d ... -7439.html

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag