Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt bei mehrere Domains einsetzen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
--Andy--
PostRank 7
PostRank 7
Beiträge: 637
Registriert: 09.11.2007, 21:43

Beitrag von --Andy-- » 07.02.2008, 12:51

Ich habe 2 verschiedene Domains mit identischem Inhalt in den SERPs.
Jetzt möchte ich per htaccess mich für eine Hauptdomain entscheiden.

Wie aber bekomme ich die alte Domain aus den SERPs?

Die Domains verweisen alle auf die selbe Seite, sprich nutzen die selbe robots.txt. Kann ich in der robots.txt auch eine komplette Domain ausschließen ...

Code: Alles auswählen

Disallow: http://www.domain.com

... und dann über die WMT die URL manuell entfernen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

dadawowo
PostRank 8
PostRank 8
Beiträge: 784
Registriert: 17.12.2007, 10:55

Beitrag von dadawowo » 07.02.2008, 12:54

Wenn Du den Zugriff auf die eine Domain nicht mehr zuläst schiesst Du gleichzeitig
Deine Weiterleitung ab.

Leite einfach per 301 um und warte eine Weile.G00gle entfernt die umgeleitete
Domain selbst nach und nach.

--Andy--
PostRank 7
PostRank 7
Beiträge: 637
Registriert: 09.11.2007, 21:43

Beitrag von --Andy-- » 07.02.2008, 15:04

dadawowo hat geschrieben:Wenn Du den Zugriff auf die eine Domain nicht mehr zuläst schiesst Du gleichzeitig
Deine Weiterleitung ab.

Leite einfach per 301 um und warte eine Weile.G00gle entfernt die umgeleitete
Domain selbst nach und nach.
Ja, in der htaccess wird direkt weitergeleitet, sodass schon mal keine toten Links entstehen. Klappt das überhaupt, dass die Seiten aus dem Index fliegen, wenn die 301 auf eine andere Seite geht?

Ich habe fast das Gefühl, dass es einfacher ist, per robots.txt alles aus dem Index zu prügeln und dann neu anmelden.