Seite 1 von 1

Durch google bot disallow doppelten content "vrmeiden&q

Verfasst: 17.06.2008, 16:50
von nosearchscores
Hallo,
nehmen wir an, wir haben 5 Domains.
Alle bieten den gleichen Content, sprich die Seiten sind identisch.
Wir wollen auch alle Domains eigenständig belassen, sprich keine Domain soll per DNS EIntrag auf eine andere weiterleiten.

Kann ich durch eine robots.txt, die den googlebot blockiert auf Domain 1-4 sicherstellen, dass google so keinen doppelten Content erkennt und die Domains abstraft?

Optimiert würde dann Domain 5 und hier würde keine robots.txt veröffentlicht.

Vielen Dank

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 17.06.2008, 17:47
von dieappenzeller
Wenn Google 5 gleiche Domains findet, dann sucht er sich eine als Original raus und listet die anderen 4 nicht. Wenn du bei 4 domains das Crawlem blockst, kannst du damit halt bestimmen, welche Domain für ihn das Original und damit gelistet sein soll.

Aber mal andersrum, welchen Sinn macht es, 5 identische Domains laufen zu lassen, wenn so oder so nur eine in den Index kommt?

Verfasst: 17.06.2008, 17:57
von nosearchscores
Nun das ist einfach..reine marketinggründe..
auf einer läuft ein partnerprogramm. auf eine gehen die adwords, eine für google usw:-))

was amche ich aber, wenn google nun eine von den 5 gut gelistet hat, ich aber eine andere gerne für google optimieren möchte...weil mir meine erafhrung sagt, der domainname ist nix..

Verfasst:
von

Verfasst: 17.06.2008, 18:03
von Seokratie
nosearchscores hat geschrieben: was amche ich aber, wenn google nun eine von den 5 gut gelistet hat, ich aber eine andere gerne für google optimieren möchte...weil mir meine erafhrung sagt, der domainname ist nix..
Dann leitest du sie auf deine gewünschte Domain weiter. Sorry, aber 5 Domains im Index mit gleichem Content zu haben ist nie sehr gut. Warum nicht einfach 4 auf eine weiterleiten? Ich würde es so machen, ohne wenn und aber.

Verfasst: 18.06.2008, 11:56
von scanner
nimm Seite 1-4 mit einer robots.txt aus dem Index, dann ist das ganze am sichersten

Verfasst: 18.06.2008, 17:21
von nosearchscores
das ist mein problem...

domain 1 ist für adwords...also kann ich keine robots txt erstellen
domain 2 ist schn gut gelistet, da würde ich mir ja ne seite zerstören
domain 3 soll gut gelistet werden, weil die url besser zum angebot passt..bei domain 2 passte das nicht und daher. so meine sicht..hats auch mit dem umsatz nie gestimmt