Durch google bot disallow doppelten content "vrmeiden&q
Verfasst: 17.06.2008, 16:50
Hallo,
nehmen wir an, wir haben 5 Domains.
Alle bieten den gleichen Content, sprich die Seiten sind identisch.
Wir wollen auch alle Domains eigenständig belassen, sprich keine Domain soll per DNS EIntrag auf eine andere weiterleiten.
Kann ich durch eine robots.txt, die den googlebot blockiert auf Domain 1-4 sicherstellen, dass google so keinen doppelten Content erkennt und die Domains abstraft?
Optimiert würde dann Domain 5 und hier würde keine robots.txt veröffentlicht.
Vielen Dank
nehmen wir an, wir haben 5 Domains.
Alle bieten den gleichen Content, sprich die Seiten sind identisch.
Wir wollen auch alle Domains eigenständig belassen, sprich keine Domain soll per DNS EIntrag auf eine andere weiterleiten.
Kann ich durch eine robots.txt, die den googlebot blockiert auf Domain 1-4 sicherstellen, dass google so keinen doppelten Content erkennt und die Domains abstraft?
Optimiert würde dann Domain 5 und hier würde keine robots.txt veröffentlicht.
Vielen Dank