Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

not quite duplicate content - doppelter Content Google Index

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
wiersch@work
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 25.03.2008, 14:59

Beitrag von wiersch@work » 25.03.2008, 16:02

Hallo,

wir betreuen eine Seite, bei der mehrere Domains auf ein und den selben Server zeigen und somit auch zu 90% den Inhalt zeigen.
Leider wird bei Duplicate Content im Index von Google immer die weniger wichtige Domain aufgelistet.

Da nicht alle Inhalte identisch sind, kann ich die Domain leider nicht redirecten...

Gibt es eine Möglichkeit, Google beizubringen, dass bei doppeltem Inhalt eine bestimmte Domain bevorzugt werden soll (z.B. mit Google Sitemap)??

Habe zwar zu duplicate content im allgemeinen viel gefunden, aber leider nicht zu diesem speziellen Problem...

Danke und liebe Grüße,
Timo

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

pms
PostRank 3
PostRank 3
Beiträge: 79
Registriert: 11.07.2007, 10:16
Wohnort: Hannover

Beitrag von pms » 25.03.2008, 16:14

wiersch@work hat geschrieben:wir betreuen eine Seite, bei der mehrere Domains auf ein und den selben Server zeigen und somit auch zu 90% den Inhalt zeigen.
Die beste Methode wird wohl sein den Content für die entsprechenden Seiten neu und unique zu verfassen ;)

wiersch@work
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 25.03.2008, 14:59

Beitrag von wiersch@work » 25.03.2008, 17:50

pms hat geschrieben:Die beste Methode wird wohl sein den Content für die entsprechenden Seiten neu und unique zu verfassen ;)
Hallo,

das geht leider nicht...
es handelt sich um zwei verschiedene Töchter der selben Firma, die an verschidenen Standorten operieren.
Deshalb sind bis auf ein paar standortspezifische Informationen, alle Infos gleich und müssen auch gleich sein.
Da es aber eine Wertung der beiden Töchter gibt, sollte bei doppeltem Inhalt halt die wichtigere verlinkt werden.

Danke aber schon mal... :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Optimizer
PostRank 7
PostRank 7
Beiträge: 531
Registriert: 15.08.2003, 11:12
Wohnort: Manila - Philippines

Beitrag von Optimizer » 25.03.2008, 17:54

With multiple domains you can exclude google in the robots.txt or create a line in the .htacces file to block googlebot.

Also in the sub domains the tag noindex, nofollow can help in the headers.

In other words, you have to exclude google from the duplicant site in order not to see the page.

wiersch@work
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 25.03.2008, 14:59

Beitrag von wiersch@work » 25.03.2008, 18:06

Hallo,

danke schon mal,

das Problem daran ist aber, dass dann auch die 5% differierenden Seiten auch nicht indiziert würden, diese Informationen also komplett im Google-Index fehlen würden...

Optimizer
PostRank 7
PostRank 7
Beiträge: 531
Registriert: 15.08.2003, 11:12
Wohnort: Manila - Philippines

Beitrag von Optimizer » 25.03.2008, 18:12

5% is to less....as none of the content should be the same.

If a page has the same text ( with a minium of 10 words in one line the same) i would exclude the one which should not show up in the index.

There is no other way as google will take one of those else and you cant control your websites anymore and you should be in control always.

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 25.03.2008, 18:44

dann eben jede unterseite einzeln sperren.
bis auf die 5% und die domain die hauptdom bleiben soll.

kyper
PostRank 5
PostRank 5
Beiträge: 250
Registriert: 29.10.2007, 15:48

Beitrag von kyper » 30.03.2008, 16:12

die seiten, die nicht erfasst werden sollen eben mit meta tag noindex, nofollow versehen.
logisch ist: falls wer versucht mit mehreren identischen versionen ein und derselben website das inet zu fluten sollte sich über nichts wundrn.

websolutions
PostRank 4
PostRank 4
Beiträge: 103
Registriert: 08.04.2006, 10:08

Beitrag von websolutions » 30.03.2008, 20:52

einfach ein paar (deep)links auf die wichtigere domain setzen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag