Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Double Content-Problem

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
trelgne
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 06.12.2006, 21:49

Beitrag von trelgne » 14.12.2006, 16:27

Ich habe seit mehreren Jahren eine Homepage, welche auch bei Google gefunden wird. Jetzt habe ich neue Domains erworben, welche aber auf dieselbe Seite verweisen. Zur Vermeidung des Double Content-Problems möchte ich diese aber nicht bei Google anmelden, kann aber nicht ausschließen, daß Google über irgendwelche Verlinkungen von fremden Seiten irgendwann selbst auf diese zusätzlichen Adressen stösst und dann feststellt, daß mehrere Adressen auf dieselbe Seite verweisen. Google wird dann ja nur eine davon im Index behalten. Geht das nach dem Zufallsprinzip oder bleibt die etablierte Adresse (welche im Gegensatz zu den neuen ja auch schon besseren PR hat) im Index? Gibt es womöglich zusätzliche "Abstrafungen"?

Die hier schon öfter vorgeschlagene Problemlösung mittels Definition der Hauptdomain (https://www.abakus-internet-marketing.d ... te+content) ist leider bei meinem Webhosting-Anbieter Strato laut Auskunft des techn. Supports nicht möglich.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

symantec
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 26.11.2003, 23:13

Beitrag von symantec » 14.12.2006, 16:33

Ja wie und die alte Domain gibst Du auf?
Ansonsten Robots.txt und Google ausschließen aber auch alle anderen Suchmaschinen denn Google grast alle ab.

advisor
PostRank 9
PostRank 9
Beiträge: 1120
Registriert: 09.08.2006, 16:31
Wohnort: Schweiz

Beitrag von advisor » 14.12.2006, 16:36

symantec hat recht.

# Ganze Site für alle Robots sperren
User-agent: *
Disallow: /

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

firewire
PostRank 7
PostRank 7
Beiträge: 545
Registriert: 04.09.2006, 15:36
Wohnort: Darmstadt

Beitrag von firewire » 14.12.2006, 16:38

also wir hatten jahre lang ca. 20 domains, welche alle auf eine Seite weitergeleitet haben....... wir waren bei google immer mit dem hauptkeywort ganz vorne....... Double Content ist nur ein Märchen :robot:
Auflösung Domainportfolio: barebones-shop.de; flexible-lcd.de; origami-experience.de; couponcommunity.de; chill-out-time.de; chill-out-time.com; healthboard.de; gesundheitspark-deutschland.de; gesundheitsparks-deutschland.de; gesundheitspark.de;
------------------------------------------------
1. deutsches Artikelverzeichnis mit AdSense Sharing
------------------------------------------------

thomie31
PostRank 6
PostRank 6
Beiträge: 487
Registriert: 15.03.2004, 20:17
Wohnort: Berlin

Beitrag von thomie31 » 14.12.2006, 16:47

firewire hat geschrieben:also wir hatten jahre lang ca. 20 domains, welche alle auf eine Seite weitergeleitet haben....... wir waren bei google immer mit dem hauptkeywort ganz vorne....... Double Content ist nur ein Märchen :robot:
Leider ein sehr reales Märchen, das hier schon Hunderte am eigenen Leibe verspüren mussten. Ich konnte das sogar in einem Experiment beweisen. Kannst ja mal fragen, warum quasi jeder Profi ne Standarddomain definiert.

Optimierte Weiterleitungsseiten nennt man übrigens auch Doorways. Ist nicht gern gesehen von Google. Kann das Aus bedeuten, kann aber auch gut gehen. Ein Ritt auf der Rasierklinge.

firewire
PostRank 7
PostRank 7
Beiträge: 545
Registriert: 04.09.2006, 15:36
Wohnort: Darmstadt

Beitrag von firewire » 14.12.2006, 16:53

waren ja keine Doorways
man konnte eine der 20 domains eingeben und kam normal auf die seite
ohne das eine standarddomain definiert war
entweder man war unter www.shop1.de online oder www.shop2.de oder www.shop20.de ....immer war es der gleiche shop unter anderer domain
Auflösung Domainportfolio: barebones-shop.de; flexible-lcd.de; origami-experience.de; couponcommunity.de; chill-out-time.de; chill-out-time.com; healthboard.de; gesundheitspark-deutschland.de; gesundheitsparks-deutschland.de; gesundheitspark.de;
------------------------------------------------
1. deutsches Artikelverzeichnis mit AdSense Sharing
------------------------------------------------

trelgne
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 06.12.2006, 21:49

Beitrag von trelgne » 14.12.2006, 16:57

advisor hat geschrieben:Ganze Site für alle Robots sperren
User-agent: *
Disallow: /
Ja, aber dann wird die Seite doch auch mit der etablierten Domain nicht mehr von den Spidern erfasst, oder verstehe ich da was falsch?

firewire
PostRank 7
PostRank 7
Beiträge: 545
Registriert: 04.09.2006, 15:36
Wohnort: Darmstadt

Beitrag von firewire » 14.12.2006, 17:06

ich glaube der code bedeutet das du allen spidern NIX verbietest...... oder ???
Auflösung Domainportfolio: barebones-shop.de; flexible-lcd.de; origami-experience.de; couponcommunity.de; chill-out-time.de; chill-out-time.com; healthboard.de; gesundheitspark-deutschland.de; gesundheitsparks-deutschland.de; gesundheitspark.de;
------------------------------------------------
1. deutsches Artikelverzeichnis mit AdSense Sharing
------------------------------------------------

advisor
PostRank 9
PostRank 9
Beiträge: 1120
Registriert: 09.08.2006, 16:31
Wohnort: Schweiz

Beitrag von advisor » 14.12.2006, 18:06

Robots.txt st hier schön beschrieben:
https://www.bjoernsworld.de/suchmaschin ... s-txt.html

Wenn Du die genannte Robots.txt bei Deiner neuen Seite integrierst,
wird nur diese nicht gespidert.

Oha. Weitergeleitet aber schon!
Löst Dein Problem also auch nicht vollständig!?

Du kannst wählen zwischen den Ansichten:

1. DC ist nicht gut und kann der Domain schaden (bin auch der Meinung).
2. DC in dem Sinne wie Du es möchtest ist kein Problem.

Eine schlüssige Antwort darauf wirst Du nicht finden.
Viele sind für 1, viele für 2.
Punkt 2 wird auch von vielen, auch grösseren Anbietern (noch)
Erfolgreich betrieben.

Bei solchen Dingen denke ich immer, wie ich das Einschätzen würde wenn ich
Go*gle wäre. Ich würde DC durch Weiterleitung von einer Domain
zur anderen abstrafen.

1000 Domains mit Weiterleitung.
Ein und der selbe Content?

Sicher nicht Userfreundlich. :wink:

hborkott
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 15.11.2006, 23:40
Wohnort: Bochum

Beitrag von hborkott » 14.12.2006, 18:46

Wenn Deine bisherige Domain schon einen PR besitzt, laß die Domain so wie sie ist.
Was die neuen Domains anbelangt, wüde ich die auf einen separaten Server legen und per redirect auf die alte Domain umleiten.

Allerdings stellt sich noch die Frage, was genau Du mit den neuen Domains bezeckst.

Wenn ich Dich richtig verstehe, willst Du ja nicht x-fach exakt identische Sites unter verschiedenen Domains betreiben. Würdest Du das tun, bekämst Du das DC-Problem, wobei Google die "neuen Sites" als Plagiat ignorieren würde.

Oder willst Du die neuen Domains in SuMas oder Katalogen anmelden, in denen die alte Domain schon angemeldet ist? Das würde ich sein lassen.

Was Backlinks anbelangt, würde ich die auf ein und die selbe Domain laufen lassen.

H.

Suche Linktauschpartner!

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 14.12.2006, 22:11

Ich würde auf die Seiten Content machen, und dann im Text zur richtigen Domain linken.

Gruß Scubi

hborkott
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 15.11.2006, 23:40
Wohnort: Bochum

Beitrag von hborkott » 14.12.2006, 22:59

@scubi:
Im Sinne von Brückenseiten? Was soll das bringen? Klingt tendenziell nach Spam.
Wenn das, was Du andenkst eine einzelne Page (oder zwei oder drei) ist (/sind), wird die tendenziell eh nicht gefunden (in Ermangelung an kampffähigen Content;-)), es sei denn jemand findet die Site durch Zufall. Und wenn Du das so machst, denke ich nicht, das die Zweit-, Drittdomain einen höheren PR als 0 bekommt. Okay, wenn Du die lange genug liegen läßt, kriegst Du auch einen PR 1.
Aber ist das den Aufwand wert?
Oder willst Du gar soweit gehen, daß Du Dir (er sich) komplette themenrelevante Sites baut? Wäre wohl sehr zeitaufwändig, aber wenn man nichts Besseres zu tun hat...
Wie gesagt, wenn ich Dich richtig verstanden habe, klingt das tendenziell nach unsauberer Optimierung / Brückenseiten.

https://www.google.de/webmasters/spamreport.html

Grunsätzlich würde ich auch versuchen alle (vernünftigen) Backlinks auf ein und die selbe Domain zu ziehen. Und mir richtige Backlinkpartner suchen.
Falls ich Dich falsch verstanden habe, sorry.

H.

Suche Linktauschpartner!

hborkott
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 15.11.2006, 23:40
Wohnort: Bochum

Beitrag von hborkott » 14.12.2006, 23:21

Bezüglich des/der Postings von firewire:

Kann ich soweit bestätigen. Hatte bei einem Projekt auch zunächst x Domains auf dem gleichen Server liegen. Unter der gleichen Suchanfrage stand die selbe Site auch mehrfach in den Top-Ten, jeweil unter einer andern Domain oder bei einigen Keywords / Phrasen mit der semantisch treffensten.
Aufgrund diverser, (in dem Fall) ungewollter Nebeneffekte, habe ich das dann aber auf die "Zwei-Server-Variante" abgeändert. Kommt eben drauf an und mir selbst ging es z sehr in Richtung Spam. Wollte auch nicht abwarten wie Google reagiert, hätte das wer moniert.
In diesem Fall greift aber auch das DC-Problem nicht, wenn es das denn gibt;-)
Schließlich hast Du ja nicht zwei identische Sites, sondern die selbe Site mit verschiedenen Domains.
Allerdings:
Irgendwann hatte mal ein Kooperationspartner, als wir beide zeitgleich unsere Sites überarbeiteten, Content von mir "geklaut", der von mir später veröffentlicht wurde als von ihm.
"Sein" Text / seine Site wurde gefunden, meine(r) tauchte nicht auf, was nicht mit miderwertigem Quelltext oder fehlendem PR zu tun hatte...

H.

Suche Linktauschpartner

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 14.12.2006, 23:24

@hborkott

Ich kenne ja die Urls nicht.
Mal angenommen, man hat einen Bundesweiten Shop und dazu ein Geschäft, das vermutlich unter diversen Keywords gesucht wird.

Hat man dann Keyword Domains mit entsprechendem Content, kann man das schon nutzen.

Eine reine Weiterleitung bringt weit weniger, als Content.

Mit 20 Domains kann man sich ein nettes Netzwerk aufbauen.

Vorrausgesetzt, man ist nicht zu faul, guten Content zu schreiben. Klar ist das Arbeit.. aber von nix kommt nix.

Doorways und Spam wären die Seiten, so wie ich es beschrieben habe nicht.

Gruß Scubi

hborkott
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 15.11.2006, 23:40
Wohnort: Bochum

Beitrag von hborkott » 15.12.2006, 00:41

Ich sage ja (implizit), daß man, wenn man jeweils eine (auch mehrere) vernünftige, themenbezogene Site(s) zusätzlich baut, durchaus was reißen kann. Aber die dazu nötigen €s und / bzw. der Zeitaufwand... hängt mit dem jeweiligen Wettbewerbsumfeld zusammen.
Das eine reine Weiterleitung zu weniger führt, ist durchaus richtig.
Dennoch würde ich meine Mittel anders einsetzen, was aber nicht Thema dieses Threads ist.

H.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag