Die Suche brachte zwar einiges an Infos, leider aber noch nicht das was ich benötige. Im Detail geht es um Mehrsprachigkeit, bzw. um ein Projekt das vorab in Deutschland, Österreich und der Schweiz aktiv ist.
Das Problem ist nun das es bei manchen Seiten identischen Inhalt gibt, bei manchen wieder nicht. Die Frage ist eben wie man das am besten realisiert ohne doppelten Content zu verursachen.
Auf der einen Seite könnte ich einzelne Verzeichnisse für den Robot sperren und diese nicht indizieren, dadurch würde ich aber die Besucher, bzw. die Suchergebnisse auf eine Domain beschränken und User z.b. aus der Schweiz würden bei der Suche immer im deutschen Bereich landen - hoffentlich verständlich ausgedrückt.
Oder sollte man alles indizieren lassen und die doppelten Seiten als Canonical vermerken ...
der canonical Meta-Tag funktioniert nicht Domainübergreifend, ich empfehle die Bereich die anders sind spidern zu lassen und den Rest per 301 auf die de. Domain weiterleiten, da es sich hier ja nicht um Mehrsprachig im eigentlichen Sinne handelt wird alles indizieren zu lassen auf kurz oder lang zu DC führen.
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! | -------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}
Danke für die prompte Antwort. Vorab noch die Info das das ganze Projekt nur auf einer Domain liegt und die einzelnen Bereich auf Sudomains ausgegliedert wurde. Also at.dom für Österreich, de.dom für Deutschland u.s.w.
Bin jetzt nicht sicher ob es hier auch die Canonical-Einschränkung gibt. Momemtan bin ich erstmals so vorgegangen das ich eine Seite komplett spidern lasse und die anderen mit doppeltem Content per htaccess verbiete.
Bin jetzt aber ehrlich gesagt noch etwas unsicher welche Vor- bzw. Nachteile sich daraus ergeben könnten und habe da ein dummes Gefühl etwas wichtiges zu übersehen.
Schließlich beschränke ich hierdurch ja auch die Anzahl an Seiten einer Subdomain die gespidert werden, was auch nicht gerade optimal ist wenn von 200 Seiten nur 15 im Index sind, oder? Gibt ja auch so etwas wie die Domainsichtbarkeit ...
Und letztendlich verteilt sich auch der Pagerank. Einer User verlinkt vielleicht auf die de.domain andere wieder auf die at.domain ...
für Subdomains gilt das nicht, da kannste mit dem canonical Meta-Tag arbeiten ... dann empfiehlt sich, alle gleichen mit dem canonical Meta-Tag zu versehen und alles spidern zu lassen.
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! | -------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}
Danke John, das war auch mein erster Gedanke so vorzugehen. Momentan ist es so, das alle DC-Inhalte in eigenen Verzeichnisse liegen. Wenn ich diese nun mit Canonical versehen, werden diese ja nicht in den Index aufgenommen, im Grunde ja das selbe als wenn ich die Dateien nicht spidern lasse, oder?
Ich sehe momentan noch keinen direkten Vorteil darin Seiten die eh nicht gespidert werden soll mit Canonical zu versehen - ich beiss mir gleich in den Zeh, verflucht ....
Oder könnte da der ominöse Linkjuice ausschlaggebend sein, was ja oft diskutiert wird ob und was es damit auf sich hat ...
Der Linkjuice auf Seiten die den canonical Meta Tag usen wird auf das "Original" Dokument übertragen, wie es sich mit den Links auf dieser Seite verhält darüber weiss ich nichts, aber ich vermute der Linkjuice fließt auch da weiter.
Wenn dich das alles stört dann kannst du die entsprechenden Seiten auf noindex, follow setzen dann fließt der Linkjuice auf jedenfall weiter wenn diese angelinkt werden und kommen trotzdem nicht in den Index, weil im Prinzip hast du Recht ob die nun wegen dem canonical-Meta Tag nicht in den Index kommen oder weil du die sperrst ist beides das selbe nur das eine in gelb und das andere in grün.
Zuletzt geändert von JohnBi am 29.03.2009, 14:29, insgesamt 1-mal geändert.
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! | -------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}
Letztendlich ist doppelter Inhalt immer doppelter Inhalt. Du wirst nie beide Inhalte in den Index bekommen ohne doppelten Inhalt im Index zu haben - welchen Sinn hätte das auch aus Sicht von google?
Langfristig gibt es nur die Möglichkeit für jede Länderseite eigene Inhalte zu erstellen. Die können ja inhaltlich identisch sein aber jeweils anders formuliert.
Macht zwar Arbeit ist aber nachhaltig die bessere Lösung.
Eigene Inhalte für die einzelne Seiten zu erstellen geht nur bedingt. Werbeslogans sowie gewissen Text sind vom Kunden vorgegeben und können nur bedingt geändert werden.
Ob und es jetzt kein doppelter Content ist wenn ich nur 1-2 Wörter im Text umdrehe ist wieder eine andere Sache. Bin da jetzt kein Profi, aber rein gefühlsmässig ist das auch doppelter Content ob jetzt im Text steht "das bin ich" oder "ich bin das" sonst würde es ja reichen einfach ein Komma zu setzen und schon wäre ein anderer Inhalt.
So leicht ist das bestimmt nicht. Und letztendlich kann es ja auch für den User nicht das Ziel sein im Index 3 identische Seite hintereinander zu haben.
Da tendiere ich doch eher zu Canonical oder wie John meinte die noindex, follow Methode. Da bin ich aber noch nicht sicher wie das letztendlich aussehen wird.
einzelne Wörter umzudrehen genügt sicherlich nicht. Mit umformulieren meinte ich schon etwas mehr. Ich mache es in solchen Fällen immer so, dass ich die Texte zwei mal aus dem Gedächtnis schreibe. Manchmal an verschiedenen Tagen.
Dann entstehen ganz automatisch zwei verschiedene Versionen. Wenn die Formulierungen natürlich vorgegeben sind, funktioniert diese Methode nicht.
Danke, habe jetzt nochmals weiter recherchiert und mit dem noindex,follow komme ich glaube nicht weiter. Verlinkt z.b. eine dritte Seite auf de.meinedomain.com/seite1.html die mit noindex, follow gekennzeichnet ist, dann sagt der Befehl doch das die Seite zwar nicht indexiert werden soll, den Links soll aber gefolgt werden.
Es steht aber nirgends in der Seite wohin der Linkjuice gehen soll. Demnach käme eigentlich nur die Möglichkeit in Frage alles zu indexieren und die doppelten Seiten mit dem Canonical zu kennzeichnen. Sehe ich das reicht? Mir raucht schon die Birne ...
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! | -------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}