Seite 1 von 2

Neue Beobachtung zum Thema Duplicate content

Verfasst: 13.03.2007, 17:40
von Andreas I.
Hallo,

mein Hobby-SEOprojekt wird momentan auch vom DC-Phänomen geplagt. Dabei habe ich eine Beobachtung gemacht, die auf einen Fehler seitens Google deutet und nicht auf irgendwelche überscharf angezogenen Filter. Hier mal ein Screenshot:
Bild

(Bitte die etwas ungleichmäßige Linkverteilung übersehen...)
Wie man sieht, tauchen zwei Seiten mehrfach in der Liste auf, und zwar mit derselben URL. Tatsächlich sind die Seiten mit und ohne "www" erreichbar. Ich habe keine .htaccess geschaltet, um das Problem zu beheben, sondern einfach in den Webmastertools eine Standarddomain gesetzt.
Meine Vermutung ist jetzt, dass dieses Standarddomain-Feature von Google schlampig implementiert wurde und es so zu scheinbar doppeltem content kommt, der nach Richtlinien von Google eigentlich keiner sein dürfte...

Auf den Traffic hat das übrigens keinerlei Einfluss. Nach wie vor langsam aber stetig steigend. Nur die site-Abfrage wirft merkwürdige Ergebnisse aus und es ist von Tag zu Tag mal die eine, mal die andere Unterseite nicht im Index. Also der arme Google-Algorithmus rechnet da ständig mit falschen Daten (Schein-DC) und kommt so zu keinem vernünftigem Ergebnis.

Vielleicht hilft die Beobachtug ja dem einen oder anderen?

Verfasst:
von

Verfasst: 13.03.2007, 17:55
von Reddog
hmm also ich hab am 08.02.2007 meine standard-domain gesetzt und bin ende feb. rausgeflogen. ob es wirklich daran lag bezweifel ich!
wie sieht es bei den anderen aus, die rausgeflogen sind?
ebenfalls kurz vorher standard-domain gesetzt?

Verfasst: 13.03.2007, 18:07
von Andreas I.
...Meine Standard-Domain habe ich übrigens ca. letzten Sommer gesetzt und bis Anfang Februar gab es keine Auffälligkeiten seitens Google. Dann kam der Tag, an dem subdomains der Hauptdomain zugerechnet wurden. Ich habe auf meinem Hobbyprojekt eine Subdomain, deren Seiten -natürlich!- nicht in der sitemap.xml eingetragen sind.

Für die site-Abfrage der Hauptdomain bekam ich dann als Ergebnis: |Seiten der Hauptdomain| + |Seiten der Subdomain| Was falsch ist, ich denke da sind wir uns einig(?). Ich meine, irgendwo gelesen zu haben, dass Google gerne für jede Subdomain eine eigene sitemap.xml hätte...
Etwa 10-15 Tage später bekam Google dann Probleme, wie es die Seitenzahl denn jetzt genau errechnen soll. Deutet meiner Meinung nach auf einen Fehler bei Google.

Verfasst:
von

Verfasst: 13.03.2007, 18:11
von germanien
> Auf den Traffic hat das übrigens keinerlei Einfluss

Die Frage ist doch auch mehr die,
ob die Links, die sich auf solchen Seiten befinden,
doppelt zählen oder nicht...

Verfasst: 13.03.2007, 18:13
von Andreas I.
Das wäre allerdings eine gute Sache!

Verfasst: 13.03.2007, 21:00
von ecommerce
@Reddog

kann EXAKT das gleiche betstätigen!! Habe mehre Projekte laufen - alles in bester Ordnung.

Bei einem Projekt (seit 1998 online und bestens positoniert - kein Schmuh...) habe ich vor ein oder zwei Wochen auch auf standard-domain umgeschwent um ein paar dc zu vermeiden!! Und siehe da, seit gestern Traffic nahezu NULL und bei der SITE ABFRAGE gleich noch den 260er Index erwischt!

Ich dachte das sein ein Zufall! Jetzt sind es schon zwei Zufälle

Bin mal gespannt wie das endet - wird Zeit das den "Bundestrojaner" doch noch kommt, damit jeder auf jeden Rechner kommt und sich die Infos zieht die er braucht :-)

Verfasst: 13.03.2007, 21:10
von Reddog
ich hab jetzt mal alle standard-domains bei mir gelöscht.
bin ja mal gespannt ob das was hilft.
daumen drücken und tee trinken wieder mal angesagt hehe

Verfasst: 13.03.2007, 21:19
von tmmmy
wie kann man genau die standard-domains devinieren?

Verfasst: 13.03.2007, 21:26
von Reddog
bei den google tools für webmaster.

Verfasst: 13.03.2007, 21:27
von tmmmy
wo genau
Bevorzugte Domains oder?

Verfasst: 13.03.2007, 22:13
von ecommerce
@Reddog

halte mich auf den Laufenden! Was mir wirklich Sorgen macht ist, warum mit dem Site:xxx jetzt auch noch das 260er Phänomen bekomme! Gibt ja auch einen Thread darüber.

Ist das bei dir auch so? Nur 260 Ergebnisse und der Rest alles ähnlich?

Verfasst: 14.03.2007, 07:32
von Bluetabby
:o
Jetzt bin ich aber froh, daß ich bei den Webmaster Tools nicht die 'preferred domain' definiert habe. Ich war drauf und dran, da ich ja bei strato mit mod rewrite nichts ausrichten kann, habe aber doch gezögert. Mir fielen postings ein, in denen vom Einreichen der Sitemap abgeraten wurde, weil sie wohl nicht viel bringt und manch einem zum Nachteil gereicht hat. Da hatte ich dann Bedenken, mit der 'preferred domain' schlafende Hunde zu wecken.

War wohl gut so..

Bluetabby

Verfasst: 14.03.2007, 08:56
von heinrich
Bluetabby hat geschrieben:... Da hatte ich dann Bedenken, mit der 'preferred domain' schlafende Hunde zu wecken.
Genau das dachte ich auch - ich bin dazu übergegangen, neue Seiten händisch bei Google anzumelden - funktioniert perfekt, denn in ein paar Stunden ist alles im Index!

Verfasst: 14.03.2007, 09:02
von ecommerce
heinrich hat geschrieben:
Bluetabby hat geschrieben:... Da hatte ich dann Bedenken, mit der 'preferred domain' schlafende Hunde zu wecken.
Genau das dachte ich auch - ich bin dazu übergegangen, neue Seiten händisch bei Google anzumelden - funktioniert perfekt, denn in ein paar Stunden ist alles im Index!
händisch? nach ein paar Stunden im Index?

Verfasst: 14.03.2007, 10:51
von heinrich
https://www.google.com/addurl/?hl=de&continue=/addurl