Seite 1 von 3

Duplicate Content wird von Google ignoriert

Verfasst: 16.12.2006, 21:18
von ab
Hallo,

viele von euch kenne ja gizliweb.com was hauptsächlich aus geklautem Content besteht. Ich frage mich jetzt wieso manche Seiten gekickt werden nur weil sie z.B. mit und ohne www. erreichbar sind und so eine Seite 286.00 Seiten indexiert hat...?

Gruß
ab

Verfasst:
von

Re: Duplicate Content wird von Google ignoriert

Verfasst: 16.12.2006, 22:04
von haha
ab hat geschrieben:Ich frage mich jetzt wieso manche Seiten gekickt werden nur weil sie z.B. mit und ohne www. erreichbar sind und so eine Seite 286.00 Seiten indexiert hat...?
Wann wurde jemals eine Seite mit der Begründung ausgeschlossen, dass sie mit und ohne wehwehweh erreichbar war? Komme jetzt bitte nicht mit "Das weiß doch jeder". Es "weiß" auch jeder, dass Grünkohl wegen des Geschmacks erst nach Frost geerntet werden darf - stimmen tut's trotzdem nicht.

Verfasst: 16.12.2006, 22:31
von thomie31
@ haha

Ausgeschlossen wird niemand wegen der Geschichte mit und ohne www. Aber schlechter gerankt. Meine Topdomain, die im Tourismusbereich ein Spitzenkeyword anführt, war von einem auf den nächsten Tag um fast 100 Positionen weiter hinten. Die site-Abfrage zeigte die Domain plötzlich mit und ohne www, was vorher noch nie war (und zwar ohne eins der Ergebnisse als "supplemental result" auszuweisen). Ich habe den Provider gewechselt und ne Standarddomain definiert. Exakt an dem Tag, an dem bei der site-Abfrage nur noch die Standarddomain angezeigt wurde (dauerte etwa 14 Tage), war der Topplatz sofort wieder da. Ist jetzt etwas mehr als ein Jahr her.

Dasselbe ist mir damals zwei Wochen später erneut passiert mit einer weniger wichtigen Domain, an der ich etwa 18 Monate nichts verändert hatte. Übrigens: Beide genannten Domains sind etwa 6 Jahre im Index.

Andererseits habe ich auch Domains, wo keine Standarddomain definiert ist, und noch nie was passiert ist. Es ist also nicht auszuschließen, dass da irgendein Mitbewerber gezielt durch nen Link nachgeholfen hat, die Version ohne www in den Index zu bringen. Habe das aber nie weiter verfolgt.

Mittlerweile soll Google das Problem ja im Griff haben, so dass keine direkte Gefahr mehr besteht.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 16.12.2006, 23:32
von thomie31
Andererseits bin ich nicht ganz so sicher, ob es bereits im Lot ist bei Google:

Beispiel hier

zeigt ein Beispiel einer Webseite von einem Mannschaftskameraden, der gerade erst mit Erstellen von Webseiten und SEO anfangen will. Da sieht man aber das klassische Beispiel von DC, das früher eben definitiv zum Absturz führte. Im meine nicht dieses Cic***-Seite, sofern die bei Euch auch angezeigt wird. Diese Seiten sind ja definitiv im "supplemental result"-Index.

Bei diesem Beispiel hat es natürlich weder viele Links noch irgendwelche Positionen, da sie noch im Dornröschenschlaf verweilt. Wollte das nur mal zeigen, dass es jeder mal gesehen hat, wie das im Index überhaupt aussieht.

Verfasst: 17.12.2006, 00:43
von Gast
Google möchte immer noch gerne die Hauptdomain definiert haben und bietet daher in den Webmastertools auch eine entsprechende Einstellmöglichkeit an. Wenn wahllos beide Schreibweisen gewählt werden verteilen sich meisst auch die Backlinks - da bekommt nicht mehr nur eine Domain die volle Linkpower ab.

Alte Präsenzen, die wie das früher üblich war, unter möglichst vielen verschiedenen Domains verlinkt waren, mussten das Verfahren einstellen weil die Backlinkpower nicht mehr kumuliert wurde. Ich habe aus dieser Zeit noch etwa sechs verschiedenen Domainnamen, die heute auf meine Hauptpräsenz zeigen. Man muss die Domains natürlich heute immer noch buchen um Mitbewerber an der Nutzung zu hindern aber ausser einer stillen Verlinkung mitsamt .htaccess-Linkumschreibung auf die "offizielle" Domain macht man da heute nichts mehr.

Du solltest Dir halt überlegen ob Du eine Seite mit Fullpower haben willst oder Dich durch DC verzettelst.

Und nein - natürlich gibt es keinerlei Strafaktionen - es ist eben eine Aufteilung. Die greift scheinbar nicht wenn eigener Content auf fremden Seiten landet - es ist heute ein völlig normaler Vorgang, News zu sharen.

Re: Duplicate Content wird von Google ignoriert

Verfasst: 17.12.2006, 16:00
von GreenHorn
ab hat geschrieben: Ich frage mich jetzt wieso manche Seiten gekickt werden nur weil sie z.B. mit und ohne www. erreichbar sind
Deswegen wurde noch nie eine Seite gekickt. Was soll man denn dazu schon sagen... :shake:

Verfasst: 17.12.2006, 16:08
von SeoFreak
ab - Die Frage war auch echt nich günstig gestellt. Wenn du erst von Ranking sprichst, dann eine böse Beispielseite nennst und anschließend was von der Anzahl indizierter Seiten erzählst, wirkt das ein bisschen als würdest du Äpfel mit Birnen vergleichen.

Wichtiger ist doch wie die Scraper-Seite für die geklauten Inhalte rankt. Wenn das Original in der Regel höher rankt als die Scraper Seite, ist doch alles in Butter...

Nachtrag: Okay, wenn das Original nicht unbedingt auf ner etablierten Domain steht und dann noch schlecht verlinkt ist, wirkt es sich schon negativ aus. Aber in dem Fall helfen mittelfristig ein paar vernünftige Deeplinks.

Um solchen Scraper Seiten eins auszuwischen, kann man übrigens per IP Delivery viele witzige Dinge machen...

Verfasst: 17.12.2006, 16:10
von advisor
https://www.mattcutts.com/blog/seo-advi ... alization/

Hier mal etwas "sinnvolles" zu lesen.

Und ... seit nett zueinander. :wink:

Verfasst: 17.12.2006, 17:47
von ab
OK, habe mich vielleicht falsch ausgedrückt. Ich verstehe nur nicht wieso Google von solchen Seiten weiterhin Inhalte indexiert, egal ob diese auf 1 oder auf dem letzten Platz gerankt werden.

Weil da ist doch offensichtlich, dass der Content geklaut wird. Wieso kickt Google die Domain nicht einfach.

Die Diskussion mit und ohne www. lassen wir jetzt einfach mal, das sollte nur als Beispiel dienen, mehr nicht!

Verfasst: 17.12.2006, 17:54
von haha
ab hat geschrieben:Ich verstehe nur nicht wieso Google von solchen Seiten weiterhin Inhalte indexiert, egal ob diese auf 1 oder auf dem letzten Platz gerankt werden.

Weil da ist doch offensichtlich, dass der Content geklaut wird. Wieso kickt Google die Domain nicht einfach.
Nun, offenbar ist die ganze Auf- und Abwerterei nicht einmal ansatzweise so katastrophal, und Google kann doch nicht übers Wasser gehen, wie manch ein SEO-Gläubiger dem dummen Pöbel gerne weißmachen will …

Verfasst: 17.12.2006, 18:01
von advisor
Das naheliegendste schon gemacht?

https://www.google.de/webmasters/spamreport.html

(Bitte jetzt keine Diskussionen ob es etwas hilft.
Manchmal braucht es eben vielleicht mehr als einen Report). :wink:

Verfasst: 17.12.2006, 18:07
von SeoFreak
haha - Wenn ein "SEO-Gläubiger" nicht jemand ist, der noch offene Forderungen an einen SEO hat, sondern jemand, der an die Macht gezielter Suchmaschinenoptimierung glaubt, dann verstehe ich nicht, wie du darauf kommst, dass so jemand pauschal "dem dummen Pöbel" weißmachen will, dass Google übers Wasser gehen kann.
Ich finde, das steht in keinem Zusammenhang zueinander.

ab - Im Grunde hat haha schon die Antwort gegeben, auch wenn er es etwas hinter seiner Polemik versteckt hat. Google kann wirklich nicht übers Wasser gehen und es ist technisch gesehen schon eine kleine Herausforderung, Seiten mit ausschließlich geklauten Inhalten von "legtitimen News- und Syndication-Diensten" zu unterscheiden.
Die Scraper stehen mit ihren Methoden ja auch nicht auf der Stelle, sondern entwickeln sich weiter. Deshalb hatte ich das mit dem Ranking erwähnt...

Verfasst: 17.12.2006, 18:27
von Kristian
Hallo

@Regine
Ich würde es nicht einfach ignorieren.

@all
Ich fürchte damit wird G. etwas überfordert sein. Das Script hinter diesen "Proxys" ist frei verfügbar. Etliche die es installieren wissen nicht was sie tuen und das sind tausende. Viel schlimmer sind die die wissen was sie da machen oder die Helden die die Situation nutzen um Mitbewerber mit einem Link zu "fördern".
Letztere gibt es scheinbar so viele, dass der Erfolg von GizliWeb und Co. nicht mehr zu stoppen ist.

Gruss
Kristian

Verfasst: 17.12.2006, 20:29
von Gast
Ach - Gizliweb der runnig Gag, immer für ein Posting gut..

Man kann sich, wenn man will, unaufhörlich echauffieren.

Verfasst: 17.12.2006, 22:05
von Kristian
Hallo

@Regine
Wenn ich das richtig sehe geht es in diesem Thread um GizliWeb?
"echauffieren" => sich über etwas aufregen / erregen, im Sprachgebrauch gekoppelt mit dem Begriff künstlich?

Es regt mich nicht auf, dass GizliWeb dich hat und mit dir alle die sich gutgläubig bei dir eintragen. Das war wirklich nur ein gutgemeinter Hinweis.

Wenn ich mir vorstelle, was man mit den Möglichkeiten die sich da bieten anstellen kann macht es mir echte Angst und das ist keine Paranoia.

Gruss
Kristian