Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Feedback Thread @ Google zum Farmer Update

Suchmaschinenmarketing bzw. Suchmaschinenoptimierung Infos und News
Neues Thema Antworten
Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 03.03.2011, 13:53

Google hat heute/gestern(?) einen Feedback Thread für das Farmer & Scraper Update eröffnet: https://www.google.com/support/forum/p/ ... fd8e&hl=en

Lese immer mal ein bisschen mit, vielleicht kann man ja Tendenzen an Hand der Einzelschicksale erkennen.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

mwitte
Administrator
Administrator
Beiträge: 4129
Registriert: 08.09.2006, 16:31

Beitrag von mwitte » 03.03.2011, 14:13

Danke für den Tipp!

fgaertner
PostRank 8
PostRank 8
Beiträge: 658
Registriert: 23.04.2010, 14:28

Beitrag von fgaertner » 03.03.2011, 14:36

sehr interessant, aber ich glaub ich würde als publisher da nicht alles offenlegen und rumheulen, ich glaub ohne grund wurde da nix abgestuft?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


planta
PostRank 6
PostRank 6
Beiträge: 477
Registriert: 19.07.2007, 14:27

Beitrag von planta » 03.03.2011, 16:21

Es gibt immer Gewinner und Verlierer. Und es gibt immer nur die ersten 10 Plätze zu vergeben.
Wer 10 Jahre auf der Top-Seite war soll sich freuen und weiter machen, auch mit weniger als 50% Traffic wie es dort scheinbar das mittlere Mittel vom Rückgang ist.
Allerdings scheint es dem Spam genauso gut getan zu haben, wie es einigen Content-Schreibern geschadet zu haben scheint.
Was etwas über die Qualität dieses Updates aussagt.
Die Suchergebnisse sind mitnichten besser geworden, meiner subjektiven Einschätzung nach schlechter. Egal zu welchem Thema, entweder lande ist von der ersten Seite auf 4 oder 5 inhaltlich gleicher Foreneinträge von verschiedenen Domains, unbeantworteten Fragen in Foren, Bücher die nichts mit dem Thema zu tun haben, oder immer noch in Frage- und Antwortscripten, die teilweise nicht richtig funktionieren und vollgespammt sind. Das in English genauso wie auf deutschen Seiten. Will ich tatsächlich nicht meine Zeit verschwenden, suche ich zur Zeit auf Bing, was ich vor Jahren strikt verweigert hätte.
Google Abranking von Content-Seiten kann meiner Meinung nach nur noch weiter in die Hose gehen. Was spricht gegen eine Seite die tatsächlich ordentliche Inhalte vorhält? Nur weil viel drauf ist?
Manche Logik erschliesst sich mir nicht.
Statt tatsächlich gegen Contentklau vorzugehen machen die lieber die alt eingesessenen Contentschreiber nieder.
Muss man auch nicht wirklich verstehen. Es kann doch nicht die Schwere überhaupt sein zu sehen was zuerst da war bevor man es in eigenen Cache lädt und seinen Nutzern zur Verfügung stellt. Ein Verlag kann doch auch nicht fremdes Buch einfach neu auflegen.
Wenn Inhaltskontrollen wäre doch genau dort ein Ansatzpunkt.
Meiner bescheidenen Meinung nach jedenfalls.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 03.03.2011, 16:45

planta hat geschrieben:Ein Verlag kann doch auch nicht fremdes Buch einfach neu auflegen.
Von jedem in Deutschland erscheinendem Buch muss ein Pflichtexemplar bei der Deutschen Nationalbibliothek abgeliefert werden, wo dann die wichtigsten Angaben festgehalten werden. Google kennt zwar auch das Alter einer Website, möglicherweise auch das Alter jeder einzelnen Seite, doch wird das lediglich mit einem Timestamp festgehalten, der nichts über die Urheberschaft verrät. Auch kann zum Beispiel bei einer Pressemitteilung eine Seite mit einer Kopie noch vor der Seite mit dem Original von Google erfasst werden.

planta
PostRank 6
PostRank 6
Beiträge: 477
Registriert: 19.07.2007, 14:27

Beitrag von planta » 03.03.2011, 17:21

Richtig, aber in einer Pressemitteilung steht ja i.d.R. auch die Orignal-Website.
Ich weiss, das kann man endlos diskutieren, aber ich sehe da halt einen Ansatz. Perfekt wird es sicher nie.
Ich halte es für sinnvoller die Ursachen zu bekämpfen und beim Contentklau liegen einige davon. Der Weg grosse Seiten abzuranken und Spammies hochkommen zu lassen, kann es auch nicht wirklich sein.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 03.03.2011, 17:41

Ja, aber nur Google wird es nicht hinbekommen, automatisiert festzustellen wer denn der eigentliche Urheber ist. Dazu wären aufwendigere Verfahren schon bei der Erstellung von Inhalten erforderlich, die praktisch nicht realisierbar sind. Bei Bildern hat man zum Beispiel Exif-Daten, die alles andere als fälschungssicher sind und bei der ersten Bearbeitung verloren gehen. Doch nur über eine ähnliche Schiene mit fälschungssicheren Daten wäre es möglich ein Original zu kennzeichnen. Vielleicht entwickelt ja mal einer ein Verfahren, was sich dann irgendwie im Quelltext mit einflechten lässt oder wie auch immer. Glaube ich aber eher weniger.

DDDTG
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 02.10.2010, 13:39

Beitrag von DDDTG » 03.03.2011, 21:07

Wozu bitte hat google denn "Trust" eingeführt?
Wenn das Trust Prinzip um so vieles besser ist als PR, ließe sich daran doch messen welche Seiten eher dazu neigen, kopien an zu fertigen, und welchen nicht.

Oft ist es nicht so einfach, aber wenn ich eine News Seite habe die schon seit 2 Jahren besteht, und DC überwiegend nur in Form von Zitaten auftaucht, und plötzlich irgendwo ein Blog aus dem Boden gespampft wird der überwiegend diese Texte in nur leicht, oder gar nicht abgewandelter Form anwendet ...

Google ist für mich ein Rätsel, ganz ehrlich.
Einerseits spekuliert man bis zum umfallen wie komplex der Algo tatsächlich ist, und andererseits bekommt G die einfachsten Aufgaben nicht gebacken.

Also "Einfach" für Google-Maßstäbe. Ich kann es selbst nicht besser, aber es gibt X gute Herangehensweisen mit denen man den Urheber mit einer geschätzten Fehlerquote von 20% bestimmen können sollte. Und für die letzten 20% kann man sich auch eine halbautomatische Lösung einfallen lassen. Etwa ein Attribut das einen Text als original Kennzeichnet. Für Fehlerhafte Verwendung des Tags gibts dann nen Filter, oder sogar ein Penalty bei exzessiver Anwendung, sodass sich ein Wordpressler 2 mal überlegt, das als Standart für seine Blog ein zu setzen, obwohl er häufig rezitiert, oder direkt kopiert. Sollte (theoretisch) auf jeden Fall machbar sein.

planta
PostRank 6
PostRank 6
Beiträge: 477
Registriert: 19.07.2007, 14:27

Beitrag von planta » 03.03.2011, 23:20

Einerseits spekuliert man bis zum umfallen wie komplex der Algo tatsächlich ist, und andererseits bekommt G die einfachsten Aufgaben nicht gebacken.
So ähnlich sehe ich das auch.
Es ist eine Frage der Priorität denke ich.
Wie zum Beispiel der Spam-Score bei Spamassin. Ich denke sowas kann man durchaus in einen Algo einbauen. Ich habe zwar nicht die Riesenahnung von grossen Datenbanken, aber im Kleinen betrachtet ist auch hier alles eine Frage der Priorität. Je nachdem wie ich an ein DB-Problem mit x herangehe, kommt x+y raus. Dann muss eine Seite ja auch erst einmal in eine DB finden. Hier könnte man auch schon ansetzen und local vergleichen bis vielleicht nur jede 10 Double-Site raus ist, dann jede 5. etc.
Es ist reine Mathematik. Von diesen Experten beschäftigt doch so eine Firma angeblich jede Menge.
Deshalb ist dieses "Update" in meinen Augen ein politisches Getue, aber keine echte Hilfe für den User. Es bestraft tatsächlich Leute die jahrelang mühevoll schreiben und belohnt die Textscraper. Aber wenn se meinen. Monopole sind sowieso immer schlecht. Vielleicht gibt es so doch mal ein bischen mehr Vielfalt im Sumabäumchen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag