Seite 1 von 4

DC und Newbie Bonus ein Mhytos?

Verfasst: 21.03.2011, 10:46
von Tomasso
Also erstmal bezeichne ich mich nicht als SEO. Ich erstelle im Kundenauftrag Webseiten und hab auch seite ca. 10 Jahren etliche Projekte am Start. Ich erstelle sie Projekte so wie ich mir das vorstelle und nicht wie es angeblich Google möchte.

Ich lese immer wieder in Foren Theorien über DC und Newbie Bonus, kann das aber aus der Praxis nicht bestätigen.

Newbie Bonus:
Wenn ich neue Projekte erstelle bzw. erweitere kommt es oft vor das die Seiten auf der ersten Seite landen. Sind allerdings eher Key-Kombis mit 15.000 bis 100.000 Treffern. Nach der Therorie müsste die Seite dann nach einer bestimmten Zeit aus dem Index nach unten rutschen. Ist bei mir aber nicht der Fall. Wenn die Seite oben stehen dann bleiben sie auch oben und das ist kein Einzelfall.

Habe auch mal einen Test gemacht. Seite erstellt, etwas Content drauf. Nach kurzer Zeit bei 2 Millionen Treffern Platz 1 mit einem Suchkombi, noch vor Dr. Web.

Inhalt vor ein paar Monaten entfernt und Seite vom Netz genommen und meine Seite ist immer noch Platz 1. Startseite steht noch in Form: hier entsteht ein neues Projekt

DC:
Habe ein paar Projekte wo vereinzelt der gleiche Content vorkommt. Bei Google stehen die Projekte dann oft in den Top 10 direkt hinter einander.

Krasses Beispiel ist die Suche nach einem großen Volksfest in Bayern (nicht Oktoberfest). Hier erscheinen ab ca. Platz 25, sage und schreibe 40 Projekte (Ferienhäuser, Hotels) mit exakt dem gleichen Text, den gleichen Bilder direkt hinter einander. Alle Seite wurden von dem gleichen Anbieter erstellt. Und das sind keine Einzelfälle.

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 21.03.2011, 10:52
von lois69
dann hast du die personalisierte suche drinnen

Verfasst: 21.03.2011, 10:58
von clymanz
Ich würde mal sagen, dass man das nicht pauschalisieren kann. Selbst hatte ich erst vor kurzem auch so eine DC Geschichte. Waren 2 sehr ähnliche Seiten. Als ich beide zusammengeführt hatte auf die 1. und ursprüngliche Seite, stieg das Ranking dann auf einmal richtig stark. Davor hatte ich gesehen, dass die Seite kurz nach Veröffenlichen der 2. ähnlichen Seite "abgestürzt" war.

Deswegen würde ich nie verallgemeinern. Gibt sicher Beispiele in beide Richtungen. Mal isses ein Problem, mal nicht.

Verfasst:
von

Verfasst: 21.03.2011, 11:07
von Tomasso
lois69 hat geschrieben:dann hast du die personalisierte suche drinnen
Nee, hab ich nicht drinn :bad-words:

Verfasst: 21.03.2011, 14:14
von Hirnhamster
Wenn ich neue Projekte erstelle bzw. erweitere kommt es oft vor das die Seiten auf der ersten Seite landen. Sind allerdings eher Key-Kombis mit 15.000 bis 100.000 Treffern. Nach der Therorie müsste die Seite dann nach einer bestimmten Zeit aus dem Index nach unten rutschen. Ist bei mir aber nicht der Fall. Wenn die Seite oben stehen dann bleiben sie auch oben und das ist kein Einzelfall.
Naja, das hängt wohl stark von den Keywords ab. Such mal nach intitle:"Keywords" inurl:"Keywords" dann bekommt schon einen realistischeren Eindruck von der tatsächlichen Konkurrenz. Die reine Anzahl der Treffer sagt gar nix aus.

Sie Sache mit dem Newbie Bonus ist allerdings wirklich etwas umstritten. Dazu sage ich mal nix.

Zu dem DC Beispiel hätte ich gern mal einen Link. Ähnliches tritt ja zum Beispiel auch bei Pressemitteilungen auf.

Verfasst: 21.03.2011, 14:20
von Rem
lois69 hat Folgendes geschrieben:
dann hast du die personalisierte suche drinnen
Nee, hab ich nicht drinn #Cussing out
Interessant. Ich habe die "personalifizierte Suche" bei zwei von vier Browsern nicht drin, aber alle vier zeigen unterschiedliche Suchresultate.

Sprich: es würde mich leidlich interessieren, wie Du es schaffst, keine verfremdeten Resultate zu erhalten...

Verfasst: 21.03.2011, 14:35
von EbooOMD
ist kein mythos, ist nur nicht mehr so einfach wie früher mit einem einzelnen Test das zu belegen/wiederlegen. Google ist komplexer geworden, man bekommt nicht DEN newbiebonus oder DIE DC Strafe, das kommt immer auf das Projekt an, auf die Thematik, auf die Konkurrenz und viele weitere sachen.

personalisierte suche ist mMn nicht nur die "personalisierte Suche" wenn man eingeloggt ist, es reicht schon deine IP und was du vorher auf der IP gemacht hast, was andere unter der IP machen aus, die auch im inkognito modus ohne eingeloggt zu sein übertragen wird, um die ergebnisse zu verfälschen.

Verfasst: 22.03.2011, 09:21
von collection23
Die personalisierte Suche nutzt auch Cookies. Ausloggen alleine hilft da nicht immer. Ich lösche alle Cookies beim Schließen des Browsers.

Verfasst: 22.03.2011, 15:44
von Igotcha
Ich beschäftige mich aus verschiedenen Seiten mit dem Thema DC und halte das, je mehr ich mich damit beschäftige, für einen der vielen "Google-Mythen".

Ich werde meinen Stand dazu demnächst mal in meinem Blog posten, aber nur mal soviel zu einer rein rationalen Überlegung.

Es gibt aktuell zwischen 6 und 7 Milliarden Internetseiten.

Die Ausgangsituation ist, dass Google (oder wer auch immer) prüfen will, ob eine Seite DC besitzt. Das bedeutet also, dass diese eine Seite ins Verhältnis, bzw. gegen alle anderen Seiten geprüft werden muss.

Jetzt gibt es natürlich noch das Gerücht, dass Google nur "vergleichbare" Seiten(inhalte) berücksichtig. Das mag ja so sein, dann prüft G die Seite eben nur gegen 234.000.000 andere Seiten, dann ist aber das grundsätzliche Thema DC hinfällig, da es bedeutet: ja, G erlaubt DC, aber nicht bei verwandten Seiten. Dann hat man eine andere Diskussion, was "verwandte Seiten" sind.

Dann das Thema, was ist DC denn nun eigentlich? Eine 1:1-Kopie von Texten, oder auch ähnliche Texte und wie "unique" müssen diese sein, damit diese nicht als DC gezählt werden? Hierzu gibt es einfach keine belastbaren Aussagen, da nur zählt, was G darunter versteht, aber das erzählt G, wie so vieles, natürlich nicht.

Aber zurück zum Beispiel.

Nehmen wir der Einfachheit halber man an, G benötigt für einen Vergleich von der betreffenden Seite zu einer anderen Webseite 1 Sekunde.

Das wären dann 7.000.000.000 Sekunden.

Das sind dann 116666667 Minuten, oder 116666667 Stunden, oder 4861111 Tage oder 13318 Jahre.

Und wenn man jetzt sagt "Die eine Sekunde ist viel zu hoch!", na dann nehmen wir eben eine hundertstel Sekunde, dann sind es immer noch 133,18 Jahre um festzustellen, ob EINE Seite im Vergleich zum gesamten Internet DC besitzt.

Auch wenn wir die Super-Multi Server-/Cloud-/Matrix-Farm von G nehmen, na dann sind es eben nur 2 Monate für EINE Seite.

Jetzt kommt noch hinzu, dass G ja bei vielen der 7.000.000.000 Webseiten diese laufend neu bewerten muss, da sich ja die Inhalte auf den Seiten auch ändern (können).

Das macht es aus meiner Einschätzung heraus einfach praktisch unmöglich so etwas wir DC festzustellen, zumal die Anzahl der Internetseiten überproportional wächst.

Grüße
Igotcha

Verfasst: 22.03.2011, 15:57
von EbooOMD
nimm in deine überlegung mit rein wie zum beispiel copyscape das macht innerhalb von (mehreren) sekunden.
außerdem nimm mit rein dass bei der normalen suche auch nicht milliarten von seiten extra durchsucht werden müssen und ergebnisse sogar in sekundenbruchteilen bereit stehen.

wie passt das mit deinen rechnungen zusammen?

-> keine kritik sondern anregung

Verfasst: 22.03.2011, 16:06
von Igotcha
Was macht copyscape genau, wissen wir das? Bzw. auf welche Daten stützen die sich?

Suche ist nicht = DC Vergleich

Bei der Suche wird (u.a.) nach von G indexierten Keywords aufgelistet, das ist eine andere Problemstellung.

Dabei heisst es (vereinfacht): Zeige mir alle Inhalte, die die Suchphrase im "Content" haben. Vereinfacht gesagt, wird hier eine Webseite verschlagwortet in der G-Datenbank abgelegt und entsprechend abgerufen.

Bei DC ist die Fragestellung: Ist der Content der Seite xy "ähnlich / gleich" dem Content anderer Seiten.

Anregung ist auch Kritik :wink:

Verfasst: 22.03.2011, 16:19
von Melegrian
Igotcha hat geschrieben:dann sind es immer noch 133,18 Jahre um festzustellen, ob EINE Seite im Vergleich zum gesamten Internet DC besitzt.
Na dann probiere doch einfach mal in Echtzeit aus, wie lange benötigt wird, um nach DC zu suchen: https://copyscape.com/

Und ja, Google kann im Bruchteil einer Sekunde feststellen, welcher Inhalt von welcher der 6 bis 7 Milliarden Webseiten vermutlich die gestellte Suchanfrage am treffendsten beantwortet und kein DC ist. Dass ein großer Teil dieser Arbeit nicht erst von Google erledigt wird, wenn eine Suchanfrage gestellt wird, sondern bereits bei der Indizierung, ist eine andere Sache.

Verfasst: 22.03.2011, 16:26
von Igotcha
Melegrian hat geschrieben:... Dass ein großer Teil dieser Arbeit nicht erst von Google erledigt wird, wenn eine Suchanfrage gestellt wird, sondern bereits bei der Indizierung, ist eine andere Sache.
Genau darum geht es: Es ist egal, wann die Arbeit erledigt wird, aber sie muss irgendwann erledigt werden, um das von Dir gebrachte Beispiel vollziehen zu können.

Meine Ansicht dazu: Indexierung ist eine Sache (geht eher schnell), DC-Berechnung (praktisch unmöglich).

Und weiterhin ist es etwas anderes, wenn ich nach einer "Phrase" suche, z.B. den Beginn eines Absatzes, dann haben wir nämlich einen reinen 1:1 Textvergleich (Dummy Code: SELECT * FROM GoogleDB WHERE Content Like '%Phrase%'), oder aber nach "Ähnlichkeit", die man berechnen muss.

EDIT: Ich könnte mir z.B. vorstellen, wie z.B. copyscape arbeiten könnte:

- bei einem Text der Länge x nimm y Phrasen aus dem Text mit z Wortlänge
- führe eine Google-Suche mit den entsprechenden Phrasen durch
- werfe die Seiten nach Ranking aus, wo alle / einige der Phrasen drin vorkommen

Dann wären wir aber auch wieder bei einer "Suche"-Funktion.

Da wir aber alle nichts genaues wissen, ist auch das nur eine Vermutung, bis mir jemand etwas anderes, fundiertes, beweisbares, erzählen kann.

Gruß
Igotcha

Verfasst: 22.03.2011, 16:45
von EbooOMD
les dich in das thema text spinning ein, das beantwortet auch fragen zum erkennen von DC.

warum soll nicht google, vereinfacht ausgedrückt, eine neue seite in shingles zerhacken und in seiner eigenen suche danach suchen?

ähnlichkeit kann kein programm feststellen, außer vielleicht irgendwelche neuen fancy neuronale selbstlernende algorythmen. aber warum willst du ähnlichkeit suchen wenn du gleichheit finden kannst??

<100% gleich == ähnlich

Verfasst: 22.03.2011, 16:54
von Melegrian
Igotcha hat geschrieben:Meine Ansicht dazu: Indexierung ist eine Sache (geht eher schnell), DC-Berechnung (praktisch unmöglich).
Bis 2007 habe ich Pressemitteilungen übernommen und dann damit aufgehört, weil ein Teil von diesen gleich in den "Supplemental Index" verschoben wurden. Wenn 100 Seiten mit der selben Pressemitteilung von Google gefunden wurden, so wurden bis 2007 noch 100 davon angezeigt, ab 2007 nur noch die 3 stärksten Seiten. Wie sollte das möglich sein, wenn Google nicht bei der Suche oder aber bereits bei der Indizierung erkannt hätte, welche Seiten DC enthalten und welche von diesen 100 Seiten mit DC die stärksten sind?