Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Penguin 2.1 ist live

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 11.10.2013, 18:45

mtx93 hat geschrieben:Aber das braucht Google doch bei Penguin nicht. Der Algo ist nicht real time sondern wird alle X Monate Offsite berechnet und refreshed. Da braucht es sowas nicht, der Zeitfaktor erledigt das implizit.
Der Zeitfaktor kann eine Qualitätsbewertung der Disavow-Daten ersetzen? Das verstehe ich leider nicht. Erklärst Du mir, wodurch Disavow-Daten mit der Zeit richtiger werden?

Ich glaube auch nicht, dass es einen logischen Grund für die seltenen Penguin- und Panda-Updates gibt. Wir leben immerhin im Zeitalter von Caffeine. Caffeine war das Infrastruktur-Update, seit dem Googles Software proportional mit der Rechenleistung wächst, ohne in absehbarer Zeit an Grenzen zu stoßen. Verabschiedet Euch mal vom Konzept des Google-Dance und glaubt einfach dran, dass Penguin und Panda täglich aktuell sein könnten, wenn Google das wollte!

Penguin und Disavow gehören für mich zum selben Konzept, nämlich Linkbewertung der neuesten Generation. Penguin ist die Exikutive (Henker), Disavow die Judikative (Richter), Google und die Webmaster die Legislative (Entscheidungsgrundlage). Google hat den Spieß einfach umgedreht und uns alle rekrutiert, um die Datenbasis für den besten Ranking-Algorithmus der Welt zu pflegen. Während dessen stecken übrigens Bing, Yahoo!, Yandex und alle anderen irgendwo im PageRank-Zeitalter fest.

Penguin arbeitet wahrscheinlich schon von Anfang an auf der Disavow-Datenbasis, die damals noch recht grob (automatisch) initialisiert war. Nun wird sie peu à peu mit manuellen Disavows abgerundet. Die Schwarm-Intelligenz sorgt dafür, dass Penguin bald praktisch unfehlbar ist.
Anders als bei Panda & Co - da hat Google deshalb auch diesen speziellen Patent-Algo, der bei bestimmten Änderungen des SEO-Profils einen zufälligen Rankingwert addiert und so das RE erschwert.
Soll der nicht keyword-basiert sein? Andererseits passt auch die Grundidee dieses Patents perfekt auf die Idee der False-Positives im Penguin-Umfeld: streue falsche Daten ins Ranking ein und beobachte, wie die Manipulatoren darauf reagieren. Das allerdings in zweiter Ableitung: es wird nicht der Betroffene beobachtet, sondern alle, die dorthin verlinken oder von dort einen Link beziehen.
Sollte Penguin wie Panda in schnellerer Folge und/oder automatisch erfolgen, werden die schon was einbauen - aber z.Z. sehe ich das nicht.
Warum sollte ausgerechnet Google es nicht schaffen, kontinuierliche Ranking-Algorithmen in die Tat umzusetzen? Die liefern personalisierte Suchergebnisse! Das ist noch viel heftiger und offensichtlich kein Problem. Wenn algorithmische Effekte diskret ablaufen, dann liegt das bestimmt nicht am Unvermögen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 11.10.2013, 20:17

Du interpretierst da zuviel rein. Es geht doch nicht darum, zu bewerten was technisch möglich ist, sondern wie es gehandelt wird. Und Penguin wird eben z.Z. Offline berechnet - aus welchen Grund auch immer.

Und das mit dem Linkprofil hast du nicht verstanden.

Theoretisch: Wenn alle deine Linkpartner ihre Seite schließen passiert auf deiner Seite was? Richtig, keine Backlinks mehr - und damit auch keine mehr, die Google zählen kann. Werden so genug "schlechte" Links gelöscht, sieht Penguin irgendwann kein schlechtes Profil mehr. Und gerade viele "SEO" Links wie Directiories, Linknetze etc. gehen z.Z. viel vom Netz - weil es sich nicht mehr lohnt, die Dinger zu behalten.

Das ist was anderes, als echte Spamlinks auf vergessenen Blogs oder freien Foren, die auf irgendwelchen Unirechnern noch in 100 Jahren rumgammeln werden.

Das man das erst so langsam sieht, hat mit dem Zeitframe zu tun - Domains werden eben nicht monatsweise bezahlt, sondern Jahresweise. In der Regel so 1-3 Jahre. Penguin selber wird nur alle X Monate updated. Dieser Prozeß ist langsam und darum hat man diesen "es rührt sich nichts" Eindruck. Dazu kommen dann noch 100 andere Faktoren, die sich so in dieser Zeit ergeben.

Dein Problem ist, das du ein Problem mit Google hast. Du verstehst Google Position nicht. Du wertest. Mir ist Google egal. Solange die keine kleinen Kinder am Spies braten mach ich mir da keinen Kopf.

Was ist dein Backlinkprofil und Disvow für Google? Denk mal wie Google:

Disavow ist nichts anderes als ein "händischer" Zusatz für Daten, die Google schon längst hat. Die eigentliche Kommunikation ist, das Google damit sieht, das du dich kümmerst. Theoretisch könnte man die ganze Geschichte auch technisch anders machen.

Das Google die Disavow Files für sonst was mit auswertet... Geschenkt, würde ich auch machen. Man schmeißt doch keine freien Datenquellen weg.

Die wichtige Frage ist doch: Braucht Google die Daten von Disvow für andere Dinge wirklich? In Anbetracht, das Penguin älter als das Disavow Tool ist und perfekt funtionierte (Penguin 2.x arbeit nicht wirklich anders, nur eine Ebene tiefer) kann man da nur raten.

Schaut euch doch diese Links an - als wenn Google nicht schon längst weiß, das Seite X ein Directory für Backlinks ist. Bei meinen alten Directories stand das dick auf der Titelseite bei denen.

Welche verdammten Geheimnisse soll man mit den Disavow Tool wirklich verraten? Das Seitenbesitzer Y 100 Forensigs mit seinem Moneykey vollgespammt hat ist doch nichts was mit dem Forum zusammen hängt.

Es ist anders rum: Google BRAUCHT diese Seiten, damit sie dich als SEO identifizieren können! Google sperrt diese Seiten nicht - für Google sind diese Seiten eine Art Honeypot.

Wer benutzt den das Disvow Tool? Außer SEOs? Keine Sau. Wer erzeugt hunderte von Forensigs mit Moneykeys? Außer SEOs? Keine Sau.

Selbst SEOs wie man in diesem Thread sieht, sind mit dem Ding zurückhaltend. In Anbetracht der Datenmenge, mit der Google sonst arbeitet, ist das nichts.

Diese ganze Geschichte in den WMTs ist eine des Vertrauens. Und wenn du Disavow benutzen mußt, dann hat Google dich schon am Arsch und das Vertrauen ist bei denen dir entzogen.

Die Geschichten hier sind irre aus einem Grund. Einerseits wird Google unterstellt selbst die Anzahl deiner Hühneraugen auszuspionieren.

Andererseits wird gedacht, das Google bei Links, Webseiten und Daten selbst die offensichtlichsten Dinge nicht auf die Reihe bekommt, selbst wenn deren automatische Tools schon längst alle roten Lampen an haben.

Das finde ich immer wieder seltsam.

Die andere Frage ist: Bringt Google die ganzen Geschichten Geld? Nein. Sie kosten. Dieser ganze Algospaß kostet mehr, als sich das hier irgendeiner vorstellen kann. Das ist doch keine Sache von ein oder zwei Mainframes.

Eines sollte man sich klar machen: Der Firmenteil, der sich mit Spam, Backlinks und den Zoo beschäftigt ist auch nur ein Team von vielen - ein Team was Geld ausgibt und nicht einnimmt. Die können nicht einfach sagen "gebt uns mal 10 Rechnenzentren mehr, dafür können wir die SERPS um 2.2% von Spam befreien". Da sagen die Verantwortlichen in keiner Firma jedes mal ok und wunderbar.
Zuletzt geändert von mtx93 am 11.10.2013, 20:34, insgesamt 1-mal geändert.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 11.10.2013, 20:24

Vielleicht. Die 90% Suchmarkt ist aber definitiv mehr, als ein Kostenfaktor. Das ist das Herz des Konzerns.