Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Penguin 2.1 ist live

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
jonasms
PostRank 5
PostRank 5
Beiträge: 219
Registriert: 16.06.2007, 20:20
Wohnort: Münster

Beitrag von jonasms » 10.10.2013, 22:31

Gibt es denn konkrete Maßnahmen die nach dem Update helfen?
Ich bekomme jeden Tag unzählige Mails mit Aufforderungen einen Link zu entfernen.
"Links abbauen" will mir nicht in den Kopf... Also weitermachen wie immer ? :crazyeyes: ?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

MonsieuL
PostRank 5
PostRank 5
Beiträge: 243
Registriert: 17.04.2013, 01:06

Beitrag von MonsieuL » 10.10.2013, 22:43

SloMo hat geschrieben: Disavow kann man evtl. benutzen, um Backlinks zu bereinigen, die gegen Googles Richtlinien verstoßen. Das ist relativ harmlos.
Na darum gehts doch. Gegen Googles Richtlinien verstößt doch mittlerweile so ziemlich jeder Link :D

Ich würde das auch nicht verwenden um schwache Links entwerten zu lassen, sondern ausschließlich für solche, die ich potentiell schädlich halte.

MonsieuL
PostRank 5
PostRank 5
Beiträge: 243
Registriert: 17.04.2013, 01:06

Beitrag von MonsieuL » 10.10.2013, 22:51

Um mal aufs ursprüngliche Thema zurück zu kommen: das hier hab ich in nem englischen SEO-Forum gefunden, finde das durchaus interessant:
I had a website that was hit by P1.0 and just recovered after 2.1

What I did to achieve this - absolutely nothing. Literally not a darn thing, stopped adding new content, new links, etc. The website was not touched since it got the penalty.

So whether your website recovered because of disavowing or other link manipulation is quite questionable. Most likely some of the penalty triggers were removed/adjusted in 2.1.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 10.10.2013, 23:10

Da Spamlinks die Eigenschaft haben auf natürlichem Wege weit schneller und umfassender zu verschwinden als gute Links, kann so ein Effekt sicher eintreten. In 1,5 Jahren kann einiges von selbst wegfallen. Umso mehr weil nach Pinguin viele Betreiber von Spamnetzwerken mit tausenden Bookmark oder Webkatalogseiten die Domains haben auslaufen lassen, weil der Schrott unverkäuflich geworden ist.

Den Rückschluss, daß deshalb Nichtstun die Lösung ist, halte ich aber zumindest für gewagt.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

planta
PostRank 6
PostRank 6
Beiträge: 477
Registriert: 19.07.2007, 14:27

Beitrag von planta » 10.10.2013, 23:15

SloMo hat geschrieben:
MonsieuL hat geschrieben:Google gibt mir dieses Tool zur Hand um Links abwerten zu lassen, die ich für schlecht halte.
Und Google legt dabei großen Wert auf Deine Meinung als SEO?
Alles andere ist eine Partie Schach gegen den Weltmeister... viel Glück!
Google liebt seine Webmaster, deshalb gibt es auch so tolle Tools, jawohl :)

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 10.10.2013, 23:25

I had a website that was hit by P1.0 and just recovered after 2.1 [...] The website was not touched since it got the penalty.
Für mich nur ein deutlicher Hinweis auf False-Positives, die als Kontrollgruppe und zur Verschleierung eingestreut werden.

daytrader
PostRank 8
PostRank 8
Beiträge: 871
Registriert: 12.04.2006, 09:35

Beitrag von daytrader » 11.10.2013, 05:06

Tippi hat geschrieben:
daytrader hat geschrieben:Was ist die Alternative?
Bei vielen Seiten ist es mit Sicherheit sinnvoller mit einer neuen Domain zu beginnen.
Das fällt bei mir aus. Die Domain ist fast 10 Jahre alt und ja nicht verbrannt. Ich habe aber das Gefühl, daß diese Webkataloge das Ranking negativ beeinflußen, da jüngere Mitbewerber teils besser ranken. Zumal meine Seite Onpage auch deutlich besser ist.

Nicht das ich jetzt schlecht ranke. Aber wenn ich mit meiner 10 Jahre alten Domain auf Platz 6 ranke und jüngere, vor mir, dann sollte da Potential sein.

daytrader
PostRank 8
PostRank 8
Beiträge: 871
Registriert: 12.04.2006, 09:35

Beitrag von daytrader » 11.10.2013, 05:12

daytrader hat geschrieben:Bei Webkatalogen wo das austragen und Link löschen nicht funzt, lade ich also eine .txt im WMT hoch. Hab ich es richtig verstanden, daß die so ausschaut?

domain:xeeds.de
domain:harz4ranking.de
domain:link-for-all.de
domain:suchbiene.de
domain:wk-tiere.de
domain:webmaster-verzeichnis.de
domain:weblink24.net
domain:webkatalog.tv
domain:webgate-24.de
domain:warenkorb.ws
domain:vivedo.de
domain:url-kostenlos-eintragen.com
domain:tierboard.de

etc. etc.

?
Um das nochmal hochzuholen.....ist die Liste so richtig die Google haben will?

Ich denke bei mir ist das relativ harmlos. Keine gekauften Links, kein Linktausch nichts. Ich habe halt nur massig Links von Webkatalogen. Und wenn ich mir deren Sichtbarkeit anschaue, so sind doch eigentlich (fast) alle in den letzten Monaten krass abgestürzt und haben nichts mehr an nennenswerter Sichtbarkeit. Kann mir schon vorstellen, daß dies eine ansonsten seriöse Seite (in meinem Fall ein Shop) runterzieht.

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 11.10.2013, 12:54

planta hat geschrieben:
SloMo hat geschrieben:
MonsieuL hat geschrieben:Google gibt mir dieses Tool zur Hand um Links abwerten zu lassen, die ich für schlecht halte.
Und Google legt dabei großen Wert auf Deine Meinung als SEO?
Alles andere ist eine Partie Schach gegen den Weltmeister... viel Glück!
Google liebt seine Webmaster, deshalb gibt es auch so tolle Tools, jawohl :)
Also, eigentlich war es Bing, die das Tool zuerst hatten und Google wollte es nicht. Aber das fanden die Webmaster verdächtig. Dann haben sie es doch eingebaut, auch auf Grund des Drucks der SEOs, die auf Bing verwiesen. Und nun sind sie wirklich verdächtig.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 11.10.2013, 13:10

daytrader hat geschrieben:Um das nochmal hochzuholen.....ist die Liste so richtig die Google haben will?
Ja, richtig.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 11.10.2013, 13:35

SloMo hat geschrieben:
I had a website that was hit by P1.0 and just recovered after 2.1 [...] The website was not touched since it got the penalty.
Für mich nur ein deutlicher Hinweis auf False-Positives, die als Kontrollgruppe und zur Verschleierung eingestreut werden.
SloMo, ich liege ja auch nicht immer richtig, aber diese Art deiner Analyse bringt mich immer auf die Palme. Du kannst einfach nicht aus solchen einzelnen Fällen irgendwelche Aussagen kreieren. Die kommen dann nur aus deinem Kopf. Du wirst auf diesem Level des "es ist passiert" oder "meine Werte haben sich so verändert" alles finden und alles Begründen können.

Das ist dann wie meine Oma, die immer meint das ein Unglück passieren könnte bei was auch immer. Sie liegt immer richtig am Ende - den irgendwann passiert immer ein Unglück oder es läuft etwas schief. Das sie vorher immer wieder daneben lag, geht nicht in ihren Kopf. Ihr Ursache/Wirkung Modell ist schlicht falsch - auch wenn es im Falle es Unglücks dann 100% zu stimmen scheint.

Im Klartext - du wirst es nie verstehen anhand der Nadeln im Heuhaufen. Den die Erklärung liegt im Heu, die den Heuhaufen bildet. Es macht also hier nur Sinn die Webseiten zu betrachen, die nie oder die von Penguin betroffen sind und das Muster dahinter zu analysieren.

Sollte man am Ende ein Modell mit hoher Genauigkeit haben, könnte man dann auch Manipulationen erkennen, aber auch nur in dem man sie dann den Daten des funktionierenden Models entgegen stellt.

Bei dem Beispiel von dir ist ein Gegenmodell übrigens einfach:

Die Seite wurde leicht gespammt - Directories und "privates" Linknetz.
Oder ein Tool wie "one hand seo", wie es vor ein paar Jahren ja modern war, sein Linkprofil schnell aufzubauen.

In den 2-3 Jahren seit Penguin 1.0 wurden aber viele Directories, Linknetze und Linksourcen von Tools geschlossen weil nun von Google auf den Index gesetzt. Es ist in der Natur der meisten Linknetze, wo du keine eigene Seiten als Hosts eintragen kannst, das sie ganz verschwinden können wenn deren Domains verfallen.

Was passiert, wenn nun sonst nichts am Linkprofil getan wurde? Antwort: Es reinigt sich "Entropisch" selber. Wenn genug gute Links schon existierten und die Seite eh an der Malusgrenze lag, dann wird es irgendwann bei einem neuen Penguinupdate wieder ein Linkprofil ohne Penguin Malus geben.

Will heißen, dein Beispiel oben geht in die ganz andere Richtung: Es zeigt das a.) Seiten sich von Penguin erholen können und b.) das es auch ohne Eingriff geht. Und in diesem Modell kommen wir ganz ohne zusatzliche Mechanismen aus wie Kontrollgruppen oder sonstwas. Schlicht und einfach Zeit und Entropie, die für eine Reihe von Linkprofilen schon aus der Logik herraus funktionieren sollte. Auch der Zeitrahmen von 1-3 Jahren kommt hin.

Abgesehen davon ist dieses Verhalten genau das, was man von einem echten Algo erwarten sollte. Stumpfes abarbeiten der Daten.

daytrader
PostRank 8
PostRank 8
Beiträge: 871
Registriert: 12.04.2006, 09:35

Beitrag von daytrader » 11.10.2013, 14:18

Vegas hat geschrieben:
daytrader hat geschrieben:Um das nochmal hochzuholen.....ist die Liste so richtig die Google haben will?
Ja, richtig.
Danke dann probiere ich das mal mit einen Teil der Links. Mal schauen, ob es was bringt.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 11.10.2013, 15:59

mtx93 hat geschrieben:
SloMo hat geschrieben:Für mich nur ein deutlicher Hinweis auf False-Positives, die als Kontrollgruppe und zur Verschleierung eingestreut werden.
SloMo, ich liege ja auch nicht immer richtig, aber diese Art deiner Analyse bringt mich immer auf die Palme.
Ich analysiere doch gar nicht. Ich habe mir im Gegenteil losgelöst von solchen Aussagen überlegt, wie ich als Entwickler vorgehen würde, um manipulative Disavow-Meldungen zu erkennen. False-Positives sind perfekt zu diesem Zweck. Nur Google kennt die Menge der False-Positives. Wenn Sie nur diese (relativ kleine) Gruppe von Websites betrachten, erreichen sie sehr schnell ein signifikantes Urteil darüber, wie manipulativ oder aufrichtig jemand bei Disavow ist. Wenn dann von mysteriösen Penguin-Recoveries berichtet wird, ist das für mich ein ziemlich starkes Indiz, dass Google diesen Weg geht.

Das ist eher theoretische SEO. Ich denke, echte Beweisführungen sind in der SEO inzwischen fast erledigt, weil Google selbstverständlich das Reverse-Engineering absichtlich erschwert. Das ist der zweite Effekt solcher False-Positives: sie funktionieren wie ein Kopierschutz für den Algo.

Wenn es also (mindestens) zwei so gute Gründe für False-Positives gibt, wird Google bestimmt nicht darauf verzichten.

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 11.10.2013, 16:36

SloMo hat geschrieben:
mtx93 hat geschrieben:
SloMo hat geschrieben:Für mich nur ein deutlicher Hinweis auf False-Positives, die als Kontrollgruppe und zur Verschleierung eingestreut werden.
SloMo, ich liege ja auch nicht immer richtig, aber diese Art deiner Analyse bringt mich immer auf die Palme.
Ich analysiere doch gar nicht. Ich habe mir im Gegenteil losgelöst von solchen Aussagen überlegt, wie ich als Entwickler vorgehen würde, um manipulative Disavow-Meldungen zu erkennen. False-Positives sind perfekt zu diesem Zweck. Nur Google kennt die Menge der False-Positives. Wenn Sie nur diese (relativ kleine) Gruppe von Websites betrachten, erreichen sie sehr schnell ein signifikantes Urteil darüber, wie manipulativ oder aufrichtig jemand bei Disavow ist. Wenn dann von mysteriösen Penguin-Recoveries berichtet wird, ist das für mich ein ziemlich starkes Indiz, dass Google diesen Weg geht.

Das ist eher theoretische SEO. Ich denke, echte Beweisführungen sind in der SEO inzwischen fast erledigt, weil Google selbstverständlich das Reverse-Engineering absichtlich erschwert. Das ist der zweite Effekt solcher False-Positives: sie funktionieren wie ein Kopierschutz für den Algo.

Wenn es also (mindestens) zwei so gute Gründe für False-Positives gibt, wird Google bestimmt nicht darauf verzichten.
Aber das braucht Google doch bei Penguin nicht. Der Algo ist nicht real time sondern wird alle X Monate Offsite berechnet und refreshed. Da braucht es sowas nicht, der Zeitfaktor erledigt das implizit.

Anders als bei Panda & Co - da hat Google deshalb auch diesen speziellen Patent-Algo, der bei bestimmten Änderungen des SEO-Profils einen zufälligen Rankingwert addiert und so das RE erschwert.

Deine Idee ist nicht grundsätzlich falsch nur hier in diesem Fall zu kompliziert und wäre doppelte Arbeit. Da ist Google zu professionell.

Sollte Penguin wie Panda in schnellerer Folge und/oder automatisch erfolgen, werden die schon was einbauen - aber z.Z. sehe ich das nicht.

swiat
PostRank 10
PostRank 10
Beiträge: 6202
Registriert: 25.02.2005, 23:56

Beitrag von swiat » 11.10.2013, 16:46

jonasms hat geschrieben:Gibt es denn konkrete Maßnahmen die nach dem Update helfen?
Ich bekomme jeden Tag unzählige Mails mit Aufforderungen einen Link zu entfernen.
"Links abbauen" will mir nicht in den Kopf... Also weitermachen wie immer ? :crazyeyes: ?
Verlangst pro Link 49 Euro, hörst dann nie wieder was. :wink:

Auf 9,90 Euro lassen sich viele aber ein, versuchs mal, etwas TG für nebenbei.

:D
Kostenlose Backlinks: Hier lang <<<

Antworten