Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Linkabbau nach Penguin 2.0 (4)

Alles zum Thema Google Pagerank und Backlink Updates.
Neues Thema Antworten
SEO-Junior
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 02.10.2011, 16:09

Beitrag von SEO-Junior » 09.06.2013, 13:43

Hallo zusammen

Ich habe eine Frage zum Linkabbau nach Penguin 2.0.

Es scheint festzustehen, daß der neue Pinguin vor allem Seiten erwischt hat, die viele Links mit einem unnatürlichen "exact match anchortext" haben.

Oft kann man auch lesen und hören (u.a. Hanns Kronenberg/sistrix), daß Google genau diese Links entwertet hat und die Seiten deshalb im Ranking nach hinten gerutscht sind.

Meine Fragen lauten nun:

1. Sollte man diese Links dennoch abbauen, obwohl Google diese Links offensichtlich bereits nicht mehr für sein Ranking heranzieht?

2. Wenn die Antwort auf Frage 1 ja lautet:

Sollte man diese Links auf einen Schlag abschalten, oder über einen längeren Zeitraum von 6-8 Wochen häppchenweise.

3. Sollte man die abgeschalteten Links im gleichen Zeitraum, durch z.B.
gute Branchenbücher oder ähnliches ersetzen?

Bei Frage 1 wäre ich auch sehr an einer kurzen Begründung interessiert, weil sich mir die Logik mit einer ja/nein Antwort wohl nicht ganz erschließen wird.

Ich danke Euch sehr herzlich und wünsche einen schönen Sonntag.
Beste Grüße
SEO-Junior

ABAKUS

von ABAKUS »

Anzeige



Professionelles und nachhaltiges Linkbuilding bei ABAKUS Internet Marketing.
Nutzen Sie unsere jahrelange Erfahrung und lassen Sie sich zu den Themen Offpage-Optimierung und Linkaufbau beraten!
Jetzt anfragen unter: www.abakus-internet-marketing.de


Mac_Manu
PostRank 5
PostRank 5
Beiträge: 242
Registriert: 12.08.2008, 05:09

Beitrag von Mac_Manu » 10.06.2013, 05:24

Mich würde mal interessieren wie hoch die Prozentzahl an den exact match Anchortexten ist.

imwebsein
PostRank 9
PostRank 9
Beiträge: 1979
Registriert: 25.09.2011, 23:44

Beitrag von imwebsein » 10.06.2013, 08:48

Also ich weiß ja nicht woher du diese Infos hast, aber das mit den Anchortexten war auch schon zu Pinguin 1 so. Ich für meinen Teil würde eher sagen dass Sie gerade hier mehr Spielraum gegeben haben. Gerade Seiten die es damals erwischt haben, obwohl die % Verteilung nicht sooo schlimm aussah sind jetzt wieder da.

Schaue ich mir die Leute an die viel verloren haben sind es doch die billig Links wie Webkataloge und Social Bookmarks, auch einige Netzwerke scheinen aussortiert worden zu sein.

Abbau würde ich immer nur dann betreiben wenn ich mir wirklich wirklich sicher bin das dieser Link jetzt schadet und das ist so so selten. Im übrigen hat Google ja so einige Patente wo die das Verhalten des Webmasters bezüglich Abbau usw auch analysieren nur zu nebenbei...

gh2000
PostRank 2
PostRank 2
Beiträge: 53
Registriert: 18.01.2010, 15:25

Beitrag von gh2000 » 10.06.2013, 09:45

Wenn die Verteilung tatsächlich das Problem ist, würde ich den Anteil verringern indem ich zusätzliche Links mit variierenden Anchortexten aufbaue, statt Links abzubauen.

Linkabbau ist m.E. schon eine extreme (und teure) Maßnahme, die höchstens in Frage kommt, wenn man einen "blauen Brief" von google bekommt.

Livio
PostRank 3
PostRank 3
Beiträge: 88
Registriert: 12.02.2011, 19:26
Wohnort: Ungarn

Beitrag von Livio » 10.06.2013, 09:46

imwebsein hat geschrieben:Abbau würde ich immer nur dann betreiben wenn ich mir wirklich wirklich sicher bin das dieser Link jetzt schadet und das ist so so selten. Im übrigen hat Google ja so einige Patente wo die das Verhalten des Webmasters bezüglich Abbau usw auch analysieren nur zu nebenbei...
Das ist eine wohl richtige Feststellung. Durch Pinguin 2.0 geaendert hat sich, dass im Einzelfall mit hoher Wahrscheinlichkeit etliche Links zwar nicht schaden, aber auch nicht mehr nützen. Google ist und bleibt ein Programm und wird nicht zum Angestellten. Demzufolge hat jeder Link einen bestimmten Wert und dieser Wert betraegt nach Pinguin 2.0 eben in vielen Faellen Nullkommanichts, ist aber nicht negativ.

Was Webkataloge anbelangt, würde ich da differenzieren und gehe nach dem vor, was bekannt ist: Ich streiche von meiner Linkbauliste diejenigen, wo mein Eintrag mit einem mindestens 1000 Zeichen umfassenden Beschreibungstext nicht auf einer eigenstaendigen Seite erscheint, die inklusive aller anderen Links (Google-Werbung etc.) weniger als 20 ausgehende Links hat.

Mit einem vernünftigen Tool sollte man in der Lage sein, ausreichend themenrelevante Anker aus einer Webseite rauszuholen, mit denen man Links mit guten Chancen auf eine Bewertung > Null bauen kann.

Sumatis
PostRank 9
PostRank 9
Beiträge: 1026
Registriert: 12.01.2006, 12:24

Beitrag von Sumatis » 12.06.2013, 12:48

@Livio:
"Was bekannt ist"?
Woher ist bekannt, dass es mind. 1000 Zeichen auf einer Detailseite sein müssen?
Panda braucht sicher mehr als 1000 Zeichen, das sind ja nur so 100 bis 200 Worte.

Es mag vereinzelt noch für G akzeptabele Kataloge geben, aber die deren einzelne Kat- oder Detailseiten mit den Backlinks kannst du vergessen, was soll von da noch Positives kommen? PR sicher nicht, vielleicht etwas Themenrelevanz, aber halt auch nur von der Seite, nicht von der Domain. Wer weiß, ob G den Linktext überhaupt noch registriert bei Katalogen und wenn, dann kann das schlecht sein, weil man zu viele KWs drin hat.

Fast alle Kataloge und AVs haben seit längerem konstant eine Null-Sichtbarkeit, laut SEO-Diver. Ich glaube nicht, dass sie sich davon nochmal erholen. In einem Jahr ist die Häfte aller AVs und Kataloge verschwunden. Keine Besucher -> keine Werbeieinnahmen -> weg damit.

Shop_SEO
PostRank 8
PostRank 8
Beiträge: 772
Registriert: 19.03.2013, 19:30

Beitrag von Shop_SEO » 12.06.2013, 18:32

@Sumatis, ich gehe noch einen Schritt weiter: In 12 Monaten wird es außer wenigen Alibiseiten wie Wikipedia kaum noch Seiten in den Top 10 geben, die nicht entweder in Adwords investieren oder Adsense in ihre Seiten eingebaut haben.

holgi74
PostRank 6
PostRank 6
Beiträge: 379
Registriert: 03.02.2007, 14:22
Wohnort: Chemnitz

Beitrag von holgi74 » 13.06.2013, 08:27

erst werden massiv Links aufgebaut dann wieder abgebaut

Erhalte ständig Mails mit Anfragen zum Entfernen von Links

Leute nutzt doch die Zeit sinnvoller - Google ist doch nicht blöd und erkennt das alles (es sei denn man macht es richtig)

ich erziele mit Social Media schneller und zielgerichteter Traffic

verbessert euren Authorrank, Responsive Webdesign, Share Buttons

und was ganz wichtig ist Mehrwert für den Besucher

Livio
PostRank 3
PostRank 3
Beiträge: 88
Registriert: 12.02.2011, 19:26
Wohnort: Ungarn

Beitrag von Livio » 13.06.2013, 12:29

Sumatis hat geschrieben:@Livio:
"Was bekannt ist"?
Woher ist bekannt, dass es mind. 1000 Zeichen auf einer Detailseite sein müssen?
Panda braucht sicher mehr als 1000 Zeichen, das sind ja nur so 100 bis 200 Worte.
bekannt bezog sich nicht auf die Zeichenzahl, sondern auf die ausgehenden Links und wenn ich das richtig verstanden habe, dann zaehlt da alles mit, was an "a href" im Kode ist und ne "Auslandsreise" macht.

Panda schmeckt ein themenrelevantes Umfeld, abwechslungsreich sollte die Kost auch sein, aber eine einseitige Fütterung mit ausschliesslich Synonymen führt dazu, dass Panda die Marke seines Lieblingsfutters vergisst und sich woanders versorgt. :)

Sumatis
PostRank 9
PostRank 9
Beiträge: 1026
Registriert: 12.01.2006, 12:24

Beitrag von Sumatis » 13.06.2013, 20:25

holgi74 hat geschrieben:erst werden massiv Links aufgebaut dann wieder abgebaut

Erhalte ständig Mails mit Anfragen zum Entfernen von Links

Leute nutzt doch die Zeit sinnvoller - Google ist doch nicht blöd und erkennt das alles (es sei denn man macht es richtig)

ich erziele mit Social Media schneller und zielgerichteter Traffic

verbessert euren Authorrank, Responsive Webdesign, Share Buttons

und was ganz wichtig ist Mehrwert für den Besucher


Die beste Lösung ist beides zu machen. Wenn du mehrere Domains hast mit massivem Ungleichgewicht, dann bräuchtest du ziemlich lange, wenn du das nur durch Aufbau ausgleichen willst.

Das Argument gegen den Abbau "Google merkt das dann" kann ich gar nicht nachvollziehen. Na und? Darf G doch gerne merken. Was sollte denn dann Unangenehmes passieren? Die Filterstrafe hat man doch bereits, was soll noch Schlimmeres passieren? Im Gegenteil, G SOLL es merken. Dann merkt G, dass man das Problem erkannt und eingesehen hat und was dagegen tut. G selbst empfiehlt, vor dem Einsatz von disavow die Links zu löschen (lassen).

"Dann weiß G, dass ich ein SEO bin"! Gleicher Käse, das allein führt sicher nicht zu einer manuellen Ungleichbehandlung und dem Algo ist das wurscht. Außerdem weiß G das schon lange: Nutzung der WMT, Analytics, Google+, disavow, Autorenschaft, reinclusion request, DMCA, posten im G-WMT-Forum usw.

Schon lustig, wenn z.B. Prof. Mario Fischer selbiges nach Bekanntwerden des disavow-Tools auf seinem Blog befürchtet. Autor eines SEO-Bestellers (zu Recht) und Verleger einer SEO-Zeitschrift, deutschlandweit bekannt, führt Interviews mit Matt Cutts und dann gegenüber G als SEO unerkannt bleiben wollen :)

Ich kann es nur vermuten, aber wenn der Linkabbau nicht zur Erholung führt, dann wahrscheinlich, weil die Erholung länger dauert und/oder weil man falsche Links abgebaut hat oder nicht genug (nicht alle BLs einer Domain) der schlechten oder das disavowen technisch nicht klappt (falsche Encodierung, falsche Syntax).

Popeye
PostRank 5
PostRank 5
Beiträge: 331
Registriert: 22.10.2003, 11:33
Wohnort: Dortmund

Beitrag von Popeye » 20.06.2013, 12:00

Wie sieht es nach eurer Meinung aus mit Seiten wie fin​d*i​mil​ars​ite​s.c​*m oder w*bwiki.d* ?
Die ballern einem ja in der letzten Zeit die WMT mit Backlinks voll...

Ein Fall für Disavow..?

Sumatis
PostRank 9
PostRank 9
Beiträge: 1026
Registriert: 12.01.2006, 12:24

Beitrag von Sumatis » 21.06.2013, 00:58

webwiki ist mir auch aufgefallen.

Hat das was mit Wikipedia zu tun?

Sind aber alle nof. bei mir.

rayman
PostRank 5
PostRank 5
Beiträge: 279
Registriert: 21.11.2006, 15:49
Wohnort: Frankfurt am Main

Beitrag von rayman » 21.06.2013, 10:55

da ich unmöglich,
nun die Links von den ganzen Tauschaktionen der letzten 10 Jahre abbauen kann,
habe ich mich dazu entschlossen,
die wichtigsten Seiten einfach auf einer neuer Domain aufzubauen :idea:


Nun habe ich zwar doppelten Content,
da die Hauptseite aber eh im Keller ist,
kann es eh kaum noch schlimmer kommen :(

Antworten