Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Aus 1500 Besuchern werden 50, Ranking gefallen. Was tun?

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 10.08.2013, 07:36

Platz 1 sollte niemals ein Keyword, sondern immer die Brand sein.
URL kommt in der Regel auch vor dem KW.
Würde da ganz hart den Rotstift ansetzen und gleichzeitig natürliche Ankertexte nachschießen.

Ankertexte ändern wäre bei den starken Links auch ratsam, denn ich halte es für ein Gerücht, dass es nur auf die Anzahl ankommt.

grgm
PostRank 1
PostRank 1
Beiträge: 23
Registriert: 04.01.2012, 20:31

Beitrag von grgm » 10.08.2013, 07:46

Hier mal grob die Ankertextverteilung:

1. Keyword (~ 10%)
2. URL (~ 10%)
3. URL (~ 9%)
4. Keyword 5%
5. Brand 5%
6. URL ... 4%
.
.
.

Also bis auf dem Keyword an Platz 1 eigentlich nicht ganz so übel finde ich.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 10.08.2013, 10:04

Zusammengefasst ergibt sich aber folgendes Bild in SeoDiver:

Marke: 2,01 %
Marke + Keyword: 6,69 %
Domain: 30,41 %
Keyword: 60,89 %

Und die Top 5 (anonymisiert):

1. [hauptkeyword singular] 16,91 %
2. [url ohne www] 6,97 %
3. [hauptkeyword plural] 6,41 %
4. [url mit www] 4,81 %
5. [url mit http und www] 3,93 %

Auffällig sind auch die 12% Nofollow-Links. Sie deuten auf einen relativ großen Anteil Kommentar- oder Bookmarklinks hin, habe mir das aber gerade nicht genauer angesehen, vielleicht sind es ja auch Wikipedia-Links ;)

Generische Anchor-Texte fehlen praktisch völlig -> übel!

Der Panda ist noch ein ganz anderes Thema: den kriegst Du nur mit User-Experience in den Griff. Mehr Qualitätsbewusstsein bei neuen Artikeln wäre ein Anfang! Zwischenüberschriften, Listen, <strong> um das Scannen des Textes zu erleichtern.

Was soll eigentlich der interne DC? Alle Artikel sind im Blog und in der eigentlichen Seite zu finden. Eine Version wird von Google als Duplikat erkannt und deindiziert. Du solltest Google mindestens mit Canonical einen Tipp geben, welche Fassung in den Index soll. Vorzugsweise die Blog-Fassung, weil sie die Kommentare enthält (schöner organischer Zusatz-Content).

grgm
PostRank 1
PostRank 1
Beiträge: 23
Registriert: 04.01.2012, 20:31

Beitrag von grgm » 10.08.2013, 10:28

Habe meine Zahlen nur aus der Sistrix Toolbox. Danke daher für die Zusatzinfos. Die nofollow dürften wenn dann Bookmarklinks sein, die habe ich vor Jahren etwas häufiger eingesetzt. Damals hat das ja auch noch ganz gut funktioniert ;)

Das mit dem internen DC hat sich damals ergeben, nachdem ich den Blog installiert und festgestellt hatte, dass dieser sehr gut rankt und viele Besucher hier einstiegen. Gleichzeitig wollte ich die Besucher der eigentlichen Seite aber auch aufmerksam auf die Blogartikel machen. Evtl. müsste ich mir da was überlegen (nur verlinken statt einbetten?), allerdings war dies schon immer so mit dem "DC", das war nie ein Problem für Google (ist ja eh auf der gleichen Domain). Es wird aber imho meist ohnehin die Blogversion indiziert.

heinrich
PostRank 9
PostRank 9
Beiträge: 2764
Registriert: 17.08.2006, 10:26

Beitrag von heinrich » 10.08.2013, 11:02

Steige zwar recht spät in die Diskussion ein, aber ein Argument hat mir gefehlt: Wenn man in einer Nische angesiedelt ist, dann kommt es nicht selten vor, dass sich ein anderer denkt das könnte ich auch einmal probieren! Schau dir einfach einmal die Konkurrenz an ...

webbastler
PostRank 6
PostRank 6
Beiträge: 420
Registriert: 11.01.2013, 11:09
Wohnort: umgezogen nach Hückeswagen

Beitrag von webbastler » 10.08.2013, 11:35

Manche heißen Keywords haben sich nach einigen Jahren auch erledigt und werden fast schlagartig kaum noch benutzt.

Keks
PostRank 6
PostRank 6
Beiträge: 448
Registriert: 12.03.2004, 20:13
Wohnort: Kiel (Schleswig-Holstein)

Beitrag von Keks » 12.08.2013, 20:27

dritter und letzter punkt sind deine internen links. nimm alle links von allen seiten raus. verlink keine unterseite mit einer anderen ausser die gehören zusammen.
@Lyk

Ich lese nun schon zum 2. Mal von Dir die Aussage, dass man die interne Verlinkung radikal verändern soll, ich bin nun auch schon einige Jahre als SEO dabei :oops:

aber ich verstehe nicht wieso die interne Verlinkung so ein Problem sein soll.

So wie ich Deine Aussage lese, dürfe ich gar nicht mehr mit einer zentralen Navigation arbeiten , wo diverse Seiten einer Domain immer wieder angelinkt werden.

Ich kenne Deine Threads zum Thema Keyworddomains, wo du auch immer wieder darauf hinweist, dass man die jeweiligen Kategorien anlinken soll, aber bei einem größeren Projekt ist das doch kaumn möglich.

Ich betreue einen Kunden mit ca. 600 Unterseiten echten Content, der aktuell bei den Updates verloren hat. Da kann ich ja nicht eben mal die Hauptnavigation löschen, dann findet sich keiner mehr zurecht.

Wäre toll, wenn du noch mal Dein Gedankengang dazu schreiben könntest, wieso du meinst, dass die interne Navigation so radikal geändert werden sollte. Ich halte das bei 80% der Projekte für nicht machbar.

mfg
Keks

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 12.08.2013, 21:26

@Keks: Sieht nach radikaler Linkjuice-Optimierung aus, um schnelle Erfolge zu erzielen. Merke: Zauberformeln nützen immer nur dem Magier, der sie verkauft.

Das Rezept: man nehme eine Hand voll Content, verlinke ihn so direkt und einfach wie möglich und pumpe ordentlich Linkjuice hinein. Das Gebilde steigt dann (geschützt vom Newbie-Bonus) in den SERPs wie ein Luftballon auf. Wenn es oben ist: Verkaufen, bevor es platzt!

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 12.08.2013, 23:18

Newbie-Bonus ist auch so eine Sache. Da werden Teilweise 6-8 Monate alte Projekte noch mit "Newbie Bonus" belegt. Das halte ich für abwegig.
Man mag mich berichtigen, aber ich habe nie auch nur im Ansatz was sustanzielles über den NB gelesen.

Das kommt wohl, weil es den "News Bonus" gibt. Also "Keywörter" die Google als "aktuelle News" identifiziert und die naturgemäß ohne Backlinks ranken, rein aus der Authority der Seite raus (geht ja nicht anders).

In 3-6 Monaten hat Google im Zweifel 2-3 Major Updates rausgehauen und wenn es sich nicht um eine aktive Seite handelt, dürften die in der Anfangszeit gesetzten Backlinks eher abgenommen haben.

Wenn es eine gesuchte Nische ist, kommen da in 3-6 Monaten eben auch eine Reihe von neuen Mitbewerbern dazu, die ordentlich Linkaufbau betreiben. Da geht es dann schonmal 10-20 Ranks runter.

Ich denke, der berüchtigte NB ist das letzte, was wirklich eine Rolle spielt.

Wenn nicht, ist es um so besser. Alle 6 Monate eine neue Domain mit ähnlichen Content raushauen und ein paar geziehlte 301 von der alten und voila - neues Ranking weil Newbie Bonus.


Komisch finde ich auch, das wenn hier jemand schreibt "ich habe eine neue Domain mit tollen Content, warum rankt die nicht vorne" dann ist hier immer der Tip, erstmal abzuwarten, Content zu posten und Backlinks zu setzen, weil die sich erst etablieren muss.

Da ist der Newbie Bonus dann wo?

Ich denke das der NB meist nur der Effekt des starken ersten Linkaufbau ist. Dann noch 2-3 der eigenen PR 5+ Domains drauf. Klar geht das Ding dann erstmal ab.

Das geht auch weiter ab, wenn du da alle 7 Tage 2-3 PR5 Authority Domains drauflinkst.

Genau so funktioniert ja das SAPE Prinzip. Du kaufst dir immer mal wieder ein paar neue PR Links, während alte hinten raus fallen. Das ist das Prinzip und war auch das Prinzip der berühmten "privaten Netzwerke" (die weder Privat noch echte Netzwerke waren, sondern eine endlose Reihe immer neuer Fakeblogs, die im Prinzip genau das gleiche machten, wie gekaufte Links bei SAPE). Gibt es den Begriff "Backlinkstreaming" eigentlich schon?

Gerade neue Projekte hören ja auf mit Backlinks, wenn sie dann oben stehen. Warum mehr? Mehr geht nicht.

Außerdem haben viele Nischen so eine Art "Backlinksschwelle". Da ist mit guten Comments auf den richtigen Blogs, hier ein Forum Profil und da eine Linktausch schnell was zusammen. Aber dann ist die erste Welle aufgebraucht. Die nächsten Blogs zum Thema sind schlechter, die Foren weiter hinten geben keine LJ usw.

Nur Google sieht dann: Hm, keine Sau interessiert sich mehr für diese Seite/URL.

Machen wir mal ein Gedankenspiel, es geht mir um die Fallstricke der Analyse, selbst wenn man genau den Zeitpunkt und damit das Update der Abwertung kennt.

Google hat ja naturgemäß schon die Daten der Backlinks und wie sich die Verlinkung verändert.

99.9% hat Google einen Parameter, der das statistisch auswertet und als Qualitätsfaktor mit rein nimmt. Ich würde das tun und es macht keinen Sinn es nicht zu tun. Das muss lange nichts ausmachen, wenn die Seite sonst gute Signale hat. Auch das ist logisch, wenn ich mir anschaue das alte Projekt mit guter, alter Verlinkung stabil sind.

Nun lass uns sagen, das das Backlinksignal stark ist. 35%. Bei 50% schlechte Signale geht es runter. Aber du hast 10-15 Signale mit jeweils 5-10%, die auf ok stehen. Was passiert also? nichts. Guten Projekten würde das grundsätzlich in einer stabilen Nische nichts ausmachen.

DANN ABER kommt ein neues Panda.

Das Panda selber sagt nicht "die Seite ist doof". Aber Google kann ja ein paar Dinge neu werten. 3-4 kleinere Signale mit 5% gehen runter. Nichts wirklich wichtiges, bei einer Seite ohne den Backlinkstop passiert rein gar nichts.

Aber wie sieht es nun unter dem Strich aus? 20% (neue) schlechte Signale und der 35% durch die fehlenden Backlinks. 50% Border überschritten.

Und es geht runter.

Was sieht man in den Statistiken?
Panda hat zugeschlagen - weil an dem Zeitpunkt geht es klar runter.

Und nun geht auf die Seite und versucht zu erkennen, warum Panda die Seite abgewertet hat.

Keine Chance, weil es nicht der eigentliche Grund war, sondern nur der berühmte Tropfen.

DAS ist das Problem mit der Analyse und das macht gerade Penguin so problematisch, da du eben ein Feedback, ob du das Problem erkannt hast, nur 2-3 mal im Jahr hast. Penguin, einmal im Monat updated, wäre schon längst einigermaßen entschärft.

Und es GIBT genug Berichte im Internet, wie eine gute SEO-Company ein Penguin mit Disavow & Rec-Antrag wieder auf die Beine gestellt hat. Der Rec-Antrag ist dabei der Punkt, da dadurch die Seite manuell neu durch die Filterberechnung gejagt wird.

Klar ist das hier nur ein sehr theoretisches Szenario, wie und ob Google den Backlinkbau bewertet, gerade über die Zeit, werden die uns nie aus guten Grund erzählen.

Aber 100% gibt es andere Mechanismen, die genau diese Abläufe haben.
Zuletzt geändert von mtx93 am 13.08.2013, 00:15, insgesamt 6-mal geändert.

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 12.08.2013, 23:33

Unbekannter hat geschrieben:Ein Tipp den ich dir geben kann:

1. Vergeude deine Zeit nicht mit Ankertext Änderungen, neue Links aufbauen dies und das. Hab, wie sehr viele andere auch, 1. Jahr damit vergeudet. Bringt nix. Kenne kaum welche/niemanden welche die sich je vom Pinguin erholen konnten. Falls du wirklich vom Pinguin betroffen bist.

Entweder du startest dein Business neu oder du machst das Katz und Maus Spiel, welches wohl einige erfolgreich durchführen: Neue Domain registrieren, allen Content auf neue Domain veröffentlichen und die Alte per 301 umleiten. Das soll ca. 3-4 Monate gutgehen hab ich mir sagen lassen. Also hast du für ca. 3-4 Monate deine alten Rankings zurück. Danach greift wohl erst wieder die Abstrafung.
Die alte Abstrafung greift nicht wieder - es ist eine neue.
Und die braucht bei Penguin einige Zeit weil Penguin nur alle paar Monate eingespielt wird.

Weil wenn du den alten Content nimmst, der im Panda & Penguin Zweieck ist...

Der soll aus welchem Grund auf der neuen Domain dann keine Algo Abstrafung erhalten? Sagt der Algo dann "hm, diesmal nicht, ich hab keine Lust"?

Bei einen vollen 301 gibst du dann auch noch die passende Backlinkstruktur dazu.

Natürlich wiederholt sich dann die Nummer - das Gegenteil wäre die Sensation.

Also Content in veränderter Form umsetzen, Keywörter neu ausrichten und bei kritischen Seiten die Page-URL ändern, eine Packung Backlinks in der richtigen Mischung dazu und dann 301 um die Linkjuice zu retten.
Mit 40x für die Seiten, die man gekickt hat.

Im Zweifel (hab ich noch nicht probiert) Disavow von kritischen Links der alten Domain, macht ja nun nichts mehr, da man nur den Rest mit 301 nutzt.

Funktioniert das? Mit einer realen Chance.

Aber einfach Content rüberschieben und 301 - so blöd ist Google dann auch nicht. DAS kriegen die schon analysiert.

Die echten Spamer machen den 301 auch nur für ein paar Wochen, die wissen das es nicht wirklich funktioniert, die nutzen nur ein Timingloch bei Googles Algo. Noch.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag