Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Zu schneller Linkaufbau wirklich schädlich?

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
Majora
PostRank 4
PostRank 4
Beiträge: 130
Registriert: 27.03.2005, 11:47

Beitrag von Majora » 29.08.2010, 23:44

Hallo,
ist ein zu schneller Linkaufbau wirklich so schädlich wie es manche behaupten?

Stehe ich mit einen Keywort auf Platz 4, dann könnte ich ja am Tag 300 Backlinks setzen auf die Seite n die bei Google auf Platz 1,2 und 3 sind, die werden dann abgestraft oder fliegen sogar aus dem index und ich bin auf Platz 1.

Was ist dran an den Mythos zu schneller Linkaufbau?

Grüße,
Majora

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 30.08.2010, 00:27

Alles ist relativ.
300/Tag bei null ist Hasarde, 300 bei 400.000 ist Kleinscheiß.

Ach, vergessen: auf andere schießen macht man nicht.
Hat alles seine Gründe.

Alda
PostRank 10
PostRank 10
Beiträge: 4584
Registriert: 27.01.2009, 20:19
Wohnort: Kaiserslautern

Beitrag von Alda » 30.08.2010, 00:37

Schon die Frage ist im Ansatz fehlerhaft. Stell Dir vor, Du bist ein Handyverkäufer mit Namen Paul P. und gewinnst urplötzlich einen riesigen Songcontest. Die Presse überschlägt sich, ein Riesenhype bricht los. 2 Tage später hat Dein neues Management erstmal eine Site ins Netz geknallt.

Was meinst Du,
a) wie viele Links wirst Du anfänglich pro Tag bekommen Hunderte, Tausende?
b) wie werden sich die Links anteilig zusammensetzen?

Hrrr, nu bist Du aber leider der kleine Elektromeister Gerold Fischer und hast gerade Deine Startseite, die vier üblichen Inhaltsseiten + Impressum ins Netz gestellt.

WIE viele Links am Tag bekommst Du dann? Keinen. Einer im Monat ist noch zu viel.

Was geht und was nicht, kannst Du also nur am Projekt und dessen Umfeld fest machen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

waneck
PostRank 7
PostRank 7
Beiträge: 644
Registriert: 06.04.2009, 13:42

Beitrag von waneck » 30.08.2010, 04:00

Majora hat geschrieben:Stehe ich mit einen Keywort auf Platz 4, dann könnte ich ja am Tag 300 Backlinks setzen auf die Seite n die bei Google auf Platz 1,2 und 3 sind, die werden dann abgestraft oder fliegen sogar aus dem index und ich bin auf Platz 1.
Allein nur solche Gedanken zu haben ... :bad-words:
Alda hat geschrieben:Schon die Frage ist im Ansatz fehlerhaft. Stell Dir vor, Du bist ein Handyverkäufer mit Namen Paul P. und gewinnst urplötzlich einen riesigen Songcontest. Die Presse überschlägt sich, ein Riesenhype bricht los. 2 Tage später hat Dein neues Management erstmal eine Site ins Netz geknallt.

Was meinst Du,
a) wie viele Links wirst Du anfänglich pro Tag bekommen Hunderte, Tausende?
b) wie werden sich die Links anteilig zusammensetzen?

Hrrr, nu bist Du aber leider der kleine Elektromeister Gerold Fischer und hast gerade Deine Startseite, die vier üblichen Inhaltsseiten + Impressum ins Netz gestellt.

WIE viele Links am Tag bekommst Du dann? Keinen. Einer im Monat ist noch zu viel.

Was geht und was nicht, kannst Du also nur am Projekt und dessen Umfeld fest machen.

100% Zustimmung!

Gruß waneck

gzs
PostRank 9
PostRank 9
Beiträge: 1384
Registriert: 03.12.2006, 12:10

Beitrag von gzs » 30.08.2010, 10:00

Stehe ich mit einen Keywort auf Platz 4, dann könnte ich ja am Tag 300 Backlinks setzen auf die Seite n die bei Google auf Platz 1,2 und 3 sind, die werden dann abgestraft oder fliegen sogar aus dem index und ich bin auf Platz 1.
Gehen wir mal davon aus, die werden tatsächlich "abgestraft". Dann sicher nur eine gewisse Zeit lang und danach stehen sie stärker da als zuvor. Wenn du in der Zwischenzeit so viel Umsatz machst, dass du dich danach zur Ruhe setzen kannst mag das klappen :)

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 30.08.2010, 10:04

sehr gefählrich und sowas macht man nicht
zum rest: kann mich meinen vorredern nur anschließen

axelfr74
PostRank 4
PostRank 4
Beiträge: 165
Registriert: 29.11.2004, 08:50
Wohnort: Thüringen

Beitrag von axelfr74 » 30.08.2010, 10:08

Ich selbst habe es schon geschafft ein über mehrere Jahre gut laufendes Projekt mit zu vielen (~50/Tag) Bloglinks auf einmal abzuschießen. Es hat zwei Jahre gedauert bis es sich wieder erholt hatte. Gott was habe ich geflucht! ;) Drum: Linkbuilding mit Bedacht!

Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 30.08.2010, 10:42

Majora hat geschrieben:Hallo,
ist ein zu schneller Linkaufbau wirklich so schädlich wie es manche behaupten?

Stehe ich mit einen Keywort auf Platz 4, dann könnte ich ja am Tag 300 Backlinks setzen auf die Seite n die bei Google auf Platz 1,2 und 3 sind, die werden dann abgestraft oder fliegen sogar aus dem index und ich bin auf Platz 1.

Was ist dran an den Mythos zu schneller Linkaufbau?
...
Ich glaube es kommt drauf an.

Ist wie Offline... da kannst du deiner Konkurrenz auch über entsprechende Kanäle richtig schaden.
z.B. einen Negativartikel (Link) in der Bild kaufen.
Wie die Kundschaft (Google) und auch der Konkurrent aber reagiert weißt du erst hinterher...

Kann auch schnell ein Schuss nach hinten sein und du hast (mit deinen Ressourcen) deinen Konkurrenten und seine Kundenbindung gestärkt.

Was ist also dran an dem Mythos?

Das ist glaube ich schon ganz harter Tobak, nur für wenige berechenbar... Online wie Offline.

Majora
PostRank 4
PostRank 4
Beiträge: 130
Registriert: 27.03.2005, 11:47

Beitrag von Majora » 30.08.2010, 10:50

Stehe ich mit einen Keywort auf Platz 4, dann könnte ich ja am Tag 300 Backlinks setzen auf die Seite n die bei Google auf Platz 1,2 und 3 sind, die werden dann abgestraft oder fliegen sogar aus dem index und ich bin auf Platz 1.
Leute, sowas mache ich auch nicht! Ich wollte nur mal nachfragen was wäre wenn das so wäre...aber distanzier mich natürlich von dieser Möglichkeit...

Vielen Dank für Eure Antworten!

Grüße,
Majora
Zuletzt geändert von Majora am 09.11.2010, 19:14, insgesamt 1-mal geändert.

Jannick
PostRank 2
PostRank 2
Beiträge: 58
Registriert: 02.07.2010, 15:34

Beitrag von Jannick » 30.08.2010, 13:29

In weiten Teilen der SEO-Szene gibt es ein ganz fundamentales Verständnisproblem:
Menschen, die sich mit Algorithmen&co recht wenig auskennen stellen sie sich naiv wie folgt vor:
/code
if(50 links in einer Woche)
then filter
/code end

Diese Sichtweise hat mit den Algorithmen, die google für so etwas nimmt herzlich wenig zu tun.
Diese Algorithmen, ob für SERP-Verteilung oder Spam-Detection, nehmen verschiedenste Daten auf und diese Daten werden zusammen auf einmal betrachtet. Der Blick wird sozusagen auf das Gesamtbild gerichtet.
D.h. google guckt sich sämtliche links an, guckt sich an, ob sie in Blogkommentaren oder aus Artikelverzeichnissen sind, guckt sich an, ob die Seite andere gute links hat. Wahrscheinlich wird der Spam-Algorithmus auch 200 Signale als Parameter haben(wie Matt Cutts immer für den SERP-Algorithmus betont) und er bildet daraus einen einzigen Wert, in dem jedes Signal, in dem jeder einzelne link, mit seiner Position auf der Seite, wahrscheinlich auch mit seiner Schriftgröße, etc. berücksichtigt ist. Und dieser Wert ist der Spam-Wert und wenn er unter einer bestimmten Schwelle ist, dann geht die Seite in einen Filter.

Mal praktisch, wenn du 50 billigste Bookmark-links und blog-Kommentare auf eine neue Seite knallst, dann geht sie wahrscheinlich für ein Jahr in den Filter, wenn du aber drei/vier gute trust-links hast und dann 50 solcher Billig-links drauf wirfst, dann hast du keine Auswirkungen. In die Frage, ob spam oder nicht spielen 1000nde von Punkten rein und deshalb lassen sich pauschale Aussagen ála "100 Bookmark-links in einer Woche sorgen für einen Filter" prinzipiell nicht treffen. Auf spiegel.de kannst du auch 50000 bookmark-links setzen, ohne dass google auch nur hustet.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 30.08.2010, 18:20

Jannick hat geschrieben: D.h. google guckt sich sämtliche links an, guckt sich an, ob sie in Blogkommentaren oder aus Artikelverzeichnissen sind, guckt sich an, ob die Seite andere gute links hat. Wahrscheinlich wird der Spam-Algorithmus auch 200 Signale als Parameter haben(wie Matt Cutts immer für den SERP-Algorithmus betont) und er bildet daraus einen einzigen Wert, in dem jedes Signal, in dem jeder einzelne link, mit seiner Position auf der Seite, wahrscheinlich auch mit seiner Schriftgröße, etc. berücksichtigt ist. Und dieser Wert ist der Spam-Wert und wenn er unter einer bestimmten Schwelle ist, dann geht die Seite in einen Filter.
Geile Theorie.
Du hast direkt selbst im Speziellen noch keine Spider geschrieben und daraus resultierend über die Konnektivität im Netz im Allgemeinen reflektiert, richtig?
Wenn Du es getan hättest und nur spasseshalber mal hundert Spider auf hundert Domains losgelassen hättest, dann wüsstest Du, welche Ressourcen notwendig wären, um so ein Szenario wie Du es beschreibst auch nur annähernd zu realisieren.
Schlichtweg zu viele, selbst für Google.
Mal ein paar Zahlen:
Domain|PR|BL vor 4 Wochen|BL heute
#1|2|21980|19853
#2|3|17368|16171
#3|1|15366|14005
Nur 3 Beispiele. Wir müssen also selbst bei piesepopeligen Domains mit piesepopeligen PRs davon ausgehen, daß sich diese, Google selbst sei Dank, bereits im 5stelligen Bereich bewegen; selbst wenn da kaum Veränderungen sind: sie wollen beobachtet und, nach Deiner Theorie, ausgewertet werden.
Wir haben aber auch solche Fälle:
#4|4|286583|300191
#5|4|191633|185225
#6|6|168214|173131
#7|5|922610|919274
Rechne mal nur aus diesen 7 Beispielen hoch, was da für ein Aufwand gefahren muß um die Spider gemäß Deiner Theorie durch die Seiten fräsen zu lassen- und zwar durch alle, auch die korrespondierenden!
Und über wieviele Domains, die es wert sind berücksichtigt zu werden, reden wir bei Google noch gleich?
Richtig.
Der Aufwand muß in Relation zum Ertrag stehen und der Ertrag Bewertung rechtfertigt niemals den Aufwand, den Du da postulierst.
Insofern dürfte, wenn überhaupt, nur sehr stichprobenartig und mit erheblich weniger Kriterien bewertet werden als allgemein schlotternd befürchtet wird.
Eine Beobachtung, die ich, da verrate ich wohl kaum Geheimnisse, seit geraumer Zeit mache.

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 30.08.2010, 21:05

Full ack to @Jannick.

Man kann schon lustige Spielchen mit "Konkurrentensites linken" spielen - aber oft (meist?) schiesst man sich ins eigene Knie damit. So doof ist google auch nicht.
Und die Konkurrenz von Platz 1-2-3 ist ja meist auch nicht von der Klippdachsschule. Sonst wären sie nicht auf diesen Plätzen. Und die revanchieren sich dann halt.
Und dann hast Du 1-2-3 mal soviel Ärger an der Backe.

Jannick
PostRank 2
PostRank 2
Beiträge: 58
Registriert: 02.07.2010, 15:34

Beitrag von Jannick » 31.08.2010, 09:55

@MeNoZony
Nach deiner Theorie würden also links für eine Seite nichts mehr bringen, wenn man schon 1000 hat, oder was meinst du jetzt? Du machst da irgendwo einen dicken Denkfehler, auch wenn du 100000 links auf deine Kreditseite hast, dann bringt der 100001 dennoch etwas.
Die Frage ist nur wie ein solcher Regressions-Algorithmus implementiert wird und ich tippe auf folgenden Ansatz:

Wenn eine Seite durch den bot geholt wird, dann wird die Seite analysiert, für jeden link werden bestimmte Daten ermittelt und bestimmte Scores errechnet(Trustscore, Spamscore,...) und dieser Score wird dann in eine DB oder eine Matrix-Datenstruktur gegeben, eventuell auch schon zu dem Spam-Score des link-erhaltenden direkt zuaddiert. Das ist sehr unaufwendig, man muss nur eine handvoll Berechnungen ausführen, für jeden link, den man auf einer Seite findet.

nicolas
PostRank 9
PostRank 9
Beiträge: 986
Registriert: 11.10.2006, 13:06
Wohnort: Thun, CH

Beitrag von nicolas » 31.08.2010, 10:14

Jannick hat geschrieben:@MeNoZony
Nach deiner Theorie würden also links für eine Seite nichts mehr bringen, wenn man schon 1000 hat, oder was meinst du jetzt? Du machst da irgendwo einen dicken Denkfehler, auch wenn du 100000 links auf deine Kreditseite hast, dann bringt der 100001 dennoch etwas.
Der 100001 bringt nur etwas, wenn in Google findet. Ich denke MeNoZony will sagen, dass nicht alle gefunden werden und indexiert sind, somit werden nicht alle berücksichtigt.

Jannick
PostRank 2
PostRank 2
Beiträge: 58
Registriert: 02.07.2010, 15:34

Beitrag von Jannick » 31.08.2010, 11:42

@Nicolas
da habe ich ihn anders verstanden. Ich verstehe ihn so, dass er meinen Ansatz als unheimlich komplex ansieht, weshalb das die Kapazitäten von google übersteigt. Dabei bedarf mein Ansatz nicht ex orbitant mehr Rechenkraft wie die normale Textextraktion, die google im Grunde auch für alle gefundenen Seiten durchführt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag