Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Linktausch unter Seos ist wie Inzucht

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
patrol
PostRank 4
PostRank 4
Beiträge: 160
Registriert: 03.10.2003, 09:54
Wohnort: Germany

Beitrag von patrol » 15.09.2005, 09:19

Hallöchen,
konnte mir angesichts der wachsenden Anzahl von Anfragen zu Linkpartnerschaften diesen Thread nicht verkneifen.
Erstmal die Erklärung des Begriffes in der realen Welt
https://de.wikipedia.org/wiki/Inzucht

Meine Meinung:
Der Linktausch unter den Seos und Linklisten wird zwangsläufig in einer Sackgasse enden. Irgendwann ist der Zeitpunkt erreicht wo sich durch permanentes Kreuzen(verlinken) untereinander die Qualität des Erbgutes(LP, Autorität) verschlechtert. Verlinken also die Seos zu nah beieinander(in der Verwandtschaft) wird dieser Effekt zwangsläufig eintreten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 15.09.2005, 09:33

unterschreibe ich dir, deshalb wirkt auch der Heterosiseffekt :wink:

Vereinfacht gesagt: durch Kreuzung zweier genetisch sehr weit voneinander entfernten Lebewesen der gleichen Spezies, haben deren Nachkommen höhere Leistungsmerkmale als durch die Voraussetzungen der Elterngeneration erwartet werden kann.
Die "Blutauffrischung" tut auch allen Linknestern gut und verhindert deren Aussterben, also durchaus Parallelen zu Darwin.

Das Netzt lebt :idea:
Zuletzt geändert von guppy am 15.09.2005, 09:35, insgesamt 1-mal geändert.

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 15.09.2005, 09:34

Ja, das ist aus meiner Sicht auch ein Problem. Auch Grund aus dem ich wenig Linktausch mit anderen SEOs betreibe.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 15.09.2005, 10:20

Die Inzucht-These setzt voraus, dass es einen genom-ähnlichen vererblichen Satz Charakteristika gibt. Ich wundere mich, dass es bisher so gut wie nie eine Diskussion darüber gab. Zum Beispiel wäre interessant, welcher Art diese vererblichen Eigenschaften sind.

Das einzige was dem heute relativ nahe kommen dürfte, sind wohl PR und Authority. Beide hängen stark von der Linkpop ab und stehen eher für eine allgemeine Relevanz/Kraft einer Webseite. Außerdem ist Authority eher unverstanden, und vielleicht gibt es sie in dieser atomaren Form gar nicht.

Wenn die vererblichen Eigenschaften den Webseitenbetreiber charakterisieren, dann haben SEOs wirklich ein Problem. Denn es wäre im Sinne des WWW nur gerecht, Intensivoptimierer (=SEO) etwas zu benachteiligen. Aber wo sollte das enden? Man könnte ganze Gesellschaftgruppen zu bestimmten Themen faktisch entmündigen. Deshalb halte ich das für sehr problematisch und unwahrscheinlich.

Wenn die vererblichen Eigenschaften aber das Thema und die Qualität einer Webseite charakterisieren, dann haben SEOs unter zwei Bedingungen kein Problem: Wenn sie 1. nur themenrelevant tauschen und 2. nur mit solchen Webseiten tauschen, die einen Mehrwert für die Besucher bringen. Keine wirklich neue Erkenntnis.

Gruß,
SloMo

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 15.09.2005, 10:45

moin moin,
Seos und Linklisten
diese nähe geht von einer affinität aus. bei seos mit einer solchen ist allerdings vorsicht geboten.

wer sich von dem milieu der versicherungsvergleichshilfsseiten fernhält, wird lange ohne erbgutschädigungen klarkommen.

grüsse

Pretender
PostRank 9
PostRank 9
Beiträge: 1081
Registriert: 22.04.2004, 14:44
Wohnort: Naumburg

Beitrag von Pretender » 15.09.2005, 10:56

Am Ende sind 99% aller Websites irgendwie mit einander verlinkt.
So funktioniert das WWW nunmal.

Solange immer und immer wieder neue "Seos und Linklisten (neue Domain`s)" dazukommen, solange kann man keinen Zusammenhang erkennen (zumindest keine Maschine).

Außerdem: Wenn ein SEO einen SEO verlinkt ist es doch Themenrelevant und warum sollte das Google abwerten? :lol: kleiner Spass!

mfg

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 15.09.2005, 10:57

@slomo
Patrols Ausführungen verstehe ich so, dass eine unnatürlich Nähe der Links mit Inzucht gleichgesetzt wird. So dass hier früher oder später eine zu große Abweichung vom Mittel zur "Überzüchtung" also zur, um in der oben verwendeten Sprache zu bleiben, Degeneration der Seite führen kann.
Eigendlich recht einfach zu veranschaulichen, mal die Seite eines Rechtanwaltes anschauen der eine Spitzenkraft in seinem Fachgebiet ist und daher ein paar "natürliche" Links hat und die des SEO orientierten Rechtsanwaltes, der Links ohne Ende hat also "überzüchtet" ist.

(Abmahnungen mal aussen vor gelassen :wink: )so nun schreibe mal den 1. Anwalt wegen eines Linktausches an und den zweiten. Der erste wird die mail bestenfalls ignorieren, der zweite Hurra schreien, das heisst die SEOorientierten Seiten werden sich untereinander immer stärker verlinken und da die Masse der Webmaster SEO nicht so sehr interessiert, bilden sich Linkstrukturen unter bestimmten Seiten, die hier als Inzucht bezeichnet werden.

Was wäre also die logische Kosequenz für möglichst relevante Serps ?
Meiner Meinung nach - zu starke Abweichungen nach oben, wenn nicht abstrafen, so doch kappen.

Pretender
PostRank 9
PostRank 9
Beiträge: 1081
Registriert: 22.04.2004, 14:44
Wohnort: Naumburg

Beitrag von Pretender » 15.09.2005, 11:11

hmmm und warum wolltest du sie kappen?

weil sie mehr links haben? sich also mehr kümmern um ihre domain? oder weil viele andere auf meine domo verlinken?

also ich finde das etwas weit hergeholt. ich würde es als unverschämt empfinden wenn meine domain "gekappt" wird weil ich viel mehr link habe als einer der so eine schlecht domain hat, das sie keiner sehen will und folglich auch nicht verlinkt.

dann müsste google als erstes sich selbst "kappen"

oder hab ich das was falsch verstanden?

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 15.09.2005, 11:24

nicht deine Domain soll gekappt werden, sondern die Anzahl der links ab einer bestimmten Größe, die was weis ich - 20% über dem Mittel aller Domains zu diesem Suchbegriff liegt. Jetzt nagel dich nicht an den 20% es können auch 50, 80 oder 100 % sein.

Und nicht die Links als solches, so9ndern die Bewertung für diese Links. :wink:


Ob du dich um deine Domain kümmerst muss nicht zwingend mit der Themenrelevanz zu tun haben und wenn du zu viele Links hast ist die rechnerische Wahrscheinlichkeit von "unnatürlichen" links also SEO um ein vielfaches höher.
ich würde es als unverschämt empfinden wenn meine domain "gekappt" wird
Alle anderen auch, aber das interessiert google sicherlich nicht so sehr.

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 15.09.2005, 11:28

guppy hat geschrieben:... Eigendlich recht einfach zu veranschaulichen, mal die Seite eines Rechtanwaltes anschauen der eine Spitzenkraft in seinem Fachgebiet ist und daher ein paar "natürliche" Links hat und die des SEO orientierten Rechtsanwaltes, der Links ohne Ende hat also "überzüchtet" ist. ... Was wäre also die logische Kosequenz für möglichst relevante Serps ? Meiner Meinung nach - zu starke Abweichungen nach oben, wenn nicht abstrafen, so doch kappen.
Hurra, endlich kann ich mal mitreden. :P Aber verstanden habe ich Dein Beispiel leider denoch nicht. Alles oberhalb des Medians kappen? Alles unterhalb dessen vielleicht angleichen, als heben?

Willkommen im sozialistischen Netzt der Klassengleichen. Herzlichen Glückwunsch zu dieser These.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 15.09.2005, 11:31

guppy hat geschrieben:Eigendlich recht einfach zu veranschaulichen, mal die Seite eines Rechtanwaltes anschauen der eine Spitzenkraft in seinem Fachgebiet ist und daher ein paar "natürliche" Links hat und die des SEO orientierten Rechtsanwaltes, der Links ohne Ende hat also "überzüchtet" ist.
[...]
Was wäre also die logische Kosequenz für möglichst relevante Serps ?
Meiner Meinung nach - zu starke Abweichungen nach oben, wenn nicht abstrafen, so doch kappen.
Damit würde sich die betreffende Suchmaschine (sei es Google) mit dem Mittelmaß zufrieden geben. Zu Deinem Beispiel: Alle besonders anerkannten Anwälte würden künstlich herabgestuft. Wer auf seiner Webseite außergewöhnlich viele nützliche Inhalte anbietet, ist im Nachteil. "Bitte verlinken Sie mich nicht, um meine Suchmaschinen-Position nicht zu gefährden."

Das System wäre auch sehr leicht zu manipulieren. Man verpasst seiner Konkurrenz einfach einen künstlichen Linkaufbau, und schwupps weg ist er. Ein starker Linkaufbau alleine genügt Google ja auch nicht, um eine Webseite dauerhaft zu benachteiligen. Zumindest zeigt der Sandbox-Effekt, dass unnatürlich starke Verlinkung langfristig nicht von Nachteil ist.

Gruß,
SloMo

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 15.09.2005, 11:38

Drückt euch doch nicht alle so kompliziert aus ...

Problem: Durch Linktausch entstehende Linknetzwerke, da alle SEOs miteinander tauschen.
Problemlösung: Sehr wählerisch sein und hauptsächlich mit nicht SEO-betreibenden Seiten tauschen. Und zusätzlich andere Linkquellen anzapfen.

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 15.09.2005, 11:54

@rechtlegal

also rein logisch betrachtet:
suchwort xyz--
Suchergebnisse 10 Mio
9,999 Mio haben weniger als 100 Links
900 Seiten haben bis 200 Links
90 Seiten haben 400 Links
7 Seiten haben über 500 Links
3 Seiten haben über 10000 links

Jetzt - wie würden Sie entscheiden, welche Seiten haben vermutlich links gesammelt? Sollen die 9550 Links über dem Mittel der besten 100 voll in die Bewertung einfließen, um relevante Serps zu bekommen ? Dann müssten die 3 Seiten über Adsense stehen ;-) .

Google belohnt zwar derzeit fleißige Webmaster die links sammeln, aber die Aufgabe von Suchmaschinen sind relevante Serps und wodurch können Serps verwaschen werden? Durch SEO.
Im übrigen glaube ich dass schon heute ind der Linkbewertung eine zu große Abweichung vom Mittel (nach oben) gedämpft wird und die von KC geäußerten Theorien "trustfaktor" u.s.w. in Ansätzen schon Anwendung findet.

Von dem liest man auch nichts mehr - Keep Cool noch hier ?

KeepCool
PostRank 8
PostRank 8
Beiträge: 715
Registriert: 02.01.2004, 11:55

Beitrag von KeepCool » 15.09.2005, 11:55

@rechtlegal
Willkommen im sozialistischen Netzt der Klassengleichen.
In jedem sozialistischen Netz(werk) gilt:

Alle Links (Menschen) sind gleich ! NUR Manche sind gleicher als Andere...;-)

@pretender
solange kann man keinen Zusammenhang erkennen (zumindest keine Maschine)
Da ist der fromme Wunsch Vater des Gedankens; wirfst mal einen Blick hierher, wobei ich dieses Tool für relativ primitiv halte, zumindest in der jetztigen Form: https://www.touchgraph.com/TGGoogleBrowser.html

Die Erkennung "kontaminierter" Linknetzwerke ist ein spannendes Thema; nur soviel: die in Deutschland existierenden SEO-Netzwerke liegen zu ca. 80% OFFEN "aufs Tablett". Das beinhaltet einen Grossteil der Scraper, Scammer, Affiliate-, PPC-"Redakteure" und SEO-Besessenen. Grafische Darstellung inklusive...:-):-):-)

Wöllte man dies, könnte man am Tag X den "algorithmischen Finger krumm machen" (Sprich ins Jenseits befördern / downranken). Der Tag ist aber noch nicht da, und letztendlich muss man den SEOs danken, denn hierbei offenbaren sie jedem Interessierten, WIE man verseuchte Linknetzwerke erkennt. Da gibt es zig algorithmische Ansätze, im Übrigen schon bereits zu einem Zeitpunkt, wo Suchmaschinen noch gar nicht aktuell waren.

Dass es heute (noch) funktioniert, muss nicht implizieren, dass Algos oder Maschinen "dumm" sind...;-)

Gruss und weiter so !

KC
Zuletzt geändert von KeepCool am 15.09.2005, 12:04, insgesamt 1-mal geändert.

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 15.09.2005, 12:00

lol das passt ja
Zuletzt geändert von guppy am 15.09.2005, 14:14, insgesamt 1-mal geändert.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag