Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Linktext Filter

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
FrankyGER
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 27.01.2004, 18:43

Beitrag von FrankyGER » 04.08.2004, 05:31

Irgendwie verstehe ich den angeblichen Linktext Filter immer noch nicht.
Seit Florida wird ständig und immer wieder geraten, die Linktexte zu variieren, damit man nicht für ein Keyword ausgefiltert wird.

Ich für mich konnte auch bestätigen, dass mich dieser Filter geschnappt hat. Leider konnte ich bis heute mit ca. 50-100 Backlinks, die inzwischen recht unterschiedlich sind, nicht aus diesem Filter rauskommen.
(ist ja auch ziemlich hart, wenn man andere Linktexte setzt mit denen man gar nicht gefunden werden will, nur um das Hauptkeywort zu dämpfen.)

Ich schiebe dies aber auf mangelnde Relevanz bei hart umkämpften Keywords. Da muss einfach mehr her, dann würde es wahrscheinlich auch klappen.

Was ich aber seit längerer Zeit in den Serps beobachte, sind neue Seiten, die sich in die TOP 10 mogeln und meist Doorways oder 100% frames sind. Volloptimierung auf 1-2 hart umkämpfte Worte und zwischen 100 und ein paar Tausend Backlinks mit immer dem gleichen Linktext.
Gutes Beispiel: Nr. 5 mit "LastMASKEminute" bei 26 Mio Ergebnissen und Nr. 1 mit "LastMASKEminute MASKEreise" erreicht mit kostenlosem Counter und Link auf der Countergrafik.

Nach allem was man hier lesen kann, müsste diese Domain im Linktext Filter hängen. Desweiteren kann man daran erkennen, dass Themenrelevanz, wie hier gepredigt wird, genauso keine Rolle spielt.

Kann es sein, dass viele wichtige SEO Kriterien hier reines Wunschdenken sind? Oder sogar absichtliche Irreleitung der breiten Möchtegern- Optimierer Masse?

Gruß, Frank

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

logen
PostRank 2
PostRank 2
Beiträge: 37
Registriert: 20.10.2003, 12:55
Wohnort: Flensburg

Beitrag von logen » 04.08.2004, 08:04

Kann es sein, dass viele wichtige SEO Kriterien hier reines Wunschdenken sind?
ich denke schon, dass viele thorien reine spekulation sind, aber wer will das sicher wissen, ausser google?!?!?!
im endeffekt sind die tipps, die hier gepostet werden auch nur eigen erfahrungen, gerüchte und testergebnisse. nichts muss stimmen, kann aber. ein allgemeiner linktextfilter funktioniert sicherlich nicht so einfach wie es die meisten hier beschreiben. ich denke es ist durchaus möglich mit 100 gleichen linktexten auf platz 1 zu stehen, wie auch im filter zu landen. es gehören halt immer meherere kriterien zusammen. z.b. 50 links mit gleichem text und 30 mit unterschiedlichem text = filter. 50 links mit gleichem text und 31 mit unterschiedlichem = gute platzierung. kommt zusätzlich noch roter text auf gelben grund vor = bessere platzierung und so weiter und so weiter.
so einfach ist google eben nicht gestrickt.
ich denke dass viele vermutungen die hier getätigt wreden durchaus stimmen, aber eben nicht alleine, sondern immer im zusammenspiel mit anderen dingen, die auf den ersten blick evtl. eher irrelevant sind.

joker
PostRank 4
PostRank 4
Beiträge: 153
Registriert: 01.03.2004, 10:09

Beitrag von joker » 04.08.2004, 08:32

@FrankyGER

Ich bezweifle mal das es Sinn macht das Hauptkeyword aus dem Linktext zu nehmen. Man sollte es allerdings nicht alleine stehenlassen, sondern mit anderen Wörtern "umgarnen".

>heute mit ca. 50-100 Backlinks, die inzwischen recht unterschiedlich sind

denke darauf kommt es an. Sie sollten sogar SEHR unterschiedlich sein. Kein massenhaftes Verlinken auf dem gleichen Provider mehr mit der gleichen C class.

Ist aber man aber mal rausgeschmissen worden, dauert es eh länger bis wann wieder aufs Guugle rad zurück darf. EGAL was man richtig macht.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


chio
PostRank 9
PostRank 9
Beiträge: 1153
Registriert: 01.01.2004, 16:53
Wohnort: wien

Beitrag von chio » 04.08.2004, 10:03

Hallo!
Viele der Mechanismen von Google kommen wahrscheinlich nicht gleich zum tragen, sondern werden aufgrund von Auffälligkeiten irgendwann angewandt. Kann sein: die Wortverteilung der gesammten zugerechneten Linktexte erreicht einen niedrigen Grenzwert oder alle Bilder sind gleich groß oder sonstwas. Da steht irgendwo ein kleiner Rechner und kümmert sich nur um ein Kriterium :-?

Wird wohl sein wie mit der Steuerprüfung: Schreibst du 50% der Wohnung von der Steuer ab (Grenzwert in Österreich), dann kommst du auf die Liste der zu prüfenden. Macht das ein anderer auch, hat aber noch einen Porsche als LKW angemeldet wird der vorgereiht und kommst vielleicht nie dran. Kommt drauf an, wie böse die anderen sind oder auch nur auf Glück.

Hier einzelne Treffer herauszuholen macht wenig Sinn; fällt ja niemandem auf, wenn die wieder weg sind.

lgcm

vidiente
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 29.05.2004, 21:38

Beitrag von vidiente » 04.08.2004, 10:12

hi FrankyGER,

vielleicht ist es nicht der richtige ansatz sich auf "einen filter" zu versteifen.

m.e. sollte man eher in richtung "algorithmus" denken bei dem eine vielzahl von faktoren zusammenkommt,
wie in einem orchester mit vielen instrumenten.

temenrelevanz ist schon sehr wichtig, gerade auch bei den links. allerdings
wird diese natürlich auch oft geschickt künstlich erzeugt :-(

link = nicht gleich link! es stecken verlinkungsstrukturen dahinter, grosse weiträumige konstrukte,
über viele ip´s verteilt, unabhängige expertenlinks,
die die vorraussetzungen erfüllen um nach der hilltop theorie auch als starke
expertenlinks bewertet zu werden und somit die autoritätsseiten sehr stark machen .... usw...


...oder aber auch zu leicht nachvollziehbare "künstliche" verlinkungsstrukturen, die
google als solche erkennen kann. z.b. zu starke verlinkungen innerhalb derselben
ip blocks.... oft aus dem gedanken heraus pr in seine domains pumpen zu wollen
und damit für google breite spuren künstlicher eigener verlinkungen zu legen...

die qualität der links und auch der gesamten "natürlichen" verlinkungsstruktur
spielt sicher eine entscheidende rolle. an der puren anzahl von backlinks oder oberflächlich
betrachteten einzel massnahmen kann man heutzutage nichts mehr festmachen.

das gesamtprojekt mit vielen einzelfaktoren muss zusammenwirken und es ist
nicht leicht zu analysieren wann und wie das zusammenspiel vieler faktoren
sowohl gute positionen bewirkt....

wie auch umgekehrt:

ab welchem zusammenspiel greift ein "filter" bzw. ein algo. das sieht dann manchmal, wenn man nur detailliert denkt,
(z.b. gleiche anzahl, gleicher linktext), so aus....dass beim einen
ein filter greift... beim anderen nicht .... der eine mit dieser "gleichen oder schlechteren"
seite unverständlicherweise
viel weiter oben steht.... usw....

das seo spiel ist sehr komplex geworden ! bei schwierigen keywords ist immer mehr
denken in grossen strategischen dimensionen angesagt, als onpageoptimierung
oder sammeln einer reinen anzahl von keywordlinks. das gilt auch bei analysen.
man schaut nicht mehr so leicht hinter diese weiträumigen konstrukte.

toi toi toi

vidiente

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 04.08.2004, 11:15

FrankyGER,

es wird eine Menge über Filter, "Austin"-Updates, Spam-Erkennung und andere Abstrafungen geschrieben. Doch 99% der Sachen sind Spekulationen.

Dass ein <b>Keyword</b> das Ranking einer Seite verbessert sieht man.
Dass ein Backlink mit dem Keyword das Ranking verbesser sieht man.
Verlasse dich auf die Sachen und hol beim Rest das gesichertere heraus, damit fährt man eigentlich ganz gut.

vidiente
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 29.05.2004, 21:38

Beitrag von vidiente » 04.08.2004, 12:19

hallo jan,

bin auch der meinung, es wird oft uferlos spekuliert und einzelbeispiele sind nicht verbindlich, um regeln abzuleiten.

sich auf seinen eigenen kram zu konzentrieren und an allen fronten das beste nach
halbwegs gesicherten erkenntnissen anzuwenden und rauszuholen, die auf breiten
erfahrungswerten beruhen...... bringt mehr, als
sich zu sehr an subjektiv unlogischen einzelfällen oder zeitlich limitierten erscheinungen die analyse-zähne auszubeissen
oder sich gar zu ärgern.

über kurz oder lang kommt vieles wieder von selbst ins lot, sowohl seitens der eigenen konstanten arbeit, wie auch seitens verfeinerter algos.
gegenbeispiele wird es auch immer geben.
sumas sind eben doch keine götter und menschlicher scharfsinn ist halt
einer maschine sowohl in positiver wie auch negativer auswirkung doch noch
ab und an überlegen ;-)

vidiente

ThomasB
PostRank 5
PostRank 5
Beiträge: 320
Registriert: 30.07.2004, 14:12
Wohnort: München

Beitrag von ThomasB » 04.08.2004, 12:29

Dass ein <b>Keyword</b> das Ranking einer Seite verbessert sieht man.
wenn Du das sagst ...

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 04.08.2004, 12:38

Thomas, bau dir auf 10 Domains ne Seite mit nem sinnlosen lkjdshfkdhf-Namen, verlinke die ebenso sinnlos alle von einer Domain und hau auf die Seite nur ein Keyword drauf (auf allen das selbe), dann warteste bis die alle gelistet sind. Nimmst die letzte Seite von Platz 10 und macht ein <b></b> um das Keyword herum. Nach ein paar Tagen steht die Seite auf #1.

ThomasB
PostRank 5
PostRank 5
Beiträge: 320
Registriert: 30.07.2004, 14:12
Wohnort: München

Beitrag von ThomasB » 04.08.2004, 12:41

meine tests sagen aktuell was anderes. Sind aber auch etwas anders aufgebaut. Aber externe Faktoren sind definitiv eliminiert. Was bei dir nicht unbedingt gegeben ist meiner meinung nach.

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 04.08.2004, 13:09

Komplett eliminieren kann man die externen Faktoren meiner Meinung nach nicht, doch wenn man mit 10 Subdomains arbeitet und diese alle von der selben Seite verlinkt dann ist die einzige Ungleichheit dass ein Link nach dem anderen stehen muss - und da evtl andere Wertungen übergeben werden könnten. Aber dafür habe ich noch keine Lösung gefunden.

Würde mich über eine PM durchaus freuen :)

ThomasB
PostRank 5
PostRank 5
Beiträge: 320
Registriert: 30.07.2004, 14:12
Wohnort: München

Beitrag von ThomasB » 04.08.2004, 13:17

Jan, geschickt.

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 04.08.2004, 13:49

@ThomasB
würde mich auch interesieren

ThomasB
PostRank 5
PostRank 5
Beiträge: 320
Registriert: 30.07.2004, 14:12
Wohnort: München

Beitrag von ThomasB » 04.08.2004, 13:51

Es gibt sachen, die weiss man. Es gibt Sachen, die lernt man. Es gibt Sachen, die muss man rausfinden.

Das ungefähr hab ich Jan geschrieben.

sumapark
PostRank 5
PostRank 5
Beiträge: 208
Registriert: 12.06.2004, 17:37
Wohnort: Frankfurt/Main

Beitrag von sumapark » 07.08.2004, 02:24

Southmedia hat geschrieben:Komplett eliminieren kann man die externen Faktoren meiner Meinung nach nicht, doch wenn man mit 10 Subdomains arbeitet und diese alle von der selben Seite verlinkt dann ist die einzige Ungleichheit dass ein Link nach dem anderen stehen muss - und da evtl andere Wertungen übergeben werden könnten. Aber dafür habe ich noch keine Lösung gefunden.

Würde mich über eine PM durchaus freuen :)

ich hätte ne Idee. Du erstellst einfach 10 Seiten die widerrum auf Deine 10 Subdomains verlinken, aber natürlich in 10 verschiedenen Reihenfolgen. So ist jede Subdomain mal auf Platz 1.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag