Seite 1 von 2
Linkseiten und deren Folgen
Verfasst: 25.11.2004, 17:36
von AnjaK
Wie ich ja schon des öfteren nun gehört habe ist es nicht mehr besonders gut, wenn man seine Linkseite "links" oder ähnliches nennt, weil Google diese abwertet oder sogar nicht spidert. Das hat sich dann aber leider noch nicht sehr rumgesprochen bzw, es ist den meisten Webmastern mit Non-Kommerz-Seiten ziemlich egal. Fakt ist, dass die meisten noch ihre Links auf "link.html" liegen haben und den Hauptlink dorthin auf "links" nennen.
Wenn dem jetzt so wären, dann würde es ja der Logik nach wenig Sinn machen mit solchen Seiten Links zu tauschen oder, weil die Backlinks dann nichts bringen würden? Korrigiert mich, wenn ich mich irre.
Verfasst: 25.11.2004, 18:01
von shapeshifter
Gute Frage - hat mich auch schon gewundert.
Gibts wirklich dokumentierte Beweise, dass eine links.html Seite abgewertet wird ?
Ich kann ja verstehen wenn SE´s ruppig mit Linkfarmen umgehen, aber pauschal alle HTML-Seiten mit entsprechendem Namen abzuwerten währe doch etwas drastisch oder ?
gruss,
shapeshifter
Verfasst: 25.11.2004, 18:40
von AnjaK
Für mich ist es auch nur "Hörensagen", aber da ich selber kein Profi in dem Gewerbe bin, bin ich auf Aussagen von solchen angewiesen und ich habs jetzt schon so oft gehört, dass ich dem fast Glauben schenke. Es würde aber viele Fragen und Ungereimtheiten aufwerfen was das Ranking angeht. Zudem würde diese komplett umgeworfen werden, wenn die "link".xxx abgewertet würden, denn es sind sicher zig Millionen, die "link(s).htm(l)" u.ä heißen.
Tatsache oder Gerücht? Kann das jemand aufklären?
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 25.11.2004, 18:58
von chio
Hallo!
Ich habe an diesem Gerücht immer etwas gezweifelt; es kommt mir so "unelegant" vor... beweisen wird man das aber schwer können, es scheint aber wohl so zu sein.
Ich kann mir aber auch vorstellen, dass eine Veränderung im Algo diesen Effekt bringt und es an sich gar nix mit dem Dateinamen zu tun hat. Aber weil dieser Effekt eben bei diesen Dateinamen häufiger auftritt, ist es zu diesem Gerücht gekommen.
Möglich wäre auch eine andere Variante: Die Sonderbehandlung bestimmter Dateinamen umschifft einen gröberen Bug im Google Algo. So ähnlich wie mit dem "_", der ja nicht als Trennzeichen gesehen wird (Habe ich auch nie kapiert warum)
Ich für meinen Teil schere mich aber nicht groß darum; auf einen Link in einer unendlichen Liste habe ich so oder so keinen Bock. Ich selbst mache sowas auch nicht.
Dass die Seite selbst abgewertet wird, habe ich übrigens nie gehört, nur dass sie keinen PageRank vererbt. Aber das ist ja mittlerweile fast egal.
lg
chio
Verfasst: 25.11.2004, 19:09
von AnjaK
Naja, den fehlenden vererbten Pagerank kann ich ganz gut verschmerzen, der interessiert mich eigentlich nicht so wirklich, gute und relevante Links sind mir mittlerweile viel lieber, auch von NonPR-Seiten.
Ein Bug im Algo wäre natürlich fatal, aber ich denke, das Thema ist ja schon eine zeit auf dem Tisch, da hätte G sicher schon mal nachgeschaut, wenn da was mit dem Algo nicht stimmen würde (denk ich mal).
<< Ich für meinen Teil schere mich aber nicht groß darum; auf einen Link in einer unendlichen Liste habe ich so oder so keinen Bock. Ich selbst mache sowas auch nicht.
Naja, nicht nur diese Gigalisten heißen "links.htm", auch wirklich gute Linkseiten mit ein paar ausgewählten potenten Links und um die wäre es echt sauschade zumal man eh immer froh ist, in solchen feinen Seiten aufgenommen zu werden und wenn das dann ob des unsäglichen Names abgewertet würde, wäre das mehr als ärgerlich, denn dann kann man in Zukunft wirklich nur noch auf Seiten Links setzen, deren Betreiber es nicht "links" nennen (also wnige Prozent) und das würde irgendwie die SERPS "leicht" durchschütteln!
Verfasst: 25.11.2004, 21:06
von chio
Ich habe da jetzt mal ein paar Zahlen rausgekitzelt, nur von einer kleineren Site:
Die völlig unbrauchbare Link: Abfrage zeigt: 126 Links, ein Drittel geschätzt von Verzeichnissen (dmoz-Clones) und der Rest irgendwas.
In den Referrers habe ich
15 mal contain "/link*.*"
also link.htm, links.php usw
77 mal contain "link", also irgendwo im URL, obige weggerechnet.
Zwischen den 126 aus der Link: Abfrage und diesen 15+77 Referrers gibt es nur 5 Übereinstimmungen, keine aus der ersten Liste ("/link*.*)
Was sagt uns das?
Die Link: Abfrage sagt nichts aus.
Die meisten Leute sind nicht einmal Hobby-SEOs
link.htm usw kommt gar nicht mal so oft vor.
Vielleicht sieht ja noch wer was anderes, was ich nicht sehe.
jepp. chio
Verfasst: 25.11.2004, 21:42
von AnjaK
Hm... hab das jetz auch mal mit meiner Privatseite versucht.
ich finde etwa geschätze 30% der Seiten überschlägig, die "link.*" o.ä. heißen.
Meine Seite ist aber auf Platz 1 von 450.000 und Platz 5 von 2.8 Mio (je nach Keywort). Würden diese Links abgestraft, wäre ich nicht so weit vorne (würd ich jetzt einfach mal so in den Raum stellen). Von daher... *grübel*
Und: was die Funktion "link:
www.domain.tld" überhaupt bezwecken soll ist mir bislang noch nicht klar geworden. Früher wurden nur PR4+ Links dort aufgeführt (somit war es ganz angenehm potente Backlinker auf Anhieb zu finden), aber das hat sich auch wieder geändert und ein System ist nicht mehr zu erkennen, zumal die Funktion nichtmal 10% der tatsächlichen Links aufzeigt. Was das bezwecken soll ist mir ein Rätsel.
Verfasst: 27.11.2004, 13:57
von SEO-Guy
shapeshifter hat geschrieben:Gute Frage - hat mich auch schon gewundert.
Gibts wirklich dokumentierte Beweise, dass eine links.html Seite abgewertet wird ?
Ich kann ja verstehen wenn SE´s ruppig mit Linkfarmen umgehen, aber pauschal alle HTML-Seiten mit entsprechendem Namen abzuwerten währe doch etwas drastisch oder ?
gruss,
shapeshifter
also negativ wird sich das ganze auf keinen Fall auswirken, sondern eher neutral. Sonst könnte man ja die Urls seiner Mitbewerber dort eintragen, und zusehen wie die abrutschen

Verfasst: 27.11.2004, 14:18
von Radagast
wieso sollte google links von links.*** nicht verfolgen?
dann würde jeder auch noch so schlechte seo seine linkliste einfach surftips.*** nennen, und google steht vor dem selben problem. google wird nicht so kurzsichtig denken.
ausserdem. google braucht kein linkspam befürchten von leuten die von seo keine ahnung haben. also wären die links.*** von diesen weniger spamgefährdet als andere seiten.
Wenn google linkspam vermeiden will, "überliest" der bot einfach alle seiten die z.b. mehr als 100 externe links beinhalten. wäre doch viel effektiever, oder?
Verfasst: 27.11.2004, 14:43
von bugscout
moin moin,
scheint sich um einen der vielen logischen trugschlüsse gehandelt zu haben.
die geschichte:
es werden merkwürdige abweichungen auf seiten festgestellt, die
sich dadurch auszeichnen, dass auf ihnen ganz viele links sind.
die meisten dieser seiten heissen in deutschland links.* -
logischer trugschluss links.* wird abgewertet.
gabs bei guestbook.* auch schon mal.
denn rest kann man sich denken....
Früher wurden nur PR4+ Links dort aufgeführt
jetzt zeigen sie das gegenteil (<=pr4 + schrott)
und du kannst nichts mehr damit anfangen *
z.b. mehr als 100 externe links
es ist schon etwas ausgefeilter und fängt bei weniger links an.
grüsse
ps: * google hatte mal eine tolle idee und wurde damit zum marktführer,
da sie eine zeitlang die besten serps lieferten.
mittlerweile ist diese tolle idee durch viele faktoren massiv ins schlingern
geraten und sie stopfen nur noch löcher.
und wenn schon die cheffes ihre aktien auf den markt werfen wollen,
sollten die, die nur von google leben, sich mal langsam gedanken machen.
Verfasst: 27.11.2004, 14:50
von sean
na ja, demnach müsste Google ja das Wort "Links" in allen Sprachen als Dateiname erkennen können. Danach würde Google wohl feststellen, dass die Seiten umbenannt werden, falls Google diese wirklich benachteiligt. Die Leute nennen Sie dann "weitere Seiten", "interessante Seiten", "Tipps", "Partner", "weiteres", usw... Google müsste also irgendwann in ein paar Jahren alle Worte durchgeackert haben. Ich denke, Google wertet aus ob es auch Text auf der Seite gibt, und ob ein paar Links dazu exisiteiern oder hunderte, und die Themenrelevanz, und und......
Strafen wird Google nicht, wie seo-guy schon sagte, das wär zu einfach. Organisch wachsen, das wirkt immer!
sean
Verfasst: 27.11.2004, 15:10
von fiona
Warum probiert es denn nicht einfach mal jemand aus:
Auf einer vorhandenen Website einfach zwei Dateien anlegen und verlinken:
links.htm und rechts.htm
Auf beiden wird jeweils eine andere (frische) URL mit einem Unsinns-Keyword verlinkt.
Dann kann man ja sehen, welche der beiden URLs nachher in den SERPS auftaucht.
(Wer's gemacht hat: bitte Ergebnis posten

Verfasst: 27.11.2004, 15:15
von bugscout
moin moin,
was heisst
na ja, demnach müsste Google
ich lese meinen text so, dass links.* abwertung quatsch ist.
oder bezog sich das auf irgendwas vorher?
grüsse
Verfasst: 27.11.2004, 15:32
von chio
Hallo!
Es wird höchstens so sein, dass einige wenige Dateinamen gesondert behandelt werden: links, awards, guestbook. Glaube ich aber gar nicht.
Ein Gästebuch ist leicht an seiner Struktur zu erkennen, ebenso Links und Award-Seiten. Wem würde schon auffallen, dass auch "zmoff.htm" durch den Rost fällt, weil es eben irgendwelchen Kriterien entspricht?
Ich schätze eher, da hat irgendjemand diese Idee gehabt und ist bei der Überprüfung auf einen Trugschluss hereingefallen, weil er nur nach "links" gesucht hat. Das sind so die Sachen, die allgemein verständlich durch die Foren kriechen und die sich jeder merken kann und schwupp! ist er ein SEO.
joup. chio
Verfasst: 28.11.2004, 02:59
von pi
das einzige was ich mir vorstellen kann ist, das Google eine auffällige Aneinanderreihung von Links ohne Text schlechter bewertet, wie es in Footern und auf Partnerseiten häufig der Fall ist. Einige züchten deshalb ja auch ein Webverzeichnis und tragen dort den ein oder anderen Linkpartner ein oder erwähnen einen Link mitten im Text, ...