Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sind auf Anchor Text basierende Algos eigentlich falsch?

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
wulfo
PostRank 9
PostRank 9
Beiträge: 994
Registriert: 05.02.2004, 17:28
Wohnort: Sachsen

Beitrag von wulfo » 10.10.2005, 19:30

Hi
Die zukunft für Google wird hoch warhscheinlich ähnlich wie was Teoma schon lange hattest. das ist das nur links von die gleiche thematik wirdbewertet. Wahrscheinlich auch mit eine Latent Semantic Indexing. Das heist das inszukunft nur links von seiten mit die gleiche oder ähnliches thema wird bewertet. Wann oder sogar ob google das implentent weist nur Google
Das würde aber insgesamt den Gedanken entgegenlaufen das gute und interessante Seiten von anderen freiwillig verlinkt werden.
Wenn ein kleiner webmaster zb eine Hobbyseite über Berge hat und denoch gern Bier trinkt wird er doch vieleicht ein Online Lexikon über Bier gern freiwillig verlinken.

Wenn man ehrlich ist ist doch ein Themenrelevanter Tausch meistens nur bei Seos vorhanden. Und wenn Google logisch währe würde ich ab einer bestimmten Prozentzahl Themenrelevante Links nicht mehr werten weil das doch unnatürlicher ist.
Teoma schon lange hattest.
und welchen Einfluss hat Teoma noch? Ich denke mal die Algos werden sich bei den verschiedenen Sumas immer ähnlicher werden.

Man kann über msn sagen was man will die Suchergebnisse sind meistens passent, doppelter Concent ist selten, es werden sehr schnell Seiten mit versteckten Text erkannt, Spamm gibt es überall aber msn reagiert schneller.
Ind eine gewisse onpage Optimierung hat noch nicht mal bei Google geschadet.

Und bei manchen seiten bei uns konnten wir feststellen das die Ergebnisse sich bei Google denen bei msn angleichen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

schorsch
PostRank 7
PostRank 7
Beiträge: 613
Registriert: 26.08.2004, 23:00
Wohnort: Erlangen

Beitrag von schorsch » 11.10.2005, 18:00

also meiner meinung nach ist der wichtigste faktor natürlich der onpage faktor, denn das bekommt der besucher zu sehen und wenn die seite das enthält, was der suchende sucht, dann ist die suche perfekt.

das problem besteht jedoch darin, dass man diesen sehr schlecht auf seine wirkliche qualität hin überprüfen kann. dadurch wird er mit den momentanen techniken her leicht manipulierbar.

wenn es jedoch die suchmaschinentechnik schaffen sollte, eine manipulation schnell zu erkennen und auch menschliche texte perfekt von automatisch erstellten texten her zu unterscheiden, dann könnte man die gewichtung des on page faktor um einiges erhöhen und dadurch wahrscheinlich genauere treffer bewirken. das dann in verbindung mit einem hauch von offpage faktoren, dem trust rank und das unterscheiden von zb kommerzieller suche oder nicht, wird die serps um einiges verbessern.

denn nicht jede seite mit vielen links, bietet guten inhalt und nicht jede seite, die wenig links hat, besteht aus schlechtem inhalt. eine private unoptimierte seite zu einem bestimmten hobby thema kann durchaus sehr gute inhalte enthalten, allein schon das sie nicht nur der werbung und des profit wegens erstellt wurde.

grüsse

schorsch

robbelsche
PostRank 9
PostRank 9
Beiträge: 1053
Registriert: 09.09.2004, 00:34
Wohnort: Berlin

Beitrag von robbelsche » 12.10.2005, 00:25

Webby hat geschrieben: Wahrscheinlich auch mit eine Latent Semantic Indexing. Das heist das inszukunft nur links von seiten mit die gleiche oder ähnliches thema wird bewertet. Wann oder sogar ob google das implentent weist nur Google.
Ein starkes Indiz dafür, dass Google LSI tatsächlich implementieren wird, hat Webby ja schon vergangenheitlich irgendwann mal gepostet: bei der Google-Suche nach https://www.google.de/search?q=Latent+Semantic+Indexing findet sich (seit langer Zeit) rechts die ewig selbe (einzige) AdWords-Anzeige, mit welcher Google selber Personal sucht ... :D

Da das aber auch ein Stück weit Zukunftsmusik zu sein scheint, frage ich mich immer, ob es bereits in der Gegenwart irgendeine Einbeziehung der „Themenrelevanz“ gibt (oder geben kann). IMHO ist nach gegenwärtigem Stand der Technik Google überhaupt nicht in der Lage, die Thematik einer Webseite auch nur im Entferntesten zu erfassen. Zwar gibt es bei der „modernsten“ Google-Technologie, dem Media-Bot :D , wohl Assoziationslisten, die für die Auswahl der zu schaltenden Anzeigen herangezogen werden, aber andererseits ist Google bisher (nachvollziehbar) nicht in der Lage, beispielsweise einen Genitiv einem Wortstamm zuzuordnen ... :evil:

Aufgrund dieser Beobachtungen und Überlegungen stellt sich mir die Frage, welche Kriterien, die in Richtung der (technisch sehr aufwendigen) „Themenrelevanz“ gehen, bereits heute verwendet werden.
viggen hat geschrieben:Falls die Sumas es noch nicht machen, sollten sie auf jeden Fall den Titel der Seite als auch die nähere textliche Umgebung des Linktextes miteinbeziehen...
Wenn also Google bis heute die „Thematik“ einer Webseite nicht „verstehen“ kann, werden dann wenigstens „Onpage-Kriterien“ auf der linkspendenden Seite wie deren Seitentitel oder die nähere textliche Umgebung des Links gegenwärtig bereits in die Suchergebnisse mit eingearbeitet, oder ist es tatsächlich bis heute nur der Anker- oder Linktext, der in die Berechnung des Suchergebnisses mit einbezogen wird ... ? :-?