Seite 1 von 2

Latent semantische Optimierung

Verfasst: 22.03.2008, 14:00
von Marco79
Gerade in der Fußzeile hier im Forum entdeckt:
https://www.abakus-internet-marketing.de/lso.htm

Verfasst:
von

Verfasst: 22.03.2008, 14:10
von GreenHorn
Ein Grund warum üppiger Content mit vielen Wort-Kombinationen auch bei den single-keys oft besser rankt.

Verfasst: 22.03.2008, 14:12
von Marco79
für mich liest sich dieses lsotool.com wie eine keyworddatenbank, mehr nicht

Verfasst:
von

Verfasst: 23.03.2008, 01:59
von websolutions
im deutschsprachigen raum noch zukunftsmusik, wird aber kommen.
ein bsp ist die suchabfrage:
~seo
da wird sowohl SEO als auch "Search engine optimization", aber noch nicht "Suchmaschinenoptimierung" fett markiert.

Verfasst: 23.03.2008, 10:05
von Gretus
Hallo,

ob das dann so läuft wag ich zu bezweifeln...

Grüße

Gretus

Verfasst: 24.03.2008, 23:43
von Ju-Hu!
semantisches Web == Web3.0 == logische Konsequenz aus dem Datenmüll des Web2.0.

Wird nicht kommen, muß kommen.
Das Google mit einer semantischen Erfassung von Content klarkommt, bezweifele ich nicht. Ist ja genug Futter und Power für neuronale Netze vorhanden.

Verfasst: 25.03.2008, 00:07
von GreenHorn
Ju-Hu! hat geschrieben: Wird nicht kommen, muß kommen.
Definitiv! Die Luft wird dünner, neue Strategien sind gefragt.

Verfasst: 25.03.2008, 00:38
von Schnipsel
"da wird sowohl SEO als auch "Search engine optimization", aber noch nicht "Suchmaschinenoptimierung" fett markiert."

wohl weil Englisch und Deutsch zwei verschiedene Paar Schuhe sind...

Verfasst: 25.03.2008, 02:18
von websolutions
Schnipsel hat geschrieben:"da wird sowohl SEO als auch "Search engine optimization", aber noch nicht "Suchmaschinenoptimierung" fett markiert."

wohl weil Englisch und Deutsch zwei verschiedene Paar Schuhe sind...
aber SEO wird im deutschsprachigen raum genauso verwendet :roll:
das nennt man dann nicht mehr abkürzung, sondern synonym?
und das gehört ganz klar zu LSO!

eher fraglich wird die optimierung mit dem LSO-Tool.
wenn sich jeder an die von dort generierte Content DNA hält, dann haben im Endeffekt alle die gleiche C-DNA sprich wird das schnell rausgefiltert. d.h. in zukunft texte weiterhin richtung keyworddichte optimieren, aber auch mal gerne ein synonym verwenden sprich eine Wortabwandlung (gleicher Wortstamm). LSO wird die Suche verfeinern, aber mit Sicherheit nicht komplett neu strukturieren - da würden zuviele "private Seiten" untergehen, die sich nur auf ein thema spezialisieren (z.B. Wertpapierhandel war in einem anderen Thread das Beispiel)

Verfasst: 25.03.2008, 09:25
von Alex Peter
Was bedeutet dieser technische Fortschritt für die Zukunft der Texte?
Werden wir im web Qualitätstexte leichter finden?
Wird LSO die Spracherneuerung / Sprachveränderung hemmen?

Eigentlich sollte dieses Thema durch Sprachwissenschaftler diskutiert werden. Der Einfluss auf unsere Sprache wird nicht gering sein, wenn das ganze erstmal richtig läuft.

Der nächste Schritt ist dann wohl echtes Sprachverständnis. Spätestens dann fordern die Computer Bürgerrechte. Das wird noch lustig.

Schöne Grüße
Alex

Verfasst: 25.03.2008, 09:39
von e-fee
Ju-Hu! hat geschrieben:semantisches Web == Web3.0 == logische Konsequenz aus dem Datenmüll des Web2.0.

Wird nicht kommen, muß kommen.
Das Google mit einer semantischen Erfassung von Content klarkommt, bezweifele ich nicht. Ist ja genug Futter und Power für neuronale Netze vorhanden.
Genau das Semantic Web hat eigentlich außer dem "semantic" in der Bezeichnung so gar nichts mit Latent Semantic Indexing / Optimizing zu tun.

Semantic Web ist bisher so mehr oder minder die semantische Auszeichnung von Inhalten, sehr gern auch in Nicht-Text-Form, mit Hilfe von XML-Derivaten im weitesten Sinne (RDF oder Ähnliches).
Latent Semantic Indexing erfasst so mehr oder minder die statistische Häufigkeit des Vorkommens von Begriffen in gleichen Kontexten, woraus die Maschine schließt: oha, die müssen irgendwas miteinander zu tun haben, und dann könnte Dokument A auch für Suchbegriff B relevant sein, obwohl nur oder häufiger C drinsteht, weil in Dokument D beide sehr oft und nah beieinander vorkommen.

Bis die beiden Dinge mal zusammengefunden haben, fließt noch sehr viel Wasser den Rhein runter.

Verfasst: 25.03.2008, 09:45
von e-fee
Alex Peter hat geschrieben:Was bedeutet dieser technische Fortschritt für die Zukunft der Texte?
Werden wir im web Qualitätstexte leichter finden?
Wird LSO die Spracherneuerung / Sprachveränderung hemmen?

Eigentlich sollte dieses Thema durch Sprachwissenschaftler diskutiert werden. Der Einfluss auf unsere Sprache wird nicht gering sein, wenn das ganze erstmal richtig läuft.

Der nächste Schritt ist dann wohl echtes Sprachverständnis. Spätestens dann fordern die Computer Bürgerrechte. Das wird noch lustig.

Schöne Grüße
Alex
Mach Dir da mal keine Sorgen! Sprache war immer und ist ein dynamisches Gebilde, das ständiger Veränderung unterliegt, und auch das werden die Computer erfassen können, wenn sie entsprechendes Material geliefert bekommen. Wenn Du der Erste bist, der ein neues Wort verwendet, bzw. ein altes in neuer Bedeutung, wird eine Maschine Dich zwar nicht verstehen, aber ein Mensch auch nicht.
Inwieweit wirklich sinnvolle Qualitätstexte gefunden werden können, hängt auch ein wenig von den verwendeten Verfahren ab. Ich selbst habe da etwas andere Vorstellungen von als die Statistiker von Google.

Viele Grüße von einer Sprachwissenschaftlerin (mit dem Thema "Semantische Netze, semantische Merkmalsstrukturen und Prädikationen vor dem Hintergrund einer maschinellen Verarbeitung" in ihrer Abschlussarbeit) :wink:

Verfasst: 25.03.2008, 11:28
von SISTRIX
e-fee hat geschrieben:Genau das Semantic Web hat eigentlich außer dem "semantic" in der Bezeichnung so gar nichts mit Latent Semantic Indexing / Optimizing zu tun.
So-ist-es.

Verfasst: 25.03.2008, 22:10
von Ju-Hu!
Genau das Semantic Web hat eigentlich außer dem "semantic" in der Bezeichnung so gar nichts mit Latent Semantic Indexing / Optimizing zu tun.

Semantic Web ist bisher so mehr oder minder die semantische Auszeichnung von Inhalten
Aktuell leider ja.
Noch krasser - aktuell ist hier überhaupt garnichts "semantisch", eher statistisch stupide. Das "sematic Web" schwächelt an ähnlichen Problemen wie die "KI" schon seit zig Jahren.

Also bis ein Computer mal wirklich sich der BEDEUTUNG eines Textes BEWUSST wird, vergeht in der Tat noch der eine oder andere Regen.

Doch nun mal zum Punkt - ich meine nicht die aktuellen "semantischen Feldversuche", ich spreche generelle Bemühungen in Richtung Klassifizierung, Interpretation von Sprache, Content an. Ich meine auch nicht dieses LSI Geschichte an. In meinen Augen ein Experiment ohne Hirn.

Ich rede davon - in Zukunft versteht ein Computer ANSATZWEISE um was es bei einer Anfrage geht und kann aus all den verfügbaren Daten etwas akzeptables liefern.

"Semantic Web" ist für mein Verständniss nicht das, was Hausfrau Helga darunter versteht oder einige Projekte unter Ihre Flagge schreiben.
Das ist so ein krasses Thema, da reicht weder ein Linguistiker + Mathematiker + Soziologe.
Um Sprache zu vestehen .... das wird fett.

Aber es wird kommen müssen.

So stimme ich zu: was heute im Volksmund mit "semantic Web" gemeint ist, hat nichts mit Semantik zu tun.

Kleiner Tipp - zapft eine Synonym-Datenbank an, ersetzt ein paar Keys und ihr habt Eure "latent semantische Streuung der Keys" *g*. Das kann jeder Programmierer aufsetzen *g* und dieses LSI-Tool freut sich *g*

*schnickschnack*

Verfasst: 25.03.2008, 22:22
von Ju-Hu!
@e-fee
Latent Semantic Indexing erfasst so mehr oder minder die statistische Häufigkeit des Vorkommens von Begriffen in gleichen Kontexten, woraus die Maschine schließt: oha, die müssen irgendwas miteinander zu tun haben, und dann könnte Dokument A auch für Suchbegriff B relevant sein, obwohl nur oder häufiger C drinsteht, weil in Dokument D beide sehr oft und nah beieinander vorkommen.
.... und damit ist nur dem Spam gedient *hossa*

Ich jage durch so ein System Millionen Texte, in denen eine häufige und scheinbar grammatikalisch korrekte Verknüpfung von "Hausmeister + sexbesessen + Verhütung" abgebildet wird. Wird der "online Duden der Zukunft" einen hausmeister als sexbessenen Mensch definieren, der sehr wohl an Verhütung denkt"?

Darum - stupide Versuche.
Statisitk in einem manipulierbarem Umfeld führt zu abwegigen Prämissen und erleichtert das logische Schließen nicht wirklich *g*