Beitrag
von ConCar » 29.01.2010, 10:55
Also, ich habe mir das PDF zur Funktionsweise auch mal interessehalber durchgelesen und auch halbwegs verstanden, was Google mittlerweile LSI-technisch so alles können soll.
Irgendwelche Beweise zu den angeführten Aussagen habe ich aber in dem Text nicht gefunden. Denke, Google wird ein wenig überschätzt oder eben die Texte werden nur unzureichend synonymisiert.
Denke auch verstanden zu haben, wie das Tool funktioniert bzw. wie mächtig es sein könnte wenn man viel Arbeit dort hineinsteckt. Mit leichten, kurzen englischen Sätzen mag das auch alles funktionieren, aber bei komplizierten deutschen Satzverschachtelungen und leicht wissenschaftlich angehauchten Texten glaube ich, daß nur Text-Müll dabei herauskommt, oder man steckt die Zeit in die Verbesserung der Ergebnisse und könnte in der Zeit die Text vielleicht auch selber umschreiben.
Oder man nimmt einen englischen Text und läßt diesen mit einem Translator-Tool automatisiert in Deutsche übersetzen und korrigiert den Text dahingehend, was eigentlich im Original gesagt wurde. Ist wahrscheinlich ein ähnlicher Aufwand.
Ich hatte auch vor Jahren mal einen Textgenerator-Test mit einer riesengroßen "If then...else" Verschachtelung und einer Datenbank gemacht. Da kamen auch "gute" Texte heraus, wenn man ca. 3 Stunden gewartet hatte. Trotzdem waren ca. 20% der Texte teilweise unlogisch.