Barthel hat geschrieben:seokrank.de hat geschrieben:
es geht mir darum, dass ich keinen hypothetischen flesch wert oder sonstwas brauche um zu merken, dass ein text mist ist. wenn sich der text gut liest und gut formuliert ist, dann merkt man das auch ohne einen solchen wert
Witzig, so was in einem SEO-Forum zu lesen, wo es ja eigentlich nicht genug Metriken geben kann
Die Theorie hinter dem Flesch-Wert besagt etwas, das dir jeder über Texte für das Web sagen wird: kurz und knackig formulieren. Keine Bandwurmsätze, keine Donauschifffahrtskapitänshemdknöpfe.
und genau das ist das problem vieler seos, dass man sich zu arg auf daten, metriken und theorien versteift und dabei den user oder die gesamtheitliche marketing sicht vergisst. klar ist es zur kontrolle nicht schlecht, wenn man aber weiß, dass kurze leicht verständliche sätze trumpf sind, dann schreibt man halt so auch ohne dass mir ein flesch wert sagt, dass mein text nur zu 60% aus kurzen prägnanten und gut lesbaren sätzen besteht.
meiner meinung nach ist immer noch das mittelding trumpf. keine brachialen satzkonstruktionen aber halt auch kein stupides aufzählen von grundschuldeutsch
... gefühlssache.
google passt sich ständig an. was glaubst du wohl wie es aussehen würde, wenn das ganze netz nur noch nach wdf*idf optimiert? dann hätten alle dieselben keywords in derselben häufigkeit an derselben stelle stehen wie die top 10 bei google. ist onpage dann überhaupt noch etwas wert? genauso wie eine bestimmte linkart nichts mehr wert ist, wenn alle das spammen in blogkommentaren und webkatalogen anfangen oder wie die sternewertung auf einmal nix mehr wert ist, weil jeder seo sie nur noch zur optimierung des klickverhaltens missbraucht. außerdem ist das nur eine tendenz, ein durchschnittswert, welcher auf die 0815 seite zutrifft. ein wissenschaftlicher text einer uni rankt bestimmt nicht schlechter, nur weil er komplex ist, denn in dem fall ist es angebracht, ja sogar nötig und vor allem vollkommen natürlich. deswegen bin ich auch der meinung man kann das nicht im einzelfall an einem flesch wert festmachen, weil dieser wohl auch von seite zu seite schwankt, je nach thema und konkurrenz. google hat tausende von seiten zum vergleich und prüft ob du von der norm abweichst oder nicht. und manchmal ist ein abweichen gar nicht unbedingt schlecht.
versteh mich nicht falsch, daten sind wichtig und gut, aber man darf den überblick nicht verlieren. es gibt so viele rankingfaktoren, all diesen faktoren 100% gerecht zu werden ist nicht nur unmöglich, sondern wäre auch total unnatürlich. überleg doch mal was wir als seos tun. wir manipulieren google. wir setzen links, die keine echten empfehlungen sind, wir schaffen künstliche texte um möglichst dem idealen text gerecht zu werden um in googles ansehen zu steigen. will google das? nein. werden sie mittel und wege finden um dem user die bestmögliche seite zu präsentieren? mit sicherheit. früher haben alle nach keyword density optimiert und google wurde besser, jetzt optimiert jeder nach wdf*idf bis es unnatürlich wird, weil jeder es macht. irgendwann kommt der rundumschlag und alle sind wieder am heulen warum es mit den rankings bergab geht, genau wie bei panda und pinguin, aber jahrelang ist man ja sicher gefahren, was soll daran schon falsch sein
... ich sage auch nicht, dass man darauf verzichten soll/muss, denn etwas anderes bleibt uns ja nicht übrig, ich sage nur man sollte nicht jede metrik bis zum maximum ausreizen und alles nur analytisch betrachten. die perfekte website gibt es nicht.
wenn hier jemand ankommt und fragt sind 30-50% besser oder 60-70% würde ich ihm sagen nimm doch die goldene mitte oder entscheide dich was dir besser gefällt, zumal ich überhaupt keine informationen über seine seite habe. das pauschalisieren bringt nichts. solange eine tendenz besteht was seos glauben zu wissen, was der beste durchschnittswert ist, reite auf der welle mit, aber mach dir nicht den riesen kopf darum. hoffe das beantwortet die frage des threaderstellers