eine einfache Variante, die weder Datenbank noch stundenlanges Eingeben von Daten erfordert ist folgende:
Schreibe ein kleines Script, dass den Text deiner Seite auswertet. schreibe nun alle´Wörter in ein Array und zähle die Anzahl der Wörter. Die 10 relevantesten (leg die eine Liste an, welche Wörter NICHT gewertet werden sollen wie "der, die das und oder..." an, die du dann mit einbeziehst), lässte du dann als keywords eintragen in die entsprechende Seite.
Alternativ dazu kannst du auch folgendes machen:
Da alle Produkte eh in einer Datenbank liegen, generierst du eine Liste mit den Produktnamen aus der Datenbank (ist ja ganz simpel). Und diese Liste nimmst du dann als Quervergleich. Kommt ein Wort in deinem Text vor, dass auf dieser Liste steht, ist es ein Keyword und wird zu den Keywords hinzugefügt. Somit hast du immer Keywords, die zur Seite passen.
@AnjaK:
Solche Klimmzüge habe ich auch mal gemacht. Irgendwann habe ich es entfernt (und durch statische Keywords ersetzt). Es war keine Veränderung spürbar, die Seite ist seit dem sogar in den Serps gestiegen.
Mein Fazit: Dynamische Meta-Keywords sind ein schönes Spielzeug, der Nutzen liegt aber bei null und der Aufwand ist sowohl hinsichtlich Programmierarbeit als auch Rechenleistung recht groß.
Da mag ich dir widersprechen.
Für Google sind die Metas (im oberen Bereich der SERPS) nicht besonders relevant, das mag wohl sein, aber Google ist nicht die einzige Suma und es gibt andere Sumas, die mehr Wert auf die Metas legen und die sollte man nicht GANZ außer Acht lassen.
Auf eine einzige Suma zu optimieren ist kurzsichtig. Alles, was machbar ist, sollte man auch machen, egal ob Tante Google darauf Wert legt oder nicht, denn alles, was nicht schadet, kann nur positiv sein. Daher sollte man schon drauf achten, dass die Metas vernünftig sind (description und keywords). Um in den Sumas AUF DAUER nach vorne zu kommen, reicht es nicht, nur die "gewinnträchtigen" Methoden anzuwenden. Die Masser der "klitzekleinen" Erhebungen macht auch einen Berg und manchmal sogar mehr als die großen, wenn man es "global" sieht.,
Der Aufwand um das zu programmieren ist minimal, 5 Minuten Gesamt-Arbeit. Die sollte man schon investieren
Was die Rechenleistung angeht: Die ist gleich Null, wir leben ja nicht mehr im Zeitalter der 286er
ja kann man so sehen, ich habe da durch die aufgesetzte Google-Brille geguggt... Dabei auch durchaus an die Ziegenböhnchen auf dem Weg denke, wenn's viele sind kann man auch darauf ausrutschen
Es kommt auf die Implementation an. Bis ein Automatismus sauber eingestellt ist, braucht es auf jeden Fall mehr als 5 Minuten. Entweder man pflegt Negativlisten, oder man hat einen sehr gut eingestellten Automatismus. Beides bedeutet auf jeden Fall mehr als 5 Minuten Zeitaufwand.
Auch der Ressourcenbedarf sollte nicht vernachlässigt werden. Immerhin geht es hier entweder um ausgeklügelte Indizierung oder um eine Volltextsuche und Wortauszählung für jede einzelne abgerufene Seite.
Letztendlich muss aber jeder selbst wissen, was er tut. Solange mir Google rund 99% meines Traffics schickt, genügen statische Keywords in den Metatags. Ich glaube auch nicht, das Keywords in Zukunft überhaupt noch eine große Rolle spielen. Aber wie gesagt, jeder muss selbst wissen, wie er seine Zeit und Ressourcen am liebsten verschwenden will.
zwecks der guten form u. eben für die "noch" nicht so relevanten sumas.
von dyn metas halte ich aber trotzdem nix. frag mich was das bringen soll?! vorallem wenn man einen shop mit mehreren tausend artikelseiten hat. wozu da noch metas wechseln???
*bin schneller... alte Bergziege *
Aber ist doch klar, in Trier gibts so viele Traktoren, da ist das doch nur naheliegend
Was das mit dem Thema zu tun hat? Öhm... nix