Seite 1 von 2

Keyword Density Konfusion

Verfasst: 12.03.2009, 10:58
von drehstoph
Hallo Forum,

ich habe vor einer Woche ein Projekt online gestellt, welches basierend auf Wordpress sich um ein Nischenthema kümmert. Dafür habe ich 10 Seiten mit je zwischen 2500 und 5000 Worten Text angelegt, und jede der Seiten auf je genau eine Suchbegriffkombination optimiert.

Bei mir kommen Zweier Suchbegriffe zum Tragen, also habe ich die Suchbegriffkombi jeweils so oft sinnvoll im Text untergebracht, dass die Density bei 2.5% bis 3% liegt.

Nachdem vorgestern nach 5 Tagen dann alle Seiten im Index waren, hatte ich fantastische Psoitionen in den SERPS. Heute sind auf einmal alle 10 Seiten aus dem Index gefegt und auch mit Site://mydomain.tld nicht mehr zu finden.

Ich bin jetzt extrem irritiert, weil zum Beispiel der Keyword Density Checker von linkvendor behauptet, eine Keywordkombi auf einer meiner Seiten mit 10% vorzufinden. Auf der Seite habe ich aber genau 2657 Worte. Meine Kombi taucht dabei 63 mal im Text auf. Das sind nach Adam Riese 2.37% und sollte ok sein.

Wo habe ich meinen Denkfehler? Kann das der Grund sein, warum die Seiten sämtlichst aus dem Index verschwunden sind?

Danke für Eure Hilfe.

drehstoph

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 12.03.2009, 11:43
von jelem
ich habe vor einer Woche ein Projekt online gestellt
Newbee-Bonus. Such mal hier im Forum danach ;-)

Verfasst: 12.03.2009, 11:49
von ender
nach einer Woche schon weg?

Verfasst:
von

Verfasst: 12.03.2009, 11:49
von JohnBi
der eine Keyword-Density Checker nimmt nur den sichtbaren Text, der nächste bezieht ebenso die Keys im Quelltext mit ein - deswegen kommen diese Diskrepanzen zustande...

und such nach newbie bonus dann wirste fündig - und es ist total normal das eine so junge Seite komplett aus dem Index verschwindet - da diese nicht auf allen Datencenter vorhanden ist ...

Verfasst: 12.03.2009, 11:58
von profo
Genau. Und dazu kommen noch die unterschiedlichen Behandlungsn von Alt-, und Title-Attributen, Metatags, Kommntaren sowie die unterschiedliche Einberechnung von Stopwords. Wenn Du magst kannst Du ja mal sehen, was mein WebmasterCoffee sagt...

Verfasst: 12.03.2009, 12:00
von Dembarko
JohnBi hat geschrieben:... und es ist total normal das eine so junge Seite komplett aus dem Index verschwindet
hehe, das erkläre mir mal bitte :)

Deine Aussage
- da diese nicht auf allen Datencenter vorhanden ist ...

passt nicht so ganz.

Verfasst: 12.03.2009, 12:05
von JohnBi
das war ein Versuch es zu erklären - weil neue Seiten einfach verschwinden ohne einen Grund und dann nach nen paar Tagen wieder auftauchen - was soll ich da noch erklären?

Und häufig ist es auch so das einfach nicht alle Datencenter synchronisiert sind und dadurch eben nicht angezeigt wird...

Verfasst: 12.03.2009, 12:42
von drehstoph
Hallo Leute,

erstmal Danke für die Hinweise. Da das nicht mein erstes Projekt ist, hat mich das einfach nur komplett verwundert. Es ist zumindest das erste, bei dem ich peinlich genau auf die Keyword Density geachtet habe. Projekte davor haben beim Start nicht ein solches Verhalten gezeigt. Was erstmal im Index drin war, blieb auch drin. Komisch ist vorallem, dass die Seiten, welche eher "Beiwerk sind" und die Keywords nur ganz locker verstreut haben, noch im Index sind. Nur eben genau die 10 Seiten, in denen die eigentliche Mühe steckt, komplett raus sind.

Datencenterasynchronität habe ich auch erst gedacht. Aber dann sollten über den Tag verteilt und von unterschiedlichen IP's aus abgefragt auch ab und an mal ganz andere Ergebnisse herauskommen. Das ist aber nicht der Fall.

Ich frage ich nur, ob das ständige Wiederholen im Text von "Keyword_a Keyword _b" auch wenn die Density unter 3% liegt als Keyword Spam ausgelegt wird. In ALT Tags und Links die jeweils auf die Seiten zeigen, sind die Keywords auch drin, aber nur ganz sanft verteilt. Bold'et sind sie maximal 3 mal pro Seite und als h1 und h2 auch nur 2 bis 3 mal pro Seite zu finden.

Könnte das eine Abstrafung bezüglich Keyword Spamming sein, oder sollte man einfach mal 2 Wochen warten?

Danke.
drehstoph

Verfasst: 12.03.2009, 12:46
von JohnBi
Bei einer Woche kann man NULL sagen - es kann alles oder nichts sein - ich würde erstmal warten und direkt an Abstrafung zu denken zeigt eigentlich schon das du denkst du hättest es übertrieben und das ist garnicht gut ...

Verfasst: 12.03.2009, 14:06
von luzie
drehstoph hat geschrieben:bei dem ich peinlich genau auf die Keyword Density geachtet habe.
:roll:

(manchmal möcht' ich eimpfach weinen, *schluchz*)

Verfasst: 12.03.2009, 14:43
von Hobby_SEO79
Meiner Meinung nach der beste keyword-checker:
https://www.ranks.nl/cgi-bin/ranksnl/sp ... .cgi?lang=

Verfasst: 12.03.2009, 19:16
von Beach-Baer
Moin Moin,

das ist jetzt nicht böse gemeint, aber wer seinen Inhalt so akribisch plant, sollte sich mal Gedanken über den Sinn einer Webseite machen. :wink:

Gruß Kay

Verfasst: 12.03.2009, 19:18
von JohnBi
Beach-Baer hat geschrieben:Moin Moin,

das ist jetzt nicht böse gemeint, aber wer seinen Inhalt so akribisch plant, sollte sich mal Gedanken über den Sinn einer Webseite machen. :wink:

Gruß Kay
so, sehe ich das leider auch - wer so ein Tool nutzt der ist mehr mit der Auswertung und Korrektur der Texte beschäftigt als mit dem Content ranschaffen - abgesehen davon das niemand weiss wieviel % Keyword-Dichte optimal sind - bringen die ganzen Zahlen und % einfach NULL.

Verfasst: 12.03.2009, 20:43
von drehstoph
JohnBi hat geschrieben:
Beach-Baer hat geschrieben:Moin Moin,

das ist jetzt nicht böse gemeint, aber wer seinen Inhalt so akribisch plant, sollte sich mal Gedanken über den Sinn einer Webseite machen. :wink:

Gruß Kay
so, sehe ich das leider auch - wer so ein Tool nutzt der ist mehr mit der Auswertung und Korrektur der Texte beschäftigt als mit dem Content ranschaffen - abgesehen davon das niemand weiss wieviel % Keyword-Dichte optimal sind - bringen die ganzen Zahlen und % einfach NULL.
Würde ich meinen Post allein unter diesem Gesichtspunkt betrachten, so würde ich wahrscheinlich genauso reagieren wie Ihr. Fakt ist aber, dass ich von reinen Moneyprojekten, die echten ROI durch money for service bringen seit einigen Monaten reine SEO Affiliate Projekte aus dem Boden stampfe.

Dabei steht natürlich die Leistung für den Leser im Vordergrund, bisher habe ich mich aber bei der gesamten Onsite Optimierung nur auf die eigenen Erfahrungen der letzten Jahre und den gesunden Menschenverstand verlassen.

Jetzt aber eben mal ein Projekt, bei dem ich "alles optimal" aufsetzen wollte, wobei keineswegs die Lesbarkeit oder der eigentliche Sinn zu kurz kommt ... was ich bei einer Absprungrate von 12,5% und durchschnittlichen 9,8 Pages pro Visit mal behaupten möchte.

Was mich nur irritierte, war der Umstand, dass die Pages allesamt auf genau die Keyword Kombis von Platz 3 bis 12 rankten, und das für genau 24 Stunden. Jetzt kehren vereinzelt genau diese Pages mal kurz in den Index zurück sind dann mit site:// auch zu finden, dann wieder nicht.

Da aber der gesamte Inhalt sehr gut und aufwändig recherchiert ist, die Texte unique und nicht gekauft, die Aussenlinks ebenso gut recherchiert sind und zum jeweiligen Thema einen echtem Mehrwert für den Nutzer darstellen, ich die Site also ansich als qualitativ hochwertig bezeichnen möchte, steht nun einfach nur die Frage, ob der Umstand jetzt eben mal die Keywords in 2 bis 3% positioniert zu haben, zu dem momentanen Effekt führt.

Trotzdem Danke für Eure Hinweise.

Verfasst: 12.03.2009, 20:45
von drehstoph
Achja, und mal nebenbei das hier ... nur um nicht das Thema zu verlieren:

https://www.seo-united.de/blog/seo/333- ... dichte.htm