Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Filter wegen zu hoher Keyworddichte

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Bodenseeler
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 15.04.2012, 20:38

Beitrag von Bodenseeler » 13.12.2012, 17:58

Hallo,

ich habe vor einiger Zeit eine Unterseite online gestellt, die meiner Meinung nach eine zu hohe Keyworddichte hat und daher im Ranking bei Google kein Bein auf den Boden bekommt, obwohl andere Unterseiten meiner Page sehr gut ranken. Diese spezielle Unterseite wird unter diesem Keyword nicht gefunden, daher vermute ich, dass ich in einen Filter wegen der hohen Keyworddicht gerutscht bin.

Jetzt habe ich die Keyworddichte drastisch gesenkt und hoffe darauf, dass ich bald in den SERPS auftauche.

Jetzt eine Frage zum Erfahrungswert von Euch. Hat die Absenkung der Keyworddichte direkte Auswirkungen und ist es möglich, dass die Seite aus dem Filter kommt und ganz normal rankt?

Vielen Dank und viele Grüße

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

imwebsein
PostRank 9
PostRank 9
Beiträge: 1979
Registriert: 25.09.2011, 23:44

Beitrag von imwebsein » 13.12.2012, 18:16

Ich Frage mich, woher immer dieses Wissen stammt, dass etwas im "Filter" ist? Das die Problematik mit ganz anderen Dingen zu tun haben könnte, wie zu hohe Konkurrenz, schlechter Aufbau & Inhalt, zu junge Domain usw. wird irgendwie nie beachtet... kann sein dass du die Dinge ausgeschlossen hast, seh es also nicht auf dich persönlich bezogen an :)
[url=httpss://imwebsein.de]imwebsein GmbH [/url] & SEO Portal das Onlinemagazin für Suchmaschinenoptimierung

Bodenseeler
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 15.04.2012, 20:38

Beitrag von Bodenseeler » 13.12.2012, 19:35

Wissen ist es ja nicht, sondern nur meine Meinung. Und die basiert darauf, dass ich bei relativ gleichen Keywords, wo der Wettbewerb ungefähr identisch sein dürfte, mit meiner Domain deutlich besser ranke.

Da habe ich die Seiten einfach mal direkt verglichen und der einzige gravierende Unterschied war halt die Keywordhäufigkeit. Das war nicht gewollt und auch ziemlich schwierig den Text lesbar zu halten und trotzdem das Keyword einige Male rauszunehmen.

Ich könnte meine Frage auch mit mehr im Konjunktiv formulieren "Wäre der Grund für das Nichterscheinen in den SERPs die hohe Keyworddichte und würde ich diese reduzieren, wäre es dann möglich, dass ich in den SERPs auftauche?" :D

Vielen Dank udn viele Grüße

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

imwebsein
PostRank 9
PostRank 9
Beiträge: 1979
Registriert: 25.09.2011, 23:44

Beitrag von imwebsein » 13.12.2012, 19:50

In welchem bereich lagst und liegst du? Es liegt mit 99.9 % nicht nur an dem Text, da bin ich mir fast sicher, ohne die Seite zu kennen. Wieso ich mir da so sicher bin?

Google ist der Text einer Seite nicht egal, aber er bezieht ihn immer weniger mit ein. Matt hat ja selber mal gesagt, Content interessiert den Besucher nicht die Suchmaschine. Bedeutet, Google Wertet guten Content in Bezug auf der Interaktion mit dem Suchenden, aber nicht anhand der Keyworddichte. Das ist ein exorbitant kleiner Teil und ob ich da nun 1,5 oder 5 % Keyworddichte habe, macht den Kohl auch nicht Fett.

Just my 5 Cents
[url=httpss://imwebsein.de]imwebsein GmbH [/url] & SEO Portal das Onlinemagazin für Suchmaschinenoptimierung

Bodenseeler
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 15.04.2012, 20:38

Beitrag von Bodenseeler » 13.12.2012, 19:53

Ist ne 2-Wörter-Kombi (wie heißt das in SEO-Deutsch?) und ich lag bei knapp 7%. Fand ich vom prozentualen Wert heftig.

Rasputin
PostRank 8
PostRank 8
Beiträge: 786
Registriert: 10.11.2007, 15:25
Wohnort: Hannover

Beitrag von Rasputin » 13.12.2012, 20:09

imwebsein hat geschrieben:und ob ich da nun 1,5 oder 5 % Keyworddichte habe, macht den Kohl auch nicht Fett.
Der Kohl wird nicht fett bis zu dem Punkt, wo Google die Keyworddichte als Spam interpretiert. Und dann gibt es selbstverständlich ein Problem, was man beheben kann und muss. Ich habe gerade vor Kurzem die recht hohe Keyworddichte einer Seite verringert, woraufhin die Seite 50 Plätze nach oben rutschte. Ob es wirklich an der Dichte lag (oder ob andere Faktoren mitwirkten) lässt sich ganz schwer beweisen, aber die Seite stand monatelang auf hinteren Rängen rum, bis sie sich jetzt bewegte.

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 13.12.2012, 21:45

imwebsein hat geschrieben:Das ist ein exorbitant kleiner Teil und ob ich da nun 1,5 oder 5 % Keyworddichte habe, macht den Kohl auch nicht Fett.
Die Frage ist halt, ob man den Wert auf die ganze Seite bezogen sieht oder nur auf den Text und Sidebar etc. ausblendet. In einem gut lesbaren Text wirst du es schwer haben über 3% zu kommen. Nur mal so zum Vergleich: Der Wikipediaartikel über das Blässhuhn hat das Wort mit unter 1% Dichte drin und für Blässhuhn gibt es nicht unbedingt viele Synonyme ;-) D.h. mit 7% nur im Text kann der Text nicht besonders toll sein und wenn du im Text 1-3% hast und die dann im Umfeld auf 7% ziehst, sieht das wahrscheinlich auch ziemlich nach Stuffing aus.

Ich denke hier spielt auch das Gesamtbild eine Rolle. Wenn in deiner Nische alle stuffen wie die Weltmeister, könnte man das als normal ansehen. Wenn alle 1% haben und du 12%, könntest du ein Problem bekommen...

imwebsein
PostRank 9
PostRank 9
Beiträge: 1979
Registriert: 25.09.2011, 23:44

Beitrag von imwebsein » 13.12.2012, 22:05

Ob es wirklich an der Dichte lag (oder ob andere Faktoren mitwirkten) lässt sich ganz schwer beweisen, aber die Seite stand monatelang auf hinteren Rängen rum, bis sie sich jetzt bewegte.


Gut, dann sind wir jetzt ja schlauer :-)
1% haben und du 12%
Kurzem die recht hohe Keyworddichte einer Seite verringert
imwebsein hat geschrieben:Das ist ein exorbitant kleiner Teil und ob ich da nun 1,5 oder 5 % Keyworddichte habe, macht den Kohl auch nicht Fett.
Wem fällt was auf ^^?
[url=httpss://imwebsein.de]imwebsein GmbH [/url] & SEO Portal das Onlinemagazin für Suchmaschinenoptimierung

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 13.12.2012, 22:47

An so einem Vergleich "extrem niedriger" mit "extrem hoher" Wert kann man in der Regel erkennen, dass es nicht um die absoluten Werte geht, sondern ein Prinzip vermittelt werden soll. Der Kollege hatte 7%, die evtl. problematisch waren, wir hatten hier aber auch schon welche mit 9+% ohne Probleme. Für dich gerne auch mit niedrigeren Zahlen: Wenn die anderen bei 1% liegen, könntest du mit 7 oder 9 Probleme bekommen. Liegen die bei 6%, wäre 7 oder 9 keine besonders große Abweichung von der Norm. Ich habe aus der ganzen WDF*p*IDF Diskussion mitgenommen, dass es keine ideale Dichte gibt, sondern der Wert im Prinzip für jedes Keyword einzeln ermittelt werden muss. Wenn Google nun sagt Wert + X = Stuffing, dann gibt es für die Obergrenze ja eigentlich auch keinen pauschal zu hohen Wert...

Spann-Ung
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 16.04.2009, 20:47

Beitrag von Spann-Ung » 14.12.2012, 07:25

Natürlich rutscht man bei übertriebenem Keyword-Stuffing gerne mal in einen Filter.

Lesenswert in diesem Zusammenhang (gibt auch noch zig weitere Quellen, dies ist nur ein Beispiel. Dürft aber trotzdem gerne über die Aussagekraft dieses Beispiels debattieren):
https://www.tagseoblog.de/seo-test-keyw ... -als-links

Da, wie Barthel schon dargelegt hat, Keywords und Keyword-Sets individuell betrachtet werden müssen, lässt sich keine pauschale Aussage treffen.

Noch im Januar 2012 konnte ich dies mehrfach (hoch runter hoch runter hoch runter usw.) reproduzieren und stets nach der Anpassung/Verringerung wieder ranken. Heute wäre ich vorsichtiger.

Gleiches gilt für die einseitigen Linktexte. Noch Ende 2011 habe ich mit einer Kombination aus zwei Wörtern herumgespielt. Es war wirklich ganz einfach, dies mehrfach (hoch runter hoch runter hoch runter usw.) zu reproduzieren.

In beiden Fällen stelle ich heute fest, dass ein mehrfaches Reproduzieren nicht mehr so zuverlässig drin ist. Seiten bleiben dann schon mal komplett weg.

Die Debatte ist aber eh für den Allerwertesten. Erstellt geilen Inhalt. Dieser zieht Links ganz von alleine. Nein, das ist kein Märchen. Wer es nicht hinbekommt, hat es nicht verstanden, oder ist einfach nicht dazu in der Lage.

Timo Kühne
PostRank 3
PostRank 3
Beiträge: 76
Registriert: 05.07.2011, 10:15
Wohnort: Stuttgart

Beitrag von Timo Kühne » 14.12.2012, 14:06

Ich habe mir jetzt nicht alles durchgelesen. Auf SEO-Deutsch sprichst Du von Longtail-Keywords. Das macht aber keinen Unterschied. Bei einer Keyworddichte von 7 % kannst Du auf jeden Fall davon ausgehen, dass ein Panda oder Pinguin Filter gegriffen hat. Das ist ganz klar Keyword-Spamming. Ich stell mir gerade vor, dass ich einen Artikel mit 1000 Wörter schreibe. Dann müsste ich das Key 70 mal einbauen. Das ist so heftig, dass dies niemand mehr richtig lesen kann. Inklusive dem Crawler. Ein mal im Google-Filter kommst Du so leicht nicht wieder raus. Aber sei froh, dass es sich nur um eine Unterseite handelt. Erstelle doch einfach eine neue Unterseite und übertreibe es nicht so. 3 % ist das Maximum. Du solltest viel eher variieren und verwandte Keywords verwenden. Viel wichtiger als die Keyworddichte sind Faktoren wie:

- Textaufbau
- Lesbarkeit (Flesch-Wert - einfach verständlich, kurze, klare Sätze)
- h1, h2, h3 verwenden (Aber nicht alles mit nur einem Key zu bomben)
- bold und italic verwenden (Ganze Sätze und Abschnitte. Nicht nur die Keys)
- ol und ul verwenden. Also Aufzählungen
- Grafiken mit title und alt attribut versehen.
- Zitate verwenden.
- Von anderen Unterseiten mit dem Key oder verwandten Keys auf deine zu pushende Seite verlinken.

Auf die Keyworddichte kommt es gar nicht mehr so an. Wenn Du Texte für den User schreibst, die gut lesbar sind, machst Du schon mal nichts falsch.
ultimate-seo-coaching.com
traffic-royal.de
staendig-muede.de - Live-Beispiel aus meinem Video-Kurs - Ultimate SEO Coaching << für dieses Projekt suche ich noch Linktausch-Artikeltausch-Partner aus dem Bereich Gesundheit

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 14.12.2012, 15:02

Spann-Ung hat geschrieben: Die Debatte ist aber eh für den Allerwertesten. Erstellt geilen Inhalt. Dieser zieht Links ganz von alleine. Nein, das ist kein Märchen. Wer es nicht hinbekommt, hat es nicht verstanden, oder ist einfach nicht dazu in der Lage.
Mit deinen geilen Inhalten bekommst du Links, die sind aber in der Regel vom Anchortext her neutral. Der Trend geht ja sowieso weg vom harten Keyword als Anchortext, dann muss Google die Inhalte der Seite irgendwie anders beurteilen. Bisher hattest du die Möglichkeit, Google per Link und Anchortext darauf zu stoßen, worum es bei der Seite geht. Wenn das nicht mehr geht, kannst du es nur noch über deine Inhalte tun und die muss man dann um so besser optimieren. Über den Daumen gepeilt 1-3% ist dann halt eben nicht mehr optimal. War es bisher auch nicht, aber man hatte wie gesagt andere Möglichkeiten.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag