Seite 1 von 2

Rankingverlust von Forum

Verfasst: 12.09.2012, 12:15
von slackliner.de
Hallo Gemeinde
wir betreiben seit 6 Jahren ein Forum und Shop und bei unserem Hauptkeyword, sind wir immer auf dem erstem oder zweitem Platz in den Ergebnissen bei Google.

Jetzt ist unser Forum seit einiger Zeit abegrauscht, und nun nur noch auf der dritten Seite zu finden.

Mir ist derzeit schleierhaft was ich denn dagegen tun kann.

Das Forum ist sehr gut besucht und hat suchmaschinenfreundliche URLs.

Kann mir jemand Tipps und Ratschläge geben was ich falsch machen könnte?
Hier die URL: www.slackliner.de/forum

Grüße
Michael

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 12.09.2012, 18:23
von slackliner.de
Ok, ja stimmt wohl.
Obwohl die dann ja auch die ganzen Jahre gefehlt haben, und das schien Tante Google nichts ausgemacht zu haben.

Ich hatte mal einen Block auf dem Board, da wurden die letzten 5 Beiträge angezeigt. Den habe ich weggemacht weil der Beitragszähler nicht richtig funktionierte.
Jetzt, bei einer Positionsabfrage bei Google, wird immer der selbe Text angezeigt.
Kann es sein, das Google denkt auf der Seite passiert nichts mehr und deswegen sinkt das Ranking?

Verfasst: 13.09.2012, 10:46
von Dr. Udo Brömme
Konfuzius hat geschrieben:Es scheint mir, daß Google oft zu Anfang so eine Art Frischlingbonus vergibt.
6 Jahre lang? :roll:
Konfuzius hat geschrieben: Die Verfassung hat eine Dichte von 2,9% und die Bibel bei ca. 4,1%.
Für welches Keyword denn? Für alle? :idea:
Konfuzius hat geschrieben:Zum Textanfang also mit einer Keyworddichte von ca. 8% , bei ca. 800 Worten unter ca. 4% und bei längeren Texten weiter abfallend.
Früher genügte die Keyworddichte, heute muss man die Gleichartigkeit der Texte vermeiden und die Schlüsselworte unterschiedlich verpacken.

Ich verstehe ehrlich gesagt nicht, warum du hier so viel von Keyworddichte erzählst. Der Threadersteller möchte ja wissen, wo der Rankingverlust herkommen könnte und nicht warum er von vorne rein nicht besser gerankt hat. Und dass Google jetzt auf einmal die Keyworddichte oder die Meta Keywords wieder stärker gewichtet halte ich für unwahrscheinlich.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 13.09.2012, 10:52
von fuNi
Wenn man sich die anderen Beiträge des Users "Konfuzius" ansieht, erspart sich die Frage nach der Relevanz seines Beitrags zu diesem Problem ;-) Scheinbar wurde da jemand für 10 Jahre eingefroren und ist nun wieder unter den Lebenden.

Verfasst: 13.09.2012, 13:05
von nanos
fuNi hat geschrieben:Wenn man sich die anderen Beiträge des Users "Konfuzius" ansieht, erspart sich die Frage nach der Relevanz seines Beitrags zu diesem Problem ;-) Scheinbar wurde da jemand für 10 Jahre eingefroren und ist nun wieder unter den Lebenden.
Hehe, genau der Gedanke mit dem eingefroren kam mir beim Lesen des ersten Posts auch :-)

Verfasst: 13.09.2012, 13:47
von nanos
Alter Schwede, wo kommst du denn her :-D
Hat auf jeden Fall was, das muss man dir lassen...

Verfasst: 13.09.2012, 15:58
von Christian Kunz
Ohne eine genauere Analyse kann man hier nur Vermutungen anstellen. Für welche Keywords hat sich das Ranking denn verschlechtert (vermutlich "Slackliner")? Welche Konkurrenten sind dafür an Dir vorbeigezogen? Daraus lässt sich schon einiges ableiten...

Zudem ist ja slackliner.de für das Keyword "Slackliner" auf Platz 1 - sogar noch vor dem Wikipedia-Eintrag!

Verfasst: 14.09.2012, 19:27
von luisekuschinski
fuNi hat geschrieben:...Scheinbar wurde da jemand für 10 Jahre eingefroren und ist nun wieder unter den Lebenden.
:roll: :roll: :roll:
Wissen stammt aus Mitte/Ende 90er Jahre: "Frischlingsbonus" nach 6 Jahren und "fehlende Metaangaben" sprechen dafür.

Ganz offensichtlich ist beim Auftauen etwa nicht ganz richtig gelaufen... :o
Konfuzius hat geschrieben:Entschuldigung, wir sind doch unter mitdenkenden.
Unter Mitdenkenden (wird übrigens groß geschrieben) zu sein, bedeutet leider nicht, selbst Mitdenkender zu sein!

Verfasst: 15.09.2012, 02:42
von nerd
Konfuzius hat geschrieben:Einer der Gründe könnten die fehlenden Metas sein.
Ich kann sowohl in der <meta name="keywords" content="" />
<meta name="description" content="" />
keine Schlüsselworte entdecken.
Etwas an Keywords, ca. 1-3 % Dichte sollte mindestens vorhanden sein
Sorry; aber das ist einfach nur unsinn und klingt wie etwas was jemand 1998 als "Topranking bei altavista" verkauft hat. <meta name="keywords" content="" /> wird seit jahren (nicht nur von google) ignoriert; siehe https://googlewebmastercentral.blogspot ... a-tag.html
meta DESCRIPTION kannst solltest du daraufhin optimieren dass sie besucher zum klicken einlaedt - also worum es auf der seite geht, artikelzusammenfassung oder warum man bei dir kaufen sollte - vorteile fuer den potentiellen kunden eben.
Keyworddichte ist ebenfalls fuer'n arsch; meine seiten ranken auch fuer suchbegriffe die auf keiner meiner seiten auftauchen.
Allgemein konnte ich aber auch selbst feststellen dass foren die ich immer mal besuche nichtmehr so aktiv sind; und ich selbst sehe auch weniger foren in den serps. Ist also ein generelles problem; und nicht nur dass des OPs.

Verfasst: 15.09.2012, 10:48
von mwitte
Konfuzius hat geschrieben:Die bisher gebrachte Gegenargumente sind nicht nachvollziehbar.
Hast Du den Link von NERD mal gelesen?
Nur weil Du auf Deiner Tschechien Immobilienseite trotz massivem Keywordspam in den Metaangaben dennoch rankst bedeutet das nicht gleichzeitig auch das Du wegen des Keywordspams rankst...

Verfasst: 15.09.2012, 12:55
von nerd
Konfuzius hat geschrieben:Es ist und bleibt ein reines Keyword-Adressbuch, und kann nur aus deren Dichte die optimale Relevants erkennen.
...
Konfuzius hat geschrieben: Die Zielsetzung von Google hat sich in den vergangenen 12 Jahren nicht geändert, nur Google scannt inzwischen viele 1000 Bücher und kann laufend lernend, die optimale Keworddichte bei höchster Relevants immer besser erkennen und werten.

Keyworddichte ist eine von mehreren hundert merkmalen die zur relevanzbestimmung herrangezogen werden koennen. Weit wichtiger sind eingehende links, deren keyword verteilung, deren quellen, in welche frequenz diese entdeckt werden, auszeichnung der seiten mit schema-daten wenn angebracht oder merkmale aus sozialen netzwereken: author, popularitaet des authors, "+1" auf die seite, author im eigenen freundeskreis oder nicht usw. usf.

Man kann auch fuer keywords ranken welche NICHT auf der seite vorkommen, von daher gibt es keine "optimalen keyworddichte" - siehe https://googleblog.blogspot.co.nz/2005/ ... ilure.html , https://en.wikipedia.org/wiki/Political ... ge_W._Bush oder https://www.linksandlaw.com/technicalba ... ombing.htm fuer weitere beispiele.

Verfasst: 15.09.2012, 15:00
von ingamint
Konfuzius hat geschrieben:Das Internet-Adressbuch wurde nicht zum Zeitvertreib, sondern zur Erfüllung des Konsumgedankens entwickelt.
"Internet-Adressbuch", was'n das jetzt schon wieder für ein Tierchen?

Konsum hat in der Entstehungsgeschichte des Internets übrigens absolut keine Rolle gespielt. Der Konsumgedanke kam erst ein gutes Stück später zum Tragen, als endlich auch eine nennenswerte Zahl von Privathaushalten Zugang zum Internet hatten und im Cern das HTTP erfunden wurde.

Verfasst: 15.09.2012, 17:52
von Timo Kühne
Ich würde einfach mal behaupten das es an Panda und Pinguin liegt. Google ändert ständig seinen Algorithmus. Was gestern noch funktioniert hat, kann morgen schon zu einem Rankingverlust führen. Man müsste sich mal das exakte Link abbild deiner Website anschauen. Eventuell kommen ja ein paar Links aus Linknetzwerken, Farmen oder Verzeichnissen, die selbst in letzter Zeit abgewertet wurden. Vielleicht zeigen auch ein paar Links aus Bad Neighbourhood auf deine Seite. Wer weiß.

Es könnte auch sein das nach den letzten Updates, die Konkurrenzseiten besser bewertet werden, da die Ranking Faktoren besser erfüllt werden. Du könntest deine Seite auch mal mit diversen Tools auf Onpage Qualität prüfen und mit der Konkurrenz vergleichen. Es ist möglich das Du Onsite einfach noch ein wenig Nachholbedarf hast.

- ahrefs.com
- backlinktest.com
- seitwert.de
- seitenreport.de
- seokicks.de
- opensiteexplorer.org
- x4d.de/backlinkchecker
- seo-united.de/backlink-checker

Mit diesen Tools kannst du alles Nötige checken, was es zu checken gibt :D

Oder Du legst dir einfach ein professionelles Tool wie: Sistrix, Searchmetrics oder Xovi zu. Damit kannst du relativ gut rausfinden, was die Konkurrenz besser macht.

Gruß Timo

Verfasst: 16.09.2012, 10:09
von mwitte
Konfuzius hat geschrieben:Es (=Google) ist und bleibt ein reines Keyword-Adressbuch, und kann nur aus deren Dichte die optimale Relevants erkennen.
Da bist Du aber völlig falsch gewickelt!

Verfasst: 16.09.2012, 20:07
von slackliner.de
Wir hatten das Forum mal als Portal laufen, da waren die letzten 5 Beiträge auf der Startseite gelistet und dann mit den Seo Tools Suchmaschienenfreundliche Urls ausgegeben,
das haben wir dann abgeschaltet da der beitragszähler nicht funktionierte.
Ab da ging es berg ab.

meine Vermutung ist daher,das es an mangeldem neuem Content liegen weil Tante Google das in der jetztigen form nicht sieht das da ein neuer beitrag existiert?
Das Hauptkey ist übrigens " slackline "