Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ein Key trotz vieler BL von Google ignoriert

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
durden76
PostRank 4
PostRank 4
Beiträge: 133
Registriert: 27.06.2006, 09:07

Beitrag von durden76 » 13.10.2008, 15:55

Bei einer Seite, die insgesamt gut rankt und keinerlei Probleme mit Filtern o.ä. hat gibt es eine Ausnahme:
Für ein Key, auf das eine Unterseite optimiert ist, lässt sich einfach keine Platzierung bei G. hinbekommen.
Seit über einem Jahr wird diese Unterseite behutsam an das - zugegebenermaßen schwierige - Key herangeführt, erhält inzwischen u.a. organische BLs von Seiten wie z.B. wdr.de, und trotzdem weigert sich G. hartnäckig, das Ding auch nur in die Top 100 aufzunehmen.
Und selbst wenn das Key nicht das leichteste ist, so haben doch 95 % der Top 100 schlechtere onsite-Optimierung, weniger Themenrelevanz und deutlich schwächere Offsite-Versorgung als die besagte Seite.

Woran kann es denn liegen bzw. gibt es noch Schrauben an denen man drehen kann und die in einem vertretbaren Zeitrahmen nachprüfbar sind?

Oder kann es sein, dass da irgendwann am Anfang der Existenz der Seite ein Qrater vorbei gekommen ist und genau diese eine Seite für genau dieses Key (für die nur unwesentlich leichteren Nebenkeys rankt die Seite wunderbar) gesperrt hat?

Normalerweise finde ich immer einen Grund, aber in dem Fall bin ich echt ratlos - die Strategie mit fleissig sein & (viel) Tee trinken funktioniert da einfach überhaupt nicht...

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Dragobert
PostRank 9
PostRank 9
Beiträge: 1246
Registriert: 08.02.2006, 20:40
Wohnort: Nürnberg

Beitrag von Dragobert » 13.10.2008, 22:58

"trotzdem weigert sich G. hartnäckig, das Ding auch nur in die Top 100 aufzunehmen..."
Es gibt also eine Aufnahmepflicht für deine Seiten ? Google muss dich aufnehmen ?

"so haben doch 95 % der Top 100 schlechtere onsite-Optimierung, weniger
Themenrelevanz und deutlich schwächere Offsite-Versorgung als die besagte Seite"
Wenn sie schlechter wären als du, wären sie hinter dir. Da sie aber vor dir sind,
sind sie nicht schlechter als du, sondern besser. Oder sie besch... besser....

Wie hast du das überhaupt festgestellt ? Mit Tools ? So richtige SEO-Tools ?
Die aber nicht funktionieren, oder Daten anderer Suchmaschinen liefern,
und nicht die von Google ?


"Google weigert sich...".
"...jetzt habe ich so eine tolle Seite, bei weitem besser als alles Andere, aber Google weigert sich..."
:crazyeyes: :crazyeyes: :crazyeyes:

Vielleicht kennt aber Google den Ehrgeiz ihrer Pappenheimer nur zu gut....

eric42
PostRank 2
PostRank 2
Beiträge: 31
Registriert: 15.11.2005, 17:08
Wohnort: Bad Tölz

Beitrag von eric42 » 14.10.2008, 06:38

Hast du mal geschaut, ob da Content drauf ist, der es wert ist, im Index aufgenommen zu werden? Möglicherweise gibt es den Text irgendwo auf einer stärkeren Seite nochmal...

Oder vielleicht machst du dir für diese Seite selber Duplicated Content?

Wäre ja möglich....

eric

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

wolli
PostRank 9
PostRank 9
Beiträge: 1395
Registriert: 01.01.2006, 18:48

Beitrag von wolli » 14.10.2008, 08:34

..oder Google hat deine Keyoptimierung durchschaut
probiere es einfach mal mit Keykombis

Liverson
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 03.10.2005, 11:47

Beitrag von Liverson » 14.10.2008, 08:44

wenn du die Seite hier posten würdest wärs auch einfacher was zu sagen

durden76
PostRank 4
PostRank 4
Beiträge: 133
Registriert: 27.06.2006, 09:07

Beitrag von durden76 » 14.10.2008, 08:55

Wie bereits erwähnt steckt die Seite in keinerlei Filtern, alle anderen Unterseiten und die Startseite ranken hervorragend.

Ich denke schon abschätzen zu können, dass der Content auf 'meiner' Seite stärker ist als 95 % der Top 100. (d.h. ich müsste zumindest auf der ersten Seite landen, wenn auch vielleicht nicht auf Pos. 1). Diese Art von Erfahrung bekommt man einfach, wenn man in einem Bereich schon 100te von Seiten sinnvoll platziert hat... - es handelt sich hier wirklich um eine Ausnahme und meine Frage bezieht sich genau darauf: was für Gründe kann es geben, dass sich eine einzelne Seite mit einer einzigen Keykombo
nicht platzieren lässt, wenn es vom Aufwand und der Konkurrenzsituation her eigentlich längst zu erwarten gewesen wäre.

PS: Die fragliche Unterseite selbst ist im Index und rankt für diverse andere (Nebenkey-) Kombos ebenfalls hervorragend - wenn das in meinem Beitrag vorher nicht klar herauskam, sorry - es müsste jetzt aber klar sein, so dass die Kommentare noch konstruktiver werden können ;)

durden76
PostRank 4
PostRank 4
Beiträge: 133
Registriert: 27.06.2006, 09:07

Beitrag von durden76 » 14.10.2008, 09:10

Liverson hat geschrieben:wenn du die Seite hier posten würdest wärs auch einfacher was zu sagen
Suche keine Diagnose am Patienten, sondern nur Erfahrungen von anderen Webmastern, die mit einer ähnlichen Situation wie der beschriebenen zu tun hatten.

Prinzipiell kann ich keine konkreten Projekte nennen - das wäre aus Sicht eines Kunden oder Geschäftspartners unseriös.

Haben m.A. auch alle mehr davon, wenn nicht eine Seite sondern eine Problematik diskutiert wird...

eric42
PostRank 2
PostRank 2
Beiträge: 31
Registriert: 15.11.2005, 17:08
Wohnort: Bad Tölz

Beitrag von eric42 » 14.10.2008, 09:24

mmmmmhhhh. Also ich habe mehrere Projekte, in denen einzelne Seiten nicht ranken. Und einen pauschalen Grund konnte ich nicht finden - sondern musste den Patienten immer erst diagnostizieren.

Vielleicht findet sich ja jemand hier, der gerne eher allgemein darüber diskutieren möchte.

Viel Erfolg.
eric

proit
PostRank 8
PostRank 8
Beiträge: 664
Registriert: 15.10.2007, 12:05

Beitrag von proit » 14.10.2008, 09:27

Kenne deratiges eigentlich nur aus Filtern. Hast du mal Webmastertools gecheckt, gibt es vielleicht ein Problem mit der Page? Ist die Page im G-Cache? Hast du mal nach einem ganzen Satz in Anführungszeichen gesucht, taucht die Page auf?

durden76
PostRank 4
PostRank 4
Beiträge: 133
Registriert: 27.06.2006, 09:07

Beitrag von durden76 » 14.10.2008, 10:22

proit hat geschrieben:Kenne deratiges eigentlich nur aus Filtern.
Ich eigentlich auch - ist hier aber nicht der Fall, ausser es handelt sich um einen ganz speziellen manuellen (z.B. von einem QRater gesetzten) Filter.
Auf der Unterseite befindet sich auch kein ausgehender Link, so dass bad neighborhood auch ausfällt...
proit hat geschrieben:Hast du mal Webmastertools gecheckt, gibt es vielleicht ein Problem mit der Page?

Ja / Nein - 0 Probleme
proit hat geschrieben:Ist die Page im G-Cache?
Wenn du denn Supp-Index meinst, nein - alle Seiten der Domain sind im organischen Hauptindex. Google bietet wie bei den meisten Seiten eine gecachte Version der Seite an.
proit hat geschrieben:Hast du mal nach einem ganzen Satz in Anführungszeichen gesucht, taucht die Page auf?
Die Nebenkeykombos ranken top
---


Das Hauptkey ist eine Zweiwortkombo und kommt im Text bei gut 400 Wörtern Länge rund 10x vor. Hat vll. jemand bei so einem Wert schon einmal einen KW-Dichtefilter ausgelöst? Evtentuell steckt ja darin der Hund begraben, weil die Wörter abgesehen von der Kombo auch einzeln noch öfter in dem Text vorkommen. Ich könnte mir vorstellen das die Häufigkeit der Begriffsbestandteile auch bei der Berechnung der Dichte für das zusammengesetzte Key eine Rolle spielen. Die gängigen Tools zur Berechnung der Keyworddichte haben aber kein einheitliches Vorgehen bei zusammengesetzten Begriffen, soweit ich gesehen habe..

MidnightDancer
PostRank 5
PostRank 5
Beiträge: 277
Registriert: 15.09.2005, 13:20
Wohnort: Bayern

Beitrag von MidnightDancer » 17.10.2008, 07:05

Frage an durden76
wie prüfst du aktuell ob eine Seite im Haupt oder Sub Undex ist??

durden76
PostRank 4
PostRank 4
Beiträge: 133
Registriert: 27.06.2006, 09:07

Beitrag von durden76 » 17.10.2008, 18:03

Also ehrlich gesagt bin ich mir nicht sicher, ob Google nicht inzwischen den Supplemental Index wieder in den Hauptindex integriert hat.
Aber ich würde jetzt einfach die Seiten, die bei site:-Eingabe direkt auftauchen, von solchen trennen, die dann erst am Ende der Liste über

"Um Ihnen nur die treffendsten Ergebnisse anzuzeigen, wurden einige Einträge ausgelassen, die den 1.000.434 bereits angezeigten Treffern sehr ähnlich sind.
Sie können bei Bedarf die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen."

abrufbar sind.

HaraldHil
PostRank 9
PostRank 9
Beiträge: 1437
Registriert: 11.09.2007, 08:52

Beitrag von HaraldHil » 20.10.2008, 12:24

KW-Dichtefilter
Ich habe mit einer Seite ein ähnliches Problem und vermute, daß die Ursache des Problems in hoher onpage-Keyword-Dichte liegt, ev. auch in Verbindung mit großer Dominanz des Keywords in den Linktexten.

durden76
PostRank 4
PostRank 4
Beiträge: 133
Registriert: 27.06.2006, 09:07

Beitrag von durden76 » 20.10.2008, 15:42

HaraldHil hat geschrieben:
KW-Dichtefilter
Ich habe mit einer Seite ein ähnliches Problem und vermute, daß die Ursache des Problems in hoher onpage-Keyword-Dichte liegt, ev. auch in Verbindung mit großer Dominanz des Keywords in den Linktexten.
Wie hoch ist sie denn & um was für eine Art von Key handelt es sich? (umkämpft, ein, zwei oder mehr Worte etc...)

Nach ein wenig zusätzlicher Lektüre denke ich, dass es bei mir nicht an der KW-Dichte liegt. Das Key besteht bei mir aus zwei Teilen und ist in etwa von der Güte wie z.B. 'auto reise', also beide Bestandteile für sich sehr knackig, zusammen immer noch knackig...
Die einzelnen Teile kommen im Text (sinnvollerweise) ziemlich häufig vor (je ca. 20-mal auf 400 Worte), in der gewünschten Kombination aber nur ca. 5 mal - das ist nach aktuellem Stand viel zu wenig um negative Konsequenzen bei G. auszulösen. Der Text würde bei weniger häufigen Nennungen auch eher schwerer zu verstehen sein als besser...

Es ist sowieso eher ein akademisches Problem, weil diese Seite mit dem Key eben eine Ausnahme unter all den anderen die das tun was sie sollen darstellt... aber die Herausforderung irgedwann einmal doch darauf zu kommen ist schon auch ein schöner Anreiz :wink:

himarima
PostRank 2
PostRank 2
Beiträge: 53
Registriert: 08.07.2006, 09:30

Beitrag von himarima » 20.10.2008, 17:10

Genaus so geht es mir auch bei einem Projekt. Eine Unterseite, welche auf ein bestimmtes Key optimiert wurde befindet sich seit Monaten auf Seite 20+.
Die anderen Seite ranken top.
Auch die besagte Seite rankt unter Keywordkombinationen ganz ordentlich.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag