Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Site-Abfrage - Index nicht Pos. 1

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
DJTonic
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 18.03.2005, 05:27

Beitrag von DJTonic » 31.08.2006, 20:36

@wolfgang67: das ist so sicher nicht korrekt. wie oft passiert es dass in einem forum geschrieben wird. guck mal bei https://www.blablubb.de da findest du dieses und jenes

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Wolfgang67
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 31.03.2006, 17:08

Beitrag von Wolfgang67 » 01.09.2006, 07:40

Die Antwort eines Spammers ...

Erklär mir lieber warum das so sicher nicht korrekt ist

Emile
PostRank 4
PostRank 4
Beiträge: 193
Registriert: 31.10.2005, 10:02
Wohnort: Deutschland

Beitrag von Emile » 01.09.2006, 08:31

Hallo,

die Seite von mir die vor 2 Monaten verschwunden und jetzt wieder da ist hat nur ca. 20 Unterseiten, alle per Hand erstellt, kein Doppelcontent, viel Text, keine versteckte Schrift (alles über Schriftgrad 10 mit starkem Kontrast), keine Scripte, überhaupt nichts was auch nur den Hauch von einem Verstoß gegen die Googlerichtlinien sein könnte. Ich tendiere auch zu der Annahme, dass es sich um eine Neuberechnung handelt bei der alle Top-Ten Seiten mal 30 Plätze nach hinten rutschen. Mich wundert es aber, dass dies live geschieht und nicht auf einem Test DC.

Gruß Emile

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Shredder
PostRank 5
PostRank 5
Beiträge: 226
Registriert: 28.03.2005, 14:12

Beitrag von Shredder » 01.09.2006, 09:39

Ich habe mir meinen Kram noch mal angeschaut und bin zu folgendem Ergebnis gekommen:
Es liegt definitiv nicht an meinen Seiten.
Es liegt auch nicht an irgendwelchen Links.


Ich denke es ist eine Art Trafficbremsalgo. Wer mit bestimmten Keys ordentlich Traffic macht, wird erst mal ein Weilchen auf Eis gelegt. Dann kommen mal andere nach vorne und Google kann anhand der Klickrate feststellen, welche Seite wirklich relevant für welche Keys ist.

Der Pagerankalgo hat nämlich folgenden Nachteil:
Wenn ein Suchbegriff erst einmal mit linkstarken Seiten belegt ist, haben neue Seiten kaum eine Chance. Auch wenn die viel bessser und wichtiger sind. Sie werden einfach nicht gefunden.
Ein Hinweis darauf könnte sein, das neue Seiten manchmal sehr gut gelistet werden bevor sie in der Sandbox verschwinden. Die bekommen sozusagen erst einmal eine Chance.

Also: Neuberechnung am lebenden Objekt. Möglicherweise nur mit bestimmten Seiten. Auswahlkriterium sind IP-Bereiche und Keywordgruppen.

Deshalb erwischt es vor allem Seiten, die schon lange dabei sind.
Je besser die Platzierung und je älter die Seite, destso gösser die Chance in den Neubewertungsfilter zu rutschen. Eventuell spielt der IP-Bereich auch eine Rolle. Wird der relativ schmal gehalten, ist die Chance das man mehrere Projekte eines Anbieters erwischt am grössten.

Es ist ja bisher so gewesen, dass Seiten vorne waren, die viele Links hatten und/oder durch Onpageoptimierung so gemacht waren, dass Google sie einfach lieb haben musste. Die wurden natürlicherweise auch am häufigsten angeklickt.

Möglicherweise befinden sich aber die wirklich relevantesten Informationen zu den Suchbegriffen auf den Plätzen 500-1000, weil die Webmaster Wert auf die Information gelegt haben und nicht auf die Optimierung.
Möglicherweise steht die Weltformel auf einer Seite mit dem Title." Bitte geben sie den Titel der Seite ein".
Ob das so ist, stelle ich nur fest wenn ich den hinteren Rängen mal eine Chance gebe.

Welche Seiten denn nun wichtig sind, könnte ich noch rausbekommen, wenn ich wüsste wieviele Seiten denn dort nun betrachtet würden.
Dafür hat Google die Toolbar und Google-Analytics erfunden.

Demnach müsste es eine Superoptimierungsmethode sein, eine Seite aus jeder Menge Frames, bzw Iframes zu bauen oder per Javascript einen Haufen sinnloser Dateien nachzuladen. Das müsste die Toolbar und Analytics mächtig beeindrucken.

Wie auch immer: Ich denke der Livetest ist die einzig sinnvolle Methode herauszubekommen, ob eine Seite was taugt. Alles andere ist manipulierbar.

Möglicherweise ist es genau das, was im Moment passiert.

Ich nenne das mal:"Die Shredder Theorie" :)

Ich denke es ist bisher in gewisser Weise auch schon so gewesen. Ich habe einige Projekte, die laufen recht gut. Die sind aus SEO-technischer Sicht so schlecht, die dürften gar nicht zu finden sein. Alle Seiten haben zB. den gleichen Title. Trotzdem sind sie im Index und werden gefunden. Der Inhalt der Seiten, ist aber für die Besucherzielgruppe sehr interessant.

Fazit: Ich tippe auf eine Verschiebung der Bewertungskriterien. Weg von optimalem Quelltext, Keyworddichte und Linkfarmen, hin zu einer Besucherbewertung. Das Seitenverschwindeproblem sind die ersten Vorzeichen davon.

Wenn es stimmt, müsste ich bald wieder vorne dabei sein, denn meine Seiten sind für die Keys 100% relevant. :)

Emile
PostRank 4
PostRank 4
Beiträge: 193
Registriert: 31.10.2005, 10:02
Wohnort: Deutschland

Beitrag von Emile » 01.09.2006, 10:10

@schredder

Seh ich genauso. Ist ein Livetest. Allerdings sagt die Klickrate wenig aus, denn ich denke, das die ersten 10 Suchergebnisse einer Seite immer im gleichen Verhältniss angeklickt werden (z.B. Ergebniss 1=80%, 2=10% usw.). Ausagekräftig wäre ja wohl nur die Verweildauer auf einer Seite. Also bleibt ein User länger auf einer Seite oder klickt er gleich weiter. Kann Google das messen?

Gruß Emile

Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 01.09.2006, 10:46

Emile hat geschrieben:Hallo,
Ich tendiere auch zu der Annahme, dass es sich um eine Neuberechnung handelt bei der alle Top-Ten Seiten mal 30 Plätze nach hinten rutschen. Mich wundert es aber, dass dies live geschieht und nicht auf einem Test DC.
Das ist sicher auf einem Test DC gefahren worden, was wir jetzt sehen ist aber die "einpegelzeit" der Real DCs. Und die kann nicht nur lange dauern (es kommen ja täglich neue / geänderte /gelöschte Seiten hinzu), sondern wird wahrscheinlich nie wirklich fertig sein.
Shredder hat geschrieben:Ich habe mir meinen Kram noch mal angeschaut und bin zu folgendem Ergebnis gekommen:
Es liegt definitiv nicht an meinen Seiten.
Es liegt auch nicht an irgendwelchen Links.
Nun, die Zuversicht habe ich bei meinen Seiten nicht. Kannst Du das auch beweisen? Und selbst wenn: Wer sagt Dir dass sich die Rahmenbedingungen nicht einfach zuungunsten Deiner Seiten geändert haben?
Shredder hat geschrieben:Ich denke es ist eine Art Trafficbremsalgo. Wer mit bestimmten Keys ordentlich Traffic macht, wird erst mal ein Weilchen auf Eis gelegt. Dann kommen mal andere nach vorne und Google kann anhand der Klickrate feststellen, welche Seite wirklich relevant für welche Keys ist.
Nette Theorie, aber meines Erachtens nach zu kompliziert. Es stimmt zwar, dass man als neue Seite aufgrund einer reinen PR-Berechnung nie gefunden und deshalb nie verlinkt werden würde, aber der Gedanke geht mir zu weit. Dann dürfte ja, wenn ich nach "ix" suche nicht immer der Heise-Verlag vorne sein. Und nach "domain" gesucht würde nicht die denic oder wikipedia ausspuken, sondern die erst mal auf Ergebnis 30-40.

Viel einfach ist doch mal die Aussage: "Google hat die Relevanz des KWs im Title um 50% heruntergesetzt" (Achtung! Ist nur ein Beispiel!) - und deswegen rutschen gut optimierte Seiten ab und nicht so gut optimierte Seiten steigen. Das hätte auch den Effekt, dass mal andere Seiten vornestehen, ohne gleich etwas komplexes wie eine "Besucherbewertung" einzuwerfen... .

Vodka, Georgi

Emile
PostRank 4
PostRank 4
Beiträge: 193
Registriert: 31.10.2005, 10:02
Wohnort: Deutschland

Beitrag von Emile » 01.09.2006, 11:09

@Georgi
Wenn einfach die Relevanz der KW im Title verändert wurden wären, dauerte die ganze Umstellung keine 2 Monate. Ich finde die ganze Sache auch sehr kompliziert und weiß nicht wie man sowas umsetzten soll aber wenn Google bisher gesagt hat: Ich gebe die Richtlinien vor wie eine gute Seite auszusehen hat, werden die Seo's diese Richtlinien bald herausbekommen und gute Seiten "immitieren". Also ein kompletest Umdenken zu: Der User sagt (durch sein Surfverhalten) was eine gute Seite ist und was nicht. Ich weiß nicht ob das technisch machbar ist, wäre aber logisch.

Gruß Emile

DJTonic
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 18.03.2005, 05:27

Beitrag von DJTonic » 01.09.2006, 11:13

Wolfgang67 hat geschrieben:Die Antwort eines Spammers ...

Erklär mir lieber warum das so sicher nicht korrekt ist
nur um vorurteilen vorzubeugen: ich bin KEIN Spammer. Ich habe allerdings ein uralt-spam-teil, das vor sich hindümplete und am 27.07. explodiert ist.
daher habe ich eine recht gute vergleichsmöglichkeit
böses seo <--->gutes seo

und verzweifle eben langsam, weil das irgendwie alles keinen sinn macht.

Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 01.09.2006, 11:50

@Emile

Das mit dem KW im Title ändern war ein Beispiel! Sie haben sicher nicht nur an ihren 100 Parametern geschraubt sondern eben auch am Algo, eine Neubewertung mußte von Grund auf gefahren werden.

Und ich bin sogar der Meinung dass es länger dauert als 2 Monate. Du hast, sagen wir mal 24 Milliarden Seiten im Index und musst über jede einzelne mehrere (bis zu 50) komplexe Berechungsiterationen durchführen. Und weil das Internet nie still steht kommen immer wieder Änderungen in das System, die gleich (Aktualität!) berücksichtigt werden müssen. Außerdem lieferst Du in der Zeit auch noch Ergebnisse aus... .

Allerdings wird scheinbar gerade wieder ein Stand aufgespielt. Und wie ich schon geschrieben habe ist das m.E. nach jetzt schon ein kontinuierlicher Prozess, die Neubewertung der alten Seiten war/ist eine Aufholjagd. Und die Ergebnisse werden wir bald komplett sehen.

Vodka, Georgi

Kändu
PostRank 2
PostRank 2
Beiträge: 35
Registriert: 01.09.2006, 12:29

Beitrag von Kändu » 01.09.2006, 12:37

Hallo@all

Bisher habe ich immer nur gelesen. Und das schon eine sehr lange Zeit, aber nun möchte ich doch auch mal was schreiben:

Geht auf die Startseite eines großen Counterdienstes in Deutschland - Etra...r.de schaut Euch die ausgehenden Links (bzw. Seiten) an !

Könnte einige Fragen hier erklären :o Ich hoffe ich konnte dem einem oder anderem hier helfen.

What can do (Kändu)

Emile
PostRank 4
PostRank 4
Beiträge: 193
Registriert: 31.10.2005, 10:02
Wohnort: Deutschland

Beitrag von Emile » 01.09.2006, 15:36

@Kändu
Also ich sehe da nichts was irgendwie bemerkenswert wäre. Ein paar vermietete Links und ansonsten nichts. Bitte hilf mir mal auf die Sprünge.

Gruß Emile

Kändu
PostRank 2
PostRank 2
Beiträge: 35
Registriert: 01.09.2006, 12:29

Beitrag von Kändu » 01.09.2006, 15:57

Hallo Emile,

Die Seiten ( Unterseiten ) dieser Domains sind fast alle sehr gut positioniert im Google Index !

Wenn Du Dich nun frägst warum, dann schaue Dir die Linkstruktur dieser Seiten mal genauer an ! Vor allem der erste Link * Preise und Testberichte* zeigt sehr schön, an welchem Rädchen Google gedreht hat - Denn diese Domains sind nicht *abgestürtzt* sondern das Gegenteil hat sich da eingestellt. Auch das Branchenbuch an zweiter Stelle zeigt die gleichen *Symptome*.
Den Rest der Analyse überlasse ich Euren SEO Fähigkeiten.

Das die Links vermietet sind weiß ich auch :D aber das machen ja fast alle *Big Player* - Heise ist da ein schönes Beispiel, selbst beim Spiegel hab ich das schon gesehen. So viel auch zum Thema Google *verdammt* alle Seiten die Links vermieten. Über diese Aussage hier im Forum mußte ich schon des öfteren schmunzeln.

What can do (Kändu)

Dub
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 16.05.2006, 19:38

Beitrag von Dub » 01.09.2006, 16:09

@Kändu:
Die dort verlinkten Sites sind und waren gut gerankt. Natürlich auch, weil sie solche fetten Links kaufen. Idealo gibt ja nicht aus Spaß zehntausende von Euros jeden Monat für Links aus. Um ehrlich zu sein: Hatte mir etwas erhofft, was spannender ist...

Dub
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 16.05.2006, 19:38

Beitrag von Dub » 01.09.2006, 16:23

Im Übrigen: Sites, die solche Riesen-Budgets für Werbung (welcher Art auch immer) haben, können gar nicht wirklich schlecht sein (und sind es auch nicht, Idealo ist m.E. der beste Preisvergleich im deutschen Internet). Auch Google wird wissen, dass schlechte Sites nicht dauerhaft fünfstellige Beträge und mehr für Links ausgeben können.

Und außerdem: Vielleicht schadet in diesem Fall der Link von Etra...r.de aus irgendeinem Grund sogar, wer weiß? Idealo hat aber soviele Links, dass sie eventuell sogar TROTZ dieses Links super gerankt sind. Deine Theorie auf diesen einen Link aufzubauen, ist also wenig sinnvoll.

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 01.09.2006, 16:28

1 - 10 von ungefähr 5.980.000 für linkdomain:etracker.de
Damit kann man vermutlich eine Doorway mit dem Titel "Matt Cutts ist blöd" unter Versicherungsvergleich dauerhaft auf 1 bringen... :lol:
Daraus würde ich auch keine Schlüsse ziehen...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag