Ist ja mittlerweile eine zeitlang her, nachdem die ominösen Abstürze begannen. Da einer meiner Seiten immer noch nicht zurück ist, wollte ich mal fragen wie es bei den anderen aussieht.
Bisheriger Verlauf:
Ende Juni begannen die ersten User auf Abakus von plötzlichen Abstürzen zu sprechen. Das Problem wurde anfangs von vielen belächelt. Starke Seiten, ältere Seiten hätten keine Probleme. Es wurde über den Content diskutiert. Langes Menü, wenig Content, viele automatisch erstellte Seiten etc. Das Problem verschärfte sich Ende Juli, Mitte August und im September (ich war im August betroffen). Die Abstürze wurden als "Data-Refreshs" bezeichnet. Matt Cutts meinte dazu nur lapidar, man könne halt nicht immer vorne stehen. Google schweigt bis heute. Zeitgleich tritt ein neues Phänomen auf. Platz 31 macht die Runde. Einige Webseiten sind wie festgenagelt um 30 Plätze nach hinten gereicht worden. Hier muss allerdings gesagt werden, dass das 2 verschiedene Dinge sind. Denn nach dem Absturz im August wäre ich froh überhaupt irgendwo im 30er Bereich gesichtet zu werden. Teilweise werde ich mit Keys nirgends mehr gelistet (früher zumindest erste Seite).
Überlegungen:
Offensichtlich scheinen die ganzen Refreshs eine Bestrafungsaktion seitens Google zu sein. Die Frage ist nur: Was haben wir getan?
Zu unserer Seite kann ich nur sagen, dass wir keine schmutzigen Tricks angewendet haben. Die Seiten sind sogar valides, barrierefreies HTML. Der Title-Tag wurde benutzt. Es wurden h1 Überschriften eingesetzt. Hier könnte man evtl. Manipulationsabsichten vorwerfen. Aber verboten ist es ja nicht diese Tags zu benutzen. Google schreibt ja selbst in den Richtlinien, dass wir relevante Begriffe in den Seiten unterbringen sollen. Alles in allem sind die Seiten eigentlich sauber.
Interessanter sind die Offpage-Optimierungen. Also Linktausch, Linkkauf etc. Wir haben einen Webkatalog gehabt. Dort wurden auch die Backlinks untergebracht. Man könnte uns Linktausch vorwerfen. Auch haben wir einige Links gekauft. Vor allem von WDL. Man könnte uns also auch Linkkauf vorwerfen. Bei allen Überlegungen um Linkkauf, Linktausch: Warum sind dann andere Seiten immer noch gut gelistet obwohl sie viel massiver Linkkauf und Linktausch betreiben? Wenn das so sein sollte betreibt Google hier eine Art Doppelmoral. Auf der einen Seite Webmaster mit irgendwelchen Refreshs bestrafen, auf der anderen Seite jedoch mit 2 blinden Augen durch die Welt rennen und den Linkmarkt ignorieren. Es dürfte für Google kein Problem sein, sich unter irgendeiner Domain bei den ganzen Linktauschsystemen anzumelden und jeden der sich daran beteiligt aufzuspüren und abzustrafen, mal abgesehen von den ganzen Pagerank-Systemen, an denen wir uns beispielsweise nie beteiligt haben. Aber anyway. Was ist die Lösung?
Einige meinen, sie hätten die Seiten bereinigt, Links stillgelegt und eine Reinclusion Request gestellt. Andere meinen, das hat es schon vor Jahren gegeben und die Domain kam nie wieder zurück. Was ist wahr, was ist falsch? Manche meinen, man sollte einfach eine neue Domain registrieren und die alte abschreiben. Manche scheinen wohl einfach so zurückgekommen zu sein, ohne irgendwas zu machen.
Ich tendiere dazu eine neue Domain aufzusetzen. Ich werde die alte Domain NICHT per 301 auf die neue Domain weiterleiten. Sonst könnte es passieren, dass sich die Pest auf die neue Domain ausbreitet. Nach dem Motto, das ist sein Nachfolger, also kicken wir den auch. Auch werde ich mindestens 1 Monat alle Seiten stillegen. Damit wenn die neue Domain geschaltet wird, kein doppelter Content vorhanden ist.
Irgendwo ist man aber ratlos. Würde mich freuen wenn ihr eure Erfahrungen hier schreiben würdet.
It's not a bug, it's a feature.
Auf irgendeine Art regiert da der Zufallsgenerator, da ja viele der Meinung sind, daß Google nicht so schlecht programmiert sein kann, wie es der Umkehrschluß bedeuten würde.
Ich habe gerade in der letzten Woche wieder eine Domain abrauchen sehen, die seit Jahren recht gut gelistet war. Site-Abfrage ergibt 0, Spider kommt nicht mehr, Besucher von Google auch nicht.
Mir wurscht.
Tatsache ist, daß ich in diesem Jahr Domains aus allen Bereiche erlebt habe, die gleichfalls in's Google-Nirwana abgerauscht sind nach jahrelang guter Listung, ohne Sinn und Verstand oder gar System und ohne daß es irgendeinen Grund gäbe von denen, die Google mal so rauströpflen läßt als vermeintlichen Verstoß.
OK, mir macht's nix, weil mir Google wurscht ist und deswegen habe ich schlichtweg auch nix an den Seiten geändert.
Was soll ich sagen?
Just zu dem Moment als ich anfange, Adsense aus den Seiten auszubauen tauchen sie wieder bei Google auf als wäre nix gewesen.
Tja, Google, Pech gehabt, Adsense kommt bei mir nicht wieder- Euer Problem, andere Mütter haben auch schöne Töchter.
Fazit: weder leite ich um noch wechsle ich die IP oder ändere an den Seiten was. Ich mache weiter Seiten für User und in den allermeisten Fällen kommt der bekloppte Spider irgendwann mal wieder, wenn er bis dahin nicht sogar ganz von mir ausgeperrt wurde.
Macht Seiten für Menschen, nicht für Google und löst Euch von dem Gedanken, daß Ihr auf Dauer mit und/oder durch Google überleben könnt.
Tja MeNoZony,
wenn das so einfach wäre. Natürlich baue ich Seiten für die User. Aber wenn die Seite wenig Besucher bekommt, dann nützt auch die tollste Seite nichts.
Übrigens kommt der Bot jeden Tag und die Site-Abfrage bringt auch alle Seiten. Nur wenn ich www.domain . de eingebe, erscheint die Seite irgendwo auf Platz 40 oder so.
ich war auch von dem Absturz betroffen und bin es vielleicht kurzfristig wieder, da einige wichtige Keys in diversen DC auftauchen und dann wieder mal nicht.
Die Seite ist seit 2001 online und abgestürzte Keys waren über ein Jahr unter den Top 5 - ein Key über 1/2 Jahr auf Pos 1 .... dann ging es runter (> 1000). Es waren nicht alle KW betroffen - einige stiegen sogar.
In der "interessanten" Zeit gab es KEIN Linktausch, KEIN Linkkauf, KEINE übermäßige Optimierung.
Plopp weg war die Seite (Sa, 18.11. fing es an) ... und dann vorgestern auf gestern Nacht: Plopp war sie wieder da.
Bin ratlos ... habe manche Seiten etwas verändert ... andere wieder gar nicht. Pulverfass G**gle ... ich weiss nicht in welche richtung es losgeht
Grüße
jovi
Nachtrag: habe gerade einige KW (auf allen DC) geprüft ... bin raus aus den Top 10 um 7-9 Plätze gefallen ... Auf und nieder immer wieder ...
Ich will es mal so sagen:
wenn ein gewisser Datenstamm vorhanden ist gibt es hinsichtlich der Relevanz zwangsläufig Rangeleien.
Wenn man als Suchmaschinen-Betreiber ausserdem weiß, daß die angestammten Techniken zur Bewertung von Seiten allseits bekannt sind und die Welt alles tut, um sie auszutricksen, dann bleibt nicht mehr viel übrig, um Vielfalt zu präsentieren.
Ausser: random.
Mal ist der oben, mal der und das Ganze fröhlich durch die DCs vermischt, das alles dann auch noch mit geo-targeting multipliziert.
Und schon lösen sich die allermeisten Theorien über extern kontrollierbares Ranking in Wohlgefallen auf.
Früher nannte man so was mal URL-Roulette...
Tja, mit dem Linkkauf ist das so eine Sache!
Eine uns anvertraute Seite hatte mehrere Links auf japantoday*com, crisscross*com und andere...gekauft! Alle genannten Seiten hatten einen fetten Pagerank 8 mit je 500.000 Seiten im Index und ca. 4000 Backlinks mit über 3500 verschiedenen IP`s.
Dann kam das PR-Update und der Supergau, der Pagerank war weg! Aus, finito, Schluss...
Jaja, weg im Sinne von "Nichtvorhanden" war er nicht wirklich, aber der Balken war nicht mehr grün!
Ich denke mal, Google kennt seine schwarzen Schäfchen in Sachen Linkverkauf/handel sehr wohl und hat da auch einstweilen mal ein Auge drauf.
Bei einigen Seiten gibts das große Kehraus und andere bleiben verschont (leider trifft es oft die Falschen)
Ist wohl wie beim Autofahren, ich bin seit 10 Jahren nicht geblitzt worden und fahre gerne schnell! Macht mich das jetzt immun vor der nächsten Radarfalle???
Wenn ich sehe, wie einige Proleten Ihre PR7 und PR8 Links für ein Schweinegeld bei Ebay verticken und kleinere Webmaster echt um`s Überleben kämpfen und in letzter Flucht auf die Werbemasche reinfallen, wird mir kotzübel!
Ich vertrete ja die "interessante" Theorie dass auf den einzelnen Datacenters nichtmal mehr die gleichen SERP-Algorithmen laufen. Ich denke dass die Suchergebnisse auf den einen Servern die einen (sinnvollen) Aspekte beinhalten und auf den anderen Servern die anderen (sinnvollen) Aspekte. Und ich denke das ist BEABSICHTIGT. Aufgefallen ist mir das durch mehrere Datacenter-Queries ... Meine Keys sind nämlich auch ganz stark davon betroffen ...
Das Ganze hat zu BigDaddy-Zeiten angefangen und ich glaube dass Google ne ganze Menge SEOs erfolgreich an der Nase herumgeführt hat: Immer mehr SEOs sind ratlos warum bestimmte Sachen passiert sind. Aber schaut euch mal die SERPs auf den einzelnen DCs an, die sind eigentlich für den ENDUSER immer sinnvoll.
Hier steht die pure Weisheit von Markus Wigbels aus Ahaus-Graes
Bin mit meiner Seite auch in diesen blöden 31er Filter gelandet und komme nicht mehr raus. Einzige Schwankung ist abwärts, aber immer in dem Bereich zwischen 31 und 40.
Besuchereinbruch um 75%.
Da dei Url einer Marke gleicht, also bei vielen bekannt ist, bin ich auch nicht bereit, das ganze umzuleiten.
Nun habe ich die Möglichkeit, mit einem anderen Script im Prinzip die selben Inhalte auszugeben, allerdings mit anderer Ausgabe der Url etc.
Hat da von Euch schon jemand Erfahrung gemacht?
Hat man durch Ausgabe der selben Inhalte mit einem anderen Script eine Möglichkeit aus dem Filter zu kommen?
Ich kann dem ganzen hier nur meine unfreiwillige Teilnahme kundtun und mal von meinem Hauptprojekt die Besucherstatistik posten.... Monat November...
Am 01 November hatte mein Provider nen Serverabsturz, am 2 November waren schon nur knapp 1/3 der sonst üblichen User Online... und jetzt . . . vom 17-23 gab es wieder einen leichten Schub und jetzt? Unter 200 täglich...