Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Dto.!!mc hat geschrieben:so Bourbon-Update soll ja nun abgeschlossen sein, und das Ergebnis stimmt mich nicht zufrieden. Der neue Algo scheint mir zum größten Teil unlogisch. (ich beziehe mich jetzt dabei auf meine HP - seit 5Jahren online, zu 90% Content)
Das ist mir auch passiert, gerade erst habe ich meine Page komplett überarbeitet und dann schmeißt Google alle Seiten nach hinten. Zwar hatte ich vorher keine Besucherzahlen zwischen 3000 und 4000 aber jetzt habe ich auch nur noch zwischen 20 und 30 am Tag.katerina hat geschrieben: Kompletter Abrutsch - ich verfolge die Serps nicht so sehr, aber eindeutig merkbar an Besucherzahlen - von 3000 bis 4000 am Tag auf 200.![]()
Das Problem mit den fehlenden Beschreibungen und Besucherzahlen in Keller habe ich auch aber, erst seit dem ich die G. Sitemap eingerichtet hatte@katerina
Ein paar Treffer ohne Beschreibung sind durchaus normal. Schau dir site:www.amazon.de an, die haben auch einige dabei. Erst wenn die Mehrzahl ohne Snippets ist, wird es ernst. So ist zumindest meine Vermutung.
Offensichtlich hat "Bourbon" einen neuen Filter mit ins Spiel gebracht - DoppelContent. Ist ziemlich heftig.
Du bist Dir also keiner (SEO-)Schuld bewußt?mc hat geschrieben:ich habe wie mausala, ebenfalls den Verdacht, das Google sich mehr auf die Description tags bezieht und weniger den Content der Seite berücksichtigt.
Nimm es mir nicht übel, doch was erwartest Du? Google hat möglicherweise überhaupt nicht versagt - im Gegenteil.CubeMaster hat geschrieben:P.S.: Gibt es eigentlich auch etwas positives vom neuen Google Update zu berichten, oder hat Google seit langer Zeit mal kräftig versagt?
Damit das Ganze schneller geht, habe ich gestern abend noch über Google Removal veranlasst, daß die indizierten Inhalte der kurzen Domain gelöscht werden.GordonG hat geschrieben:Deshalb habe ich heute erstmals bei der kurzen Domain einen permanenten Redirect 301 über die .htaccess eingerichtet, sodaß die Duplikate mit der Bot-Zeit aus dem Index verschwinden sollten.
Die schwächere Seite bekommt dann Problemekaterina hat geschrieben:Zu Doppeltem Content:
1) Wie will Google erkennen, wer der Urheber des Textes ist? OK, bei Amazon ist es klar. Aber andere Seiten? Wenn ich als kleiner Bastler auf meiner Webseite mit PR1 was Tolles schreibe und ein paar große Seiten mit PR7 meinen Text übernehmen (muss ja nicht böse gemeint sein), was macht Google?? Zumal die großen Seiten vielleicht auch früher als die Bastlerseite gespider werden.
DAs ist Google egal2) Bei Amazon-Clones: Ich persönlich finde die Webseite von Amazon.de unübersichtlich und zerfahren. Ich habe versucht, eine übersichtliche Bücher-Seite zu bauen, alles selbst programmiert, kein free Script. Wenn sich die Kunden auf einer solchen Seite besser orientieren und eher ihre Bücher finden, warum sollte sie schlecht gelistet werden oder gar abgestraft werden?