Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ende Bourbon-update?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 23.06.2005, 23:04

nach wie vor kleinere Verschiebungen in den 11-30 Platzierungen. Positionen 1-10 recht stabil, Qualität der Ergebnisse gut, das sind meine Feststellungen in meinen Bereichen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

ralfmann
PostRank 5
PostRank 5
Beiträge: 215
Registriert: 28.04.2003, 23:31
Wohnort: im fast Osten

Beitrag von ralfmann » 24.06.2005, 09:13

Tach,

ich sehe auch immer noch z.T. große Verschiebungen!!

Bei einer Seite schwnkt es immer mal zwischen Pos. 2 und Pos. 124.......

Irgendwie nervt Tante Google wirklich ziemlich ab in letzter Zeit!!!
Gruß

Ralf

PS: Bin immer auf der Suche nach Linkpartnern!!
Mein Webkatalog für Online Shops!!

GordonG
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.06.2005, 22:29
Wohnort: Deutschland, Niedersachsen

Beitrag von GordonG » 25.06.2005, 23:45

mc hat geschrieben:so Bourbon-Update soll ja nun abgeschlossen sein, und das Ergebnis stimmt mich nicht zufrieden. Der neue Algo scheint mir zum größten Teil unlogisch. (ich beziehe mich jetzt dabei auf meine HP - seit 5Jahren online, zu 90% Content)
Dto.!!
Ich bin ebenfalls mit einer Domain betroffen, die schon Jahre drin ist, eigentlich zu 95% sehr viel unique content bietet, (in letzter Zeit seltener, da zunehmend Konzentration auf Paid Content), dennoch teilweise dramatischer Rutsch auf Seite 6-8 aus der bislang gewohnten weltweiten Top 10 (oder gar Top 5 bei best. KW) über Jahre.
Insofern lächerliches Ranking momentan.

Schon interessant, was andere so erleben, doch ich vermisse bei diesem Thread die Suche nach (relativ) konkreten Ursachen. Ja, es ist mir klar, daß niemand weiß, was Google da macht. Dennoch, was vermutet ihr, was ist der Grund für die teilweise dramatischen Abstrafungen (u.a. sehr alter) Websites?
__

@mc

Bitte schreibe, was Du so vorhast, um aus dieser unbefriedigenden Lage zu kommen und ob das etwas brachte. Ich habe auch vor, meine Veränderungen zu dokumentieren, wenn es validen Feedback gibt.
__

Ich beachte SEO seit vielen Jahren und wende IMHO "plain"/"fair" SEO an und halte mich keineswegs für einen Spammer.

Bei der Ursachensuche der letzten Tage hoffe ich, das Problem gefunden zu haben: als meine Website damals 1998 oder 1999 startete, gab es dieses Google-Oligopol noch nicht. Man meldete sich möglichst überall an und der Traffic kam (Yahoo, Fireball, Altavista etc.). Das waren noch schöne Zeiten, Jungs! :)

Da der geschützte Name meiner Dienstleistung/Website jedoch zu lang und nicht gerade einfach zu übermitteln ist, wurde zusätzlich eine Abkürzung mit nur 5 Stellen registriert, die bislang einfach auf das Hauptverzeichnis verwies. Ein Kardinalfehler, weiss ich, "duplicate content". Bislang gab es damit - über Jahre - keinerlei Probleme, doch jetzt scheinbar mit dem neuen Google "Bourbon" Update.

Was ich so über "Bourbon" gelesen habe (unzählige Beiträge, sehr wenig "relevant" Infos, Tipps, Clues), ist die schärfere Behandlung von "duplicate content" ein sehr wichtiger Punkt !?
Jemand ähnliche Erfahrungen? (Es muss doch z.B. einige Anwender dieser Amazon-Clones hier geben ...)

Deshalb habe ich heute erstmals bei der kurzen Domain einen permanenten Redirect 301 über die .htaccess eingerichtet, sodaß die Duplikate mit der Bot-Zeit aus dem Index verschwinden sollten. Ich weiß, es ist peinlich, daß das erst jetzt geschieht. (Hatte jedoch nie vor, mit der kurzen Domain zu spammen, auschließlich aus user-friendly-Sicht eingerichtet.)
__

Fragen:
-hat jemand schon einmal eine (seitens SEO selbst verschuldete) Schieflage wieder gerichtet und wie lange dauert das bei Google?
-wird PR in irgendeiner weise vererbt, wenn es Links auf domain.de gibt, die allerdings über "redirect 301/permanent" auf domain2.de mit gleichem Inhalt zeigen


Happy Seoing!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

katerina
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 08.04.2004, 08:37
Wohnort: Nürnberg

Beitrag von katerina » 26.06.2005, 08:29

Amazon-Clon meldet sich :wink:

Kompletter Abrutsch - ich verfolge die Serps nicht so sehr, aber eindeutig merkbar an Besucherzahlen - von 3000 bis 4000 am Tag auf 200. :evil:

Gleichzeitig angezeigter PR von 4 auf 0. Weißer Balken überall. PR ist für nicht so wichtig, ich schreib es nur, um die Info zu vervollständigen.

Mit dem Doppelten Content - Ich habe alles mögliche gemacht, um ihn zu reduzieren: teilweise andere Kategorienbezeichnungen, alle Begleitwörter geändert (z.B. statt Kundenbewertung eine Leser-Bewertung), die Rezensionen reduziert (nicht alle übernommen, die von Amazon Web Services geliefert werden) usw.
Ergebnis - Nul!! :(

Jetzt werden nicht mal meine unique Seiten gefunden (Forum).

Ich hoffe, dass es sich wider beim nächsten Update ändert.
Abwarten

Grüße
Katerina

CubeMaster
PostRank 7
PostRank 7
Beiträge: 547
Registriert: 15.12.2004, 21:21

Beitrag von CubeMaster » 26.06.2005, 11:17

katerina hat geschrieben: Kompletter Abrutsch - ich verfolge die Serps nicht so sehr, aber eindeutig merkbar an Besucherzahlen - von 3000 bis 4000 am Tag auf 200. :evil:
Das ist mir auch passiert, gerade erst habe ich meine Page komplett überarbeitet und dann schmeißt Google alle Seiten nach hinten. Zwar hatte ich vorher keine Besucherzahlen zwischen 3000 und 4000 aber jetzt habe ich auch nur noch zwischen 20 und 30 am Tag.

Zudem ist mir was komichen aufgefallen, welchem ich keine richtige Bedeutung zuordnen kann. :( Wenn ich bei Google meine Seiten nachschaue, entweder mit site: oder allinurl: dann tauchen ja alle auf, die Google aufgenommen hat + die dazugehörige Beschreibung + den Befehlen "Cache" und "Ähnliche Seiten". Nun aber steht bei gut hundert Seiten keine Beschreibung mehr sondern nur noch die URL statt den Title und auch nichtmehr "Cache" sondern nur noch "Ähnliche Seiten".
Vielleicht ist das ja ganz normal, und ich mache mir da ohne Grund sorgen, aber ich weiß nicht so recht etwas damit anzufangen.

Gruß
CubeMaster

P.S.: Gibt es eigentlich auch etwas positives vom neuen Google Update zu berichten, oder hat Google seit langer Zeit mal kräftig versagt?

katerina
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 08.04.2004, 08:37
Wohnort: Nürnberg

Beitrag von katerina » 26.06.2005, 11:47

@CubeMaster
Ein paar Treffer ohne Beschreibung sind durchaus normal. Schau dir site:www.amazon.de an, die haben auch einige dabei. Erst wenn die Mehrzahl ohne Snippets ist, wird es ernst. So ist zumindest meine Vermutung.

Offensichtlich hat "Bourbon" einen neuen Filter mit ins Spiel gebracht - DoppelContent. Ist ziemlich heftig.

Bei mir sonst auch alles normal: gespidert wird wild wie immer, Indexeinträge mit Cache und Beschreibung. Nur die Besucherzahlen. :(

mausala
PostRank 3
PostRank 3
Beiträge: 67
Registriert: 23.08.2004, 17:18
Wohnort: Wuppertal

Beitrag von mausala » 26.06.2005, 12:05

@katerina
Ein paar Treffer ohne Beschreibung sind durchaus normal. Schau dir site:www.amazon.de an, die haben auch einige dabei. Erst wenn die Mehrzahl ohne Snippets ist, wird es ernst. So ist zumindest meine Vermutung.

Offensichtlich hat "Bourbon" einen neuen Filter mit ins Spiel gebracht - DoppelContent. Ist ziemlich heftig.
Das Problem mit den fehlenden Beschreibungen und Besucherzahlen in Keller habe ich auch aber, erst seit dem ich die G. Sitemap eingerichtet hatte :roll:

Zu meiner erleichterung (und vielleicht für einige anderen auch) habe ich festgestellt das die Beschreibungen alle NEU eingelesen werden.

Es scheint als ob G. nun gezielt die Description tags einträgt und (z. Zt.) nicht mehr Auszüge aus dem Content der Seiten.
Gruß Maurizio

Linkpartner? Einfach melden.
https://www.sport-freizeit-spiel.de

mc
PostRank 2
PostRank 2
Beiträge: 44
Registriert: 22.04.2004, 14:58

Beitrag von mc » 26.06.2005, 15:32

@GordonG,
nun, ich habe wie mausala, ebenfalls den Verdacht, das Google sich mehr auf die Description tags bezieht und weniger den Content der Seite berücksichtigt. Meistens kommt nämlich der Suchbegriff bei den ersten Einträgen mehr oder weniger 1-2mal vor, ohne das ich die gewünschte Information erhalten habe, weil meist gar kein Content dahinter steht. Ich werde nun bei einigen Seiten die Tags überarbeiten. (habe mir dazu mal ein paar Seiten die auf den vorderen Positionen stehen, diesbezüglich genauer angeschaut). Denke mal in 1Woche sollten es dann erste Ergebnisse geben, die ich hier bei Interesse gerne poste ..... schauen wir mal.

Was mir auch noch aufgefallen ist, das vor allem Nachrichtendienste und Boards seit dem Update deulich nach oben geruscht sind.

GordonG
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.06.2005, 22:29
Wohnort: Deutschland, Niedersachsen

Beitrag von GordonG » 27.06.2005, 00:22

mc hat geschrieben:ich habe wie mausala, ebenfalls den Verdacht, das Google sich mehr auf die Description tags bezieht und weniger den Content der Seite berücksichtigt.
Du bist Dir also keiner (SEO-)Schuld bewußt?
Die Frage meine ich ernsthaft, weil dann könnte man schon etwas mehr herausfiltern, was "Bourbon" nun mehr bestraft... - weil, was Du so beschreibst, ist Deine Website ja ansonsten okay und ein alter, dicker Fisch.

Ich kann mir nämlich nicht vorstellen, daß man allein aufgrund schlecht gewählter Description-Tags so weit abfällt.

(Ich habe ebenfalls wie Du beobachtet, daß Sites, die allein meine RSS-Feed Titles (nur die Titel(!)) indizieren, erheblich besser positioniert sind. Zumindest momentan. :) )

GordonG
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.06.2005, 22:29
Wohnort: Deutschland, Niedersachsen

Beitrag von GordonG » 27.06.2005, 01:09

@katerina und CubeMaster

Vielen Dank für die Infos.
CubeMaster hat geschrieben:P.S.: Gibt es eigentlich auch etwas positives vom neuen Google Update zu berichten, oder hat Google seit langer Zeit mal kräftig versagt?
Nimm es mir nicht übel, doch was erwartest Du? Google hat möglicherweise überhaupt nicht versagt - im Gegenteil.
Es ist doch klar, daß diese Geschichte mit den Clones nicht (mehr) lange laufen wird.

Ich habe selbst schon einmal mit dem Gedanken gespielt, so einen Clone spaßeshalber zu starten. Z.B. ein gewisser Herr Ratte verkauft/e da so ein Script. :D Aber schon letztes Jahr las ich irgendwann bei der Quelle, daß diese Chose (in den USA) verbrannt ist. D.h. es ging nicht mehr viel. Durch den Verkauf des Scripts hat er sich wohl einiges vermiest.

Was mir daran nicht gefiel ist/war:
1. es ist so furchtbar ineffezient - so in der Richtung eMail-Spam: man muß unzählige, abertausende Seiten anbieten, bis was bei rumkommt. (was unter anderem die Gefahr von juristischen Querelen erhöht)

2. die Markteintrittsbarriere ist viel zu gering: jeder, der ernsthaftes Interesse hat, kann an diese Scripts kommen. Ich weiß, daß die Umsetzung, das Design etc. auch ne Menge Arbeit macht. Doch davon sieht Google nicht viel.

Ich vermute mal, daß Google über hervorragende Programmierer verfügt - da wird es kein Problem sein, auch leicht abgewandelte Texte über entsprechende Algos auf "Duplicate Content" zu prüfen (Quersummen etc.).
(Mal ganz abgesehen davon, daß die Pic-Source eine Menge verrät - da würde ich als Cloner als erstes dran arbeiten... schnell, schnell ... :O)
__

Nehmt mir diesen OT-Kommentar bitte nicht übel, ich verurteile das nicht, wenn jemand versucht, so eine Nische auszunutzen. Ihr seid nicht die Ersten, die quasi ein Perpetuum Mobile bauen wollten. Nur befürchte ich für Euch, daß diese Nische immer enger wird, oder besser gesagt, ich glaube, daß diese Nische bald nicht mehr vorhanden ist.

So gerne würde ich Eure Conversion Rates wissen, könnt Ihr Euch sicher vorstellen. Ich glaube aber ohnehin nicht, daß diese bemerkenswert sind.

Vor Jahren, als nahezu niemand von SEO wusste, da war das sicher ein wirklicher Bringer. Herr Ratte schrieb das auch irgendwo einmal: sein (ausgereiftes) Script, die Search Engines noch ohne großartige Filter = $$$$
Jetzt, wo selbst hierzulande SEO-Sites wie Pilze aus dem Boden schießen, gibt es da IMHO (bald) keine Chance mehr.
__

Nach meiner Erfahrung lohnt es sich wirklich, den kreativen Part beim Webworking zu Ungunsten des mechanischen, automatisierten Prozesses zu intensivieren. Z.B. mit einer einzigen Seite, die unique Content hat, auf die bestenfalls freiwillig verlinkt wird, ein gutes Review etc., kann man sehr viel reißen.
Klar, das ist eine ganz andere Art von Aufwand.

GordonG
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.06.2005, 22:29
Wohnort: Deutschland, Niedersachsen

Beitrag von GordonG » 27.06.2005, 01:16

GordonG hat geschrieben:Deshalb habe ich heute erstmals bei der kurzen Domain einen permanenten Redirect 301 über die .htaccess eingerichtet, sodaß die Duplikate mit der Bot-Zeit aus dem Index verschwinden sollten.
Damit das Ganze schneller geht, habe ich gestern abend noch über Google Removal veranlasst, daß die indizierten Inhalte der kurzen Domain gelöscht werden.
Diese Löschung war laut Google heute abend ausgeführt - sehr schnell, Frau Google. Danach wurde robots.txt wieder gelöscht, sodaß nun nur noch der Redirect 301 auf der kurzen Domain aktiv ist.

Ich bin gespannt, rechne aber erfahrungsgemäß nicht mit kurzfristigen Änderungen der Positionierungen innert Tagen.

katerina
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 08.04.2004, 08:37
Wohnort: Nürnberg

Beitrag von katerina » 27.06.2005, 09:01

@GordonG
Ich habe nicht verstanden, was du mit dem Script von HR. Ratte meinst - war es für Amazon?

Zu Doppeltem Content:
1) Wie will Google erkennen, wer der Urheber des Textes ist? OK, bei Amazon ist es klar. Aber andere Seiten? Wenn ich als kleiner Bastler auf meiner Webseite mit PR1 was Tolles schreibe und ein paar große Seiten mit PR7 meinen Text übernehmen (muss ja nicht böse gemeint sein), was macht Google?? Zumal die großen Seiten vielleicht auch früher als die Bastlerseite gespider werden.

2) Bei Amazon-Clones: Ich persönlich finde die Webseite von Amazon.de unübersichtlich und zerfahren. Ich habe versucht, eine übersichtliche Bücher-Seite zu bauen, alles selbst programmiert, kein free Script. Wenn sich die Kunden auf einer solchen Seite besser orientieren und eher ihre Bücher finden, warum sollte sie schlecht gelistet werden oder gar abgestraft werden?

Das waren nur meine kleinen Überlegungen. :wink:

Grüßle
Katerina

gsyi
PostRank 8
PostRank 8
Beiträge: 696
Registriert: 18.10.2004, 18:16
Wohnort: Frankfurt

Beitrag von gsyi » 27.06.2005, 12:15

katerina hat geschrieben:Zu Doppeltem Content:
1) Wie will Google erkennen, wer der Urheber des Textes ist? OK, bei Amazon ist es klar. Aber andere Seiten? Wenn ich als kleiner Bastler auf meiner Webseite mit PR1 was Tolles schreibe und ein paar große Seiten mit PR7 meinen Text übernehmen (muss ja nicht böse gemeint sein), was macht Google?? Zumal die großen Seiten vielleicht auch früher als die Bastlerseite gespider werden.
Die schwächere Seite bekommt dann Probleme
2) Bei Amazon-Clones: Ich persönlich finde die Webseite von Amazon.de unübersichtlich und zerfahren. Ich habe versucht, eine übersichtliche Bücher-Seite zu bauen, alles selbst programmiert, kein free Script. Wenn sich die Kunden auf einer solchen Seite besser orientieren und eher ihre Bücher finden, warum sollte sie schlecht gelistet werden oder gar abgestraft werden?
DAs ist Google egal :wink: [/quote]

Abakus Forengast
Nutzer/in
Nutzer/in
Beiträge: 1462
Registriert: 24.01.2004, 13:14

Beitrag von Abakus Forengast » 27.06.2005, 12:29

Ich habe nun einen ersten test erfolgreich abgeschlossen .....

Doppelter Content wird erkannt aber mit den richtigen starken Links ist es möglich den "Doppelt Content Filter" "auszuschalten/abzuschwächen" ....

Mit starken Links meine ich NICHT PR starke Links (mein Links kamen von PR0 bzw. PR1 Unterseiten) sondern Links die von sehr starken Domains (einige nennen dies Autority o.ä.) kamen

Was mich verwundert hat, ist, dass die neue Verlinkung SOFORT (innerhalb von 30 Minuten) - ohne Zeitverlust - der verlinkten Unterseite "gut geschrieben wurde" ..... Nach dem Wechsel des Linktextes - rutschte die verlinkte Seite SOFORT - unter dem ersten linktext - ab und stieg SOFORT unter dem neuen Linktext auf Platz 1 auf .......

Also Leute .......

mc
PostRank 2
PostRank 2
Beiträge: 44
Registriert: 22.04.2004, 14:58

Beitrag von mc » 27.06.2005, 19:52

@GordonG

"Du bist Dir also keiner (SEO-)Schuld bewußt? " - Nun ich wüsste nicht, wie gesagt besteht meine HP schon seit 5Jahren und bisher waren die Platzierungen bei meinen relevanten KWs bei Google alle sehr gut .... bei Yahoo und MSN sind sie das immer noch.

Ich kann den neuen ALGO nicht richtig nachvolziehen. Habe heute wieder ein krasses Bsp. dafür gefunden. Ich habe nach einem Unternehmen gesucht ... die HP des Unternehmens war auf Platz 10.

Platz 1-2 Newsportal - selbe Domain - (Pos.1) Headline und (Pos. 2) der dazugehörigeFremd-Content
Platz 3-4 Board - selbe Domain Pos 3 und 4 war ein Boardbeitrag, wobei es sich um einen Thread handelte - Infos über das Unternehmen sehr gering
Platz 5 war ein Finanzportal, das mehr oder weniger nur den Namen des Unternehmens beinhaltete.
Platz 6-7 war es ähnlich wie bei Pos. 1 und 2 - gleiche Domain (Header + Content).
Platz 8 belegte ein Newsportal mit englischen Fremdcontent !!!,
Platz 9 Finanzportal - keine relvanten Infos zum Unternehmen

und der Spass geht weiter - bei Platz 11- 20 tauchen wieder 2Domains auf, die bereits Platz 8 und 9 belegten - was soll das Google ?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag