Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Erkenntnisse vom neuen Google Algorythmus (Teil 3)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 04.12.2003, 16:33

Hi mario,

die Nichteinblendung bezieht sich auf alle Ergebnisse und nicht nur auf die ersten hundert. :wink:

Gruß
Frank

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

rolan
PostRank 5
PostRank 5
Beiträge: 268
Registriert: 22.11.2003, 12:16

Beitrag von rolan » 04.12.2003, 19:48

diese seite hat alle meien teorien über "überoptimierte seite" ins kaltes wasser geworfen:

https://www.ferienhaus-privat.de/

suchbegriff:

ferienhaus kroatien platz Nr.2 (sonst sehr stark gefiltert)
ferienhaus platz Nr.1 (wenig gefilter)

danielr
PostRank 7
PostRank 7
Beiträge: 530
Registriert: 11.11.2003, 15:12
Wohnort: Ural

Beitrag von danielr » 04.12.2003, 21:15

@rolan

ich komme gar nicht dazu seine angebote zu studieren, da ich erstmal den halb-unsichtbaren text verstehen muß. *lol*
:P

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

rolan
PostRank 5
PostRank 5
Beiträge: 268
Registriert: 22.11.2003, 12:16

Beitrag von rolan » 04.12.2003, 21:27

grauenhaft, ich weiß nicht ob hier etwas zu verstehen gibt

@auer - sieht das das auch?


rolan

Bandysay
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 01.12.2003, 17:16

Beitrag von Bandysay » 04.12.2003, 21:31

Zumindest gibt es da so schnell keine ähnliche Seite, was für Seoxx spricht. 8)

nice days

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 04.12.2003, 23:24

Die Idee der Diversifikation von @Seoxx, daß also die Verschiedenartigkeit der Ergebnisse eine Berücksichtigung findet, scheint sich in gewisser Weise bei meiner Startseite zu bestätigen. Im Oktober habe ich mal rumgespielt - mit zwei Worten (Datenbank mieten) war ich auf Rang x, mit drei Worten verbessert. Nun dagegen gilt dies zwar für die meisten Worte immer noch, nehme ich aber 'Lösung' mit hinzu (das steht bei mir im Titel), crashe ich auf etwa 140, obwohl es bloß noch c.a. 5000 Ergebnisse gibt - im Oktober hat dieses Wort ebenfalls zu einem Zuwachs geführt. Wenn ich es mathematisch ausdrücken würde: Keine pure Addition der Ränge der Einzelbewertungen pro Suchwort, sondern eine Art Orthogonalität der verschiedenen Bewertungen zueinander, bei denen 'Lösung' so viele neue Aspekte hineinbringt, daß meine Seite unter den inhaltsgleichen Seiten zu dieser Thematik zu schlecht abschneidet und deshalb aus dieser Gruppe nach hinten verbannt wird.

So findet man eine Seite https://www.biogas.ch/f+e/oekobil.htm sieben Plätze vor mir mit dem Snippet: '... Wirkungsbilanzen wurde hauptsächlich mit der Datenbank Ecoinvent gearbeitet ... von Ammoniak aus den Mieten negativ zu ... Allerdings ist diese Lösung wegen den hohen ... ' - 'Mieten' ist also als Mehrzahl von 'Miete', als landwirtschaftlicher Begriff gemeint, zusätzlich handelt es sich um eine englisch - deutsche Seite (zweisprachiger Abstract).

Die drei Suchbegriffe liefern also bsp. x viele Treffer. In dieser Menge können - durch die Hinzunahme von Seitentext, Linktext - verschiedene zueinander disjunkte Mengen gegeneinander abgegrenzt werden. Und aus jeder Menge wird nun nur noch eine geringe Teilmenge angezeigt.

Haben die meisten Mitglieder einer solchen Gruppe bislang gespammt, so stritten sie sich um die ersten 100 Plätze, alle anderen folgten erst später. Nun fliegen aus der Spam-Gruppe alle bis auf wenige heraus, diese konkurrieren mit den Bestplazierten der anderen Gruppen, das sind evtl. bei bestimmten 'Kampfbegriffen' nun bloß noch Kataloge.

Der Witz dabei ist: Eine völlig individuelle Domain wird davon nicht tangiert, sie wird immer gefunden, sofern es niemand schafft, diese Domain zu imitieren. Gibt es jedoch einen Bereich, in dem sich sehr viele mit ähnlichem Anliegen tummeln, dann hat es bislang bsp. die Masse eingehender Links + Linktext bewirkt, nach oben zu kommen und dort zu bleiben. Findet dieses Verhalten Nachahmer, machen dies viele mit ähnlichen Techniken, die sie sich gegenseitig abgucken, dann kann bsp. die ganze Gruppe mit einem Dämpfungsfaktor gebremst werden, der einerseits von der Gruppengröße, andererseits von dem Rangplatz abhängt - das wertet die ganze Gruppe ab und entwertet alle auf den hinteren Plätzen ab Rang 2 nochmals proportional zum Rangplatz, so daß es aus dieser Gruppe nur noch sehr wenige bsp. unter die ersten 100 schaffen. Die anderen vorderen Plätze werden von Seiten belegt, bei denen die Begriffe ebenfalls vorkommen, bei welchen jedoch der Kontext ein völlig anderer ist. Algorithmisch läßt sich dies ähnlich rasch erledigen wie das weiter oben genannte Beispiel, eine eigenständige Datenbank mit 'Kampfbegriffen' ist dafür nicht notwendig.

---------------
Gruß, Jürgen Auer

NiSti
PostRank 2
PostRank 2
Beiträge: 48
Registriert: 27.06.2003, 13:30

Beitrag von NiSti » 05.12.2003, 02:18

Bild

rolan
PostRank 5
PostRank 5
Beiträge: 268
Registriert: 22.11.2003, 12:16

Beitrag von rolan » 05.12.2003, 02:23

originel: scroogle.org hat die gute idee....

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 05.12.2003, 07:30

NiSti hat geschrieben:Bild

hat sich schnell rumgepostet :wink:

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 05.12.2003, 09:19

auer hat geschrieben:Haben die meisten Mitglieder einer solchen Gruppe bislang gespammt, so stritten sie sich um die ersten 100 Plätze, alle anderen folgten erst später. Nun fliegen aus der Spam-Gruppe alle bis auf wenige heraus, diese konkurrieren mit den Bestplazierten der anderen Gruppen, das sind evtl. bei bestimmten 'Kampfbegriffen' nun bloß noch Kataloge.

Der Witz dabei ist: Eine völlig individuelle Domain wird davon nicht tangiert, sie wird immer gefunden, sofern es niemand schafft, diese Domain zu imitieren. Gibt es jedoch einen Bereich, in dem sich sehr viele mit ähnlichem Anliegen tummeln, dann hat es bislang bsp. die Masse eingehender Links + Linktext bewirkt, nach oben zu kommen und dort zu bleiben. Findet dieses Verhalten Nachahmer, machen dies viele mit ähnlichen Techniken, die sie sich gegenseitig abgucken, dann kann bsp. die ganze Gruppe mit einem Dämpfungsfaktor gebremst werden, der einerseits von der Gruppengröße, andererseits von dem Rangplatz abhängt - das wertet die ganze Gruppe ab und entwertet alle auf den hinteren Plätzen ab Rang 2 nochmals proportional zum Rangplatz, so daß es aus dieser Gruppe nur noch sehr wenige bsp. unter die ersten 100 schaffen. Die anderen vorderen Plätze werden von Seiten belegt, bei denen die Begriffe ebenfalls vorkommen, bei welchen jedoch der Kontext ein völlig anderer ist. Algorithmisch läßt sich dies ähnlich rasch erledigen wie das weiter oben genannte Beispiel, eine eigenständige Datenbank mit 'Kampfbegriffen' ist dafür nicht notwendig.

---------------
Gruß, Jürgen Auer
Hi Jürgen,

garnicht so schlecht das Spiel, oder? Endlich könnte ich mal eine Optimierung bringen die nicht nach sechs Monaten verbrannt ist, weil Sie von viel zu vielen kopiert wurde. :wink:

Mir persönlich würde es gefallen wenn ich richtig liege. Denn dann muss eine Optimierung einmal individuell ausgearbeitet werden und sich von den bisherigen Seiten im Netz unterscheiden und man hätte den Filter umgangen. Hat man einmal den Filter umgangen, kann kein Anderer mehr mit der selben Struktur der Seiten in die Ergebnisse kommen. 8)

Die ersten Tests laufen bereits. Eine Serie, die in UK stark ausgeblendet wird, ist geupdatet und sobald Google die aktuelle Version im Cache hat müsste eine deutliche höhere Einblendungsquote stattfinden. Findet Diese deutlich höhere Einblendungsquote statt, dann wirds spannend. :wink:

Aber natürlich kann ich auch fürchterlich auf dem Holzweg sein. :oops:

Gruß
Frank

Venator
PostRank 3
PostRank 3
Beiträge: 98
Registriert: 22.10.2003, 09:27
Wohnort: Berlin

Beitrag von Venator » 05.12.2003, 10:30

@auer
Nicht schlecht diese Theorie...
Ich sehe aber die gefahr darin, daß die Techniken der gutplatzierten Seiten dann kopiert werden, nur mit dem Zweck, daraus eine "Gruppe" zu machen, wo dann der Filter wieder anspringt.
Natürlich braucht man dann einen individuellen Weg, um selber gut plaziert zu werden. Und das Spiel beginnt von vorn. :-?

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 05.12.2003, 10:57

Hi Venator,

die Frage die sich dabei stellt ist ob Google dann die gesamte Gruppe nicht mehr einblendet, oder nur denjenigen, der nachträglich ins Raster fällt? Es ist vollkommen unlogisch, dass jemand mit ausgeblendet wird wenn eine neue Seite in dieselbe Struktur rutscht. Das würde langfrisitig bedeuten, dass keine Seite mehr in Google eingeblendet wird, da alles nach und nach wegen Ähnlichkeit von neuen Seiten mit ausgeblendet würde. :wink:

Gruß
Frank

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 05.12.2003, 11:37

Hi,

nach einem Weilchen mitlesen komm ich nu auch mal rin ... hallo
Webby, Dein Forum hat sich echt gemacht und hier wird ja tatsäch-
lich die "fachliche Sau" rausgelassen :)

@seoxx
>Mir persönlich würde es gefallen wenn ich richtig liege. Denn dann muss
>eine Optimierung einmal individuell ausgearbeitet werden und sich von
>den bisherigen Seiten im Netz unterscheiden und man hätte den Filter
>umgangen. Hat man einmal den Filter umgangen, kann kein Anderer
>mehr mit der selben Struktur der Seiten in die Ergebnisse kommen.

hmmm .... liest sich reizvoll ... aber wie nah müsste da die Struktur einer
Site oder Seite oder einem Komplex einem anderen System sein, um von
google als " bereits vorhanden" eingestuft zu werden, und mithin bei
"Neuankömmlingen" in ähnlicher Seitenstruktur einen solchen Filter aus-
zulösen ....

und würde das nur für gleiche Themenbereiche oder Keybereiche gelten?

und ... sind nicht bestimmte Seiten rein logsich "immer ähnlich" in der Struk-
tur weil die Aufgabenstellung die Gleiche ist?

Nur so mal was in den Raum geworfen ....

Huibert

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 05.12.2003, 11:38

arg .. PR 1 .. bin ich schon gar nicht mehr gewöhnt *gg

Bandysay
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 01.12.2003, 17:16

Beitrag von Bandysay » 05.12.2003, 11:53

sind nicht bestimmte Seiten rein logsich "immer ähnlich" in der Struk-
tur weil die Aufgabenstellung die Gleiche ist?
War auch genau mein Gedanke, wenn 10 Bäcker Semmeln machen müssen sie auch Semmeln verkaufen, auf wie viele verschiedene Arten kann man eine Semmel verkaufen?.
Wie sollte das mit Shops laufen?, der Gedankenansatz ist sicherlich bei Google vorhanden und wer weis eventuell arbeiten die neuen Filter wirklich so das eine ähnliche Seite um die Zahl X in den Ergenissen nach unten rutscht bis sie soweit verändert wurde um einen Status zu erlangen und dementsprechend wieder nach oben eingestuft wird.
Je länger ich darüber nachdenke umso mehr erscheint mir ein solches Filtersystem langfristig optimal für eine Suma denn sobald die Umstellungsphase vorüber ist kann sie wirklich relevante Ergebnisse liefern die sich nicht zu sehr gleichen.

Hut ab Seoxx denn eigentlich lag es mir im Sinn gegen eine solche Möglichkeit zu argumentieren aber Deine Theorie hat einiges für sich.

nice days

Gesperrt
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag