Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Erkenntnisse vom Florida Update Teil 2

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 28.11.2003, 15:42

zum Verständnis was Google unter Anti-Spamm-Filter versteht:

diese Domain ist aus den Top100 geflogen
https://www.themovechannel.co.uk/spain/spain.asp

diese Domain ist dafür auf Platz#4 avanciert
https://spain.themovechannel.com/eastern-spain.asp

ist das mit SEO-Ethik zu erklären, oder doch mit Unvermögen?
Zuletzt geändert von mario am 28.11.2003, 15:45, insgesamt 3-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

jssvw
PostRank 1
PostRank 1
Beiträge: 17
Registriert: 26.11.2003, 09:25
Wohnort: NRW

Beitrag von jssvw » 28.11.2003, 15:42

Ich glaube, es besteht ein Zusammenhang zwischen ALEXA-Ranking + Linkpopularität:

Gutes ALEXA-Ranking + hohe Linkpop = ++
Gutes ALEXA-Ranking + niedriger Linkpop = +
Schechtes ALEXA-Ranking (> 1.000.000) + hoher Linkpop = --

Bitte auch mal an verschiedenen Suchbegriffen prüfen. Ist nur so ein Gedanke.

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 28.11.2003, 15:46

@vince123: Wenn es zu einem Thema x viele Platzhirsche gibt, welche die Plätze 1 bis x belegen und seit Monaten auf diesen Plätzen stehen, dann schaffen es neue Seiten, die bsp. über Linkpartnerschaften gepusht werden, vielleicht in die Nähe des Platzes x, sie kommen aber nicht auf einen der Plätze 1 bis x. Wenn es also bei Webdesign Berlin / München 200 Platzhirsche gibt, dann können kurzfristig gepushte Seiten vielleicht auf 220 kommen, dann ist Schluß, die Leute verlieren das Interesse und geben auf. Bei Webdesign Hamburg hat es vielleicht sehr viel weniger 'richtige Platzhirsche' gegeben, also rüttelt dieselbe Algorithmus-Änderung weitaus mehr durch. Der Rangfolge allein sieht man das ja nicht an, wie weit die einzelnen Plätze tatsächlich auseinanderliegen.

An einem drastischen Beispiel verdeutlicht: Ein Neuling wird niemals seine Seite auf Sex optimieren, weil er da sowieso keine Chance sieht, also probiert er es mit Sex + Handy oder ..., das machen viele andere auch, also drängeln sich da Leute, die bislang Zusatztechniken genutzt haben. Für Hamburg dürfte etwas analoges gelten. Es gab wahrscheinlich weniger eindeutige Platzhirsche, so daß alle dortigen Seiten nach den bisherigen Bewertungen näher beieinanderlagen. Und dann genügen natürlich winzige Änderungen im Algorithmus, die gleich die ersten 20.000 Ergebnisse durchschütteln.

Hamburg alleine - 12 Mio
München alleine - 4.4 Mio
Berlin alleine - 5.6 Mio (Frust)

da kann natürlich die Beimischung von Hamburg bei der Suche Seiten nach oben bringen, bei denen Webdesign nur eine Nebenrolle spielt.

---------------
Gruß, Jürgen Auer

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 28.11.2003, 15:53

Erkenntnis: schlägt das Filter zu, werden jeweils beide Seiten die gelistet sind, in Bezug auf einen Suchbegriff, verbannt. Also ist nicht nur die überoptimierte Seite betroffen sondern die ganze Site. Mal warten ob jemand einen Gegenbeweis antritt (Mauri erst mal ausgenommen)

vince123
PostRank 2
PostRank 2
Beiträge: 52
Registriert: 10.11.2003, 10:56
Wohnort: Hamburg

Beitrag von vince123 » 28.11.2003, 16:26

@auer
zunächst mal schönen dank, dass du dich weiter mit diesem beispiel befasst. ganz folgen möchte ich deiner theorie immer noch nicht.
auer hat geschrieben:Bei Webdesign Hamburg hat es vielleicht sehr viel weniger 'richtige Platzhirsche' gegeben, also rüttelt dieselbe Algorithmus-Änderung weitaus mehr durch. Der Rangfolge allein sieht man das ja nicht an, wie weit die einzelnen Plätze tatsächlich auseinanderliegen.
ich habe das auch für diverse andere mitttel- und kleinstädte getestet. überall null änderung. ich glaube kaum, dass es in diesen städten jeweils nicht einen unter den top100 gibt, der z.b. ein linktauschprogramm einsetzt oder sonst überoptimiert, der also von einer algo-änderung dieser art betroffen sein müsste.

bisherige hamburger top10-platzierungen, die ebenfalls so etwas nicht nutzen, finden sich nicht mehr in den top1000.
auer hat geschrieben: Hamburg alleine - 12 Mio
München alleine - 4.4 Mio
Berlin alleine - 5.6 Mio (Frust)
die zahlen überraschen mich allerdings auch ;-)

gruss.
vince123.

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 28.11.2003, 16:30

Heureka

Das neue Rezept heisst: keine eingehenden Links, möglichst wenig Content und möglichst jungfräulich in die Welt gucken!

Platz#5 bei 2,400,000 Seiten mit PR4
https://www.google.com/search?hl=en&ie= ... n+property

keine eingehenden Links
https://www.google.com/search?num=100&q ... art=0&sa=N

Ab nun wird´s ganz einfach!! *freu*
Zuletzt geändert von mario am 28.11.2003, 16:37, insgesamt 1-mal geändert.

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 28.11.2003, 16:32

Eine weitere Interessante Theorie (auf englisch)
https://blog.outer-court.com/

(Kurzfassung;Anchor Text hat an Bedeutung verloren, deswegen die anderen Ergebnisse als vor dem Update)

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 28.11.2003, 16:57

Feststellung: suche ich mit der Normaleinstellung n=10 in der Adresszeile sehe ich eine meiner Seiten auf Platz 5 aber mit option n=100 erscheint sie nicht unter den ersten 100. Offenbar greift er da wo anders zu.

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 28.11.2003, 17:03

Das von @viggen genannte Beispiel ist faszinierend: alt tag schmeißt 60 Seiten raus, als erstes eine PR5-Seite von w3.org. Kein kommerzielles Schlüsselwort, trotzdem drastische Veränderungen - wie passen da diese ganzen Verschwörungstheorien?

-------------
Gruß, Jürgen Auer

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 28.11.2003, 17:23

@auer laß uns einfach arbeiten, ich denke am wenigsten paßt Deine Theorie. Offenbar sind sind die seriösen Seiten doch auch betroffen. Nach Deiner Theorie betrifft es ja die SEO-Sünder und nicht die SEO-Heilligen.

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 28.11.2003, 17:32

auer hat geschrieben:Das von @viggen genannte Beispiel ist faszinierend: alt tag schmeißt 60 Seiten raus, als erstes eine PR5-Seite von w3.org. Kein kommerzielles Schlüsselwort, trotzdem drastische Veränderungen - wie passen da diese ganzen Verschwörungstheorien?

-------------
Gruß, Jürgen Auer
Phillip Lensen (blogoscope) schaut ja öfters mal hier vorbei, vielleicht eklärt er uns ein bischen mehr darüber.

eine weitere Theorie (englisch) diesmal von chriseo (Searchguild)
https://www.searchguild.com/tpage4713-0.html

(es geht um stemming) also der Stamm eines wortes mit all seinen Varianten wird jetzt in einen Topf geworfen ähnlich des Broadmatch bei Adwords.

mfg
viggen

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 28.11.2003, 17:47

@viggen
interessant das Stemming, aber das erklärt in meinen Augen nicht die momentanen Resultate. Die Veränderungen sind ja ganz anderer Natur und laßen ein diffuses Muster erkennen. Suche weiter Viggen, jeder positive Input ist ein Baustein, danke Dir.

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 28.11.2003, 18:19

Das 'alt tag' - Beispiel paßt wunderbar zu meinen Überlegungen. Denn es zeigt, daß es keinen speziellen Filter mit zusätzlicher Datenbank für kommerzielle Schlüsselwörter gibt, sondern daß es sich ganz allgemein um eine Algorithmusänderung handeln dürfte. Ferner war in dem von @viggen zitierten Artikel die Rede davon, daß der Anchortext nicht mehr so hochgewichtet wird. Auf diesen wird jedoch gerade bei sämtlichen Linkpartnerschaften, egal ob per Linktrade oder Mail, sehr großen Wert gelegt. Kümmere ich mich dagegen 'bloß' um eingehende Links, ohne mich für den Linktext zu interessieren, habe ich automatisch verschiedene Texte. Das genügt, um gespidert und indexiert zu werden. Gibt es hinreichend vielfältigen Text auf einer Domain wie w3.org, dann ist es uninteressant, ob sie über diese oder jene Seite gefunden wird. Nur macht sich bei w3.org natürlich niemand darum Gedanken, warum diese bislang Top-1-Seite 'abgestürzt' ist.

Dies fiel mit bei der Durchsicht von webdesign hamburg auf: Seiten wurden hinausgeworfen. Es gab jedoch auch Fälle, bei denen von derselben Domain eine andere Seite neu gelistet wurde - das reicht, um Nutzer anzuziehen. Die 'Hinauswerf-Zahlen' sind also nicht absolut.

-------------
Gruß, Jürgen Auer

vince123
PostRank 2
PostRank 2
Beiträge: 52
Registriert: 10.11.2003, 10:56
Wohnort: Hamburg

Beitrag von vince123 » 28.11.2003, 18:37

@auer
also an eine verschwörung gegen kommerzielle seiten und eine entsprechende darauf abgestimmte liste aus der datenbank glaube ich auch nicht.

die hinauswerf-zahlen sind nicht absolut, da gebe ich dir recht. es werden teilweise unterseiten gelistet (allerdings mit erheblich irrelvanterem content aus nutzersicht).

du musst dich allerdings mal von diesen linkpartnerschaften und linktrade als ausgangspunkt lösen. die habe ich z.b. noch nie benutzt, habe fast keine externen links mit keywords und schon gar nicht mit der kombination hamburg und webdesign.

und das links hauptsächlich dazu da sind, um von anderen seiten gut gefunden zu werden und die besucher direkt von da zu bekommen, da sind wir uns auch einig ;-)

nun habe ich doch noch ein beispiel ähnlicher art: webdesign hannover mit 95 von 100 "rausgeflogenen" seiten und hannover 96 nun auf platz 3...

gruss.
vince123.

bruko
PostRank 5
PostRank 5
Beiträge: 211
Registriert: 11.10.2003, 09:02

Beitrag von bruko » 28.11.2003, 18:40

Hi,
ich hatte vor ein paar Tagen gepostet, dass meine Fotoseite, (Eingangsseite/index.htm) unter der Keyword-Kombi: KW1(Berlin) KW2(Fotos) häufig im Linktext, sowohl intern als auch extern und in der Domain(KW1-KW2), aus dem Index geflogen ist.
In der Kombination KW2 mit einem Berliner Bezirk haben sich Unterseiten verbessert.
Aus den internen Linktexte habe ich vor 5 Tagen 'Berlin' entfernt - bisher ohne Wirkung. Kann mir aber auch die internen Linktexte nicht als Problem vorstellen, Jürgen Auer hat das ja schon plausibel ausgeführt.
Habe in Berlin einige Seiten auf Berlin+KW oder KW+Berlin optimiert. Auch für eine externe und interne Verlinkung gesorgt (keine Linktausch-Programme etc.), die sich ähnelt. D.h. bei fast allen Seiten gibt es externe Linktexte mit ähnlichen Keyword-Kombis.
Aber nur die Foto-Seite ist von dem Filter betroffen. Unterschiede zu meinen anderen Seiten ist die zu hohe Keyworddichte, weil es eben ne Fotoseite ist und die etwas höhere Zahl der optimierten Backlinks, von denen ich heute ein paar verändert habe.
Aber vielleicht ist das KW Fotos so exponiert, wegen der Sexseiten.
Bruno

Gesperrt
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag