Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Erkenntnisse vom neuen Google Algorythmus (Teil 3)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 05.12.2003, 13:05

Hi Huibert,

schön dich hier zu lesen. :wink:

Trafficer hat geschrieben:hmmm .... liest sich reizvoll ... aber wie nah müsste da die Struktur einer Site oder Seite oder einem Komplex einem anderen System sein, um von
google als " bereits vorhanden" eingestuft zu werden, und mithin bei
"Neuankömmlingen" in ähnlicher Seitenstruktur einen solchen Filter aus-
zulösen ....
Das gilt es zu analysieren. :wink:
und würde das nur für gleiche Themenbereiche oder Keybereiche gelten?


So wie es ausschaut gilt es für jedes Keyword einzelnd.
und ... sind nicht bestimmte Seiten rein logsich "immer ähnlich" in der Struktur weil die Aufgabenstellung die Gleiche ist?
Richtiiiiiich und genau dort setzt meiner Meinung nach Google an. Denn Sie wollen genau diese ganzen Ähnlichkeiten nicht hintereinander gelistet haben und solange es noch Seiten gibt die anders sind und nicht ins Raster des Ausblendens fallen, kann Google auch diese Seiten einblenden und versucht somit zu starken unterschiedlichen Listungen zu kommen.

Gruß
Frank

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 05.12.2003, 13:18

So wie es ausschaut gilt es für jedes Keyword einzeln
hmm... wenns so wäre, wäre es für google wertlos ... eine Optimierung für ein Key
wäre so immer auch für andere Keys möglich und man müßte lediglich bei jedem
Neustart zu einem Bereich eine ausreichende kleine Modifikation machen (die wir
ja gerade erforschen wenn denn was an dem Gedanken dran ist) und voilá.

Logischer würde mir erscheinen, wenn google es schaffen würde, zusammenhän-
gende Systeme gleichartiger Optimierung so zu identifizieren, daß bei Folgesyste-
men ein Filter greifen könnte, egal welcher genaue Keywordbereich das dann ist.

SEO "schwadronieren" doch durch alle Keybereiche und diesen SEO will google ja
an den Kragen (natürlich auch identischen Angeboten verschiedener Webmaster),
aber ich denke, SEO jagen wird google als einen größeren Imagegewinn betrachten :)

Huibert

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 05.12.2003, 13:20

Richtiiiiiich und genau dort setzt meiner Meinung nach Google an. Denn Sie wollen genau diese ganzen Ähnlichkeiten nicht hintereinander gelistet haben und solange es noch Seiten gibt die anders sind und nicht ins Raster des Ausblendens fallen, kann Google auch diese Seiten einblenden und versucht somit zu starken unterschiedlichen Listungen zu kommen.
Ergänzung ... bist Du denn der Meinung, google geht es nur um einen bunten Ergeb-
nisbauchladen und nicht so sehr um die Bekämpfung des tatsächlichen Spam? Wenn
google den Kampf als solchen als zwecklos betrachtet muß das nicht falsch gedacht
sein.

Huibert

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 05.12.2003, 13:42

Google geht es nach Aussage von GG (Von den Aussagen halte ich unheimlich viel, da Sie sich in der Vergangenheit zu 100 Prozent bewahrheitet haben) um Relevanz und Unterschiedlichkeit in den Ergebnissen (PPproblematik). Sie haben nichts gegen PPs oder SEOs, nur dagegen zehnmal dieselbe Optimierung und dann oftmals noch mit den selben PPs hintereinander in den Ergebnissen stehen zu haben. Ein PP kann super Relevant in den Ergebnissen sein, aber nicht das gleiche PP zehnmal hintereinander. Natürlich gehen Sie deshalb nicht zielgerichtet gegen einzelne PPs vor, sondern sehen zu im Gesamtbild unterschiedliche Ergebnisse einzublenden. Meiner Meinung nach der richtige Ansatz.

Gruß
Frank

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 05.12.2003, 13:47

meiner Meinung nach wären das äusserst rosige Aussichten für die Zukunft :)

- der Know-How-Level steigt
- google ist es zufrieden
- die Surfer bekommen Auswahl
- die Auswahl ist optisch verschieden
- Spamdiskussion wird gemässigter

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 05.12.2003, 13:56

Jepp, ich sehe dieser Entwicklung auch in jeder Richtung positiv entgegen.
Die Spreu trennt sich vom Weizen und diejenigen, die zum Weizen gehören wollen können Dieses nicht durch klauen bestehender Optimierungen realisieren, da Sie dann ins Raster fallen und nicht eingeblendet werden. Wenn ich richtig liege ist das eine geile Sache. Schauen wir mal, ich denke in ein paar Tagen weiß ich genaueres.

Gruß
Frank

Halli
PostRank 7
PostRank 7
Beiträge: 584
Registriert: 21.08.2003, 00:40
Wohnort: Hannover

Beitrag von Halli » 05.12.2003, 14:02

Seoxx hat geschrieben:Das in UK wesentlich mehr gefiltert wird als in D ist somit auch klar, denn englischsprachig gibt es viel mehr Seiten die sich wiederum ähnlich sein können und die dann nicht mehr eingeblendet werden.
Die Filterung englischer Begriffe macht sich aber auch in den deutschen SERPs bemerkbar. Bei den nachfolgenden Beispielen geht es jeweils um www.at-mix.de. Die Site hat ein (altmodisches) Tabellen-Layout und knapp 6000 contentreiche Seiten. Es gibt keine Spamtechniken wie Brückenseiten oder Linkfarmen. Nun ein paar Fakten:

Internet E-Commerce Glossar *9999* von 46.000
Internet E-Commerce Glossar -asdd #1,2+4 von 46.800
Internet ECommerce Glossar #3,4+20 von 15.800
.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.
Spamtechniken sind offenbar doch noch wirksam und es werden eben nicht Seiten mit ähnlichen Inhalten oder Zielen gefiltert:
dsl flatrate liefert folgende Ergebnisse:
1. Platz Frameset mit 1&1, gepusht mit Linktrade.biz und Addweb, Impressum: P.R.K.
2. Platz Frameset mit eigener 1&1 Seite, gepusht mit Linktrade.biz, Impressum: D.E.
3. Platz Frameset + Tiscali-Popup, gepusht mit Linktrade.biz, Impressum: M.M.
4. Platz Frameset + Tiscali-Popup, gepusht mit Linktrade.biz, Impressum: M.M.
5. Platz Frameset + Tiscali-Popup, gepusht mit Linktrade.biz, Impressum: M.M.
6. Platz Frameset + Tiscali-Popup, gepusht mit Linktrade.biz + Linkseite, Impressum: M.M.
7. Platz Frameset + Tiscali-Popup, gepusht mit Linktrade.biz, Impressum: M.M.
8. Platz Frameset + Tiscali-Popup, gepusht mit Linktrade.biz, Impressum: M.M.
9. Platz Frameset + Tiscali-Popup, gepusht mit Linktrade.biz, Impressum: M.M.
10. Platz Frameset + Tiscali-Popup, gepusht mit Linktrade.biz, Impressum: M.M.

.-.-.-.-.-.-.-.-.-.
Seit ein paar Tagen ist das Update eines meiner eigenen Projekte im Google-Index.
Dessen Wirkung zeigt am besten ein Screenshot der Besucher-Statistik:
Bild
Etliche Seiten enthalten viele Grafiken und recht wenig Text. Deshalb wurde ihnen eine contentreiche Seite vorgeschaltet. Bei eingeschaltetem JS erfolgt eine Weiterleitung mit eval(...), ohne JS gibt es einen Link an prominenter Stelle und somit ist die Brücke für den Besucher mit und ohne JS nicht als solche zu erkennen. In den SERPs findet sich fast ausschließlich die Zielseite, meist auf der ersten Seite.
wer besoffen noch geradeaus fahren kann ist bald reif fürs www.mpu-forum.de

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 07.12.2003, 13:34

Weshalb stellen Leute Domains ins Web? Die einen Domains bieten spezielle, unverwechselbare Inhalte - etwa die Site von @Viggen, das Glossar von @Halli oder meine eigene, etwas schräge Domain. Solche Domains sind dadurch charakterisiert, daß es Seiten mit jeweils eindeutigem, unverwechselbarem Text gibt, es macht keinen Sinn, eine solche Textseite zweimal auf dieselbe Domain zu setzen. Ferner werden solche Domains nicht so schnell von anderen kopiert, weil den anderen die Sachkenntnis fehlt - @Halli's 6000 Glossar-Seiten schreibt man nicht so rasch, da wagt kein Anfänger ein Konkurrenzunternehmen.

Andere Domains dienen eigentlich bloß als Durchlaufstation zum Kaufen, sie bieten keinen eigenständigen Inhalt. Entweder sind sie klein und monothematisch, so daß Domainname, interne Verlinkung, Schlüsselwörter und externe Verweise nur wenige verschiedenartige Worte umfassen - da sind thematisch ähnliche Domains, die eine Gruppe bilden, rasch identifiziert, schließlich wird ja durch die konsistenten Backlink-Texte mitgeteilt, daß es bloß um dieses eine Thema geht. Teilweise gibt es schon Tools, mit welchen solche Sites erstellt werden können -> damit ähneln sie sich bereits im Quellcode. Oder es handelt sich um größere Kataloge, bei denen der Umsatz über die Menge, hier also über die Zahl der Artikel = Zahl der Seiten gemacht wird. Damit unterscheiden sich jedoch die Seiten intern nur sehr gering voneinander, das Seitengerüst stammt aus einem Template, die Details aus der Datenbank. Diese Optimierungen lassen sich durch die Analyse der Seitenstruktur relativ leicht ermitteln und können damit kopiert werden - weil der Html-Code transparent ist.

Ich fürchte, daß @Seoxx mit seiner Hoffnung, er könne eine Optimierung bringen, die nicht nach sechs Monaten verbrannt sei, falsch liegt. Und zwar nicht wegen google, sondern weil ein anderer, der anstatt der x Artikel von @Seoxx' Optimierung die vierfache Menge 4 * x bewerben möchte, sich die Optimierung von @Seoxx ansieht, sie kopiert und damit natürlich den Konflikt in der Gruppe in Gang bringt und weitere Nachahmer anlockt. Umgekehrt hieße dies, daß eine Optimierung stabil ist, wenn sie so komplex ist, daß sie trotz Analyse des Quellcodes nicht mehr so einfach von zu vielen nachgemacht werden kann. Googles neuer Beitrag bestünde darin, daß thematisch andersartige Seiten von solchen gruppeninternen Hierarchie-Verschiebungen nicht mehr so betroffen wären, daß die ersten 200 Ergebnisse nur zu einer Thematik gehören. Das allerdings macht es dem, der zuerst kommt, leichter.

@Trafficer: Spam entsteht wohl nur deshalb, weil die Leute an den bisherigen Listungen sehen, daß man mit Spam nach oben kommt, daß also diverse Plätze damit erobert werden und Leute Geld verdienen. Wollen letzteres in einem Bereich zu viele, nutzen sie solche Möglichkeiten. Sieht man dagegen den neuen Ergebnissen bei bestimmten Themen bereits eine gewisse Unterschiedlichkeit an, so dürfte vielen, die bislang oben standen und nun abgestürzt sind, klar sein, daß sie so schnell nicht wieder unter die ersten zwanzig Plätze kommen, damit auch kaum mehr Geld verdienen. Für die hunderttausende von bloß verkaufenden Domains dürfte es in Zukunft weitaus heftiger werden, wohingegen sich Domains mit ausdifferenziertem Content eher verbessern, so daß google seine Qualität als Web-Volltextsuche bsp. bei Programmierproblemen erhöht. In den letzten Jahren scheint google für viele zu einer Art von kostenloser Werbedruckmaschine geworden zu sein - einen Papier-Katalog mit 5000 Seiten zu erstellen und zu verteilen ist weitaus teurer. Nun haben dies zu viele gemacht, die Algorithmusänderungen, mit denen google jetzt erst seit kurzem selbst Erfahrung sammelt, werden hoffentlich so ausdifferenziert, daß auch Beispiele wie das von @Halli genannte irgendwann mit erfaßt werden. Und 'durch' ist die Sache längst schon, auf eine Rücknahme der Filter zu hoffen, ist m.E. illusorisch.

-------------
Gruß, Jürgen Auer

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 07.12.2003, 16:01

Halli hat geschrieben: Spamtechniken sind offenbar doch noch wirksam und es werden eben nicht Seiten mit ähnlichen Inhalten oder Zielen gefiltert:
sehe ich genau so und den Monsterabhandlungen über die Einmaligkeit einer Seite kann ich nur wenig abgewinnen, das ist alles blanke Theorie und Hypothese. Die Serps sprechen jedenfalls eine andere Sprache. Es klingt mir alles so definitiv, als hätte man das Ei des Columbus nun gefunden. Ich denke eher, daß da noch was nachkommt. So jedenfalls wie sich die Resultate im Moment präsentieren, sind sie weit entfernt von der vorherigen Qualität (immer aus dem Blickwinkel des Anwenders).

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 07.12.2003, 16:49

Denkt doch nicht immer an die SERP oder euren Geldbeutel. Der User is das wichtige...

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 07.12.2003, 17:05

mario hat geschrieben: Es klingt mir alles so definitiv, als hätte man das Ei des Columbus nun gefunden. Ich denke eher, daß da noch was nachkommt. So jedenfalls wie sich die Resultate im Moment präsentieren, sind sie weit entfernt von der vorherigen Qualität (immer aus dem Blickwinkel des Anwenders).
Hi mario,

ich denke bezüglich des Filters sind wir alle vom Ei des Columbus noch weit entfernt. Aber mir werden hoffentlich bald die ersten Resultate vorliegen, die meine Theorie entweder bestätigen oder wiederlegen.
Dann sehen wir weiter. :wink:

In D finde ich weder das die Suchergebnisse besser noch schlechter geworden sind. In UK finde ich Sie teilweise für den Nutzer besser. :roll:

Gruß
Frank

rolan
PostRank 5
PostRank 5
Beiträge: 268
Registriert: 22.11.2003, 12:16

Beitrag von rolan » 07.12.2003, 17:32

es schein das alle serps die auch in .com hl=en zu finden waren auch in .de zu finden sind

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 07.12.2003, 18:12

Seoxx hat geschrieben:
Hi mario,
ich denke bezüglich des Filters sind wir alle vom Ei des Columbus noch weit entfernt. Aber mir werden hoffentlich bald die ersten Resultate vorliegen, die meine Theorie entweder bestätigen oder wiederlegen.
Dann sehen wir weiter. :wink:
Hi Frank

ich finde Deinen Test ok, er ist besser als all die vielen Worte und theoretischen Abhandlungen.
In D finde ich weder das die Suchergebnisse besser noch schlechter geworden sind. In UK finde ich Sie teilweise für den Nutzer besser. :roll:
ich weiß, daß die Qualität der Resultate sehr stark variiert. Aber was hälst Du von solchen Serps?
https://www.google.de/search?hl=de&ie=U ... eich&meta=

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 07.12.2003, 18:22

Hi mario,

als SEO betrachtet finde ich das Ergebnis unter aller Sau. :wink: :lol:

Aber als Nutzer finde ich schon über DMOZ einige Anbieter von Immobilien in Frankreich, somit könnte ich als Nutzer über dieses Ergebnis nicht unbedingt meckern. Immer noch besser als dreißig mal das selbe PP hintereinander, oder?

Gruß
Frank

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 07.12.2003, 18:32

Seoxx hat geschrieben:Hi mario,

als SEO betrachtet finde ich das Ergebnis unter aller Sau. :wink: :lol:

Aber als Nutzer finde ich schon über DMOZ einige Anbieter von Immobilien in Frankreich, somit könnte ich als Nutzer über dieses Ergebnis nicht unbedingt meckern. Immer noch besser als dreißig mal das selbe PP hintereinander, oder?

Gruß
Frank
Hallo Frank

wieso denn nicht gleich alle Kataloge und Kleinsuchmaschinen auf der ersten Seite listen? Vor noch 4 Wochen gab´s Geschrei, wenn auch nur ein Katalog unter den ersten 10 auftauchte. Heute findet man das sogar gut und nimmt es billigend in Kauf. Erst recht bedenklich sieht es aus, wenn sich auf der Katalogseite dann 2 Anbieter befinden. Ich denke eher, daß sich der User ärgert statt erfreut.

Gesperrt
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag