Seite 1 von 9

Erkenntnisse vom neuen Google Algorythmus (Teil 3)

Verfasst: 29.11.2003, 16:22
von viggen
Fortsetzung von
Erkenntnisse vom Florida Update Teil 2

mario hat geschrieben:Wäre doch gut wenn jede(r) seine Erkenntnisse die er nach dem Florida-Backup gemacht hat, mal nach und nach hier posten würde.
Ich beginne mal mit den englischen Seiten:

Brainstorming:

1. viele Kataloge sind ganz oben gelistet (Google, Yahoo, ODP, Geocities, shopstores etc.)
2. meistens sind nur die Unterseiten der Domains ganz oben gelistet
3. sehr viele Startseiten sind weg vom Fenster
4. die gelisteten Top 10 sind meistens Seiten die keine Suchphrasen mehr in der URL enthalten und wenn, dann noch als Unterverzeichnisname
5. die ganz oben gelisteten Unterseiten weisen meistens ein niedriges bis mittleres PR auf (zwangsläufig natürlich, da Unterseiten)
6. externe und branchenfremde Seiten die auf mich mit dem Suchbegriff als Linktext gelinkt haben erscheinen z.T. unter den ersten 10 von einigen hunderttausend. Null relevanter Context ist dort enthalten.
7. die generelle Relevanz der SERPS ist mehr als mies.
8. Subdomains scheinen plötzlich gut gelistet zu werden
9. autom. Weiterleitungsseiten, die auf die Startseite zeigen könnten Trigger auslösen!
10. Linktex im Verhältnis (interne/externe/Content). Overstresster Linktext scheint ein Filtertyp zu sein.
11. Ländernamen + KW sind betroffen (siehe auch 12 und 13)
12. via Adwords-Preise liesse sich eruieren, wo die Milchkühe sind und so das Filter on/off schalten. Nicht alle Branchen sind nämlich betroffen.
13. viele Adwordsbuchungen + hohe Preise => Spamphrase | Denkansatz
14. Links aus Forenfooter könnten Google Stress machen
15. es gibt Filter die mit Adwords nichts zu tun haben (Klickpreis von 0,10 €) mehr..
16. in den Listings tauchen statt die früheren Seiten, deren Linkpartner auf
17. Zusammenhang zwischen Domainname und KW als Teil des Domainnamens.
18: "Synonym, Define" könnte im Suchalgo evtl. enthalten sein.
19.Rückschlüsse ziehen über vermisste Seiten https://www.scroogle.org/
20. Länder, Regionen, Städte rufen das Filter schneller auf den Plan.
21.Stemming: früher suchte Google nach dem exakten Wort jetzt auch nach Abwandlungen und ähnlichen Worten.

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 29.11.2003, 16:28
von mario
ups rekordverdächtig?

Verfasst: 29.11.2003, 20:44
von auer
Eigentlich hat google das Problem des google-Bombings durch übertriebene eingehende und optimierte Links zwecks Suma-Beeinflussung genial gelöst. Und die Antwort liefert @Mario oben selbst unter Punkt 6:

Zitat:
6. externe und branchenfremde Seiten die auf mich mit dem Suchbegriff als Linktext gelinkt haben erscheinen z.T. unter den ersten 10 von einigen hunderttausend. Null relevanter Context ist dort enthalten.

Das Prinzip ist ganz einfach: Der gesamte, auf einer Seite sichtbare Text wird zur Bewertung dieser Seite herangezogen. Der Linktext wird nicht (oder zumindest weniger als bisher) zur Bewertung der Zielseite herangezogen. Ferner wird - sehr vermutlich - jedes Wort sozusagen bloß noch einmal bzw. 'nicht mehr so oft' gewertet, wie es auf der Seite vorkommt - ob also ein Wort 10 oder 50 Mal vorkommt, bringt keine Unterschiede mehr in der Bewertung. Hinzu kommt der Stemming-Effekt, der ebenfalls mehrere Wörter auf eines reduziert.

Ergebnis: Seiten, die nur thematisch relevante Links beinhalten, haben damit keinerlei Problem - man kommt ja von Seite A über genau diesen Link auf Seite B, der Link erfüllt seinen ursprünglichen Zweck. Taucht dagegen als Suchergebnis eine Seite auf, die nichts mit der Thematik zu tun hat, jedoch einen solchen Link irgendwo rechts unten hat, so wird der Nutzer dieses Suchergebnis in Zukunft verärgert beiseitelegen und die Seite damit ignorieren. Spam gibt es ja auch jetzt schon, nur ändert sich das, was der Nutzer als Spam identifiziert. Sprich: google zeigt sozusagen 'kleine Kataloge' bevorzugt an, wobei das nur dann zum Problem wird, falls eben thematisch irrelevante Links gesetzt wurden. Und diese sind nun endlich 'schön sichtbar'.

Anders ausgedrückt: All jene nur im Rahmen von Linkpartnerschaften und Suma-Beeinflussungen gesetzten, thematisch irrelevanten Linktexte werden nun der Ausgangsseite zugeordnet. Schließlich ist jeder Seitenbetreiber nicht für die Ziele seiner externen Links, sehr wohl jedoch für seine eigenen Texte verantwortlich. Also müssen diese ja beabsichtigt sein, also dürfen sie natürlich auch bei den Suchergebnissen berücksichtigt werden. Bislang hat google solche Zuordnungen sogar noch brav herausgerechnet und das Bombing damit erst befördert. Nun dagegen fördert dies bsp. eben auch Unterseiten, die Katalogcharakter haben wie die Unterseiten bei @Halli - die neuen Algorithmen nutzen ja auch einigen Domains.

--------------
Gruß, Jürgen Auer

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 30.11.2003, 08:36
von mario
@auer
Eigentlich hat google das Problem des google-Bombings durch übertriebene eingehende und optimierte Links zwecks Suma-Beeinflussung genial gelöst.
ich denke eher nicht
Und die Antwort liefert @Mario oben selbst unter Punkt 6:
Zitat:
6. externe und branchenfremde Seiten die auf mich mit dem Suchbegriff als Linktext gelinkt haben erscheinen z.T. unter den ersten 10 von einigen hunderttausend. Null relevanter Context ist dort enthalten.
das würde ja heißen, daß Du lieber Linklisten magst, diese dann gerne durchforstest, um dann vielleicht auf Dein Wunschangebot zu stoßen.
Der Linktext wird nicht (oder zumindest weniger als bisher) zur Bewertung der Zielseite herangezogen.


und warum sind die Serps die keinem Filter unterliegen noch genau gleich gelistet?
Ferner wird - sehr vermutlich - jedes Wort sozusagen bloß noch einmal bzw. 'nicht mehr so oft' gewertet, wie es auf der Seite vorkommt - ob also ein Wort 10 oder 50 Mal vorkommt, bringt keine Unterschiede mehr in der Bewertung.
was ist Grund Deiner Vermutung? Welche Bewertung sprichst Du hier an?

Hinzu kommt der Stemming-Effekt, der ebenfalls mehrere Wörter auf eines reduziert.
Diese wurden erst in der engl. Fassung aufgeschaltet, können also in den deutschen SERPS gar nicht wirken.
Ergebnis: Seiten, die nur thematisch relevante Links beinhalten, haben damit keinerlei Problem - man kommt ja von Seite A über genau diesen Link auf Seite B, der Link erfüllt seinen ursprünglichen Zweck.


könntest Du uns erklären was für Dich die Definition eines thematisch relevanten Links ist? Deine Definition
Taucht dagegen als Suchergebnis eine Seite auf, die nichts mit der Thematik zu tun hat, jedoch einen solchen Link irgendwo rechts unten hat, so wird der Nutzer dieses Suchergebnis in Zukunft verärgert beiseitelegen und die Seite damit ignorieren.


und sich bei Google für den Zeitverlust bedanken oder halt dann in einem Jahr Yahoo/Alltheweb aufrufen um schnell zu den relevanten Seiten zu gelangen. Warum denn einfach wenn es denn kompliziert viel schöner ist (Analogie zum Tritin´schen-Flaschenpfand).
Spam gibt es ja auch jetzt schon, nur ändert sich das, was der Nutzer als Spam identifiziert. Sprich: google zeigt sozusagen 'kleine Kataloge' bevorzugt an, wobei das nur dann zum Problem wird, falls eben thematisch irrelevante Links gesetzt wurden. Und diese sind nun endlich 'schön sichtbar'.
Du begnügst Dich also mit Kleinkatalogen und freust Dich endlich die Linklisten ans Tageslicht befördert bekommen zu haben. Na das hättest Du aber einfacher und viel früher haben können.
Anders ausgedrückt: All jene nur im Rahmen von Linkpartnerschaften und Suma-Beeinflussungen gesetzten, thematisch irrelevanten Linktexte werden nun der Ausgangsseite zugeordnet.
kannst Du das präziese erklären?
Schließlich ist jeder Seitenbetreiber nicht für die Ziele seiner externen Links, sehr wohl jedoch für seine eigenen Texte verantwortlich. Also müssen diese ja beabsichtigt sein, also dürfen sie natürlich auch bei den Suchergebnissen berücksichtigt werden.
ich denke, er ist sehr wohl für die Ziele seiner, auf seinen Seiten befindlichen, Links verantwortlich.
Bislang hat google solche Zuordnungen sogar noch brav herausgerechnet und das Bombing damit erst befördert. Nun dagegen fördert dies bsp. eben auch Unterseiten, die Katalogcharakter haben wie die Unterseiten bei @Halli - die neuen Algorithmen nutzen ja auch einigen Domains.
wir wißen nun Du magst lieber Kataloge, Linklisten und Unterseiten, von wo aus man mit genügend vielen Klicks, immer auch auf die entsprechende Startseite kommt. Wir wissen aber auch, daß sich der Suchmaschinenanwender nicht solchen (Flaschenpfand)-Schikanen aussetzen wird. Ganz einfach: Suche Dir so eine neue Google-Serp heraus, aber möglichst eine mit vielen Katalogen, Kleinsuchmaschinen und Unterseiten. Dann gehst Du auf Alltheweb und gibst denselben Suchbefehl ein. Dann vergleichst Du die Resultate und schon ist der Groschen gefallen. Der Anwender wird einen Alltheweb-Favoriten auf seinem Desktop setzen und Du suchst weiter, da wo´s schöne Kataloge und viele Schikanen gibt.

Verfasst: 30.11.2003, 09:28
von mario
Google schraubt nach, aber wie?
seit heute Morgen erscheinen einige meiner Seiten auf die wichtigsten Suchbegriffe wieder unter den Top10. Leider erscheinen auf die englischen Suchbegriffe die holländischen Seiten. Das rührt von der sprachübergreifenden Einfachverlinkung. Die Suchworte sind weder im Text noch im Titel vorhanden, nur ein einziger Textlink, der auf die abgeschwirrte engl. Top1-Seite zeigt, bringt nun die Holländische auf Platz 5.
Das war so von Google sicher nicht gewollt und verärgert allenfalls die User und die Seitenbetreiber.

Verfasst: 30.11.2003, 10:32
von auer
Die oben genannten Prinzipien an einem Beispiel deutlich gemacht:

Bislang:
Additive Bewertung mit diesen Verhältnissen:
Titel : Normaler Text : Ausgehender Link : Eingehender Link = 3 : 1 : 1 : 2

Neu:
Geometrisch-degressive Bewertung mit den Verhältnissen:
Titel : Normaler Text : Ausgehender Link : Eingehender Link = 3 : 1 : 2 : 2

Es wird also lediglich ein ausgehender Linktext verstärkt berücksichtigt, dieser unterscheidet sich ja von 'normalem Text' auf der Seite, dem er bislang gleichgestellt war.

Bei additiver Berechnung zählt ein Vorkommen mit einem Punkt, bei degressiver Berechnung führen 1, 2, 3, 4 Vorkommen zu 1, 1.5 = 1 + 0.5, 1.75 = 1 + 0.5 + 0.25, 1.875 = 1 + 0.5 + 0.25 + 0.125 Punkten, es sind maximal zwei Punkte in diesem Bereich (Titel, Body, ausgehender Link, eingehender Link) erreichbar. Eine Seite kann maximal 3 * 2 + 1 * 2 + 2 * 2 + 2 * 2 = 16 Punkte erzielen.

Beispiel: Seite A: KW im Titel, einmal im Body, Linktext + Link auf Seite B.
Seite B (überoptimiert): KW 3 mal im Titel, 10 Mal Body, 100 eingehende Links mit Linktext

Bewertung alt:
Seite A in bezug auf KW: 1 * 3 + 1 * 1 + 1 * 1 = 5
Seite B in bezug auf KW: 3 * 3 + 10 * 1 + 0 * 1 + 100 * 2 = 119
Verhältnis B : A = 119 : 5 = 23,8 : 1

Bewertung neu:
Seite A: 1 * 3 + 1 * 1 + 1 * 2 = 6
Seite B: (1 + 0.5 + 0.25) * 3 + (1 + 0.5 + ...) * 2 + 0 * 1 + (1 + 0.5 ...) * 2 << 1.75 * 3 + 2 * 2 + 2 * 2 = 5.25 + 4 + 4 = 13.25

Verhältnis B : A = 13.25 : 6 = 2.2

Die Bewertung beider Seiten liegt also längst nicht mehr so weit auseinander wie bislang, der tatsächliche Rang im Suchergebnis ergibt sich durch eine PR-Multiplikation.

Erhält A (Katalogseite) einen einzigen eingehenden Link mit dem KW, etwa von einer im Katalog übergeordneten Seite, produziert dies die Bewertung 8, damit ein Verhältnis von B : A von 13.25 : 8 = 1.65.

Anders ausgedrückt: Konkurrieren tausend Einzeldomains um die ersten 10 Plätze, so konnte man bislang nach dem Motto 'Viel hilft viel' verfahren, die Startseite überoptimieren und mit diversen eingehenden KW-Links versorgen. Nun dagegen rutschen die 1000 Seiten nach hinten und es kommen entweder 'alteingesessene Kataloge', die also eine redaktionelle Bewertung vornehmen, oder große Domains (siehe @Halli) mit Unterseiten nach vorne, bei welchen die Unterseiten KW-Links von der Startseite bekommen, was im Sinne einer übersichtlichen Navigation selbstverständlich ist. Bei Freeware ist dies im übrigen schon immer so, da konkurrieren ja auch 1000 Freeware-Kataloge, von denen 800 kurzfristiger Unsinn sind, trotzdem kommen einzelne Seiten neu dazwischen. Nur benötigen diese hierfür Links von solchen 'alteingesessenen Katalogen'. In einem meiner Bereiche gibt es diese von @Mario beklagte Situation längst schon, nur kann bei Programmen eben schlecht mit Spam-Techniken gearbeitet werden.

------------
Gruß, Jürgen Auer

Verfasst: 30.11.2003, 11:33
von Seoxx
Hi Auer,

ich halte das für Wunschdenken, was Du schreibst und kann auch keine parallelen bei meinen Seiten feststellen. Aber vielleicht habe ich zuwenig Seiten im Netz um mir ein Bild machen zu können. :wink:

Gruß
Frank

Verfasst: 30.11.2003, 11:56
von RW
@auer
Werde Deine Berechnung mal überprüfen scheint logisch zu sein.

RW

Verfasst: 30.11.2003, 13:22
von tojas
@ Frank:
Aber vielleicht habe ich zuwenig Seiten im Netz um mir ein Bild machen zu können.
Gröööhl! Der war echt gut!

cu,

Christian

Verfasst: 30.11.2003, 13:28
von tojas
Aber mal ganz im Ernst:

Wer sagt den eigenlich, das Google nicht doch 'von Hand' den Index etwas bereinigt? Nur weil dies öffentlich immer dementiert wurde, muss es doch nicht stimmen.

Ich denke es ist noch viel zu früh, um konkrete Aussagen treffen zu können. Für mich ist jedenfalls noch kein eindeutiges Muster zu erkennen.

Csö,

Ch.

Verfasst: 30.11.2003, 16:02
von mario
@auer
würde mich doch noch interessieren ob Du diese Berechnungen aus Mountainview bekommen hast, oder ob Du eine eigene Klein-SM betreibst die von einer Uni in Berlin supportet wird? Was Du hier ableitest ist allenfalls eine Theorie die man vielleicht auf ein anderes Gebilde anwenden könnte oder möchte. Uns aber weis machen zu wollen, daß Google nach Deinen Ideen arbeitet ist etwas überzogen. Ich denke Google tickt anders. Trotzdem besten Dank für Deine Mühe

Verfasst: 30.11.2003, 16:14
von mario
tojas hat geschrieben:Aber mal ganz im Ernst:
Wer sagt den eigenlich, das Google nicht doch 'von Hand' den Index etwas bereinigt? Nur weil dies öffentlich immer dementiert wurde, muss es doch nicht stimmen. Ich denke es ist noch viel zu früh, um konkrete Aussagen treffen zu können. Für mich ist jedenfalls noch kein eindeutiges Muster zu erkennen.Csö, Ch.
hmm wer weiß das schon? Aber ich denke schon, daß solche Prozesse nicht von Hand eingeläutet werden. Hätte man das von Hand gemacht wäre das vielleicht besser gelungen.

Verfasst: 30.11.2003, 16:40
von bugscout
moin moin,

wenn ich bei scroogle nach webdesign suche ist nur eine seite verschwunden.
die hat laut atw 99 links von artfremden seiten.
https://www.alltheweb.com/search?query= ... iso-8859-1

der rest, der nach ohne veränderung im index steht hat aber zum teil 1000 links.
z.b. https://www.alltheweb.com/search?query= ... ign-l.com/

müsste doch eigentlich gegen die "thematisch relevante Links-Theorie" sprechen, oder?

grüsse

Verfasst: 30.11.2003, 16:43
von Seoxx
Hi bugscout,

an der themenrelevanten Verlinkung ist auch noch nichts dran. Das zumindest kann ich fast schon garantieren. Zuviele Seiten von mir geben dafür ein eindeutiges Bild ab, dass eine Themenrelevanz in der Verlinkung noch keine Rolle spielt. Aber möglich ist wie immer alles und ich will hier auch nicht neunmalklug klingen. Jeder muss sich sein eigenes Bild machen. :wink:

Gruß
Frank

Verfasst: 30.11.2003, 17:26
von mario
bugscout hat geschrieben: müsste doch eigentlich gegen die "thematisch relevante Links-Theorie" sprechen, oder? grüsse
haufenweise zu beobachten auch nach dem Florida-Backup, ja richtig bugscout