Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Erkenntnisse vom neuen Google Algorythmus (Teil 3)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Gesperrt Gesperrt
viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 29.11.2003, 16:22

Fortsetzung von
Erkenntnisse vom Florida Update Teil 2

mario hat geschrieben:Wäre doch gut wenn jede(r) seine Erkenntnisse die er nach dem Florida-Backup gemacht hat, mal nach und nach hier posten würde.
Ich beginne mal mit den englischen Seiten:

Brainstorming:

1. viele Kataloge sind ganz oben gelistet (Google, Yahoo, ODP, Geocities, shopstores etc.)
2. meistens sind nur die Unterseiten der Domains ganz oben gelistet
3. sehr viele Startseiten sind weg vom Fenster
4. die gelisteten Top 10 sind meistens Seiten die keine Suchphrasen mehr in der URL enthalten und wenn, dann noch als Unterverzeichnisname
5. die ganz oben gelisteten Unterseiten weisen meistens ein niedriges bis mittleres PR auf (zwangsläufig natürlich, da Unterseiten)
6. externe und branchenfremde Seiten die auf mich mit dem Suchbegriff als Linktext gelinkt haben erscheinen z.T. unter den ersten 10 von einigen hunderttausend. Null relevanter Context ist dort enthalten.
7. die generelle Relevanz der SERPS ist mehr als mies.
8. Subdomains scheinen plötzlich gut gelistet zu werden
9. autom. Weiterleitungsseiten, die auf die Startseite zeigen könnten Trigger auslösen!
10. Linktex im Verhältnis (interne/externe/Content). Overstresster Linktext scheint ein Filtertyp zu sein.
11. Ländernamen + KW sind betroffen (siehe auch 12 und 13)
12. via Adwords-Preise liesse sich eruieren, wo die Milchkühe sind und so das Filter on/off schalten. Nicht alle Branchen sind nämlich betroffen.
13. viele Adwordsbuchungen + hohe Preise => Spamphrase | Denkansatz
14. Links aus Forenfooter könnten Google Stress machen
15. es gibt Filter die mit Adwords nichts zu tun haben (Klickpreis von 0,10 €) mehr..
16. in den Listings tauchen statt die früheren Seiten, deren Linkpartner auf
17. Zusammenhang zwischen Domainname und KW als Teil des Domainnamens.
18: "Synonym, Define" könnte im Suchalgo evtl. enthalten sein.
19.Rückschlüsse ziehen über vermisste Seiten https://www.scroogle.org/
20. Länder, Regionen, Städte rufen das Filter schneller auf den Plan.
21.Stemming: früher suchte Google nach dem exakten Wort jetzt auch nach Abwandlungen und ähnlichen Worten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 29.11.2003, 16:28

ups rekordverdächtig?

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 29.11.2003, 20:44

Eigentlich hat google das Problem des google-Bombings durch übertriebene eingehende und optimierte Links zwecks Suma-Beeinflussung genial gelöst. Und die Antwort liefert @Mario oben selbst unter Punkt 6:

Zitat:
6. externe und branchenfremde Seiten die auf mich mit dem Suchbegriff als Linktext gelinkt haben erscheinen z.T. unter den ersten 10 von einigen hunderttausend. Null relevanter Context ist dort enthalten.

Das Prinzip ist ganz einfach: Der gesamte, auf einer Seite sichtbare Text wird zur Bewertung dieser Seite herangezogen. Der Linktext wird nicht (oder zumindest weniger als bisher) zur Bewertung der Zielseite herangezogen. Ferner wird - sehr vermutlich - jedes Wort sozusagen bloß noch einmal bzw. 'nicht mehr so oft' gewertet, wie es auf der Seite vorkommt - ob also ein Wort 10 oder 50 Mal vorkommt, bringt keine Unterschiede mehr in der Bewertung. Hinzu kommt der Stemming-Effekt, der ebenfalls mehrere Wörter auf eines reduziert.

Ergebnis: Seiten, die nur thematisch relevante Links beinhalten, haben damit keinerlei Problem - man kommt ja von Seite A über genau diesen Link auf Seite B, der Link erfüllt seinen ursprünglichen Zweck. Taucht dagegen als Suchergebnis eine Seite auf, die nichts mit der Thematik zu tun hat, jedoch einen solchen Link irgendwo rechts unten hat, so wird der Nutzer dieses Suchergebnis in Zukunft verärgert beiseitelegen und die Seite damit ignorieren. Spam gibt es ja auch jetzt schon, nur ändert sich das, was der Nutzer als Spam identifiziert. Sprich: google zeigt sozusagen 'kleine Kataloge' bevorzugt an, wobei das nur dann zum Problem wird, falls eben thematisch irrelevante Links gesetzt wurden. Und diese sind nun endlich 'schön sichtbar'.

Anders ausgedrückt: All jene nur im Rahmen von Linkpartnerschaften und Suma-Beeinflussungen gesetzten, thematisch irrelevanten Linktexte werden nun der Ausgangsseite zugeordnet. Schließlich ist jeder Seitenbetreiber nicht für die Ziele seiner externen Links, sehr wohl jedoch für seine eigenen Texte verantwortlich. Also müssen diese ja beabsichtigt sein, also dürfen sie natürlich auch bei den Suchergebnissen berücksichtigt werden. Bislang hat google solche Zuordnungen sogar noch brav herausgerechnet und das Bombing damit erst befördert. Nun dagegen fördert dies bsp. eben auch Unterseiten, die Katalogcharakter haben wie die Unterseiten bei @Halli - die neuen Algorithmen nutzen ja auch einigen Domains.

--------------
Gruß, Jürgen Auer