Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

200 Kriterien oder was?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Cura
PostRank 10
PostRank 10
Beiträge: 4139
Registriert: 23.02.2004, 07:18

Beitrag von Cura » 21.12.2004, 22:37

Viel Neues gibt’s zur Zeit nicht, es geht auf Weihnachten zu und so bleibt vielleicht mal ein wenig Zeit sich über weniger Aktuelles auszutauschen.

Hier wird ja viel diskutiert, spekuliert und gemutmasst, aber so richtig was Handfestes, an dem man was festmachen kann kommt ja nicht immer raus.

Google behauptet ja von sich selbst ca. 200 Kriterien in die Beurteilung einfliessen zu lassen. Das kann man glauben, man kann es aber auch sein lassen. Ich persönlich neige eher dazu es nicht zu glauben.

Bei 200 Beurteilungskriterien kann, nach der Chaostherie, verdammt viel schief gehen, wenn mal an dieser oder jener Schraube gedreht wird.

Bei Google sitzen auch nur Menschen und ich glaube nicht, dass das Googleteam insgesamt leistungsfähiger ist, als die Leute hier im Forum.

Und jeder hier im Forum hat sich ja mal Gedanken darüber gemacht, welche Mechanismen er anwenden würde, wäre er an Googles Stelle. Vermute ich einfach mal so.

Wenn man mal die üblichen Verdächtigen wie LP, DP, PR, OFF, ON, KW-Dichte, H1, H2 etc aussen vor lässt, bleibt ja noch eine Menge.

Eine gute Seite wird von anderen empfohlen, war vor einigen Jahren, einfach und simpel, so was wie das Ei des Columbus. Mittlerweile stimmt das ja nur noch sehr bedingt.

Wir vermuten z. B., dass alle Metatags nach wie vor ein Beurteilungskriterium sind und z. B. Anzahl und Menge der KWs zwar nicht mehr positiv in die Beurteilung miteinbezogen werden, aber zu einer Abwertung einer Seite führen können.

Auch ist es sicherlich im Grösseren machbar, anhand der Anzahl der im Nichts endenden oder in engen Bahnen im Kreis laufenden oder zurückkehrenden Linkfäden auf einzelne oder mehrere Netzwerke zu schliessen und die entsprechenden Seiten abzuwerten.

Google braucht ja Kriterien, die möglichst auf alle guten Seiten (aus Googlesicht) anwendbar sind.

Es gab mal vor einigen Jahren eine Untersuchung darüber, wieviele Stationen eine x-beliebige Person braucht um einen persönlichen Kontakt zu egal auch wem herzustellen.

Beispiel: Wieviele Kontakte sind notwendig, wenn Kleinhänschen aus Buxtehude mal persönlich mit Vladimir Putin telefonisch parlieren will?

Los geht’s dann mir der Frage: Kennst Du nicht jemanden, der jemanden kennt, der den Putin kennt und mir eine persönliche Empfehlung machen kann.

Ich erinnere mich jetzt nicht mehr an das genaue Resultat, aber es waren erstaunlich wenige Stationen. Ich glaube so 5 oder 6.

Könnte man das nicht auf das Internet umlegen und schlussfolgern, dass man von jeder „guten“ und „wichtigen“ Seite mit wenigen Klicks zu jeder anderen „wichtigen“ Seite gelangen können müsste? Dass also alle wichtigen Seiten direkt und indirekt - über wenige Stationen - miteinander verlinkt sind? Und alle Seiten, die von diesem Netzwerk aus nicht erreichbar sind, nicht wirklich wichtig sein können?

Und bevor hier jetzt einige losschimpfen; Cura hat sie nicht mehr alle, gebt doch mal bekannt, was Ihr denkt, was für Google und Co sonst noch als Beurteilungskritierium wichtig sein könnte.

Vielleicht kriegen wir zusammen die 200 voll.

Ich wünsche allen hier ein schönes Weihnachtsfest.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

AskeT
PostRank 4
PostRank 4
Beiträge: 149
Registriert: 07.11.2004, 15:42

Beitrag von AskeT » 22.12.2004, 00:58

Hallo Cura,
Cura hat geschrieben:Bei 200 Beurteilungskriterien kann, nach der Chaostherie, verdammt viel schief gehen, wenn mal an dieser oder jener Schraube gedreht wird.

Es geht ja anscheinend auch verdammt viel schief. Sie URL-Hijacking und so weiter...

Cura hat geschrieben:gebt doch mal bekannt, was Ihr denkt, was für Google und Co sonst noch als Beurteilungskritierium wichtig sein könnte.

Eines von 200 möglichen Kriterien könnte vielleicht das Alter einer Seite sein. Ich habe den Eindruck, "alten" Seiten wird mehr "verziehen" als Frischlingen. Alte Seiten sind meiner Erkenntnis nach oft auch stabiler im Ranking.

Gruß
AskeT

hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 22.12.2004, 03:32

Cura hat sie nicht mehr alle, 'tschuldigung, das war jetzt einfach zu verlockend.

Ich denke, dieser Thread wird nicht viel an Substanz bringen. Zum einen deshalb, weil für viele hinter "LP, DP, PR, OFF, ON, KW-Dichte, H1, H2 " nichts mehr ist, und zum anderen, wer mehr weiß, wird sein hart erlangtes Wissen nicht gratis dem Allgemeinwohl zur Verfügung stellen.

<OT>Wenn ich z.B. die aktuellen Abstürze betrachte, und die Diskussionen darüber lese, dann freue ich mich über einen Kollegen wie AskeT, der einfach mal Probleme bei Google einräumt, und nicht gleich über "Hilltop", "Blockrank", "Ähnlichkeitsfaktor" und ähnlich anspruchsvolle Themen diskutiert.
Z.B. mein erstes Projekt, ca 60 Seiten, steht seit eineinhalb Jahren in den Top3. Am Wochenende fliegt von diesen ca. 60 Seiten eine nach Position 80+. Alle Seiten dieses Projektes sind nur intern verlinkt. Ein Fall für eine hochwissenschaftliche Diskussion? Nein, m.E. Datencrash bei G. Ebenso die anderen Ungereimtheiten der letzten Tage, zumal gleichzeitig der Schattenindex von ca. 85% auf 100% angewachsen zu sein scheint.
Sehe dazu die gleiche Seite auf Rang 10, 20, 30, 40, 50, 60, 80, 201 - Google scheint mit seinem Schattenindex etwas überfordert zu sein. Operiert zur Zeit wie "Kelly Bundy": Für jeden Datensatz, der vorne aufgenommen wird, fällt hinten einer heraus - oder so.
Jemand eine Idee, wozu der Schattenindex gut ist, außer als Bremse?</OT>

Hiervon "LP, DP, PR, OFF, ON, KW-Dichte, H1, H2" kann man sicherlich "KW-Dichte" wegen Bedeutungslosigkeit bei G streichen, wobei zu beachten ist, daß eine KW-Dichte von 0 nicht zum Erfolg führt, eine Obergrenze kann ich aber z.Zt. nicht ausmachen.
LP ist nicht gleich LP, von DP halte ich garnicht viel, eher garnix, OnPage/OnSite ist eine ganze Menge machbar.
PR als Steuerelement für den Bot sehr wichtig!
Das Alter der Domain spielt sicherlich eine Rolle, z.Zt. scheint mir diese aber seh gering zu sein.
Wer ist jetzt dran und geht tiefer ins Detail, denn da sind die vielen Kriterien versteckt.

Z.B. LP:
intern/extern?
gleicher IP-Block?
Link von Txt umgeben/Footerlink?
Link von themenverwandter Seite?
thematisch benannter Link?
Textlink/graphischer Link?
PR der linkenden Seite?
Anzahl weiterer Links auf linkender Seite?
usw.


Gruß
HardPollux