Seite 1 von 1

200 Kriterien oder was?

Verfasst: 21.12.2004, 22:37
von Cura
Viel Neues gibt’s zur Zeit nicht, es geht auf Weihnachten zu und so bleibt vielleicht mal ein wenig Zeit sich über weniger Aktuelles auszutauschen.

Hier wird ja viel diskutiert, spekuliert und gemutmasst, aber so richtig was Handfestes, an dem man was festmachen kann kommt ja nicht immer raus.

Google behauptet ja von sich selbst ca. 200 Kriterien in die Beurteilung einfliessen zu lassen. Das kann man glauben, man kann es aber auch sein lassen. Ich persönlich neige eher dazu es nicht zu glauben.

Bei 200 Beurteilungskriterien kann, nach der Chaostherie, verdammt viel schief gehen, wenn mal an dieser oder jener Schraube gedreht wird.

Bei Google sitzen auch nur Menschen und ich glaube nicht, dass das Googleteam insgesamt leistungsfähiger ist, als die Leute hier im Forum.

Und jeder hier im Forum hat sich ja mal Gedanken darüber gemacht, welche Mechanismen er anwenden würde, wäre er an Googles Stelle. Vermute ich einfach mal so.

Wenn man mal die üblichen Verdächtigen wie LP, DP, PR, OFF, ON, KW-Dichte, H1, H2 etc aussen vor lässt, bleibt ja noch eine Menge.

Eine gute Seite wird von anderen empfohlen, war vor einigen Jahren, einfach und simpel, so was wie das Ei des Columbus. Mittlerweile stimmt das ja nur noch sehr bedingt.

Wir vermuten z. B., dass alle Metatags nach wie vor ein Beurteilungskriterium sind und z. B. Anzahl und Menge der KWs zwar nicht mehr positiv in die Beurteilung miteinbezogen werden, aber zu einer Abwertung einer Seite führen können.

Auch ist es sicherlich im Grösseren machbar, anhand der Anzahl der im Nichts endenden oder in engen Bahnen im Kreis laufenden oder zurückkehrenden Linkfäden auf einzelne oder mehrere Netzwerke zu schliessen und die entsprechenden Seiten abzuwerten.

Google braucht ja Kriterien, die möglichst auf alle guten Seiten (aus Googlesicht) anwendbar sind.

Es gab mal vor einigen Jahren eine Untersuchung darüber, wieviele Stationen eine x-beliebige Person braucht um einen persönlichen Kontakt zu egal auch wem herzustellen.

Beispiel: Wieviele Kontakte sind notwendig, wenn Kleinhänschen aus Buxtehude mal persönlich mit Vladimir Putin telefonisch parlieren will?

Los geht’s dann mir der Frage: Kennst Du nicht jemanden, der jemanden kennt, der den Putin kennt und mir eine persönliche Empfehlung machen kann.

Ich erinnere mich jetzt nicht mehr an das genaue Resultat, aber es waren erstaunlich wenige Stationen. Ich glaube so 5 oder 6.

Könnte man das nicht auf das Internet umlegen und schlussfolgern, dass man von jeder „guten“ und „wichtigen“ Seite mit wenigen Klicks zu jeder anderen „wichtigen“ Seite gelangen können müsste? Dass also alle wichtigen Seiten direkt und indirekt - über wenige Stationen - miteinander verlinkt sind? Und alle Seiten, die von diesem Netzwerk aus nicht erreichbar sind, nicht wirklich wichtig sein können?

Und bevor hier jetzt einige losschimpfen; Cura hat sie nicht mehr alle, gebt doch mal bekannt, was Ihr denkt, was für Google und Co sonst noch als Beurteilungskritierium wichtig sein könnte.

Vielleicht kriegen wir zusammen die 200 voll.

Ich wünsche allen hier ein schönes Weihnachtsfest.

Verfasst:
von

Verfasst: 22.12.2004, 00:58
von AskeT
Hallo Cura,
Cura hat geschrieben:Bei 200 Beurteilungskriterien kann, nach der Chaostherie, verdammt viel schief gehen, wenn mal an dieser oder jener Schraube gedreht wird.

Es geht ja anscheinend auch verdammt viel schief. Sie URL-Hijacking und so weiter...

Cura hat geschrieben:gebt doch mal bekannt, was Ihr denkt, was für Google und Co sonst noch als Beurteilungskritierium wichtig sein könnte.

Eines von 200 möglichen Kriterien könnte vielleicht das Alter einer Seite sein. Ich habe den Eindruck, "alten" Seiten wird mehr "verziehen" als Frischlingen. Alte Seiten sind meiner Erkenntnis nach oft auch stabiler im Ranking.

Gruß
AskeT

Verfasst: 22.12.2004, 03:32
von hard_pollux
Cura hat sie nicht mehr alle, 'tschuldigung, das war jetzt einfach zu verlockend.

Ich denke, dieser Thread wird nicht viel an Substanz bringen. Zum einen deshalb, weil für viele hinter "LP, DP, PR, OFF, ON, KW-Dichte, H1, H2 " nichts mehr ist, und zum anderen, wer mehr weiß, wird sein hart erlangtes Wissen nicht gratis dem Allgemeinwohl zur Verfügung stellen.

<OT>Wenn ich z.B. die aktuellen Abstürze betrachte, und die Diskussionen darüber lese, dann freue ich mich über einen Kollegen wie AskeT, der einfach mal Probleme bei Google einräumt, und nicht gleich über "Hilltop", "Blockrank", "Ähnlichkeitsfaktor" und ähnlich anspruchsvolle Themen diskutiert.
Z.B. mein erstes Projekt, ca 60 Seiten, steht seit eineinhalb Jahren in den Top3. Am Wochenende fliegt von diesen ca. 60 Seiten eine nach Position 80+. Alle Seiten dieses Projektes sind nur intern verlinkt. Ein Fall für eine hochwissenschaftliche Diskussion? Nein, m.E. Datencrash bei G. Ebenso die anderen Ungereimtheiten der letzten Tage, zumal gleichzeitig der Schattenindex von ca. 85% auf 100% angewachsen zu sein scheint.
Sehe dazu die gleiche Seite auf Rang 10, 20, 30, 40, 50, 60, 80, 201 - Google scheint mit seinem Schattenindex etwas überfordert zu sein. Operiert zur Zeit wie "Kelly Bundy": Für jeden Datensatz, der vorne aufgenommen wird, fällt hinten einer heraus - oder so.
Jemand eine Idee, wozu der Schattenindex gut ist, außer als Bremse?</OT>

Hiervon "LP, DP, PR, OFF, ON, KW-Dichte, H1, H2" kann man sicherlich "KW-Dichte" wegen Bedeutungslosigkeit bei G streichen, wobei zu beachten ist, daß eine KW-Dichte von 0 nicht zum Erfolg führt, eine Obergrenze kann ich aber z.Zt. nicht ausmachen.
LP ist nicht gleich LP, von DP halte ich garnicht viel, eher garnix, OnPage/OnSite ist eine ganze Menge machbar.
PR als Steuerelement für den Bot sehr wichtig!
Das Alter der Domain spielt sicherlich eine Rolle, z.Zt. scheint mir diese aber seh gering zu sein.
Wer ist jetzt dran und geht tiefer ins Detail, denn da sind die vielen Kriterien versteckt.

Z.B. LP:
intern/extern?
gleicher IP-Block?
Link von Txt umgeben/Footerlink?
Link von themenverwandter Seite?
thematisch benannter Link?
Textlink/graphischer Link?
PR der linkenden Seite?
Anzahl weiterer Links auf linkender Seite?
usw.


Gruß
HardPollux

Verfasst:
von

Verfasst: 22.12.2004, 06:49
von Cura
Mir geht es nicht darum auszutauschen, womit der eine erfolgreich war und womit ein anderer gar keine Erfolge erzielen konnte, also „Betriebsgeheimnisse“ auszuplaudern und der Allgemeinheit hart Erarbeites zugänglich zu machen. So naiv, etwas derartiges zu erwarten bin ich nicht. Auch, wenn es gerade weihnachtet.

Nicht jeder Thread muss das Ziel haben am Ende auch mit einem garantierten Zugewinn abgeschlossen zu werden.

Die Jungs v. Google und Co. werden auch das ein oder andere mal zusammenhocken, die Gedanken fliessen lassen und einfach mal so von sich geben, was jedem gerade in den Kopf kommt oder irgendwann mal in den Kopf gekommen ist.

So mancher zunächst neu, abstrus oder verrückt erscheinende Gedanke, wird von anderen aufgenommen, weitergesponnen und am Ende kommt manchmal etwas heraus, was mit dem Anfangsgedanken nur noch wenig gemeinsam hat, aber dann doch substanziell verwertbar ist.

Darum geht es mir (just for fun) und nicht um die Thematiken, die hier seit langer Zeit, sich meist mehr oder weniger immer wieder wiederholend, durchgekaut werden.

Meine Fragestellung zielt nur auf das ab, was der ein oder andere mal an so Gedankensblitzen hatte, wenn er sich überlegt hat, was er anstelle von z. B. Google anders machen würde.

Nicht mehr und nicht weniger.

Kommt was, freut es mich. Sollte dieser, mein Beitrag in diesem Thread der letzte sein, ist es auch gut.

@hard_pollux

Es sei Dir verziehen, dass Du es Dir nicht verkneifen konntest. Ich habe Dir die Flanke ja auch allzu verführerisch vorgelegt.

Dein Beitrag war ja schon mal ein guter Anfang.

Verfasst: 22.12.2004, 12:28
von Jojo
Formulare, es gibt nicht viele Spamseiten die Formulare einsetzen. Besonders interessant wird es wenn Formulare keywords einsetzen. Bin kürzlich über eine Autorität zu keyword1 (Firmenname) gestossen. In einem Formular befinden sich Pulldownmenüs die das keyword2 (Städte) enthalten. Zu der Kombination keyword1 keyword2 befindet sich die Domain immer auf der ersten Seite, meist auf Platz 1, mit dieser Formularseite.

Verfasst: 22.12.2004, 12:44
von terese0815
@Cura
Also der Thread hat durchaus seine Daseinsberechtigung auch wenn Du sie nicht mehr alle hast :lol:

Eine persönliche Beobachtung bezieht sich auf die interne Verlinkung. Wir haben ein Key aus dem XXX-Bereich auf Platz eins ausschließlich durch interne Verweise bekommen (1.400.000 Ergebnisse). Dies hat allerdings gut 8 Monate gedauert. Von daher greifen da wahrscheinlich:
- Stärke der Hauptdomain
- Anzahl bzw. prozentualer Anteil der internen Links
- Alter der Domain
- zum kleinen Teil die OnPage-Faktoren

Inzwischen haben wir diese Position danke HiJacking nicht mehr.

Grüße

Stefan

Re: 200 Kriterien oder was?

Verfasst: 22.12.2004, 13:36
von terese0815
Cura hat geschrieben: Und bevor hier jetzt einige losschimpfen; Cura hat sie nicht mehr alle
Wir sind hier nicht im SUMA-Tricks-Forum :wink:

Verfasst: 22.12.2004, 13:40
von chio
Bei den 200 Kriterien werden viele dabeisein, die mal angedacht wurden und jetzt (so gut wie) keine Relevanz mehr haben. Und einige andere werden nur greifen, wenn ein anderes einen Grenzwert erreicht. Trotzdem: wenns nur 50 Kriterien sind reichts auch.

Was OnPage/OffPage betrifft hängt das sicher sehr vom Thema ab und natürlich wie sehr umkämpft die Keywords sind. Und letztlich was man an der Site verdient: OffPage ist teuer, wenns was wirken soll. Allzuviele Backlinks, noch dazu in kurzer Zeit, ist ein Indiz, das was nicht stimmt.

Noch was zu den Meta-Keywords: Man sollte die Dinger nicht unterschätzen. Die Meta-Keywords sind der Platz, wo man hinschreibt, was man gerne hätte. Von daher nicht uninteressant zur eigenen Orientierung und in gewisser Weise ein "Danebenlieg-Schutz" für SuMas.

Verfasst: 22.12.2004, 14:02
von Jojo
Also es stellt sich schon die Frage wie es mit Kriterienkombinationen aussieht. So nach dem Motto: Wenn die Kriterien a und b erfüllt sind und das Kriterium c nicht erfüllt ist dann Bonus .... Durch sowas wird dann aber der Algo noch komplexer und irgendwann wird Google selber vielleicht arge Probleme bekommen den noch zu handhaben.

Auch interessant ist die Frage nach den Kriterien die zu einer Abwertung führen. Zum Beispiel bei zu hoher keyword-density. Welche gibt es da sonst noch?