Seite 1 von 2

@Googel und Programmierer

Verfasst: 16.11.2003, 21:46
von RW
Jede Suchmaschine hat ihren Suchalgorithmus so auch GOOGLE. Dieser Suchalgorithmus bestimmt die Position einer Website in den Suchergebnissen. Anhand der Suchergebnisse sollte es möglich sein den umgekehrten Weg zu gehen und diese Suchergebnisse zu nutzen um den Algorithmus zu durchleuchten. Das Ergebnis kann sich jeder vorstellen, selbst wenn die Suchmaschinen seine Filter bzw. seine Gewichtung ändern sollte würde es möglich sein seine Optimierung diesen neuen Algorithmus anzupassen.
Ich weiß das klingt ein wenig utopisch dennoch müsste es möglich sein!
Ich habe schon einige Sachen versucht ( Content der WWW Seite A mit der WWW Seite B zu vergleichen) die Ergebnisse waren sehr positiv. Dennoch ist es mir nicht gelungen daraus ein Schema abzuleiten. Aber ich kann mir vorstellen wenn mehrere Leute in verschiedenen Richtungen dies Analyse durchführen sollte es möglich sein ein stabiles System zu erschaffen.


RW

Verfasst:
von

Verfasst: 17.11.2003, 15:13
von danielr
hi!

ich denke das ist so , als wenn du eine matheaufgabe rückwärtsrechnest. sowas braucht wirklich zeit, außer dir kann jemand schon teile davon verraten (genaue gewichtung etc. ...).
wenn mehrere daran arbeiten kann schon das erste problem die domain sein. es hat nicht jeder die gleiche. also müssten sich alle auf ein KW einigen, was zu der domain möglichst total irrelevant ist. naja usw ... :roll:

Verfasst: 17.11.2003, 17:18
von Southmedia
Naja, "leicht" utopisch würde ich sagen.

Das Problem ist dass man keine Gesetzmässigkeiten erkennen kann. Schau dir den PR an, da passieren so viele unlogische Auf- und Abstufungen, da besteht imo keinerlei Chance das rechnerisch genau nachzuweisen und nachzuvollziehen.

Aber kannst er ja gerne versuchen, wir testen dann und sagen ob du Recht hast :)

Verfasst:
von

Verfasst: 17.11.2003, 18:31
von RW
Es ist doch alles da was man zum Berechnen braucht:
Das Keyword
Die Suchergebnisse zum Keyword ( Suchmaschine )
Und das wichtigste der "Content" + html der WWW Seiten
Die Links lassen sich ermitteln
Für den PR sollte es auch eine Abfragemöglichkeit geben (ich denke an Windows Temp - Verzeichnisse)

Jetzt vergleiche man die ersten 50. Ergebnisse auf
Keydichte
Html Formatierungen
CSS Filter
Links
Natürlich braucht man ein localhost (Referer nach Wahl) und IP per Einwahl
usw.. und lege eine Datenbank an

Soweit so gut

Jetzt kommt der schwere Teil - den davor hab ich lösen können !-

Das Finden der Übereinstimungen und die Zuordnung der Gewichtung der Teilergebnisse zueinander.

Und das ist Rechenleistung und Programmierleistung die ein einzelner Rechner schlecht schafft. Auch MSQL und PHP hat seine Grenzen.
Ich hatte versucht das in files zu lösen weil ich mir ein Geschwindigkeitsvorteil erhofft habe -- ist jedoch immer noch nicht das ware --

wer Lust auf diese Projekt hat kann mir eine PN schicken

RW

Verfasst: 17.11.2003, 18:36
von viggen
von der Google Seite
Die Reihenfolge der Google-Suchergebnisse wird automatisch von mehr als 100 Faktoren bestimmt, einschließlich unseres PageRank-Algorithmus.
über hundert Faktoren und dann weiss man auch nicht die Gewichtung dieser welchen.

Falls du das wirklich schaffen solltest, ist dier grenzenloser Ruhm gewiss.

Viel Spass beim coden und wenns was wird, lass es uns wissen.

Verfasst: 17.11.2003, 23:09
von Southmedia
RW,

wenn man nur das machst was du da geschrieben hast, und das ist nichtmal ein hunderstel der Aufgaben die wirklich bewältigt werden müssten um da einen Schritt weiterzukommen, wäre man sicher einige Monate mit analysieren und beobachten beschäftigt.

Man kann den Algo verstehen, wissen was wichtig ist - was nicht. Aber aufschlüsseln ist unmöglich. Ihn ansatzweise zu verstehen reicht aber meist um vorne zu stehen :)

Verfasst: 18.11.2003, 07:42
von RW
@Southmedia

Und genau darin kann der Schlüssel liegen.
Man kann den Algo verstehen, wissen was wichtig ist - was nicht.
Ableitend davon einen Filter definiert der dieses Wissen beinhaltet (mit ein variablen Toleranzbereich der sich zu 0 hin verringern lässt)

Dieser Filter könnte die Schablone sein welche auf die entsprechenden WWW Seiten gelegt wird.

Und dann geht es darum Filtereigenschaften zu verfeinern bis ein Schema erkennbar ist. Und das war's .

RW

Verfasst: 18.11.2003, 09:10
von Southmedia
ach RW,

wir wissen dass momentan Links sehr wichtig sind. Und die Texte der Seite sowieso. :arrow: Wir verstehen die Suchmaschine also teilweise.

Daneben gibt es aber wohl noch 100te andere Kriterien die wir nicht kennen bzw die wir nicht nachvollziehen können. Pagerankberechnung, verschiedene Priorität von Backlinks, Tabellentexte, Bodytexte, Formulartexte und vieeeele andere Sachen kommen da rein.

Alleine wenn du rausfinden würdest in welchem Verhältnis verschiedene Texte (Body, Titel, Link) an verschiedenen Positionen im Text (vorne, mitte, hinten, 2tes wort, etc) zählen wärst du unser aller Held - aber sowas ist unmöglich.

So lange es keine Ausgabe wie den PR-Balken der Toolbar für die Linkpopularität, den Bodytext etc gibt funktioniert es einfach nicht.

Verfasst: 18.11.2003, 09:31
von mario
ich denke das ist eine immense und schier unlösbare Aufgabe. Kommt mir so schwierig vor wie 100 ineinander verschachtelte Differnzialgleichungen. Wenn wir noch nicht mal die Anzahl der Variablen kennen, wie sollten wir dann die Gleichung aufstellen, oder gar lösen können? Ich denke wir müssen uns mit einer primitiven Iteration begnügen.

Verfasst: 18.11.2003, 10:37
von RW
Es gab sowas schon mal!
und die Leute haben auch gedacht das es unlösbar ist.

nichts ist unmöglich solange man es nicht versucht
100te andere Kriterien die wir nicht kennen
Du kennst "zwanzig" Bedingungen, ich kennen "zwanzig" Bedingungen
bei "zehn" stimmen wir überein. Jetzt lasse das mal von Zwanzig SEO's machen und schon hast Du eine Grundlage einen Filter zu bauen.
Mit einer hohen Wahrscheinlichkeit...

RW

Verfasst: 18.11.2003, 11:53
von mario
wenn wir alle nur die Zeit dazu hätten!

Kommt mir vor als stünde ich vor einer Tür mit KABA20 Sicherheitsschloss. Ich kenne die Schlüsselart nicht aber den Code. KABA stellt mir eine Kiste bei mit 1 Million Schlüsseln ohne Code-Löcher und eine kleine Bohrmaschine zur Verfügung. Nun nehme ich mir erst einen anderen KABA-20 Schlüssel, um das Lochsystem zu ergründen. Dann rufe ich das Dorf zusammen und jeder bohrt nach dem erkannten Lochsystem Löcher in die Schlüssel. Hmmm glaubst Du, dass einer soviel Glück hat und trifft?
Während die noch mit Bohren üben , habe ich mir einen Hintereingang genommen und mich längst auf die Couche gelegt und mich über einen guten Film gefreut.

Verfasst: 18.11.2003, 14:18
von RW
OK,
Zeit ist eine Sache an der viele Dinge scheitern.

Leider wird der beste Hintereingang auch mal verschlossen.....
Da könnte es hilfreich sein den entsprechenden Schlüssel für die "Tür" zu besitzen. :lol:

RW

Verfasst: 18.11.2003, 14:22
von mario
RW hat geschrieben:OK,
Zeit ist eine Sache an der viele Dinge scheitern.

Leider wird der beste Hintereingang auch mal verschlossen.....
Da könnte es hilfreich sein den entsprechenden Schlüssel für die "Tür" zu besitzen. :lol:

RW
da baut Google schnell ein neues Schloss ein und alle bohren weiter. Ein absurdum infinitum

Verfasst: 18.11.2003, 14:40
von Southmedia
Hmm, natürlich könnte es auch sein dass RW ein Informatikprofessor an ner EliteUni ist und 100 Studenten legal für sich arbeiten lassen kann :lol: Dann räume ich ihm sogar reelle Chancen ein...

Verfasst: 19.11.2003, 02:45
von tron
Hm.. evtl. ließe sich da was mit 'Distributed-Computing' machen?


A la SETI@Home oder so...


:D