Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

@Googel und Programmierer

Das Board für die kleine Abwechslung. Hast Du was lustiges im Web gefunden oder was offtopic dann hier rein!
RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 16.11.2003, 21:46

Jede Suchmaschine hat ihren Suchalgorithmus so auch GOOGLE. Dieser Suchalgorithmus bestimmt die Position einer Website in den Suchergebnissen. Anhand der Suchergebnisse sollte es möglich sein den umgekehrten Weg zu gehen und diese Suchergebnisse zu nutzen um den Algorithmus zu durchleuchten. Das Ergebnis kann sich jeder vorstellen, selbst wenn die Suchmaschinen seine Filter bzw. seine Gewichtung ändern sollte würde es möglich sein seine Optimierung diesen neuen Algorithmus anzupassen.
Ich weiß das klingt ein wenig utopisch dennoch müsste es möglich sein!
Ich habe schon einige Sachen versucht ( Content der WWW Seite A mit der WWW Seite B zu vergleichen) die Ergebnisse waren sehr positiv. Dennoch ist es mir nicht gelungen daraus ein Schema abzuleiten. Aber ich kann mir vorstellen wenn mehrere Leute in verschiedenen Richtungen dies Analyse durchführen sollte es möglich sein ein stabiles System zu erschaffen.


RW

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

danielr
PostRank 7
PostRank 7
Beiträge: 530
Registriert: 11.11.2003, 15:12
Wohnort: Ural

Beitrag von danielr » 17.11.2003, 15:13

hi!

ich denke das ist so , als wenn du eine matheaufgabe rückwärtsrechnest. sowas braucht wirklich zeit, außer dir kann jemand schon teile davon verraten (genaue gewichtung etc. ...).
wenn mehrere daran arbeiten kann schon das erste problem die domain sein. es hat nicht jeder die gleiche. also müssten sich alle auf ein KW einigen, was zu der domain möglichst total irrelevant ist. naja usw ... :roll:

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 17.11.2003, 17:18

Naja, "leicht" utopisch würde ich sagen.

Das Problem ist dass man keine Gesetzmässigkeiten erkennen kann. Schau dir den PR an, da passieren so viele unlogische Auf- und Abstufungen, da besteht imo keinerlei Chance das rechnerisch genau nachzuweisen und nachzuvollziehen.

Aber kannst er ja gerne versuchen, wir testen dann und sagen ob du Recht hast :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 17.11.2003, 18:31

Es ist doch alles da was man zum Berechnen braucht:
Das Keyword
Die Suchergebnisse zum Keyword ( Suchmaschine )
Und das wichtigste der "Content" + html der WWW Seiten
Die Links lassen sich ermitteln
Für den PR sollte es auch eine Abfragemöglichkeit geben (ich denke an Windows Temp - Verzeichnisse)

Jetzt vergleiche man die ersten 50. Ergebnisse auf
Keydichte
Html Formatierungen
CSS Filter
Links
Natürlich braucht man ein localhost (Referer nach Wahl) und IP per Einwahl
usw.. und lege eine Datenbank an

Soweit so gut

Jetzt kommt der schwere Teil - den davor hab ich lösen können !-

Das Finden der Übereinstimungen und die Zuordnung der Gewichtung der Teilergebnisse zueinander.

Und das ist Rechenleistung und Programmierleistung die ein einzelner Rechner schlecht schafft. Auch MSQL und PHP hat seine Grenzen.
Ich hatte versucht das in files zu lösen weil ich mir ein Geschwindigkeitsvorteil erhofft habe -- ist jedoch immer noch nicht das ware --

wer Lust auf diese Projekt hat kann mir eine PN schicken

RW

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 17.11.2003, 18:36

von der Google Seite
Die Reihenfolge der Google-Suchergebnisse wird automatisch von mehr als 100 Faktoren bestimmt, einschließlich unseres PageRank-Algorithmus.
über hundert Faktoren und dann weiss man auch nicht die Gewichtung dieser welchen.

Falls du das wirklich schaffen solltest, ist dier grenzenloser Ruhm gewiss.

Viel Spass beim coden und wenns was wird, lass es uns wissen.

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 17.11.2003, 23:09

RW,

wenn man nur das machst was du da geschrieben hast, und das ist nichtmal ein hunderstel der Aufgaben die wirklich bewältigt werden müssten um da einen Schritt weiterzukommen, wäre man sicher einige Monate mit analysieren und beobachten beschäftigt.

Man kann den Algo verstehen, wissen was wichtig ist - was nicht. Aber aufschlüsseln ist unmöglich. Ihn ansatzweise zu verstehen reicht aber meist um vorne zu stehen :)

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 18.11.2003, 07:42

@Southmedia

Und genau darin kann der Schlüssel liegen.
Man kann den Algo verstehen, wissen was wichtig ist - was nicht.
Ableitend davon einen Filter definiert der dieses Wissen beinhaltet (mit ein variablen Toleranzbereich der sich zu 0 hin verringern lässt)

Dieser Filter könnte die Schablone sein welche auf die entsprechenden WWW Seiten gelegt wird.

Und dann geht es darum Filtereigenschaften zu verfeinern bis ein Schema erkennbar ist. Und das war's .

RW

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 18.11.2003, 09:10

ach RW,

wir wissen dass momentan Links sehr wichtig sind. Und die Texte der Seite sowieso. :arrow: Wir verstehen die Suchmaschine also teilweise.

Daneben gibt es aber wohl noch 100te andere Kriterien die wir nicht kennen bzw die wir nicht nachvollziehen können. Pagerankberechnung, verschiedene Priorität von Backlinks, Tabellentexte, Bodytexte, Formulartexte und vieeeele andere Sachen kommen da rein.

Alleine wenn du rausfinden würdest in welchem Verhältnis verschiedene Texte (Body, Titel, Link) an verschiedenen Positionen im Text (vorne, mitte, hinten, 2tes wort, etc) zählen wärst du unser aller Held - aber sowas ist unmöglich.

So lange es keine Ausgabe wie den PR-Balken der Toolbar für die Linkpopularität, den Bodytext etc gibt funktioniert es einfach nicht.

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 18.11.2003, 09:31

ich denke das ist eine immense und schier unlösbare Aufgabe. Kommt mir so schwierig vor wie 100 ineinander verschachtelte Differnzialgleichungen. Wenn wir noch nicht mal die Anzahl der Variablen kennen, wie sollten wir dann die Gleichung aufstellen, oder gar lösen können? Ich denke wir müssen uns mit einer primitiven Iteration begnügen.

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 18.11.2003, 10:37

Es gab sowas schon mal!
und die Leute haben auch gedacht das es unlösbar ist.

nichts ist unmöglich solange man es nicht versucht
100te andere Kriterien die wir nicht kennen
Du kennst "zwanzig" Bedingungen, ich kennen "zwanzig" Bedingungen
bei "zehn" stimmen wir überein. Jetzt lasse das mal von Zwanzig SEO's machen und schon hast Du eine Grundlage einen Filter zu bauen.
Mit einer hohen Wahrscheinlichkeit...

RW

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 18.11.2003, 11:53

wenn wir alle nur die Zeit dazu hätten!

Kommt mir vor als stünde ich vor einer Tür mit KABA20 Sicherheitsschloss. Ich kenne die Schlüsselart nicht aber den Code. KABA stellt mir eine Kiste bei mit 1 Million Schlüsseln ohne Code-Löcher und eine kleine Bohrmaschine zur Verfügung. Nun nehme ich mir erst einen anderen KABA-20 Schlüssel, um das Lochsystem zu ergründen. Dann rufe ich das Dorf zusammen und jeder bohrt nach dem erkannten Lochsystem Löcher in die Schlüssel. Hmmm glaubst Du, dass einer soviel Glück hat und trifft?
Während die noch mit Bohren üben , habe ich mir einen Hintereingang genommen und mich längst auf die Couche gelegt und mich über einen guten Film gefreut.

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 18.11.2003, 14:18

OK,
Zeit ist eine Sache an der viele Dinge scheitern.

Leider wird der beste Hintereingang auch mal verschlossen.....
Da könnte es hilfreich sein den entsprechenden Schlüssel für die "Tür" zu besitzen. :lol:

RW

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 18.11.2003, 14:22

RW hat geschrieben:OK,
Zeit ist eine Sache an der viele Dinge scheitern.

Leider wird der beste Hintereingang auch mal verschlossen.....
Da könnte es hilfreich sein den entsprechenden Schlüssel für die "Tür" zu besitzen. :lol:

RW
da baut Google schnell ein neues Schloss ein und alle bohren weiter. Ein absurdum infinitum

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 18.11.2003, 14:40

Hmm, natürlich könnte es auch sein dass RW ein Informatikprofessor an ner EliteUni ist und 100 Studenten legal für sich arbeiten lassen kann :lol: Dann räume ich ihm sogar reelle Chancen ein...

tron
PostRank 8
PostRank 8
Beiträge: 862
Registriert: 16.09.2003, 13:56
Wohnort: HUHU

Beitrag von tron » 19.11.2003, 02:45

Hm.. evtl. ließe sich da was mit 'Distributed-Computing' machen?


A la SETI@Home oder so...


:D

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag