Beitrag
von Anonymous » 21.07.2005, 21:03
Ein Spider holt sich den HTML Text einer Webseite, und wertet das dann aus...
dieser kann dann nach Schlüsselbegriffen suchen, verschiedene HTML-Tags erkennen und so dann auch weitere Links finden...
die Leistungsfähigkeit liegt dann in der Auswertung der gefundenen Schlüsselbegriffen...
google mal nach "content grabbing" bei google, dort findest du Erklärungen wie das funktioniert, also das holen und auswerten von webseiten per php oder sonstigen Scriptsprachen... und ob man jetzt bestimmte Inhalte aus einer Webseite holt, oder nach Schlüsselwörtern sucht... naja, das prinzip ist das gleiche...