grub ist wie du schon sagtst ein looksmart (wisenut) bot, bisher hat es aber noch keine bestätigung gegeben das die arbeit von grub irgendwo auch erscheinen.
er ist auch sehr unzuverlässig die robots.txt einzuhalten.
Laut webseite soll es bei looksmart irgendwann mal verwendet werden.
Das Prinzip ist distributed computing (so wie das seti project).
Eigentlich sollte der Grub Bot mittlerweile die Robots.txt einhalten! Wer mal die News auf der grub Webseite gelesen hat weis dies auch. Wer sich sicher sein will kann auch über die Grub Webseite die aktuelle robots.txt neu spidern lassen.
Benutzt werden die Grub Ergebnisse bisher nur von Wisenut https://www.wisenut.com/ - Das ganze ist meiner Meinung nach noch ein wenig Beta aber ich denke mal man sollte das ganze unterstützen. Gut gefällt mir vorallem die Local Crawling Funktion die es mir erlaubt meine eigenen Seiten zu crawlen. Der Vorteil liegt auf der Hand - ein local eingerichteter Mirror läßt sich wesentlich schneller und mit weniger Traffic crawlen. Ein Nachteil ist natürlich das man auch wesentlich besser die Resultate fälschen kann.
Jetzt ist über ein Jahr vergangen wie sind so eurer Erfahrungen mit dem Ding?
Ich finde der Client ist besser geworden, aber sonst (traffic oder sowas) habe ich nichts gemerkt. Ich lass es einfach nebenbei laufen aber ich frage mich ob das was bringt.
Im Dezember/Januar hat der Bot sich leider keinen Deut um meine robots.txt geschert. Zwar wurde sie abgerufen, aber eine IP, die direkt zum Bereich von Looksmart gehört, hat trotzdem einfach weiter gespidert. Von anderen Grub-Clients kam so gut wie gar nichts.
Außerdem wurden ausschließlich Seiten abgerufen, die es seit über einem halben Jahr nicht mehr gibt, dem Bot war es dabei wurscht, ob er 404, 410 oder 301 vorgesetzt bekam, er hat weiterhin die veralteten URIs aufgerufen und keinen von den neuen.
Inzwischen scheint er sich wieder eingekriegt zu haben und kommt nicht mehr vorbei.