Seite 1 von 1
Spielt grub-client etwas verrückt?
Verfasst: 19.12.2004, 19:11
von Maschenka
In meiner robots.txt wird den Grub-Clients dieser Welt das Spidern meiner Seite verboten. Bisher kam alle paar Tage einer vorbei, hat artig die robots.txt ausgelesen und sich wieder aus dem Staub gemacht. Seit dem 16.12. abends allerdings werden immer wieder Seiten aufgerufen, die seit einem halben Jahr nicht mehr existieren, die robots.txt hingegen gar nicht.
Kann jemand diese Beobachtung bestätigen?
Verfasst: 20.12.2004, 12:15
von fool
Hallo Maschenka,
direkt bestätigen kann ich das nicht. Hatte aber in der letzten Zeit auch immer wieder zugriffe mit UA grub-client, wo kein Zugriff auf die robots.txt war. Allerdings ist das ja so eine Sache mit grub.
Da gibt es ja nicht unbedingt eine direkte Zuordnung zu einer bestimmten Quelle. Es ist ja ein ziemlich offenes Projekt, an dem sich jeder beteiligen kann und wo auch jeder den bot benutzen kann für seine eigenen Projekte.
So verstehe ich das jedenfalls.
Deshalb ist es einfach wahrscheinlich, dass manche, die die Bot benutzten, sich um die robots.txt nicht weiter scheren und fröhlich rumspidern auf den Seiten.
Wenns dich stört muß du halt per .htaccess sperren und dann sind aber auch alle Zugriffe vom grub-client gesperrt.
Gruß
fool
Verfasst: 20.12.2004, 16:30
von Sololand
grub muß dringend verboten werden das ist einer der relevaten (boesen) robots ... die machen duplikate von Deiner Seite und Du fliegt aus dem google ..genau kann ich nicht sagen aber potetiell auf jedenfall, der steht bei mir als erster auf der robots.txt