Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

psbot global für ganzen Apache sperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
snowmanmh
PostRank 1
PostRank 1
Beiträge: 23
Registriert: 15.10.2004, 13:06
Wohnort: Meckenheim

Beitrag von snowmanmh » 28.12.2004, 13:00

Hallo,

ich habe Server unter Apache laufen. Auf diesem befinden sich nur meine eigenen Domains. Nun möchte ich global einige Bots sperren. Am meisten sticht mir der psBot ins Auge, der eine ganze Menge Traffic verursacht, und dabei die anderen User beeinträchtigt (Geschwindigkeit).

Kann man sowas global machen, jedesmal per robots.txt ist mühsam, ausserdem habe ich bemerkt, das Ihn (psBot) das manchmal ziehmlich kalt lässt, und er fröhlich weiter macht...


Grüsse Mario

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


fool
PostRank 5
PostRank 5
Beiträge: 200
Registriert: 28.03.2004, 12:12

Beitrag von fool » 29.12.2004, 12:23

Hallo mario,

also psbot respektiert bei mir seit ich ihn in der robots gesperrt habe das Verbot. Deshalb interessant, dass du das beobachtest.

Aber wenn du sicher gehen willst, dann sperr ihn in der .htaccess.

Da gibt es ja genug threads hier darüber.

Gruß
fool[/i]

snowmanmh
PostRank 1
PostRank 1
Beiträge: 23
Registriert: 15.10.2004, 13:06
Wohnort: Meckenheim

Beitrag von snowmanmh » 29.12.2004, 12:52

Hallo,

meine robots.txt sieht so aus:

Code: Alles auswählen

User-agent: psbot
Disallow: /
diese hat der psBot in den letzten Tagen mehr als genug gelesen:

Code: Alles auswählen

62.119.133.10 - - [29/Dec/2004:07:47:04 +0100] "GET /robots.txt HTTP/1.0" 200 179 "-" "psbot/0.1 (+http://www.picsearch.com/bot.html)"
62.119.133.10 - - [29/Dec/2004:07:51:10 +0100] "GET /robots.txt HTTP/1.0" 200 179 "-" "psbot/0.1 (+http://www.picsearch.com/bot.html)"
62.119.133.11 - - [29/Dec/2004:07:53:10 +0100] "GET /allkat_Nachrichtentechnik_29_0_50.html HTTP/1.0" 200 22453 "-" "psbot/0.1
62.119.133.10 - - [29/Dec/2004:07:57:13 +0100] "GET /robots.txt HTTP/1.0" 200 179 "-" "psbot/0.1 (+http://www.picsearch.com/bot.html)"
62.119.133.10 - - [29/Dec/2004:07:59:18 +0100] "GET /robots.txt HTTP/1.0" 200 179 "-" "psbot/0.1 (+http://www.picsearch.com/bot.html)"
62.119.133.10 - - [29/Dec/2004:08:01:14 +0100] "GET /robots.txt HTTP/1.0" 200 179 "-" "psbot/0.1 (+http://www.picsearch.com/bot.html)"
62.119.133.10 - - [29/Dec/2004:08:05:15 +0100] "GET /robots.txt HTTP/1.0" 200 179 "-" "psbot/0.1 (+http://www.picsearch.com/bot.html)"
wie man daraus erkennt liest er fleissig weiter, auch später:

Code: Alles auswählen

62.119.133.11 - - [29/Dec/2004:11:44:16 +0100] "GET /allkat_Naturkatastrophe_13_0_50.html HTTP/1.0" 200 15900 "-" "psbot/0.1 (+http://www.picsearch.com/bot.html)"
Die robots.txt liegt da schon 1 Woche so, da sollte man von ausgehen das er dann auch das macht, oder liegt der Fehler an meinem Syntax?

Grüsse Mario

Maschenka
PostRank 3
PostRank 3
Beiträge: 98
Registriert: 19.11.2004, 16:38

Beitrag von Maschenka » 30.12.2004, 00:23

Die Syntax in deiner robots.txt ist korrekt.

Auf der vom Bot genannten Seite findet sich am Ende folgender Satz, hast du das schon ausprobiert?
Experiencing problems?
Since Psbot is still very new we apologize for any inconvenience it may cause and would ask you to notify Picsearch about any problems at psbot@picsearch.com in order for Picsearch to rectify them as quickly as possible. Thank you.

fool
PostRank 5
PostRank 5
Beiträge: 200
Registriert: 28.03.2004, 12:12

Beitrag von fool » 30.12.2004, 01:21

Hallo Mario,
wenn dich solche Zugriffe stören, dann bann den psbot einfach per htaccess und Ruhe ist. Der psbot würde ja sogar Opfer von bulls Kleinbuchstabensperre (siehe thread emailharvester und spambots per htaccess sprerren Seite 4 und 5) - aber nicht vergessen msnbot davon auszunehmen!

Wenn ich solche logfileEinträge hätte, wäre ich da gnadenlos.

Guten Rutsch
fool

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag