Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Rumaenische Scraper auf dem Vormarsch..

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Kristian
PostRank 9
PostRank 9
Beiträge: 1484
Registriert: 20.07.2005, 16:30

Beitrag von Kristian » 18.02.2008, 16:33

Hallo Sean
sean hat geschrieben:bei mir würde schon reichen, nach mehr als 3 Aufrufen (html, php Seiten) die Requestzeit zu verlangsamen. Sagen wir mal Zugriff 1 - 3 Servermaximum, dananach 1 Sekunde wartezeit je Anfrage, danach 2 Sekunden, danach 4 Sekunden usw. Googlebot würd eich über eine Whitelist ausnehmen. Ich hab das mal vor xmonaten in PHP umgesetzt - lol - leider viel zu lahm :-)
Besagte Whitelist fehlt mir gerade, nachdem ich die Erfahrung von RW vergegenwärtigt habe wäre es schön eine vernünftige Liste in die Finger zu bekommen.
Schickst du mir den Part bitte per PN oder Mail?

Die Umsetzung deiner Idee, sprich Wartezeit für X Sekunden habe ich schon angedacht, ich werde es allerdings nur in meiner Spache effizient hinbekommen, die PHP-Übersetzung bleibt dann den Cracks vorbehalten, die sich damit auskennen.

TIA
Kristian