Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Diese bösen Spider - frust ablassen

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
pvdb
PostRank 5
PostRank 5
Beiträge: 321
Registriert: 16.01.2005, 22:37
Wohnort: Hannover

Beitrag von pvdb » 17.08.2007, 11:41

ich muss mal etwas frust rauslassen :)

seit gestern spidert ein t-online nutzer permanent unsere seiten. ich sehe dies in echtzeit und sperre sofort die ip, so dass der nutzer keine webseite mehr aufrufen kann (haben so ne lösung, die die ip dann für alle domains sperrt, auch die, die auf billig host liegen). kurze zeit später wählt er sich mit neuer ip ein.

das macht echt keinen spaß, diesen contentdieben content zu geben. bei uns handelt es sich z.b. um begriffe die wir als marken eingetragen haben und da fragt man sich echt, ob man sämtliche deutschen spam seiten abmahnen sollte, die den begriff da einfach nutzen um content zu haben. ich weiß sowas ist nicht schön, aber was die contentsauger ( netter begriff ) machen ist auch nicht schön. bisher war ich gegen abmahnen, aber da kommt man echt in versuchung. sperren scheint wohl als strafe nicht auszureichen, vielleicht aber hilft eine strafung des geldbeutels.

bisher wird alles für 4h ausgesperrt, was x seiten in zeit y besucht, aber morgen kommt was neues her. die contensauger machen immer verschiedene pausen, so dass die meinen schutz umgehen. ab morgen, werden die meinen neuen schutz aber nicht mehr umgehen, weil der neue schutz intelligenter sein wird.

ich betone nochmal, dass ich jetzt nicht zum abmahner geworden bin, es sind halt nur gedanken die mir in der frust gekommen sind, auf die wut gegen die bösen spider.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

wolli
PostRank 9
PostRank 9
Beiträge: 1395
Registriert: 01.01.2006, 18:48

Beitrag von wolli » 21.08.2007, 07:46

hi,

für böse bots empfehle ich dir das Projekt: bot-trap von Airport1 in diesem Forum
https://www.bot-trap.de/

nette Grüße
wolli

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 21.08.2007, 14:21

wolli hat geschrieben:für böse bots empfehle ich dir das Projekt: bot-trap von Airport1 in diesem Forum
Jaja, ist was feines.

Aber seit wann sperren die eigentlich auch T-Com-IPs?

Falls sie das nicht tun, wird die Bot-Trap wohl hier nicht wirklich helfen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


pvdb
PostRank 5
PostRank 5
Beiträge: 321
Registriert: 16.01.2005, 22:37
Wohnort: Hannover

Beitrag von pvdb » 23.08.2007, 07:46

bot-trap ist auch schon seit einigen monaten installiert und spart auch gut traffic. tolles produkt! haben jedoch ne erweiterung drinnen, wo wir selbst noch weitere ips und user agents sperren können.

ich hatte diesen tcom macker einige tage gesperrt gehabt. der typ hat immer mal ne andere ip, aber immer den gleichen agent. dann gestern mal einen tag wieder frei gemacht und da war er wieder fleißig dabei. dann bleibt er wohl noch einen monat gesperrt.

wenn ich wüsste was der für ne seite hat, würde ich die auch mit 1000 oder 10.000 besuchern parallel besurfen, nach dem motto wie du mir, so ich dir, natürlich mit ner ip aus den malediven ;)

ginger
PostRank 4
PostRank 4
Beiträge: 110
Registriert: 25.08.2004, 15:10

Beitrag von ginger » 04.11.2007, 13:16

Sorry, dass ich dieses alte Thema wieder ausgrabe, aber ich habe derzeit ebenfalls das Problem, dass ein DTAG-Kunde meine Website (nicht die in der Sig) mit zig Tausend Anfragen pro Sekunde bombadiert und mein Provider mir innerhalb von 2 Tagen nun zum zweiten Mal die Seite sperrt. Ich befürchte, nun endgültig.

Bei bot-trap.de habe ich mich nun angemeldet und werde das Script einbauen, sobald ich den Code erhalten habe, aber das schützt mich nicht gegen echte User. Eine Zusatzlösung, wie pvdb sie schildert würde mir schon ein wenig helfen, doch ich sitze nicht den ganzen Tag am Rechner, da ich noch einem geregelten Beruf nachgehe. Hat einer eine Lösung oder könnte sie mir bauen? Mir steht das Wasser im Moment irgendwie Oberkante Unterlippe. Erschwerend hinzu kommt, dass ich nicht wirklich eine PHP-Expertin bin. :(

Cash
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 02.11.2005, 15:06

Beitrag von Cash » 04.11.2007, 18:57

hi Ginger
zur eigentlichen Bot-Trap könntest du noch ein paar Hony-Pots aufstellen die per
robots.txt gesperrt sind. Ein Contentsauger hält sich sogut wie nie an die robots.txt. Ruft er die gesperrte Seite im Hony-Pot auf wird er automatisch in die Erweiterung (inc) der Bot-Trap oder in die htaccess eingetragen. Eine Kombination aus Bot-Trap und Spider-Trap lässt sich für sowas erstklassig anpassen!

ginger
PostRank 4
PostRank 4
Beiträge: 110
Registriert: 25.08.2004, 15:10

Beitrag von ginger » 04.11.2007, 19:34

Danke, Cash, für die Antwort. Ich habe jetzt nicht wirklich im Detail alles begriffen, aber zumindest soviel, dass es eine Lösung gibt. :) Ich muss in dieser Angelegenheit jetzt noch ein paar andere Dinge erledigen und stehe mit einem anderen Provider in Kontakt und werde dann darauf zurückkommen.

Das ist auf jeden Fall die erste positive Nachricht heute, danke. :)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag