Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Download von Websites erkennen und verhindern?

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 12.08.2006, 17:11

Ihr kennt ja alle diese Tools wie wget, getright usw. um sich Websites komplett herunterzuladen.

Was tut ihr dagegen? Ein UA Check hilft nur solange bis der Sauger seinen UA auf einen 0815 Browser aendert.

Wie also kann man den Download von Websites erkennen und verhindern?

Gibt es hierfuer schon fertige und freie Tools (gefunden habe ich nix), oder muss auch dieses Rad wieder quasi neu erfunden werden?

Wie koennte man sowas erkennen? Z.B. pro IP in einer Session sammeln bzw. merken wieviele Seiten innerhalb welcher Zeit aufgerufen wurde und wenn das Verhaeltnis nimmer stimmt, sperren?
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 13.08.2006, 08:56

hab da auch so'n kandidaten, der versucht mich am regelmässigen saugen zu hindern. am anfang ganz billig über ua dann über die seitenaufrufe.
hab ich mein tool hat so umgeschriben, dass es nur noch alle n sekunden eine seite holt.
das ding läuft eh als cronjob nachts, da ist es mir egal, ob ich 5 oder 50 minuten brauche, bis die seite da ist.

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 13.08.2006, 13:07

Oller Leecher ;)

Nuja, aber es muss doch sowas schon geben was das Gesauge verhindert, egal welche IP und welcher UA, es muss selbststaendig erkennen koennen: aha, da saugt mich jemand aus. Eine Gefahr seh ich nur darin dass man zumindest Google , vorausladende Handies und Browser die vorausladen besonders behandelt muesste, da sie "dem Anschein nach" ja auch "saugen"..

Heute wurde bspw. versucht eine Website ueber
85.25.133.168 = alpha928.server4you.de
versucht zu saugen. Wie bekomm ich denn nun raus,
wer darauf welche Domains hosted?
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 13.08.2006, 13:14

Gegen die üblichen Tools reicht es meist die Aufrufe pro IP auf eine bestimmte Anzahl pro Minute zu limitieren. Danach einfach einen 503 oder direkt 404 liefern. Allerdings insofern gefährlich, da die Suchmaschinenbots auch in dieses Schema passen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag