Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

content klau durch dynamische ips

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
linux
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 05.05.2004, 09:45

Beitrag von linux » 04.04.2007, 23:10

Hallo,

ich habe bei einigen seiten von uns etwas erschreckendes gesehen. Es ist zur zeit wieder ein bot da der über dynamische ip spidert. ok das ist nicht neues neu ist aber daß die mehere zum spidern nutzt. das heiß subdomain.domainname.de wird von 3-4 ips gleichzeitig gespidert. er nimmt sich immer eine ebene vor. was aber noch böser ist die ips sind europaweit, d.h von frankreich bis russland. in meinen augen kann das nur heißen es gibt infizierte pcs die spidern, und wie soll ich die unterbinden.

kann man das verhindern denn ich will ja die echten bots nicht stören.

gruß

linux

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Cash
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 02.11.2005, 15:06

Beitrag von Cash » 08.04.2007, 19:54

Prüfmal die verwendeten IPs ob die nicht zum Tor Netzwerk gehören.
https://nighteffect.us/tns/index.php?SR=Hostname&SO=Asc

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 09.04.2007, 12:59

Diese Privacy-Typen könnten unter dem Deckmantel des Datenschutzes auch gleich Personalausweise fälschen und WLANs hacken. Ist IMHO die gleiche Schiene.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 09.04.2007, 13:56

SloMo hat geschrieben:Diese Privacy-Typen könnten unter dem Deckmantel des Datenschutzes auch gleich Personalausweise fälschen und WLANs hacken. Ist IMHO die gleiche Schiene.
So ein Unsinn. Nicht alle, die ihre Briefe zukleben, weil sie nicht wollen, dass sie jeder lesen kann, verschicken Kinderpornographie per Post.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 09.04.2007, 14:31

Nicht alle, die ihre Briefe zukleben, weil sie nicht wollen, dass sie jeder lesen kann, verschicken Kinderpornographie per Post.
Auch auf zugeklebte Briefe gehört ein Absender! Ich habe auch noch von keinem Kinderpornoring gehört, der seine Bildchen per Postkarte verschickt.

Sicherheitsdebatten sind immer schwierig. Aber ich sehe halt den Webmaster momentan sehr im Nachteil. Wer eine Webseite hat, lässt heutzutage die Hosen völlig runter. Da landet schnell mal die private Anschrift und Telefonnummer in irgend welchen dubiosen Datenbanken.

Und dann kommen die Privacy-Futzies (z. B. Tor-Netzwerk) und machen einen auf Geheimhaltung, während sie sich unseren Content ziehen. Da herrscht ein ganz schönes Ungleichgewicht.

linux
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 05.05.2004, 09:45

Beitrag von linux » 09.04.2007, 14:47

hab mal mitgeloggt also es sind wilde ips

offnee access points glaube ich nicht da die ips europaweit sind bleit ein virus, egal was es ist der bot klaut alle seiten

ich hatte mal gelesen daß man mit dem apacheneswas machen kann. man überprüft die requests die ein browser macht(auch der googlebot ist in dem sinne ja ein browser) kommen mehr als x pro sek für seiten dann bringt er einen error.

dabei gibt es 2 probleme

1. die bots ok das könnte man noch umgehen (perl/php script das einen whois macht und dann sagt ob es eine echte ip ist)

2. ein proxy server (eine lösung wäre hier auch ein whois oder besser einfach zu sagen ein brwoser der keine kennung schickt darf nur 1 request alle 5 sec machen)

ich werde mal sehen ob man dem apachen was beibringen kann



gruß

linux

linux
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 05.05.2004, 09:45

Beitrag von linux » 09.04.2007, 16:50

habe etwas gefunden, hm kennst sich einer noch bischenbesser mit perl aus

https://spambot.sourceforge.net/

ich will nun noch die weiche einbinden daß ich in einer datenbank die whitelist vorhalte, d.h einen whois auf die ip wenn google inc oder ein anderer echter, dann soll der in die whitelist rein

so sollte man schnell die guten bots drinnen haben auch wenn der googlebot neue ips hat

das würde heißen die guten bots bleiben drinnen und die anderen bleiben weg

man kann einstellen nach 5 request in 10 sec dannn trap denn so schnell ist kein user.

wer mir helfen will gerne per pn

oder andere vorschläge

gruß

linux

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 09.04.2007, 21:40

Ansonsten schau doch einfach mal dort vorbei: https://www.bot-trap.de/

Ciao,
Mike

linux
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 05.05.2004, 09:45

Beitrag von linux » 10.04.2007, 01:19

das projekt kenne ich ist auch gut leider hat es ein problem es arbeitet mit einer blacklist, d.h mit ips und so. bei dynamischen ips wird das nichts helfen

ich denke aber ich werden mich mal mit dem herrn in kontakt sezten, mal sehen wie wir da zusammenarbeiten können.

mals ehen wie gut noch mein c++ ist grins

ich brauche nur noch eines die db connection für die whitelist.


ich hatte auch eine andere idee das ganze per php. es gibt ein modul daß die logs in ne mysql packt, ein script rechnet für jede ip die zeitabstände aus, wenn diese zu klein sind dann wird eine php whois gemacht und die ip in die blacklist eingetragen. das einzige problem bei den listen ist daß man diese löschen muß, ja löschen denn diese können ja auch ips mal haben die ein isp einem realen user gibt.

wie gesagt ich werde mich damit befassen und auf nen testserver mal schauen was ich tuen kann.


gruß

linux

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 10.04.2007, 11:40

linux hat geschrieben:2. ein proxy server (eine lösung wäre hier auch ein whois oder besser einfach zu sagen ein brwoser der keine kennung schickt darf nur 1 request alle 5 sec machen)
Was meinst Du mit Kennung? Clients, die keinen User-Agent schicken, kann man auch ganz blocken. Proxies leiten die HTTP-Anfragen erfahrungsgemäß meistens auch vollständig weiter, also samt UA und Referer. Damit meine ich natürlich nicht die Webproxies, die faken naturgemäß sicherlich auch im HTTP kräftig umher.

Wenn man das Zeitverhalten beobachtet, muss man auch an die Doppelklicker denken, und an die Gewohnheitsklicker: auf Webseiten, die man gut kennt, klickt man sich schon mal ziemlich schnell durch. Nur um zwei Sonderfälle genannt zu haben, denn es gibt noch ein paar mehr.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag