Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

welche Bots sperren?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
hapepu
PostRank 2
PostRank 2
Beiträge: 59
Registriert: 01.08.2006, 09:54

Beitrag von hapepu » 17.10.2006, 14:26

Hallo,

hat jemand ne aktuelle liste von bots die man auf jeden Fall per robots.txt sperren sollte?
Habe durch enige Beiträge im Forum bereits "gizliweb.com" und "thesubot" gesperrt.
Was gibt es sonst noch so, insbesondere diejenigen, die Content klauen/duplizieren.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Anonymous

Beitrag von Anonymous » 17.10.2006, 14:29

naja... die "bösen" bots kannste ruhig in die robots.txt setzen... das juckt die nicht die bohne.... die musste schon per .htaccess richtig aussperren....

hapepu
PostRank 2
PostRank 2
Beiträge: 59
Registriert: 01.08.2006, 09:54

Beitrag von hapepu » 17.10.2006, 14:32

kannst Du ein Beispiel geben, wie die htaccess ausshen müsste? besten Dank :-)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

abrek
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 25.06.2005, 19:29
Wohnort: Heilbronn

Beitrag von abrek » 17.10.2006, 14:36

Probier mal BOT-TRAP von Airport1

hapepu
PostRank 2
PostRank 2
Beiträge: 59
Registriert: 01.08.2006, 09:54

Beitrag von hapepu » 17.10.2006, 14:40

Bot-Trap ist ein nettes Projekt. Danke für den Hinweis. Mich würde trotzdem an einem Beispiel, z.B. thesubot interessieren, wie die htaccess aussehen müsste.

Anonymous

Beitrag von Anonymous » 17.10.2006, 18:54

benutz mal die Suchfunktion hier im Forum, da gibts unzählige Threads über .htaccess und bots aussperren...

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 17.10.2006, 19:03

<Limit GET>
order allow,deny
deny from 24.128.16.113
deny from 222.231.0.0/18
deny from 66.150.15.150
allow from all
</Limit>



RewriteEngine On


RewriteCond %{HTTP_USER_AGENT} ^.*WebZIP.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.*Stripper.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.*Offline.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Copier.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Crawler.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Snagger.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Teleport.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Reaper.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Wget.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Grabber.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Sucker.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Downloader.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Siphon.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Collector.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Mag-Net.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Widow.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Snake.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.BackWeb.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.gotit.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Vacuum.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Pump.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.HMView.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.HTTrack.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.JOC.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.likse.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Memo.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.pcBrowser.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.SuperBot.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.leech.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Mirror.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Recorder.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.GrabNet.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Likse.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Navroad.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.attach.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Magnet.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Surfbot.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Bandit.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Ants.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Buddy.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Whacker.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.thesubot.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.Mozilla/4.0.*$ [OR,NC]
RewriteCond %{HTTP_USER_AGENT} ^.FileHound.*$ [NC]
RewriteRule /* https://de.yahoo.com/ [L,R]

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 18.10.2006, 11:07

oder mal meine Spider Trap anschauen

hapepu
PostRank 2
PostRank 2
Beiträge: 59
Registriert: 01.08.2006, 09:54

Beitrag von hapepu » 18.10.2006, 12:18

@bydlo
Danke, werde ich komplett übernehmen.
Noch ne Frage:
Ich habe bisher in der htaccess nur die 404 usw. meldungen geregelt. kann ich direkt darunter mit dem anderen weitermachen, also ab der nächsten Zeile, oder muss das irgendwie getrennt sein?

ghostrider123
PostRank 1
PostRank 1
Beiträge: 23
Registriert: 16.10.2006, 17:27

Beitrag von ghostrider123 » 18.10.2006, 15:32

Hi,

die weiteren Servererror-Seiten (selbsterstellte) kannste direkt drunter angeben.

dehansen
PostRank 3
PostRank 3
Beiträge: 77
Registriert: 19.05.2006, 10:47

Beitrag von dehansen » 22.03.2010, 08:34

87.118.116.23
87.118.82.66
87.118.82.104
217.114.213.157

Ist offenbar eine Firma die Refererspam anbietet, die oberen drei IPs sind Adressen der Spamserver, die 217er IP ist die des Servers der die Webseite hostet, von der Adresse haben wir aber bislang noch keine Spamzugriffe festgestellt.

Vielleicht findet ja jemand noch IP Nr. 4?

dehansen
PostRank 3
PostRank 3
Beiträge: 77
Registriert: 19.05.2006, 10:47

Beitrag von dehansen » 23.03.2010, 10:20

Ist nur die IP des Servers auf dem die Seite gehostet wird.
Laut dem Hoster ein Server der keine HTTP Requests abfeuert, was bislang tatsächlich so ist, die Spam Requests kommen ausschließlich aus dem 87.118.xxx.xxx Block.

Rem
PostRank 10
PostRank 10
Beiträge: 3786
Registriert: 08.12.2005, 18:45

Beitrag von Rem » 23.03.2010, 22:19

Dann der Haufen Comment-Spammers, der mich genervt hat. Aber ich betreibe noch nicht mal ein Forum - jedenfalls scheint eine htaccess nicht zu bocken, auch wenn dort hunterte IPs drin sind:
Zuletzt geändert von Rem am 23.07.2013, 09:21, insgesamt 1-mal geändert.

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 23.03.2010, 22:52

Gibt nichts besseres:

https://www.spider-trap.de/

und Ruhe ist für immer!

Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 24.03.2010, 09:00

@Rem darf ich das so verstehen, dass man auf deine liste kommt, sobald man kommentarspam gemacht hat? macht doch bei dynamischen ips gar keinen sinn.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag