Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ideale .htaccess Datei

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
domainsnake
PostRank 6
PostRank 6
Beiträge: 415
Registriert: 04.11.2006, 16:50

Beitrag von domainsnake » 08.11.2009, 00:50

Hi All,
also mitlerweile habe ich ja herausgefunden das der Megatraffic von Bots hervorgerufen wird. Daraufhin habe ich in der robots.txt erstmal nur den 5 bekannten Suchmaschinen den Zugriff erlaubt. Sieht so aus:

User-agent: Googlebot
Disallow:
User-agent: Googlebot-Image
Disallow:
User-agent: Mediapartners-Google
Disallow:
User-agent: Mediapartners-Google/2.1
Disallow:
User-agent: MSNBot
Disallow:
Crawl-delay: 20
User-agent: Slurp
Disallow:
Crawl-delay: 20
User-agent: msnbot/1.0
Disallow:
User-agent: Yandex bot
Disallow:
User-agent: Ask
Disallow:
User-agent: Yahoo
Disallow:
User-agent: *
Disallow: /

Scheint auch zu funktionieren, denn leider werden mir in Parallels Confixx nun keine Statistiken mehr angezeigt. :( Weiß jemand Rat wie ich das machen kann? Vielleicht so?

User-agent: Parrallels Confixx
Disallow:

Hab da leider keine Ahnung, wie ichs machen muß. Aber das nur nebenbei zur robots.txt, denn mein Hauptaugenmerk liegt auf der .htaccess Ich habe viele Varianten gefunden, und möchte die in einer Datei kombinieren, falls das machbar ist. Als erstes möchte ich manuell bestimmte Ips sperren können. So sah der Abschnitt aus:

Order Allow,Deny
Allow from all
Deny from 64.239.138.76 # referrer spambot
Deny from 66.6.223.190 # referrer spambot
Deny from 62.3.66.231 # bad bot
Deny from 217.67.244.33 # referrer spambot (sexnet24.tv)

Desweiteren würde ich gerne eine Spamliste mit einfügen. Sah so aus.

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} ^asterias [OR]
RewriteCond %{HTTP_USER_AGENT} ^BackDoorBot [OR]
RewriteCond %{HTTP_USER_AGENT} ^BackWeb [OR]
RewriteCond %{HTTP_USER_AGENT} ^Bandit [OR]
RewriteCond %{HTTP_USER_AGENT} ^BatchFTP [OR]
RewriteCond %{HTTP_USER_AGENT} ^BlackWidow [OR]
RewriteCond %{HTTP_USER_AGENT} ^BlowFish [OR]
RewriteCond %{HTTP_USER_AGENT} ^BotALot [OR]
RewriteCond %{HTTP_USER_AGENT} ^Buddy [OR]
RewriteCond %{HTTP_USER_AGENT} ^BuiltBotTough [OR]
RewriteCond %{HTTP_USER_AGENT} ^CheeseBot [OR]
RewriteCond %{HTTP_USER_AGENT} ^CherryPicker [OR]
RewriteCond %{HTTP_USER_AGENT} ^ChinaClaw [OR]
RewriteCond %{HTTP_USER_AGENT} ^Collector [OR]
RewriteCond %{HTTP_USER_AGENT} ^contype [OR]
RewriteCond %{HTTP_USER_AGENT} ^Copier [OR]
RewriteCond %{HTTP_USER_AGENT} ^CopyRightCheck [OR]
RewriteCond %{HTTP_USER_AGENT} ^cosmos [OR]
RewriteCond %{HTTP_USER_AGENT} ^Crescent [OR]
RewriteCond %{HTTP_USER_AGENT} ^Custo [OR]
RewriteCond %{HTTP_USER_AGENT} ^DISCo\Pump [OR]
RewriteCond %{HTTP_USER_AGENT} ^Download\ Demon [OR]
RewriteCond %{HTTP_USER_AGENT} ^Download\Wonder [OR]
RewriteCond %{HTTP_USER_AGENT} ^Downloader [OR]
RewriteCond %{HTTP_USER_AGENT} ^Drip [OR]
RewriteCond %{HTTP_USER_AGENT} ^DTS\ Agent [OR]
RewriteCond %{HTTP_USER_AGENT} ^eCatch [OR]
RewriteCond %{HTTP_USER_AGENT} ^EirGrabber [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailWolf [OR]
RewriteCond %{HTTP_USER_AGENT} ^Express\ WebPictures [OR]
RewriteCond %{HTTP_USER_AGENT} ^ExtractorPro [OR]
RewriteCond %{HTTP_USER_AGENT} ^EyeNetIE [OR]
RewriteCond %{HTTP_USER_AGENT} ^Foobot [OR]
RewriteCond %{HTTP_USER_AGENT} ^GetRight [OR]
RewriteCond %{HTTP_USER_AGENT} ^GetSmart [OR]
RewriteCond %{HTTP_USER_AGENT} ^GetWeb! [OR]
RewriteCond %{HTTP_USER_AGENT} ^Go!Zilla [OR]
RewriteCond %{HTTP_USER_AGENT} ^Go-Ahead-Got-It [OR]
RewriteCond %{HTTP_USER_AGENT} ^GornKer [OR]
RewriteCond %{HTTP_USER_AGENT} ^gotit [OR]
RewriteCond %{HTTP_USER_AGENT} ^Grabber [OR]
RewriteCond %{HTTP_USER_AGENT} ^GrabNet [OR]
RewriteCond %{HTTP_USER_AGENT} ^Grafula [OR]
RewriteCond %{HTTP_USER_AGENT} ^HMView [OR]
RewriteCond %{HTTP_USER_AGENT} ^humanlinks [OR]
RewriteCond %{HTTP_USER_AGENT} ^ia_archiver [OR]
RewriteCond %{HTTP_USER_AGENT} ^iCCrawler [OR]
RewriteCond %{HTTP_USER_AGENT} ^ichiro [OR]
RewriteCond %{HTTP_USER_AGENT} ^Image\ Stripper [OR]
RewriteCond %{HTTP_USER_AGENT} ^Image\ Sucker [OR]
RewriteCond %{HTTP_USER_AGENT} ^InfoNaviRobot [OR]
RewriteCond %{HTTP_USER_AGENT} ^InsurancoBot [OR]
RewriteCond %{HTTP_USER_AGENT} ^InterGET [OR]
RewriteCond %{HTTP_USER_AGENT} ^Internet\ Ninja [OR]
RewriteCond %{HTTP_USER_AGENT} ^Iria [OR]
RewriteCond %{HTTP_USER_AGENT} ^JennyBot [OR]
RewriteCond %{HTTP_USER_AGENT} ^JetCar [OR]
RewriteCond %{HTTP_USER_AGENT} ^JOC\ Web\ Spider [OR]
RewriteCond %{HTTP_USER_AGENT} ^Kenjin\.Spider [OR]
RewriteCond %{HTTP_USER_AGENT} ^lftp [OR]
RewriteCond %{HTTP_USER_AGENT} ^likse [OR]
RewriteCond %{HTTP_USER_AGENT} ^LinkextractorPro [OR]
RewriteCond %{HTTP_USER_AGENT} ^LinkScan\/8\.1a\.Unix [OR]
RewriteCond %{HTTP_USER_AGENT} ^LinkWalker [OR]
RewriteCond %{HTTP_USER_AGENT} ^Magnet [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mag-Net [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mass\ Downloader [OR]
RewriteCond %{HTTP_USER_AGENT} ^Memo [OR]
RewriteCond %{HTTP_USER_AGENT} ^MIDown\ tool [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mirror [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mister\ PiX [OR]
RewriteCond %{HTTP_USER_AGENT} ^Navroad [OR]
RewriteCond %{HTTP_USER_AGENT} ^NearSite [OR]
RewriteCond %{HTTP_USER_AGENT} ^Net\ Vampire [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetAnts [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetSpider [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetZIP [OR]
RewriteCond %{HTTP_USER_AGENT} ^oegp [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline\ Explorer [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline\ Navigator [OR]
RewriteCond %{HTTP_USER_AGENT} ^Openfind [OR]
RewriteCond %{HTTP_USER_AGENT} ^PageGrabber [OR]
RewriteCond %{HTTP_USER_AGENT} ^Papa\ Foto [OR]
RewriteCond %{HTTP_USER_AGENT} ^pavuk [OR]
RewriteCond %{HTTP_USER_AGENT} ^pcBrowser [OR]
RewriteCond %{HTTP_USER_AGENT} ^Pockey [OR]
RewriteCond %{HTTP_USER_AGENT} ^ProWebWalker [OR]
RewriteCond %{HTTP_USER_AGENT} ^Pump [OR]
RewriteCond %{HTTP_USER_AGENT} ^QueryN.Metasearch [OR]
RewriteCond %{HTTP_USER_AGENT} ^RealDownload [OR]
RewriteCond %{HTTP_USER_AGENT} ^Reaper [OR]
RewriteCond %{HTTP_USER_AGENT} ^Recorder [OR]
RewriteCond %{HTTP_USER_AGENT} ^ReGet [OR]
RewriteCond %{HTTP_USER_AGENT} ^RMA [OR]
RewriteCond %{HTTP_USER_AGENT} ^Siphon [OR]
RewriteCond %{HTTP_USER_AGENT} ^SiteSnagger [OR]
RewriteCond %{HTTP_USER_AGENT} ^SmartDownload [OR]
RewriteCond %{HTTP_USER_AGENT} ^Snake [OR]
RewriteCond %{HTTP_USER_AGENT} ^SpaceBison [OR]
RewriteCond %{HTTP_USER_AGENT} ^Stripper [OR]
RewriteCond %{HTTP_USER_AGENT} ^Sucker [OR]
RewriteCond %{HTTP_USER_AGENT} ^SuperBot [OR]
RewriteCond %{HTTP_USER_AGENT} ^SuperHTTP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Surfbot [OR]
RewriteCond %{HTTP_USER_AGENT} ^Web\ Image\ Collector [OR]
RewriteCond %{HTTP_USER_AGENT} ^Web\ Sucker [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebAuto [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebCopier [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebFetch [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebGo\ IS [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebLeacher [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebReaper [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebSauger [OR]
RewriteCond %{HTTP_USER_AGENT} ^Website\ eXtractor [OR]
RewriteCond %{HTTP_USER_AGENT} ^Website\ Quester [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebStripper [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebWhacker [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZIP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Wget [OR]
RewriteCond %{HTTP_USER_AGENT} ^Whacker [OR]
RewriteCond %{HTTP_USER_AGENT} ^Widow [OR]
RewriteCond %{HTTP_USER_AGENT} ^WWWOFFLE [OR]
RewriteCond %{HTTP_USER_AGENT} ^Xaldon\ WebSpider [OR]
RewriteCond %{HTTP_USER_AGENT} ^ZipppBot [OR]

RewriteRule ^.* - [F]


Dann würde ich gerne meine Bildverzeichnisse gegen Bilderklau sichern.

RewriteEngine on
RewriteCond %{HTTP_REFERER} !^$
RewriteCond %{HTTP_REFERER} !^http://(www\.)?anglerzeitung\.de(/.*)?$ [NC]

RewriteCond %{HTTP_REFERER} !search [NC]
RewriteCond %{HTTP_REFERER} !google [NC]
RewriteCond %{HTTP_REFERER} !yahoo [NC]
RewriteCond %{HTTP_REFERER} !bing [NC]

RewriteRule \.(gif|jpg|png|pdf|GIF|JPG|PNG|PDF)$ https://www.anglerzeitung.de/__extern/geklaut.gif [R,L]

Und dies hier stand ganz ürsprünglich in meiner htaccess Datei:

RewriteEngine On
# RewriteBase /
RewriteRule ^([0-9]*)-([0-9]*)- https://www.anglerzeitung.de/index.php? ... ERY_STRING}

ErrorDocument 404 https://www.anglerzeitung.de/
ErrorDocument 403 https://www.anglerzeitung.de/
ErrorDocument 500 https://www.anglerzeitung.de/


Also meine grosse Preisfrage, wie kann ich daraus eine funktionierende .htaccess Datei machen, welche funktioniert und alle Bestandteile erhält. ??? Hab zwar schon selber rumprobiert, komm aber nicht weiter. Vielleicht kann jemand helfen und eventuell ist so eine Datei ja auch für andere User hier von Nutzen. Danke schonmal und viele Grüße.
Marco

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 08.11.2009, 11:35

Vorneweg: Das hier …

Bild

… kann nicht wirklich dein Ernst sein. Über 900k an Daten und fast eine halbe Minute Ladezeit (die sich wohlgemerkt zu einem Gutteil alleine daraus ergibt, dass so viele Einzelposten abgearbeitet werden müssen). Die Masse, von der Zeit gar nicht zu reden, ist schon für sich jenseits von Gut und Böse, und wenn ich mir dann noch anschaue, dass du für die Übertragung von bummelig 8000 Zeichen Text 930.000 Bytes durch die Leitung schiebst … nee, wirklich.

Wenn du irgendwo anfangen willst, das Übertragungsvolumen zu verringern, dann hier.
Wirf insbesondere die ganzen Füllbilder raus (Partner, Feedback, Quicknavi, Gewinnspiel, Buchvorschlag, etc), die, außer laut BUNT! zu schreien, keine nennenswerte Funktion haben.
Grafiken solltest du tunlichst optimiert speichern, dein quader.gif Bild ist fast sechsmal so groß wie für Bild notwendig wäre. Es sind zwar nur ein paar Hundert Bytes, aber Kleinvieh macht auch Mist, insbesondere in einer Herde von 178 Stück.
Die Bilder in der Mitte (Fischrekorde, Rolle zu verkaufen, etc) sehen grausig aus, JPEG ist für Text ungeeignet. Speichere solche Bilder ohne Text, auch damit kannst du wieder überflüssiges Volumen einsparen.
domainsnake hat geschrieben:Daraufhin habe ich in der robots.txt erstmal nur den 5 bekannten Suchmaschinen den Zugriff erlaubt.
[…]
leider werden mir in Parallels Confixx nun keine Statistiken mehr angezeigt. :( Weiß jemand Rat wie ich das machen kann? Vielleicht so?

User-agent: Parrallels Confixx
Disallow:
Confixx wird auf deine Seiten kaum mit einem Bot zugreifen (und falls doch, sind das vermutlich überflüssige Statistiken). Da musst du irgendwas anderes verbockt haben.
Order Allow,Deny
Allow from all
Deny from 64.239.138.76 # referrer spambot
Technisch richtig, muss aber gepflegt werden. IPs ändern sich, pöse Puben kommen und gehen. Wenn du da wochenlang nicht nachschaust, sowohl, ob es neue Wichte gibt, als auch, ob alte Wichte noch auftreten, ist das überflüssige Liebesmüh'.
Desweiteren würde ich gerne eine Spamliste mit einfügen. Sah so aus.

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^asterias [OR]
[weitere 123 belanglose Namen]
RewriteCond %{HTTP_USER_AGENT} ^ZipppBot [OR]

RewriteRule ^.* - [F]
Die .htaccess wird bei jedem einzelnen Zugriff neu eingelesen. Wenn deine Startseite aus 100 einzelnen URLs besteht (was selbst bei aktiviertem Cache gut möglich ist, siehe oben), dann muss der ganze Müll hundertmal eingelesen werden und bis deine Seite aufgebaut ist, hat der Server 12.500 mal dieselbe Browserkennung geprüft. Das ist Irrsinn. Punkt.

Weißt du überhaupt, ob alle diese Bots bei dir vorbeischauen, es sieht so aus, als wenn du die Liste einfach irgendwoher kopiert hast? Am Ende verursachst du mit so einer Aktion mehr Last auf dem Server als durch diese paar Bots erzeugt wird. Ich behaupte mal glattweg, dass die tatsächliche Bot-Last gleich Null ist, falls du die Liste wirklich ohne Prüfung übernommen hast.

Es kommt noch hinzu, dass diese Namen wie ein Pups im Orkan sind. Das ist Spielzeug, jederzeit änderbar und wirklich schlaue Leute übermitteln einfach die Kennung eines normalen Browsers, anstatt laut "Ich bin ein Bot, lass' mich rein!" zu grölen.

Langer Rede, kurzer Sinn: Bevor du irgendwas aussperrst, analysiere erstmal dein Zugriffsprotokoll und sperre dann per Deny die paar IP-Adressen, die tatsächlich bei dir Amok laufen.
Dann würde ich gerne meine Bildverzeichnisse gegen Bilderklau sichern.

RewriteEngine on
RewriteCond %{HTTP_REFERER} !^$
RewriteCond %{HTTP_REFERER} !^http://(www\.)?anglerzeitung\.de(/.*)?$ [NC]

RewriteCond %{HTTP_REFERER} !search [NC]
RewriteCond %{HTTP_REFERER} !google [NC]
RewriteCond %{HTTP_REFERER} !yahoo [NC]
RewriteCond %{HTTP_REFERER} !bing [NC]

RewriteRule \.(gif|jpg|png|pdf|GIF|JPG|PNG|PDF)$ https://www.anglerzeitung.de/__extern/geklaut.gif [R,L]
Für meinen Geschmack etwas aufwendig, zudem täte ich denen ganz einfach ein Forbidden (RewriteRule-Option F, siehe Anleitung) vorsetzen und kein anderes Bild, aber man kann's so machen.
Das ist Bockmist. Du unterdrückst damit wichtige Fehlermeldungen. Insbesondere das Unterdrücken des 404 hat dazu geführt, dass Suchmaschinen-Bots jetzt noch mehr Abfragen machen müssen, um herauszufinden, ob eine Seite tatsächlich nicht vorhanden ist oder wirklich umgeleitet werden soll.

domainsnake
PostRank 6
PostRank 6
Beiträge: 415
Registriert: 04.11.2006, 16:50

Beitrag von domainsnake » 08.11.2009, 15:10

Ja, ich stimme natürlich zu bezüglich der Ladezeit. Da hab ich auch schon intensiv dran gearbeitet. Letztlich hab ich 3/4 der Dateien schon ausgetauscht durch stärker optimierte Bilder, statt jpg gif Bilder etc. Dabei bin ich in der Reihenfolge vorgegangen wie die Größe der Bilder ist. Die vielen "dicken" Klopse hab ich bereits ausgetauscht. Etliche Kleinere sind schon fertig, müssen nur noch hochgeladen werden. Programmiertechnisch stehen auch noch Optimierungen auf der Liste. Memberbilder werden zwar beispielsweise skaliert aber (noch) nicht automatisch komprimiert. Im Augenblick sind da tatsächlich noch einige Dinger drin, wo man sich die Augen reibt. Besagtes Beispiel von dir zum Beispiel. Weiß auch nicht was mich bei einigen Grafiken geritten hat. Da kann ich ja froh sein, daß du das absolut schlimmste Beispiel nicht gefunden hast. :) Eine 2Pixel Grafik in schwarz/weiss mit mehreren kb. Auweia. Aber wie gesagt sind fertig und müssen nur noch hochgeladen werden. Wird auf dem Grafiksektor insgesamt nicht sooo viel mehr bringen aber wie du schon sagst, Kleinvieh macht auch Mist. So einen Check mit Anzeige der Ladezeit find ich übrigens für die Einzelbestandteile sehr interessant. Was ist das für ein Ladezeit Checkerprogramm?

Die Anzeigen von Amazon hab ich gestern erst reingemacht, weil ich vom Ebay Partnerprogramm von meiner Anmeldung schon seit über 2 Wochen nix mehr gehört hab. Vielleicht auch ganz gut so, weil der Verdienst bei Ebay ja eh nicht mehr gut sein soll, aber das ist ein anderes Thema. Auf jeden Fall sind die Ladezeit Werte von Amazon ja krass, im Gegensatz zu den anderen Dingen. Aber was ausser Amazon wieder runterschmeissen kann man da machen?

Viel Optimierungspotenzial liegt in den ganzen Scripten, CSS, Html und so. Allein das jquery lutscht 120kb und so weiter. Das steht aber auch alles noch auf der Liste. Übrigens auch diese Füllbilder, da wo momentan oben noch Text in der jpg mit drin ist. Hab auch festgestellt das es zuviel kb frisst, aber weil das programmiert ist, kann ich das net selber machen und deswegen dauert es. Der Buchvorschlag kommt raus, der steht momentan nur Dummymässig da.

Äh, nee. Seit dem Tag, wo ich die robots.txt verändert habe wie in meinem Beispiel angegeben geht da nix mehr. Was heißt überflüssige Statistiken, würd schon den Trafficverbrauch gerne wissen und auch die vielen anderen Statistiken sind wichtig und nützlich.

Hmm, da hast du vermutlich Recht mit das es Unsinn ist. Aber irgendwie muss man sich doch gegen die bösen Bots schützen. Ich habe jetzt aber eine weitere Alternative mit Bot Trap gefunden. Dennoch hab ich gedacht, ist es nicht verkehrt, wenn man die Möglichkeit hat manuell zu sperren. Das erste Beispiel ist kopiert und sollt nur aufzeigen, wie jemand anderes gelöst hat. Da würde ich dann natürlich selber eine Ip eintragen, welche augenscheinlich Schindluder bei mir treibt.

Ok, das seh ich ein mit der grossen Liste, welche ich da gefunden habe. Mit Bot Trap werd ich besser und schneller geschützt sein denk ich mal. Also kann ich das wohl weglassen. Dennoch im Augenblick bin ich da nicht freigeschaltet und etwas hilflos in der Identifikation des bots oder robots der da bei mir für so viel Traffic sorgt. Die Ip taucht im Logfile nicht auf, sondern die vom Webhoster. Wie soll ich also den Zugriff verweigern, wenn ich die Identität nicht weiss ???

Das mit dem Bild finde ich nicht schlecht gegen Bilderklau, dann kann man ganz leicht in den Logfiles danach suchen und den Klauer identifizieren. Wenn es denn so funktioniert.

Hmm, also ich hab das nicht selber geschrieben mit den Error Dokumenten. Also sollten die weggelassen werden denk ich mal.

Ich bitte außerdem um etwas Nachsicht. Ist mein erstes großes Projekt und ich versuch alles so gut wie möglich zu machen. Leider bin ich kein Programmierer und wenn da Mist gebaut wird, kann ich es schlecht kontrollieren. Deshalb bin ich auch noch auf eure Hilfe angewiesen. Wichtigestes Problem neben der Ladezeit ist momentan erst mal der Überdimensionale Trafficverbrauch und da komm ich nicht weiter. Laut Logfile werden immer die gleichen Bilddateien runtergeladen, es steht aber immer nur die Ip vom Webhoster dabei und nicht vom Bot der was runterlädt. Ich kann den Zugriff also nicht per Order Deny sperren so wie es aussieht. Was kann ich da also machen?