Als allererstes solltest du dem betreffenden Seitenbetreiber eine freundliche, aber bestimmte Aufforderung zukommen lassen, doch bitte zukünftig das Auslesen zu unterlassen. Das ist schnell und bequem, denn meiner Erfahrung nach reagieren überraschend viele darauf. Selbst Seitenklauer offenbaren statt Böswilligkeit eine erstaunliche Unbedarftheit.
Aber bitte: Auch wenn's ärgerlich ist, nicht ausfallend werden, sondern höflich bleiben.
Falls nichts passiert bzw. nichts in deinem Sinne, musst du feststellen, wie deine Seiten ausgelesen werden. Dass kann von der IP-Adresse des Servers aus passieren, muss aber nicht. Nur ein forschender Blick in dein Zugriffsprotokoll hilft dir da weiter. Ein bestimmtes Programm, das auf dem Server läuft, kannst du so jedoch nicht sperren, du siehst nur die IP.
Im Protokoll findest du auch den User-Agent-Eintrag (Browser und Bots schicken üblicherweise bei jedem Zugriff ihren Namen mit, der landet dann ebenso üblicherweise im Protokoll). Allerdings gilt hier genauso wie bei der IP-Adresse: Das kann eindeutig sein, muss aber nicht. Die Kennung ist frei wählbar, hinter 'Mozilla/5.0 (Windows; U; Windows NT 5.1; de; rv:1.9.0.1) Gecko/2008070208 Firefox/3.0.1' kann sich ein aktueller Firefox auf XP verstecken, es kann aber genauso gut ein Spambot sein, der E-Mail-Adressen sammelt.
Langer Rede, kurzer Sinn: Nach besagter Kontaktaufnahme versuche erstmal die tatsächliche IP der Zugriffe und die mitgelieferte Kennung rauszufinden. Dann kannst du weitersehen, welche Maßnahmen sinnvoll sind.
IPs sperrst du mit
Deny. Nach Kennung zu filtern, ist ein klitzekleinwenig aufwändiger:
SetEnvIf User-Agent ^RSS-Lesebot 0\.8\.15$ botsperre
Deny from env=botsperre
(Siehe auch
https://httpsd.apache.org/docs/2.2/mod/ ... html#allow, letztes Beispiel.)
Andere Möglichkeiten als die hier genannten drei hast du in jedem Falle aber nicht.