Seite 1 von 1

webseite per htaccess blocken

Verfasst: 23.07.2008, 15:53
von pieti
Hallo!
Hab ne Frage zur IP.
Ich würde gerne die Seite rss-katalog.xxx per htaccess aussperren, finde aber unter ihrer IP mindestens 21 weitere Webseiten.
Wie kann ich es anstellen, dass eben nur diese eine Webseite gesperrt wird?

LG

Verfasst:
von

Re: webseite per htaccess blocken

Verfasst: 23.07.2008, 16:27
von Mork vom Ork
pieti hat geschrieben:Ich würde gerne die Seite rss-katalog.xxx per htaccess aussperren, finde aber unter ihrer IP mindestens 21 weitere Webseiten.
Wie kann ich es anstellen, dass eben nur diese eine Webseite gesperrt wird?
Wo bitte und warum möchtest du eine Webseite aussperren? Möchtest du nicht mehr auf diese Seite zugreifen? Oder sollen Besucher, die von dieser Seite kommen, bei dir vor verschlossenen Türen stehen? Oder möchtest du, dass der Dienst, der diese Webseite füttert, deine Seiten nicht mehr auslesen kann?

Verfasst: 23.07.2008, 16:41
von pieti
genau, dass er meine seite nicht mehr auslesen kann

Verfasst: 23.07.2008, 17:51
von net(t)worker
gibt es denn einen Grund warum die 21 anderen domains deine Site spidern/auslesen können sollen?

Verfasst: 23.07.2008, 18:00
von pieti
net(t)worker hat geschrieben:gibt es denn einen Grund warum die 21 anderen domains deine Site spidern/auslesen können sollen?

Es gibt IPs wo tausend Webseiten drauf sind. Soll ich wegen einer Seite alle sperren oder wie?

Verfasst: 23.07.2008, 18:08
von net(t)worker
wenn keine dabei ist die deine Seite auslesen können soll, spricht doch nix dagegen, oder?

Verfasst: 23.07.2008, 18:30
von pieti
Alle Sperren ist einfach keine Lösung. Außerdem weiß man auch nicht welche weiteren Websites auf die IP dazukommen

Gibt es eine Möglichkeit eine einzige Seite zu sperren oder nicht? Gibt's bei der IP noch eine Unterteilung oder haben alle HP's die genau idente?

Verfasst: 23.07.2008, 18:33
von net(t)worker
soweit ich weis musste immer eine ganze IP sperren... aber ggf. lässt sich noch über den User_Agent etwas machen....

Verfasst: 23.07.2008, 18:34
von pieti
Bin mit dem Thema nicht sonderlich vertraut...

User_Agent?

Verfasst: 23.07.2008, 19:28
von Mork vom Ork
Als allererstes solltest du dem betreffenden Seitenbetreiber eine freundliche, aber bestimmte Aufforderung zukommen lassen, doch bitte zukünftig das Auslesen zu unterlassen. Das ist schnell und bequem, denn meiner Erfahrung nach reagieren überraschend viele darauf. Selbst Seitenklauer offenbaren statt Böswilligkeit eine erstaunliche Unbedarftheit.
Aber bitte: Auch wenn's ärgerlich ist, nicht ausfallend werden, sondern höflich bleiben.

Falls nichts passiert bzw. nichts in deinem Sinne, musst du feststellen, wie deine Seiten ausgelesen werden. Dass kann von der IP-Adresse des Servers aus passieren, muss aber nicht. Nur ein forschender Blick in dein Zugriffsprotokoll hilft dir da weiter. Ein bestimmtes Programm, das auf dem Server läuft, kannst du so jedoch nicht sperren, du siehst nur die IP.

Im Protokoll findest du auch den User-Agent-Eintrag (Browser und Bots schicken üblicherweise bei jedem Zugriff ihren Namen mit, der landet dann ebenso üblicherweise im Protokoll). Allerdings gilt hier genauso wie bei der IP-Adresse: Das kann eindeutig sein, muss aber nicht. Die Kennung ist frei wählbar, hinter 'Mozilla/5.0 (Windows; U; Windows NT 5.1; de; rv:1.9.0.1) Gecko/2008070208 Firefox/3.0.1' kann sich ein aktueller Firefox auf XP verstecken, es kann aber genauso gut ein Spambot sein, der E-Mail-Adressen sammelt.

Langer Rede, kurzer Sinn: Nach besagter Kontaktaufnahme versuche erstmal die tatsächliche IP der Zugriffe und die mitgelieferte Kennung rauszufinden. Dann kannst du weitersehen, welche Maßnahmen sinnvoll sind.

IPs sperrst du mit Deny. Nach Kennung zu filtern, ist ein klitzekleinwenig aufwändiger:

SetEnvIf User-Agent ^RSS-Lesebot 0\.8\.15$ botsperre
Deny from env=botsperre

(Siehe auch https://httpsd.apache.org/docs/2.2/mod/ ... html#allow, letztes Beispiel.)

Andere Möglichkeiten als die hier genannten drei hast du in jedem Falle aber nicht.

Verfasst: 23.07.2008, 20:01
von pieti
Danke für die Antwort.

Angeschrieben habe ich sie eh schon, aber noch keine Reaktion. Mal schauen...

Verfasst: 23.07.2008, 21:04
von Mc-S
pieti hat geschrieben:Alle Sperren ist einfach keine Lösung. Außerdem weiß man auch nicht welche weiteren Websites auf die IP dazukommen

Gibt es eine Möglichkeit eine einzige Seite zu sperren oder nicht? Gibt's bei der IP noch eine Unterteilung oder haben alle HP's die genau idente?
Was genau spricht denn dagegen eine IP zu sperren auf der tausende Seiten sind? Diese Seiten werden ja nicht deine Seite einfach so ansurfen. :)
Wenn Besucher dort auf einen Link zu dir klicken haben die Besucher ja ihre eigene IP, das verursacht also auch keine Probleme. Linken können die auch trotzdem noch auf dich.

Stehe ich gerade auf der Leitung oder gibt es hier nichts was gegen eine Sperrung der IP spricht?