Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Content Klau - HTTP_USER_AGENT Liste ?!

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Jarez
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 14.02.2004, 12:15
Wohnort: Göttingen

Beitrag von Jarez » 19.01.2006, 20:04

Hallo zusammen,

ich beschäftige mich im Moment mit dem Content Klau und wie ich das auf meinen Seiten verhindern oder zumindest eindämmen kann. Es scheint ja vielen Webmastern so zu gehen, das Webseiten (fast) komplett kopiert werden ... die Texte 1:1 übernommen werden und meist auch direkt die Bilder mit übernommen werden.

Programme wie Mister Pix, Website Copier usw. in allen Ausführungen ...

Eindämmen kann man das Problem ja mittels der .htaccess und
...
RewriteCond %{HTTP_USER_AGENT} ^Mister\ PiX [OR]
...

Wenn sich die Leute Bilder zum "Eigenbedarf" runterladen und viel Traffic verursachen ist es ja schon ärgerlich aber wenn andere Webmaster auf diesem Wege schnell den Content abgrasen finde ich es viel ätzender.

Gibt es denn eine Liste von wichtige HTTP_USER_AGENT's die man getrost sperren kann bzw. sperren sollte, damit man seinen Content nicht nächste Woche auf allen andere Seiten im Web sieht?

Eine sehr umfangreiche Liste ist ja hier:
https://www.abakus-internet-marketing.d ... agent.html

Sind das so in etwa die wichtigsten?!

Die "vernünftigen" SuMa Bots (wie Google usw.) beeinträchtigt so etwas ja nicht, oder??

Der Mozilla Kram kann doch raus, oder??

Gruss
Jarez