Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Content Klau - HTTP_USER_AGENT Liste ?!

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Jarez
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 14.02.2004, 12:15
Wohnort: Göttingen

Beitrag von Jarez » 19.01.2006, 20:04

Hallo zusammen,

ich beschäftige mich im Moment mit dem Content Klau und wie ich das auf meinen Seiten verhindern oder zumindest eindämmen kann. Es scheint ja vielen Webmastern so zu gehen, das Webseiten (fast) komplett kopiert werden ... die Texte 1:1 übernommen werden und meist auch direkt die Bilder mit übernommen werden.

Programme wie Mister Pix, Website Copier usw. in allen Ausführungen ...

Eindämmen kann man das Problem ja mittels der .htaccess und
...
RewriteCond %{HTTP_USER_AGENT} ^Mister\ PiX [OR]
...

Wenn sich die Leute Bilder zum "Eigenbedarf" runterladen und viel Traffic verursachen ist es ja schon ärgerlich aber wenn andere Webmaster auf diesem Wege schnell den Content abgrasen finde ich es viel ätzender.

Gibt es denn eine Liste von wichtige HTTP_USER_AGENT's die man getrost sperren kann bzw. sperren sollte, damit man seinen Content nicht nächste Woche auf allen andere Seiten im Web sieht?

Eine sehr umfangreiche Liste ist ja hier:
https://www.abakus-internet-marketing.d ... agent.html

Sind das so in etwa die wichtigsten?!

Die "vernünftigen" SuMa Bots (wie Google usw.) beeinträchtigt so etwas ja nicht, oder??

Der Mozilla Kram kann doch raus, oder??

Gruss
Jarez

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 19.01.2006, 21:08

> Gibt es denn eine Liste von wichtige HTTP_USER_AGENT's die man getrost sperren kann bzw. sperren sollte,

Solange niemand mit anderen zusammenarbeiten will wird das nie was werden. Es gab da zwar schon Ansaetze wie auf disallow.de geschildert... anscheinend wird das Rad lieber laufend neu erfunden oder jeder broedelt was vor sich hin..

Wollte sowas auf https://www.bot-trap.de/ anbieten, aber da fehlt mir momentan ein Design und auch etwas die Zeit.. man muesste sich clonen koennen ;)
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 20.01.2006, 00:53

Solange niemand mit anderen zusammenarbeiten will
Von meiner Seite schon.