Hi,
Es sind schon wieder unerwünschte Webbots über meine Site hergefallen. Da wird - schwupps - die ganze Site gezogen und einige Tage später finde ich eine neue Scrapersite mit Textstücken aus meiner Site. Die sind dann natürlich auch so frei und verlinken auf die Konkurrenz.
Der Witz ist, wenn ich den User-Agent vom Bot sperre kommt er manchmal als Internet Explorer oder Mozilla wieder, IP bleibt dabei gleich, für jede Attacke kommt er aber mit einer anderen IP.
Jetzt suche ich nach einer Lösung mit .htaccess: Wenn bestimmte User-Agents wiederkommen, möchte ich, dass eine komplett andere Site voller Müll angezeigt wird und nicht meine eigentliche Site, also Cloaking für bestimmte User-Agents. Die Müllseite wird per Script generiert.
Dabei wäre es schön, wenn auch der Root-Url https://example.com/
je nach User-Agent unterschiedlichen Inhalt hat, damit es wie eine richtige Site aussieht.
Hat jemand eine Ahnung wie man so etwas umsetzen kann? Oder so etwas schon mal gemacht? Oder ist die Idee schlecht?