Seite 1 von 1
Site-Analyse-Aggregatoren sperren?
Verfasst: 04.06.2011, 13:23
von chris21
Hat hier schon jemand Möglichkeiten gefunden,
Site-Analyse-Aggregatoren wie Webwiki, etc. zu sprren?
So wie ich die analysiert habe, dürfte eine einfache IP-Sperre wohl kaum helfen
Nerviger Müll in den SERPs muss nicht noch unterstützt werden

Verfasst: 04.06.2011, 14:18
von andre1966
hi chris hab auch jede menge davon.
schau mal hier:
https://www.bot-trap.de/home/
gruß andre
Verfasst: 04.06.2011, 14:29
von Synonym
@andre1966
Die Bot-Trap hilft da leider nicht wirklich viel. Habe die schon Jahre drauf und dennoch hunderte von diesen "Site-Analyse-Aggregatoren". Netter Name... Ich nenne die einfach Diebe, da sie Seiteninhalte, Navigation, Meta-Daten und noch vieles mehr einfach kopieren.
Die Bot-Trap sperrt da leider nur die wenigsten und viele nutzen ohnehin Alexa als Datenquelle.
Verfasst: 04.06.2011, 14:29
von chris21
Hi,
Bot-Trap kenne ich. Dafür müssten aber die Site-Aggregatoren, die ich meine, wirklich auf eine Site zugreifen.
Oft werden aber nur Daten von woanders verwurschtelt - Whois, etc. Dagegen wird auch der Bot-Trap nicht helfen.
Daher wollte ich nach weiteren Erfahrungen fragen.
Zumindest URLPlus bietet die Möglichkeit des manuellen Austragens - so ein Weg ist aber bei der Menge an Misttools im Netz nicht befriedigend.
Verfasst: 04.06.2011, 14:31
von chris21
@Synonym: genau so siehts aus. Diebe trifft es natürlich auch

Verfasst: 04.06.2011, 14:34
von andre1966
Mal weiter schauen was ich so rumliegen habe.
Vielleicht ist ja etwas dabei.
Verfasst: 04.06.2011, 14:34
von Synonym
Ich denke mal, dass man da nicht wirklich was gegen machen kann, zumindest habe ich noch nichts gefunden. Eigentlich stört es mich auch nicht, wenn es wenigstens einen Link gibt, aber den sparen sich ja auch viele.
Allerdings hasse ich es, wenn die dann auch noch Adressdaten und Serversoftware-Arten veröffentlichen. Muss ja nicht jeder gleich auf Anhieb wissen.
Die Daten kommen aus Alexa, dann wie Du schon sagtes aus den whois. Andere Daten kommen direkt von der Seite, wobei das "direkt" da dann nicht wörtlich zu nehmen ist. Habe das mal mit einem Dienst versucht. Der hatte die Daten meiner Seite (Navi, Überschriften, Textauszüge etc), aber ich keinen Zugriff von denen, zumindest keinen erkennen können. Vielleicht gehen die über einen Proxy, über Cache-Versionen oder weiß der Geier was...
Verfasst: 17.06.2011, 09:52
von Nullpointer
Die könnten z.B. den Googlecache abfragen, um html zu ziehen.