Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Site-Analyse-Aggregatoren sperren?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 04.06.2011, 13:23

Hat hier schon jemand Möglichkeiten gefunden,

Site-Analyse-Aggregatoren wie Webwiki, etc. zu sprren?

So wie ich die analysiert habe, dürfte eine einfache IP-Sperre wohl kaum helfen :(

Nerviger Müll in den SERPs muss nicht noch unterstützt werden :bad-words:

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


andre1966
PostRank 6
PostRank 6
Beiträge: 448
Registriert: 17.01.2005, 15:50

Beitrag von andre1966 » 04.06.2011, 14:18

hi chris hab auch jede menge davon.

schau mal hier:

https://www.bot-trap.de/home/

gruß andre

Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 04.06.2011, 14:29

@andre1966
Die Bot-Trap hilft da leider nicht wirklich viel. Habe die schon Jahre drauf und dennoch hunderte von diesen "Site-Analyse-Aggregatoren". Netter Name... Ich nenne die einfach Diebe, da sie Seiteninhalte, Navigation, Meta-Daten und noch vieles mehr einfach kopieren.

Die Bot-Trap sperrt da leider nur die wenigsten und viele nutzen ohnehin Alexa als Datenquelle.
Zuletzt geändert von Synonym am 04.06.2011, 14:31, insgesamt 1-mal geändert.

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 04.06.2011, 14:29

Hi,

Bot-Trap kenne ich. Dafür müssten aber die Site-Aggregatoren, die ich meine, wirklich auf eine Site zugreifen.

Oft werden aber nur Daten von woanders verwurschtelt - Whois, etc. Dagegen wird auch der Bot-Trap nicht helfen. :(

Daher wollte ich nach weiteren Erfahrungen fragen.

Zumindest URLPlus bietet die Möglichkeit des manuellen Austragens - so ein Weg ist aber bei der Menge an Misttools im Netz nicht befriedigend.

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 04.06.2011, 14:31

@Synonym: genau so siehts aus. Diebe trifft es natürlich auch ;)

andre1966
PostRank 6
PostRank 6
Beiträge: 448
Registriert: 17.01.2005, 15:50

Beitrag von andre1966 » 04.06.2011, 14:34

Mal weiter schauen was ich so rumliegen habe.
Vielleicht ist ja etwas dabei.

Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 04.06.2011, 14:34

Ich denke mal, dass man da nicht wirklich was gegen machen kann, zumindest habe ich noch nichts gefunden. Eigentlich stört es mich auch nicht, wenn es wenigstens einen Link gibt, aber den sparen sich ja auch viele.

Allerdings hasse ich es, wenn die dann auch noch Adressdaten und Serversoftware-Arten veröffentlichen. Muss ja nicht jeder gleich auf Anhieb wissen.

Die Daten kommen aus Alexa, dann wie Du schon sagtes aus den whois. Andere Daten kommen direkt von der Seite, wobei das "direkt" da dann nicht wörtlich zu nehmen ist. Habe das mal mit einem Dienst versucht. Der hatte die Daten meiner Seite (Navi, Überschriften, Textauszüge etc), aber ich keinen Zugriff von denen, zumindest keinen erkennen können. Vielleicht gehen die über einen Proxy, über Cache-Versionen oder weiß der Geier was...

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 17.06.2011, 09:52

Die könnten z.B. den Googlecache abfragen, um html zu ziehen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag