Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

twiceler aussperren - warum funktioniert das nicht?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
sword
PostRank 3
PostRank 3
Beiträge: 72
Registriert: 08.07.2006, 13:46

Beitrag von sword » 12.07.2007, 15:50

Hallo

Ich versuche seit einiger Zeit den Bot Twiceler auszusperren.

Als User Agent verwendet er:
mozilla/5.0 (twiceler-0.9 https://www.cuill.com/twiceler/robot.html)

und das hab ich in der htaccess stehen:

RewriteCond %{HTTP_USER_AGENT} Microsoft\ URL\ Control [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Snoopy.*$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^twiceler-0\.9.*$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^cazoodlebot.*$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^vwbot.*$ [NC]
RewriteRule .* - [F,L]

Habs auch schon mit RewriteCond %{HTTP_USER_AGENT} ^twiceler$ [NC,OR] und RewriteCond %{HTTP_USER_AGENT} ^twiceler.*$ [NC,OR] versucht.

Bei den anderen Bots funktioniert es. Nur twiceler kommt immer wieder. Was hab ich denn falsch gemacht?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 12.07.2007, 17:45

versuche es mal mit robots.txt ?

angeblich will er sich daran halten ... :roll:

https://www.newdy.org/
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

auftragslinker
PostRank 7
PostRank 7
Beiträge: 525
Registriert: 21.04.2005, 14:36

Beitrag von auftragslinker » 13.07.2007, 06:47

versuchs mal mit

Code: Alles auswählen

RewriteCond %{HTTP_USER_AGENT} ^.*\(twiceler-0\.9.*$ [NC,OR] 
;-)

Keyser Soze
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 07.09.2004, 08:58

Beitrag von Keyser Soze » 20.07.2007, 22:28

luzie hat geschrieben:versuche es mal mit robots.txt ?

angeblich will er sich daran halten ... :roll:

https://www.newdy.org/
Nein tut er definitiv nicht. Habe ich auf mehreren Servern am eigenen Leib erfahren.
[url=httpss://www.vermarktercheck.de]VermarkterCheck.de[/url] - Webseiten-Vermarkter im Vergleich

rudi_rennrad
PostRank 3
PostRank 3
Beiträge: 85
Registriert: 07.03.2006, 14:48

Beitrag von rudi_rennrad » 21.07.2007, 09:12

Schreib einfach ein freundliche Mail. Antwort kam innerhalb von 24h.
Dear Steffen,

Yankee-Deutsch-Sprake: Die Spinne ist getötet worden.

Twiceler is an experimental crawler that we are developing for a new search engine.
It is important to us that it obey robots.txt, and that it not crawl sites that do not wish to be crawled. I will add www.*******.de to our list of sites to exclude and I apologize for any inconvenience this has caused you.


Sincerely,


James Akers
Operations Engineer
Cuill, Inc.

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 21.07.2007, 11:54

Für genau solche Sachen hab ich die Spider Trap gebastelt !

reivax
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 26.05.2008, 08:42

Beitrag von reivax » 17.06.2008, 07:05

ich habe unter diesem link ein Tutorial erstellt wie jeder einfach und schnell zumindest den twiceler aussperren kann, auch wenn es bis zu 2 Wochen dauern kann bis der Twiceler selbst das ganze mit bekommt, und seine besuche unterlässt.
https://lu.olefaschool.org/courses/bots/

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag