Seite 1 von 1

Crawler aussperren wegen traffic - aber welche?

Verfasst: 16.02.2006, 17:51
von Nasirea
Hi Forum,
mittlerweile komme ich auf sehr viel traffic durch Crawler, Bots, Backlinkchecker usw. usw. usw.

Natürlich möchte ich in so vielen Suchmaschinen wie möglich gut gelistet sein, aber der Traffic nimmt mittlerweile Ausmaße an, die ich eigentlich nicht mehr lustig finde (fast 4 Gig im Monat). Jetzt möchte ich die absolut sinnlosen Crawler (und vor allem Content-Klau-Bots, Email-Sniffer und Adress-Hunter) ausschließen über die robots.txt und ein eigenes Modul, dass je nach Agent oder IP ins Nirwana weiterleitet. Aber wie soll ich selektieren?

Hat jemand von euch eine Liste (oder Adresse) mit den schwarzen Schafen?


mfg

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Crawler aussperren wegen traffic - aber welche?

Verfasst: 16.02.2006, 18:09
von Malte Landwehr
Hier könntest du einige böse Buben finden: https://www.abakus-internet-marketing.de/robots.txt

Böse Buben

Verfasst: 16.02.2006, 18:51
von Nasirea
ah ja, genau sowas habe ich gesucht...

danke

Verfasst:
von

Verfasst: 17.02.2006, 22:35
von willy
Ich frage mich, wie Ihr die bots seht. Mein pphlogger zeigt mir nur echte Besucher an :o.

Weiterhin frage ich mich angesichts der robots.txt von abakus, ob nicht eine Positiv-Liste besser wäre - doch unter welchen Namen spidert z.B. google?

Grüße, Willy

Verfasst: 17.02.2006, 22:39
von matin
willy hat geschrieben:Ich frage mich, wie Ihr die bots seht. Mein pphlogger zeigt mir nur echte Besucher an :o.
entweder in den logfiles oder mit einem php-statistik tool (z. b. webreflow) o

Crawler aussperren wegen traffic - aber welche?

Verfasst: 17.02.2006, 23:42
von Hasso

Crawler aussperren wegen traffic - aber welche?

Verfasst: 19.02.2006, 08:38
von AGB
ich habe auf meiner website sehr viele pdf dateien, die aber nur aus bildern bildern bestehen, also keine indizierbaren texte enthalten.
wie kann ich die bots am besten daran hindern, diese pdfs zu saugen?

Re: Crawler aussperren wegen traffic - aber welche?

Verfasst: 19.02.2006, 13:04
von Hasso
@AGB
Für die Robots, die sich an die "robots.txt" - Datei halten wäre dies hier denkbar:

Code: Alles auswählen

User-agent: *
Disallow: /*.pdf$
oder lege die alle .pdf´s in einen extra Ordner z.B. "ordner1" und sperre diesen:

Code: Alles auswählen

User-agent: *
Disallow: /ordner1/
Für alle derjenigen Robots, die sich an die "robots.txt" - Datei nicht halten, helfen die Tipps aus den von mir oben erwähnten Threads (.htaccess - Lösungen)

Grüsse
Hasso