Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Crawler aussperren wegen traffic - aber welche?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Nasirea
PostRank 3
PostRank 3
Beiträge: 77
Registriert: 18.12.2005, 11:48
Wohnort: Schweinfurt

Beitrag von Nasirea » 16.02.2006, 17:51

Hi Forum,
mittlerweile komme ich auf sehr viel traffic durch Crawler, Bots, Backlinkchecker usw. usw. usw.

Natürlich möchte ich in so vielen Suchmaschinen wie möglich gut gelistet sein, aber der Traffic nimmt mittlerweile Ausmaße an, die ich eigentlich nicht mehr lustig finde (fast 4 Gig im Monat). Jetzt möchte ich die absolut sinnlosen Crawler (und vor allem Content-Klau-Bots, Email-Sniffer und Adress-Hunter) ausschließen über die robots.txt und ein eigenes Modul, dass je nach Agent oder IP ins Nirwana weiterleitet. Aber wie soll ich selektieren?

Hat jemand von euch eine Liste (oder Adresse) mit den schwarzen Schafen?


mfg

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 16.02.2006, 18:09

Hier könntest du einige böse Buben finden: https://www.abakus-internet-marketing.de/robots.txt
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

Nasirea
PostRank 3
PostRank 3
Beiträge: 77
Registriert: 18.12.2005, 11:48
Wohnort: Schweinfurt

Beitrag von Nasirea » 16.02.2006, 18:51

ah ja, genau sowas habe ich gesucht...

danke

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


willy
PostRank 4
PostRank 4
Beiträge: 161
Registriert: 20.08.2005, 14:47

Beitrag von willy » 17.02.2006, 22:35

Ich frage mich, wie Ihr die bots seht. Mein pphlogger zeigt mir nur echte Besucher an :o.

Weiterhin frage ich mich angesichts der robots.txt von abakus, ob nicht eine Positiv-Liste besser wäre - doch unter welchen Namen spidert z.B. google?

Grüße, Willy

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 17.02.2006, 22:39

willy hat geschrieben:Ich frage mich, wie Ihr die bots seht. Mein pphlogger zeigt mir nur echte Besucher an :o.
entweder in den logfiles oder mit einem php-statistik tool (z. b. webreflow) o
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 17.02.2006, 23:42


AGB
PostRank 5
PostRank 5
Beiträge: 205
Registriert: 28.11.2005, 15:23

Beitrag von AGB » 19.02.2006, 08:38

ich habe auf meiner website sehr viele pdf dateien, die aber nur aus bildern bildern bestehen, also keine indizierbaren texte enthalten.
wie kann ich die bots am besten daran hindern, diese pdfs zu saugen?

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 19.02.2006, 13:04

@AGB
Für die Robots, die sich an die "robots.txt" - Datei halten wäre dies hier denkbar:

Code: Alles auswählen

User-agent: *
Disallow: /*.pdf$
oder lege die alle .pdf´s in einen extra Ordner z.B. "ordner1" und sperre diesen:

Code: Alles auswählen

User-agent: *
Disallow: /ordner1/
Für alle derjenigen Robots, die sich an die "robots.txt" - Datei nicht halten, helfen die Tipps aus den von mir oben erwähnten Threads (.htaccess - Lösungen)

Grüsse
Hasso

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag