Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

gemeinsame Spider-Spam-Liste

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 05.05.2005, 06:28

Es wäre sicher sinnvoll, eine gemeinsame Spider-Spam-Liste zu führen. Es tauchen hier im Board immer wieder Einzelanfragen auf, ein Gesamtüberblick aber fehlt. Einfacher wäre vielleicht eine White-List, also all jene zu listen die man zulassen sollte. Welcher Moderator wäre bereit, so eine Liste zu führen und Ergebnisse aus Anfragen dort einfliessen zu lassen? Es muss ja ein Moderator sein wegen den Edit-Rechten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 05.05.2005, 10:15

Ich hatte schon überlegt eine DB aufzusetzen. Das wäre gut. Dann kann man vorher auswählen, welche Gruppen man sperren möchte. Die Gruppen sind z.B. Meta Crawler, Content Grabber, Böse User und was weiß ich nicht alles.

Nach Auswahl wird daraus direkt eine valide .htaccess erzeugt, die man auf seinen Server kopieren kann, oder die Inhalte in die bestehende htaccess übernehmen. Oder kann man dort irgendwie includieren?

Ein PHP Script für die User-Server wär auch gut, welches autom. neue Einträge aus der DB in die htaccess schreibt oder so.

Frage ist nur, wer pflegt die DB? Man muß halt sicher sein, dass nicht aus Versehen mal Google gesperrt wird usw.. Ist auch wichtig für das User Vertrauen.

Ich würd Server und DB stellen, evtl. auch Frontend machen. Man kann das dann als eigenes Projekt starten, oder in seo-consulting.de integrieren.

Sinnvoll finde ich die Idee von Mario auf jeden Fall.

Gruß

sean

-robert-
PostRank 1
PostRank 1
Beiträge: 23
Registriert: 16.03.2004, 08:55

Beitrag von -robert- » 05.05.2005, 11:07

hallo,

ich halte whitelists für zu kritisch um sie einzusetzen und unterstütze daher die idee einer blacklist.

da fange ich doch einfach damit an alle spider aufzulisten. dies kann jeder auf nem server ganz easy durchführen:

Code: Alles auswählen

zcat /var/log/apache2/access_log*.gz |awk -F "\"" '{print $6}'  |sort |uniq
dann die entfernen, die erwünscht und bekannt sind. bleiben nur noch 1000 merkwürdige pseudospider. den rest per htaccess
wie schon oft im forum gepostet. nur der gedanke, dass der webserver bei jeder angefragten datei die liste mit 1000 spidern durchackert gefällt mir noch nicht.

gruß
robert