Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Eine aktuelle Zusammenstellung von Bot-Ungeziefer ...

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 30.04.2005, 20:07

mario,
... so fern es anständige unmanpulierte sind
bislang bestand kein Bedarf für Bots mit Referrer, und ich weiß auch nicht, wie hoch der Aufwand für eine solche Nachrüstung ist, da eine htaccess immer nur für das jeweilige Verzeichnis und die darunterliegenden gilt, wäre bei Bedarf ein Nachziehen meinerseits ein Klax.
Also "htaccess" ist ein ganz spannendes Thema, und wenn ich etwas mehr Zeit habe, werde ich mich damit mal eingehend befassen.


... so ein "Bötchen=bot" läuft schnell mal als maskiertes Fräulein rum
Wenn er denn weiß, was er "anziehen muß".
Sicherliich ließe sich die "Kleiderordnung" für einzelne Verzeichnisse unterschiedlich gestalten. Also Möglichkeiten gibt es unendlich, wenn man sich mal mit der Materie befaßt, und ich denke, daß in der Zukunft kein Weg daran vorbeiführen wird, will man nicht überrannt werden.

Und die Gegenseite rüstet auf. Vor einigen Tagen erlangte ich einen zufälligen Einblick in die gewaltigen Erweiterungen und Zukäufe der Gegenseite, und ich dachte mir: "... was bin ich doch für ein "kleines Licht" auf diesem Gebiet".
Es hat mich aber dazu angespornt, selber aufzurüsten und zu erweitern.
40 (in Worten: vierzig) Domains reichen nicht aus, um wirkungsvolle Strategien dagegen aufzubauen.

Darüberhinaus mußte ich kürzlich feststellen, anhand eines nicht nachvollziehbaren Referrers, daß jemand versucht, einen meiner Satelliten bei Google "abzuschießen".
Ich selbst wäre von mir aus niemals zun Überlegungen in dieser Richtung gekommen, aber diese Begebenheit zwang mich zu entsprechenden Überlegungen und Tests - Ergebnis: Positiv.

Über diese Schiene ließen sich schlußendlich auch Maßnahmen kreieren, um denen beizukommen, welchen versuchen, sich über diesen Umweg:
<der sollte das vorsorglich nur über außereuropäische Server bewerkstelligen.
... und genau da liegt die Crux
etwaigen juristischen Schlägen zu entziehen.

Kleine Empfehlung an jene, deren Domains bei Google einem "plötzlichen Kindstod" (Man möge mir die Verwendung dieses Begriffes nachsehen, es handelt sich keineswegs um eine Respeklosigkeit gegenüber Angehörigen, welche von diesem Schiksal betroffen sind. Der Begriff wird hier lediglich in Anlehnung an ein unbegreifliches Ereignis benutzt!) anheim fielen: Durchforstet mal eure Logs auf Komischkeiten ggf. das gesamte Umfeld.

Gruß
HardPollux
Zuletzt geändert von hard_pollux am 02.05.2005, 02:34, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Lutz-Development
PostRank 7
PostRank 7
Beiträge: 530
Registriert: 31.05.2004, 09:52

Beitrag von Lutz-Development » 01.05.2005, 15:08

Hi HardPollux,

wie durchforstet du deine Logs? Welches Programm verwendest du?

Muss man beim Apache irgendetwas besonderes einstellen, um detailliert genügende Logs zu bekommen? Machen verschiedene Logs nach Domain Sinn oder schafft das ein Programm selbst zu trennen?

Vielen Dank im Voraus.

Gruß,
Thomas

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 01.05.2005, 18:17

eigentlich müsste man die eigenen Logfiles durchsieben. Das Sieb wäre beispielsweise meine .htaccess. Alles was unten rauskommt könnte man in einer Whitelist freischalten. Aber allein das zusammentragen aller Logfiles bedeutet erheblicher Aufwand. Dann bleibe ich vorerst bei meiner Blacklist, dann ist das Sieb vorort. Die Serverbelastung bei 600 Zeilen spüre ich kaum... :wink: