Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

"serverkompetenz.net" - bad, bad bot?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Tom-Malone
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 06.11.2006, 13:26
Wohnort: Lübeck

Beitrag von Tom-Malone » 06.11.2006, 13:29

Hallo,
hatte in den letzten 24 Stunden 5 mal besuch von serverkompetenz.net,weiss einer wer das ist und wie ich das unterbinden kann,der erzeugt traffic und bringt nichts.
Danke

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 06.11.2006, 13:35

Hallo Tom,
das hast du ja dazu schon gefunden:
https://www.im-web-gefunden.de/2006/01/ ... 521436241/

und siehe Beitrag von
Mario meinte:
Eingetragen am 23. Januar 2006 um 1:41 Uhr
Klarer Fall für www.spider-trap.de, sind da natürlich prompt reingelatscht.
Folge einfach dem Link in meiner Signatur..

Tom-Malone
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 06.11.2006, 13:26
Wohnort: Lübeck

Beitrag von Tom-Malone » 06.11.2006, 13:40

Ja das habe ich gelesen und habe auch ein script einegefügt was die beiden ips ausscgliessen sollte,trotzdem kam er rein,in den logfiles taucht er garnicht auf also servt er anonym wie mir google analytics veraten hat,leider kenne ich mich nicht mit dem spider trap aus,ist es sehr aufwendig und hilft es ?

Danke

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 06.11.2006, 13:44

ne ist in 5 Minuten installiert und eingerichtet.

Infos zur Installation stehen alle auf meiner Seite. Ratsam wäre aber ein anderes Verzeichnis als z.B. /spider-trap/ zu wählen.

Wie gesagt sperrt es die IPs aus da die noch in die Falle tappen und jedem Link folgen.

Tom-Malone
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 06.11.2006, 13:26
Wohnort: Lübeck

Beitrag von Tom-Malone » 06.11.2006, 13:46

Danke,werde mal versuchen das einzurichten.

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 06.11.2006, 13:48

gibt auch ne online Demo zum Testen bzw ein Forum wenn du Probleme haben solltest.

hansjoachim
PostRank 1
PostRank 1
Beiträge: 29
Registriert: 06.11.2006, 13:38

Beitrag von hansjoachim » 06.11.2006, 13:53

ich kann hier nur zu sagen, dass auch bei mir schon Contentklau durch serverkompetenz.net betrieben wurde. (nur für die Statistik ;) )

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 06.11.2006, 13:54

naja gibt nicht viele bei denen nix gezogen wurde ;-) leider sehr aktiv das Teil

Tom-Malone
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 06.11.2006, 13:26
Wohnort: Lübeck

Beitrag von Tom-Malone » 06.11.2006, 13:57

wer steckt denn dahinter?

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 06.11.2006, 13:59

keine Ahnung. Wie gesagt hab mein Teil installiert und seit dem keine Probleme mehr mit so einem Mist.

Tom-Malone
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 06.11.2006, 13:26
Wohnort: Lübeck

Beitrag von Tom-Malone » 06.11.2006, 14:25

ich habe noch nie htaccsess benutzt,schliesst das nur den einen aus oder mehrere?
muss ich den ordner einfach nur hochladen?
Ic habe meine email enstelle der vorgegebenen eingetragen.
Alles andere ist ja chon vorgegeben.Isz das alles so richtig?

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 06.11.2006, 14:31

1. Es schließt alle aus die in diese Falle tappen. Also auch andere böse Bots

2. ja, den Ordner einfach nur in dein Root Verzeichnis hochladen und die Rechte so setzen wie in der Anleitung beschrieben.

3. Richtig !

Ist alles hier beschrieben:
https://www.spider-trap.de/Installation-2.html

wenn du das Verzeichnis anders benennst musst du natürlich auch das Verzeichnis in der Settings.php ändern.
Den Link aus deiner Seite muss dann auch in das andere Verzeichnis gehen.
Bei Probleme frag einfach im Forum auf meiner Seite nach.
Zuletzt geändert von JR-EWING am 06.11.2006, 14:32, insgesamt 1-mal geändert.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 06.11.2006, 14:32

Was ist eigentlich am HTTP HEAD Request so schlimm? Hier im Thread und in dem verlinkten Artikel wird ja dagegen gewettert, was IMHO keinen Sinn macht.

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 06.11.2006, 14:53

so jetzt wird es technisch :-)

Mein Veständnis dazu ist eher gering aber:

HEAD fragt nur nach ob die Datei da ist und wenn wie groß usw ohne Sie auszuliefern, oder ?
Mit GET würde er Sie dann wirklich holen.

Also rein um Content zu klauen ist HEAD relativ sinnlos und verursacht Traffic.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 06.11.2006, 15:16

JR-EWING hat geschrieben:so jetzt wird es technisch :-)
Na endlich... ich meine, wozu sind wir sonst hier?! ;)
Mein Veständnis dazu ist eher gering aber:

HEAD fragt nur nach ob die Datei da ist und wenn wie groß usw ohne Sie auszuliefern, oder ?
Mit GET würde er Sie dann wirklich holen.

Also rein um Content zu klauen ist HEAD relativ sinnlos und verursacht Traffic.
Okay, das ist eine Sichtweise, die sich nachvollziehen lässt. Trotzdem meine ich, dass die Argumentation hinkt, denn HEAD ist gerade dazu gedacht, Traffic und Serverlast zu sparen. Einen Deadlink-Checker zum Beispiel würde ich per HEAD implementieren, weil mich der Content in diesem Fall gar nicht interessiert. Ich will ja nur den Status wissen, also ob 2xx, 3xx oder Fehler/Not Found. Mit HEAD sorge ich dafür, dass mir der Server den Status meldet, aber die Datei dabei möglichst nicht anfasst/öffnet.

Wer HEAD-Anfragen verbietet, könnte also versehentlich dafür sorgen, dass seine Backlinks aus automatischen Systemen (CMS, Webkataloge) entfernt werden. Und das, obwohl HEAD völlig ungeeignet ist, um Content zu klauen...!

Antworten