Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

hijack proxys

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 11.07.2007, 17:10

Naja, das wir auch eine .htaccess generieren koennten, wird uns ja hoffentlich niemand ernsthaft anzweifeln wollen. Und meinetwegen auch nur die Proxy Mistviecher darin aufnehmen. Die entscheidenden Fragen sind aber noch gar nicht gefallen:

1. Macht es Sinn, eine solche Liste OEFFENTLICH zu halten? Der eine wird sagen JA, der andere NEIN. Ich erinnere mich noch gut an einen User hier im Forum, der regelrecht ausflippen wird, wenn solch eine Liste PUBLIC rumfliegt. Er hat sie wohl noch nicht entdeckt ;)

2. Macht es Sinn, das Ganze als .htaccess zu pflegen? Ich befuerchte nicht, denn die Wartung, sprich das staendige Hinterher-Updaten, ist sowas von laestig..

Wir (bot-trap) haben mit dem Sammeln angefangen, u.a. eben auch diese nph proxy Mistviecher. Wir sind einfach davon ueberzeugt dass man gemeinsam (aus innerster Ueberzeugung heraus, und nicht gegen Backlinks..) gegen diesen Wahn im Netz etwas tun muss.
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

wolli
PostRank 9
PostRank 9
Beiträge: 1395
Registriert: 01.01.2006, 18:48

Beitrag von wolli » 11.07.2007, 17:28

@Airport1

Marc,

es will Dir keiner dein Projekt abspenstig machen
Ich denke du fühlst dich aber angegriffen und deshalb deine Reaktion

Du machst das halt auf einem anderen Weg

Natürlich war Benz böse als VW auch autos baute :-)
aber beides sind Autos mit einem bestimmten Kundenkreis.

Wir haben das Projekt aus aktuellem Anlass aus dem Boden gestampft
sicherlich gibt es hier großen technischen Nachholbedarf!
Den wir nach und nach abarbeiten werden.
Denn auch eine htaccess kann man automatisch updaten

Zu deiner Backlink Anspielung......
Wir helfen uns gegenseitig :-)

Ich sage nur ranking-hits
also lass das bitte. Denn das war unnötig


nette Grüße
wolli

wichtel9999
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 22.03.2007, 12:17

Beitrag von wichtel9999 » 11.07.2007, 21:12

Die Idee ist ja nun wirklich nicht besonders neu.
450 IPs? Auch das ist wirklich noch lange nicht das Ende und so schwillt die .htaccess von Tag zu Tag weiter an und irgendwann bremst sie den Server ordentlich aus.

Ich habe mir mal den Spass gemacht und 4 Wochen lang böse Ips gesammelt und war wirklich erschrocken, was da so zusammen kommt.

Von daher sollte man sich nicht zu sehr auf eine kleine Sammlung von nicht mal 500 IPs verlassen.

Lieben Gruss

wichtel9999

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


wichtel9999
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 22.03.2007, 12:17

Beitrag von wichtel9999 » 11.07.2007, 22:48

Nachdem ich mich nun seit über 6 Monaten mit dem Thema Proxies auseinandersetze, habe ich natürlich auch diesen Beitrag mit der .htaccess gefunden.
Was mich ein wenig stutzig macht sind IPs in der .htaccess die mehr als überflüssig sind, da sie aus nicht öffentlichen Bereichen stammen.

Vielleicht kannst Du mich mal aufklären, warum Du IPs aus dem 127er-Bereich und dem 10er-Bereich in der .htaccess aufführst.

Es sind sicher noch andere IPs darin enthalten, die keine Proxies sind.

LG

wichtel9999

Maximus
PostRank 2
PostRank 2
Beiträge: 48
Registriert: 19.09.2006, 11:03

Beitrag von Maximus » 11.07.2007, 23:37

Hallo Airport1

Habe mich vor ca. 10 tagen unter Bot-Trap angemeldet und bat um Hilfe ,
bis heute aber noch nichts gehört von Bot-Trap ???

Was muss ich den genau machen, Vorgestellt habe ich mich dort.

Gruss Maxximus

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 11.07.2007, 23:49

Hi Maxximus,
Maximus hat geschrieben:Was muss ich den genau machen, Vorgestellt habe ich mich dort.
Lies doch vielleicht einfach mal die "Sticky" Beiträge, was so alles in einen Anmeldung hineingehört ...

Ciao,
Mike

wolli
PostRank 9
PostRank 9
Beiträge: 1395
Registriert: 01.01.2006, 18:48

Beitrag von wolli » 12.07.2007, 09:57

wichtel9999

Danke für den Hinweis
Das ist natürlich Blödsinn Die IPs wurden gelöscht
Da hat mir mein Script einen Streich gespielt ;-)

Danke und nette Grüße
wolli

mic_jan
PostRank 6
PostRank 6
Beiträge: 397
Registriert: 31.08.2004, 16:24

Beitrag von mic_jan » 12.07.2007, 10:35

Airport1 hat geschrieben: .. und siehe da, auch die zuletzt geposteten sind schon laenger bei Bot-Trap gesperrt.. Falls es jemand wirklich noch nicht begriffen haben sollte: Wir sammeln diese Nph Proxy Mistviecher von Anfang an!
Es gibt also eigentlich gar keinen Grund, die Suppe nochmal neu zu kochen.
Aber vielleicht ist es ja deshalb ;) ?:
Also ich für meinen Teil würde bot-trap gerne benutzen, aber bei meiner Konfiguration funktioniert Bot-Tap nicht :-| Denn ich generiere die meisten Seiten als statische HTMl-Seiten (kommen aber aus CMS).
Und aus Performancegründen würde ich es gerne so lassen ;-)

Gruss,

Michael

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 12.07.2007, 11:11

> Also ich für meinen Teil würde bot-trap gerne benutzen, aber bei meiner Konfiguration funktioniert Bot-Tap nicht :-| Denn ich generiere die meisten Seiten als statische HTMl-Seiten (kommen aber aus CMS).

Wir haben uns bislang (trotz dem Wunsch einiger User) immer dagegen gestraeubt, den Schutz als .htaccess anzubieten, es stellt auch weiterhin m.E. einen gewaltigen Rueckschritt dar, nachzulesen u.a. auf:
https://www.bot-trap.de/wiki/wikka.php? ... sNachteile

Wir diskutieren aber gerade aus, ob es vielleicht fuer einige wenige* doch Sinn macht eine .htaccess anzubieten, wobei wir weiterhin eher fuer das "Rundum-Schutz-Sorglos-Paket-mit-staendigem-Update" plaedieren statt fuer das manuelle Dauergefrickel von .htaccess Dateien. Denn eigentlich ist das Ganze ja entstanden, gerade weil die staendige Wartung von meist zig .htaccess Dateien so laestig ist..

* (so viele sind es gar nicht die eine .htaccess wirklich benoetigen, man benoetigt aber etwas Ueberzeugungsarbeit, da doch viele NUR die .htaccess kennen und sich gar nicht vorstellen koennen/wollen (!) dass es auch andere Methoden gibt..)
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

wichtel9999
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 22.03.2007, 12:17

Beitrag von wichtel9999 » 12.07.2007, 18:35

mic_jan hat geschrieben: Also ich für meinen Teil würde bot-trap gerne benutzen, aber bei meiner Konfiguration funktioniert Bot-Tap nicht :-| Denn ich generiere die meisten Seiten als statische HTMl-Seiten (kommen aber aus CMS).
Und aus Performancegründen würde ich es gerne so lassen ;-)
Nun, wenn Du Dich mal bei Bot-Trap umschaust, wirst Du auch eine Möglichkeit finden mit der es möglich ist auch den PRES bei html-Seiten zu nutzen.

Lieben Gruss

wichtel9999

Corlath
PostRank 7
PostRank 7
Beiträge: 523
Registriert: 25.11.2003, 14:17
Wohnort: Wechselhaft, aber sonnig

Beitrag von Corlath » 24.07.2007, 15:22

Nun ja, in der bot-trap ist unter anderem auch einer meiner Server bei Hetzner gesperrt, so dass über Nacht meine Skript die auf meinen eigenen Server zugreifen nicht mehr liefen...
Ihr habt da einfach mal zig tausend IPs gesperrt, was das System etwas unsicher macht.

Gruß
Frank
https://www.affilinator.de/sonderedition/
Jetzt komplett kostenlos! affilinet, amazon, ebay, zanox und mehr Produktdaten live via XML Webservice ohne Programmierkenntnisse!
https://www.zaffili.com/demo/
Affilinator Demo der kostenlosen Version

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 24.07.2007, 17:12

> Ihr habt da einfach mal zig tausend IPs gesperrt, was das System etwas unsicher macht.

"einfach mal" stimmt nicht, es lag jeweils ein grund vor. die daten haben sich jetzt seit 1,5 jahren eben ganz schoen angesammelt...

> , was das System etwas unsicher macht.

das ist auslegungssache, ich fuehle mich eher sehr sicher, wenn ich weiss dass server - und damit deren besitzer die alle nase lang mit irgendwelchen scripts meine sites abgrasen (und das tun sie und wie!) - lieber praeventativ gesperrt sind. sinnvolle dienste wie bspw. thumbshot generators etc. werden natuerlich auf hinweis freigeschaltet.

frueher war eine ip pruefung drin die grob so lautete:
"ist die ip deine eigene server ip? wenn ja, sperre auf keinen fall"
die flog aber raus, da die leute meinten dass man damit allen mitnutzern eines shared webhosting (und meist damit auch ip) paketes den zugriff erlauben wuerde.
[hat hier jemand gedacht das sei alles trivial? pustekuchen ;)]

wir koennen diese ip pruefung wieder derart integrieren, dass sie optional per konstante zuschaltbar ist.

ist dein dienst ein sinnvoller dienst, wird er natuerlich fuer alle freigeschaltet.

offene fragen und forschungsarbeiten nach einer guten loesung koennen im dortigen forum diskutiert werden.

achja: die optimale super-loesung die alle probleme fuer immer loest wird es aber ganz offensichtlich nie geben. es bleibt also nur die optionale konfigurierbarkeit, damit jeder nach seinem gusto alles einstellen kann ;)
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Corlath
PostRank 7
PostRank 7
Beiträge: 523
Registriert: 25.11.2003, 14:17
Wohnort: Wechselhaft, aber sonnig

Beitrag von Corlath » 24.07.2007, 17:27

Klar gibt es nichts optimales, mir ist jetzt nur zum zweiten mal (das erste mal war der affilimatch bot) aufgefallen, dass auch IPs gesperrt werden, die irgendwie ok sind.
Im aktuellen Fall wurde eben ein großer Bereich bei Hetzner gesperrt, wo auch einer unserer Server steht.
Warum auch immer greifen wir selber mit unserer IP zu, sprich kein Dienst oder so.
Bot-Trap drauf (da ich sie prinzipiell ja gut finde) und irgend wann viel uns auf, dass einzelne Bereiche der Website nicht mehr gingen, da die Bot-Trap eben tausende Hetzner IPs sperrt.
Sorry, aber die sind nicht alle böse - ihr habt einfach entschieden - Hetzner = Server = kein Besucher = kein Risiko und alle weg.
Das ist extrem ärgerlich, da man ja keinen Einfluss drauf hat, sprich man weiß nicht was ihr wann sperrt und merkt es evtl. nur zufällig.

Das wollte ich nur damit sagen ;)

Ansonsten gebe ich dir recht, dass man schon ein Auge drauf haben sollte, was da so auf dem server grast und das Initiativen wie auch deine Bot-Trap eine gute Sache sind.
Ihr geht mir persönlich, wie auch Anfangs gegen mich in eurem Forum, ein wenig zu agressiv vor.

Gruß
Frank
https://www.affilinator.de/sonderedition/
Jetzt komplett kostenlos! affilinet, amazon, ebay, zanox und mehr Produktdaten live via XML Webservice ohne Programmierkenntnisse!
https://www.zaffili.com/demo/
Affilinator Demo der kostenlosen Version

Seolu
PostRank 1
PostRank 1
Beiträge: 21
Registriert: 01.04.2007, 23:14

Beitrag von Seolu » 17.08.2007, 10:44

eine weitere interessante Lösung zu dem Problem findet sich hier:
https://boardunity.de/proxy-hijacking-tun-t5102.html

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 17.08.2007, 11:39

diese "loesung" funktioniert aber nur bei einem (sehr kleinen?) Teil, denn das geht davon aus dass die dc proxy mistviecher alle "HTTP_X_FORWARDED_HOST" setzen..
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Antworten