Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL-Hijacking verhindern

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 06.01.2005, 13:22

Würde es nicht Sinn machen, die robots der Datenlieferanten der hijacker auszusperren? Ist das eigentlich möglich?
Manute mit seiner findfox (dot) de nutzt infos von seekport. Die behaupten, sich an robots.txts zu halten.
Von cpase habe ich leider keine Antwort bekommen und bin dahingehend ein technischer Laie, sowas selbst rauszubekommen.
Gibt es schon ne Liste von den fiesen hijackern?

Vielleicht kann man die auch aus dem Netz bekommen, wenn man die entsprechenden Datenlieferanten anschreibt - bei denen holen die sich doch ihre paar cent Click-Provision - aber die Datenlieferanten sollten doch eigentlich kein Interesse an "Klauern" haben und die auch noch bezahlen.

Gibt es Erfahrungen, ob Google die Fieslinge aus dem Index nimmt, wenn die nur ausreichend Hinweise auf die jeweiligen Domains bekommen?

Wenn wir die "kriminellen Elemente" mal rausnehmen, die "aus Versehen hijacker" kann man doch eventuell mit nem Hinweis, wie ein vernünftiger robots.txt auszusehen hat und wie bei google verzeichnisse wieder gelöscht werden können wegmachen. Wer nicht mit "Absicht" klaut, sollte doch dazu in der Lage sein, solche Kleinigkeiten zu beachten ...

Oder muss man sich jetzt darauf einstellen, jede Domain doppelt anzulegen? Eine Für Google mit allen anderen ausgesperrt und eine für alle anderen ... hier ohne Google.bot? Oder Google einfach aus dem Kopf kriegen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 06.01.2005, 13:27

KeepCool hat geschrieben:@terese0815

Beherzige hierbei die IP-Abfrage, auch wenn sehr pflegeintensiv...UA-Abfrage hilft nur bedingt weiter, kriminelle Hijacker sind nicht ganz phantasielos... ;-)
Es sollte reichen Google zu erkennen und ensprechend auszusperren. Hijacker haben ja keinen Einfluss auf G. Von daher geht doch von kriminelle HiJackern nicht mehr Gefahr aus als von den Unwissenden. Max. in der Menge der HJ-Seiten.

Vergiss den Anwalt nicht, das wirkt - bei entsprechend gepfefferten Gebühren und Konsequenz - ebenfalls Wunder... ;-)

Gruss,

KC
Der Anwalt wird sein Schreiben wieder aufsetzen, jedoch erst einmal ohne Gebühren. Ein evtl. zweites Schreiben würde direkt mit einer Einstweiligen daher gehen.


Grüße

Stefan
Zuletzt geändert von terese0815 am 06.01.2005, 13:30, insgesamt 1-mal geändert.

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 06.01.2005, 13:28

KeepCool hat geschrieben:@terese0815
eine andere Wahl haben wir da auch nicht. Und schmerzen haben wir schon seit 3 Monaten.
Das ist eigentlich der Beweis, dass das grundsätzliche Geschäftsmodell notleidend ist...Eine alte aber noch immer gültige Weisheit besagt, dass ein Geschäft was nur auf einen Auftragsgeber (in diesem Fall = SUMA) beruht, nicht von langer Dauer ist...

Soll nicht zur Diskussion anregen, nur zum Nachdenken... ;-)

Gruss,

KC
Keine Diskussion^^ Doch kann man diesen Vergleich nur Bedingt aufs Internet übertragen solange Google Marktführer ist. Man kommt nicht vorbei, einzig mit Millionen in der Tasche...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

KeepCool
PostRank 8
PostRank 8
Beiträge: 715
Registriert: 02.01.2004, 11:55

Beitrag von KeepCool » 06.01.2005, 13:51

@terese0815
Es sollte reichen Google zu erkennen und ensprechend auszusperren.
1. Wieviele Google-Referers (in allen Variationen) willst Du von mir haben ?
2. Was machst Du mit den Zugriffen, wo kein Referer übergeben wird ?

Eine technische Analyse im Vorfeld derartiger Schnellschüsse macht Sinn; dass ich Recht habe, wirst Du in spätestens einigen Wochen eingestehen müssen, wenn das eintritt, was ich hier bereits beschrieben habe. Hierzu bedarf es übrigens keinerlei prophetischen Eigenschaften sondern vielmehr elementarer Kenntnisse im technischen Bereich...
Du arbeitest nach dem Hoffnungsprinzip: Ein wenig entgegenwirken und hoffen, dass es hilft...Es wird nicht helfen und wenn, dann nur für kurze Dauer. FRAGE DIE IPs AB !

Gruss,

KC

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 06.01.2005, 14:21

KeepCool hat geschrieben:@terese0815
Es sollte reichen Google zu erkennen und ensprechend auszusperren.
1. Wieviele Google-Referers (in allen Variationen) willst Du von mir haben ?
2. Was machst Du mit den Zugriffen, wo kein Referer übergeben wird ?

Eine technische Analyse im Vorfeld derartiger Schnellschüsse macht Sinn; dass ich Recht habe, wirst Du in spätestens einigen Wochen eingestehen müssen, wenn das eintritt, was ich hier bereits beschrieben habe. Hierzu bedarf es übrigens keinerlei prophetischen Eigenschaften sondern vielmehr elementarer Kenntnisse im technischen Bereich...
Du arbeitest nach dem Hoffnungsprinzip: Ein wenig entgegenwirken und hoffen, dass es hilft...Es wird nicht helfen und wenn, dann nur für kurze Dauer. FRAGE DIE IPs AB !

Gruss,

KC
Ich glaube wir reden aneinander vorbei. Ich möchte nur HiJacking URL's per 404 sperren wenn G sich die Seite anschaut. Der Referrer ist dabei doch egal.

Wenn es die Hauptseite ist die geHiJackt wird, komme ich nicht daran vorbei entsprechenden HiJacker freundlich auf seine Missetat hinzuweisen.

Andere für uns sinnvolle Möglichkeiten gibt es nicht.
Zuletzt geändert von terese0815 am 06.01.2005, 14:25, insgesamt 1-mal geändert.

11th
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 30.12.2004, 13:49

Beitrag von 11th » 06.01.2005, 14:22

KeepCool hat geschrieben:FRAGE DIE IPs AB !

Gruss,

KC
-][- 11th -][-

Sehe ich auch so und hatte sowas ja schon vor 1-2 Wochen mal geschrieben, das wurde dann aber vom Google Thread in den Robots/Spider verschoben :)

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 06.01.2005, 14:29

11th hat geschrieben:
KeepCool hat geschrieben:FRAGE DIE IPs AB !

Gruss,

KC
-][- 11th -][-

Sehe ich auch so und hatte sowas ja schon vor 1-2 Wochen mal geschrieben, das wurde dann aber vom Google Thread in den Robots/Spider verschoben :)
Evtl. stehe ich ja auf dem Schlauch. Jedoch kann ich so keine HiJacking-Site aussperren, da der Aufruf vom G-Bot kommt und nicht von der HJ-Site.

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 06.01.2005, 14:35

Bei https://www.abakus-internet-marketing.d ... 10238.html
steht dazu eigentlich schon alles drin. Insbesondere Jan-Southmedias ist auch für buttheads relevant, dem es am grundlegenden technischen Verständnis der Problematik offenbar mangelt.

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 06.01.2005, 14:36

@KC:
Sperrt alle USER bis auf Google per User-Agent / IP-Abfrage aus
was ist das denn für ne brutalmethode? bzw was sollte das überhaupt bringen?

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 06.01.2005, 14:43

bull hat geschrieben:Bei https://www.abakus-internet-marketing.d ... 10238.html
steht dazu eigentlich schon alles drin. Insbesondere Jan-Southmedias ist auch für buttheads relevant, dem es am grundlegenden technischen Verständnis der Problematik offenbar mangelt.
Sorry - aber was sind "buttheads"?

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 06.01.2005, 14:48

terese0815 hat geschrieben:Sorry - aber was sind "buttheads"?
https://www.google.de/search?hl=de&q=bu ... uche&meta=

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 06.01.2005, 14:49

@terese0815: er meint den user namens "buttheads" mit diesem posting.

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 06.01.2005, 14:52

Danke manute :wink:
Wahrscheinlich ist manchen, die bei buttheads an einen neuen unbekannten Google-Bug dachten, schon kalter Schweiß auf die Stirn getreten. :lol:

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 06.01.2005, 14:53

arg lol - Danke;)

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 06.01.2005, 17:09

Neeee ... ih war gemeint. Und ich bin nu wirklich kein Techniker um von den Technischen Sachen was zu verstehen.

Meine Idee ging doch in eine Andere Richtung, besser in zwei andere Richtungen:

Zum einen benutzen die hijacker doch irgendwelche datenbestände ... oftmals von irgendwelchen pay-per click-providern für Ihre - sagen wir mal unabsichtlichen - Aktionen. Wenn meine Seiten dort nicht auftauchen, werden sie von den (aus Versehen) hijackern nicht benutzt ... die Weiterleitungslinks entstehen erst gar nicht und ich kann nicht gehijacked werden ... deshalb die robots von diesen datenanbietern präventiv aussperren ... die bringen nur Ärger ;-) ... ist vielleicht zu simple gedacht, aber, wi schon gesagt, ich bin kein Techniker.

Der zweite Weg ist, den Hijackern einfach Ihre Domains aus Google zu nehmen ... entweder dadurch, das Google die sperrt oder das deren Datenanbieter keine Lust auf schlechte Presse haben und Sie rausschmeißen ... kann mir z.B. nicht vorstellen, das Overtüre inteesse daran hat, öffentlich am URL-Higjacking beteiligt zu sein ... gibt für die Öffentlichkeit dazu noch einfachere Worte. Auch dabei: Wenn die hijacker nix dran verdienen, werden Sie wohl auch keinen Neuen Seiten ins Netz stellen ... und die alten dürften weggehen. Ich weiß ja nicht, ob sowas funktioniert ... ich bin halt kein techniker und dementsprechend ist das auch kein technischer Ansatz ...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag