Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL-Hijacking verhindern

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 06.01.2005, 13:22

Würde es nicht Sinn machen, die robots der Datenlieferanten der hijacker auszusperren? Ist das eigentlich möglich?
Manute mit seiner findfox (dot) de nutzt infos von seekport. Die behaupten, sich an robots.txts zu halten.
Von cpase habe ich leider keine Antwort bekommen und bin dahingehend ein technischer Laie, sowas selbst rauszubekommen.
Gibt es schon ne Liste von den fiesen hijackern?

Vielleicht kann man die auch aus dem Netz bekommen, wenn man die entsprechenden Datenlieferanten anschreibt - bei denen holen die sich doch ihre paar cent Click-Provision - aber die Datenlieferanten sollten doch eigentlich kein Interesse an "Klauern" haben und die auch noch bezahlen.

Gibt es Erfahrungen, ob Google die Fieslinge aus dem Index nimmt, wenn die nur ausreichend Hinweise auf die jeweiligen Domains bekommen?

Wenn wir die "kriminellen Elemente" mal rausnehmen, die "aus Versehen hijacker" kann man doch eventuell mit nem Hinweis, wie ein vernünftiger robots.txt auszusehen hat und wie bei google verzeichnisse wieder gelöscht werden können wegmachen. Wer nicht mit "Absicht" klaut, sollte doch dazu in der Lage sein, solche Kleinigkeiten zu beachten ...

Oder muss man sich jetzt darauf einstellen, jede Domain doppelt anzulegen? Eine Für Google mit allen anderen ausgesperrt und eine für alle anderen ... hier ohne Google.bot? Oder Google einfach aus dem Kopf kriegen?