Seite 1 von 16

URL-Hijacking verhindern

Verfasst: 03.01.2005, 13:53
von manute
Das Thema wurde bisher ja bisher noch nicht aus der Richtung angegangen glaube ich: Wenn man jetzt, ohne es zu wollen, fremde Seiten hijackt, hat schon jemand rausgefunden, wie man es verhindern kann?
Ich leite per Header 302 weiter über ein Script, das per robots.txt gesperrt ist und hijacke trotzdem fremde Seiten.
Hat's mal jemand mit nem 301 probiert? Noch irgendwelche anderen Ideen?

Verfasst:
von

Verfasst: 03.01.2005, 14:09
von KeepCool
Verlinken im Klartext, so wie es einer normalen (heisst "SEO- und Neurose-freien") Webstruktur auch entspricht... ;-)

Schon mal darüber nachgedacht ?

Gruss,

KeepCool

Verfasst: 03.01.2005, 14:11
von manute
Natürlich, aber das würde auch zu einer trackingfreien Struktur führen.
Noch andere Ideen?

Verfasst:
von

Verfasst: 03.01.2005, 14:12
von sean
Tracking per Javascript realisieren, dann kan man auf normale URLs verlinken. Müsste doch mit einem onclick gehen, oder?

Ansonsten warten bis Google erwacht.

sean

Verfasst: 03.01.2005, 14:14
von manute
Tracking per Javascript realisieren, dann kan man auf normale URLs verlinken. Müsste doch mit einem onclick gehen, oder?
habe ich noch nicht probiert, aber könnte man vielleicht mal tun, wenn's einfacher nicht geht...
Ansonsten warten bis Google erwacht.
das kann dauern. bis dahin haben mich die hijacking-opfer totgelabert. :D

Verfasst: 03.01.2005, 14:31
von KeepCool
@manute
das kann dauern. bis dahin haben mich die hijacking-opfer totgelabert.
Oder zur Selbsthihlfe gegriffen wie hier: https://bontonic.com/ :-):-):-):-)
Regel Nr.1 für agressives SEO: Unterschätze niemals vermeintliche Opfer... ;-) Oftmals haben diese Freunde, die wiederum Freunde haben, die einen kennen, usw., usw....

JavaScript ist für Deine Zwecke keine schlechte Idee, es ist ja eine "Weltsprache"... ;-)

Gruss,

KeepCool

Verfasst: 03.01.2005, 14:38
von Southmedia
Thomas, schau mal bei Google in den Quelltext. Da findeste was passendes.

Verfasst: 03.01.2005, 14:41
von manute
Regel Nr.1 für agressives SEO: Unterschätze niemals vermeintliche Opfer... Oftmals haben diese Freunde, die wiederum Freunde haben, die einen kennen, usw., usw....
ich kenne deinen standpunkt zum hijacking.

danke jan, du meinst das js-tracking, schätze ich. muss ich dann wohl mal anschauen...

Verfasst: 03.01.2005, 15:51
von KeepCool
@All

Darüber hinaus scheint es so, dass Google in der 302-er Sache "Fortschritte" macht...Hijacker-Seiten landen zunehmend mit 1969-er-Cache im "Phantom-Index".

Dadurch werden die entführten Seiten wieder "frei"...wie lange es allerdings dauert, bis diese wieder überhaupt gelistet werden, kann man zum derzeitigen Zeitpunkt noch nicht sagen, ebenso wenig wie das anschliessende Ranking verglichen mit dem Listing vor dem Hijacking...

Bedauerlicherweise betreffen diese Fortschritte NICHT das weitere Hijacking neuer Seiten... :cry: --> Fazit: 302-Hijacking wird von Google weiterhin "geduldet" und durch Software-Fehler geradezu gefördert, lediglich das Handling scheint sich langsam zum Positiven (für die Betroffenen) hin zu wandeln...

Gruss,

KeepCool

Verfasst: 03.01.2005, 16:25
von slider
Was ist ein "1969-er-Cache"?
Und was ist ein "Phantom-Index".

Verfasst: 03.01.2005, 17:20
von Halli
slider hat geschrieben:Was ist ein "1969-er-Cache"?
Und was ist ein "Phantom-Index".
Im Google Cache deiner Seite ist ein Datum (oben rechts im Einleitungstext) angegeben. wenn dort steht: 31.12.1969 23:59:59 . dann hast Du Pech :-(
Diese Seiten sind zwar "grundsätzlich" im Index, aber meist als 'zusätzliches ergebnis' deklariert und erscheinen nicht in den normalen Suchergebnissen (Phantom Index). Oder anders gesagt: Du wirst mit dieser Seite nicht mehr gefunden ....

Verfasst: 03.01.2005, 17:52
von KeepCool
@Halli
Oder anders gesagt: Du wirst mit dieser Seite nicht mehr gefunden ....
Theoretisch hast Du Recht, praktisch ist es so, dass diese 1969-Seiten - inkl. Seiten die es längst nicht mehr gibt (404 / 410, etc.) und Seiten die man mit dem Remote-Tool entfernt hat - oftmals am "Vampir-Syndrom" leiden: auch wenn sie "gestorben" (worden) sind, werden sie ab und an noch im Rahmen regulärer Queries noch angezeigt... ;-)

Besonders kritisch ist hierbei, dass Google normalerweise verpflichtet ist, auf Wunsch hin ( deswegen das Remove-Tool ), einzelne Seiten / ganze Webpräsenzen aus dem Index zu entfernen, und zwar endgültig...was momentan ja überhaupt nicht funktioniert... ;-)

Gruss,

KeepCool

Verfasst: 03.01.2005, 18:48
von warry
danke jan, du meinst das js-tracking, schätze ich. muss ich dann wohl mal anschauen...
Wäre schön, wenn du *schnell* schauen würdest, das schlägt mir nämlich langsam auf's Gemüt...

Greets
warry

Verfasst: 03.01.2005, 22:35
von stuijts
Wie wärs mit ein header:location redirect (mit PHP)?
Ich weiss nicht, ob es eine Lösung ist, es wurde hier:
https://www.abakus-internet-marketing.d ... 10193.html
angesprochen.

Viele Grüsse,
Birthe

Verfasst: 03.01.2005, 22:41
von manute
nein, ist keine lösung. ich benutze nur header-weiterleitungen und verursache trotzdem das hijacking-problem.