Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL-Hijacking verhindern

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
deldao
PostRank 4
PostRank 4
Beiträge: 161
Registriert: 28.11.2004, 03:05

Beitrag von deldao » 14.01.2005, 20:01

ist es dabei egal welche Dateiendung die Seite hat und kommt das ganze dann als aller erstes?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

guybrush
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 20.01.2005, 15:28

Beitrag von guybrush » 20.01.2005, 15:35

Hallo,
das ist mein erster Beitrag in diesem Forum und hoffe zugleich, dass er nicht am falschen Platz gelandet ist....

Ich habe mit großem Interesse die Diskussion über das Thema "Url-Hijacking" verfolgt und dazu eine Frage:

Wenn ich auf folgenden Seiten https://www.suchie.de/Freizeit___Unterh ... /index.php

den Suchergebnissen nachgehe kommt vor der eigentlichen url immmer eine Weiterleitung seitens des Katalogs Suchie:

https://www.suchie.de/cgi-bin/jump/outg ... ainname.de

Ist das auch nicht eine Art Url Hijacking ????
Ich meine wenn google die Seiten von Suchie indiziert wird ja die Domain von Suchie vorangestellt und nicht die eigentliche Domain.

Hoffe ich hab mich verständlich ausgedrückt. :oops:

Danke euch für eine Antwort...

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 20.01.2005, 15:45

Ich meine wenn google die Seiten von Suchie indiziert wird ja die Domain von Suchie vorangestellt und nicht die eigentliche Domain.
das kann man so nicht sagen, ist sicher nicht immer der fall.
wenn es bei dir der fall ist, solltest du dem betreiber ne nette mail schreiben und ihm den link geben:
https://seo-news.de/archives/2005/01/06 ... verhindern

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

guybrush
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 20.01.2005, 15:28

Beitrag von guybrush » 20.01.2005, 15:54

Danke dir für die schnelle Antwort.

Heisst das für mich wenn ich site:www.meinedomain.de eingebe und als ergebnis neben meinen Seiten die domain www.suchie.de angezeigt wird. Das meine Domain gehijackt wurde ?? Ich habe nämlich genau dieses Problem und wenn ich dann bei dem Ergebnis auf "Im Cache" klicke bekomme ich als Datum den 31.12.1969.

Nochmals danke für eine Antwort.

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 20.01.2005, 16:11

ja, das scheint hijacking zu sein.

guybrush
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 20.01.2005, 15:28

Beitrag von guybrush » 20.01.2005, 16:36

Könnte ich deine Vermutung noch mal damit untermauern das die Seite bei meinem "Hauptkeywort" fast minütlich von Platz 12 zu Platz 35 zu Platz 23 bei google springt ???

Nochmals Danke für deine Mühen manute

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 20.01.2005, 16:40

guybrush hat geschrieben:Danke dir für die schnelle Antwort.

Heisst das für mich wenn ich site:www.meinedomain.de eingebe und als ergebnis neben meinen Seiten die domain www.suchie.de angezeigt wird. Das meine Domain gehijackt wurde ?? Ich habe nämlich genau dieses Problem und wenn ich dann bei dem Ergebnis auf "Im Cache" klicke bekomme ich als Datum den 31.12.1969.

Nochmals danke für eine Antwort.
Willkommen im Club!

Ich bin inzwischen PHJ (Professioneller Hijacking Jäger), denn ich mache den ganzen Tag nichts anderes mehr, da auch meine Seiten mehrfach davon betroffen sind.

www.suchie.de hat mich auch erwischt, übrigens auch noch www.enumy.de und www.allgemeine-informationen.de vom selbem Webmaster. Ich habe Ihn mehrfach angemailt aber leider nie Antwort bekommen.
Dabei wäre alles so einfach, er müsste nur wie folgt die robots.txt auf seinen Webseiten ergänzen:
User-agent: Googlebot
Disallow: /cgi-bin/jump/outgoing.pl

User-agent: Mediapartners-Google*
Disallow: /cgi-bin/
Disallow: /intern/
Disallow: /images/
Vielleicht liest er/sie ja hier mit und ändert das :wink:

Gruss

guybrush
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 20.01.2005, 15:28

Beitrag von guybrush » 20.01.2005, 17:02

Er scheint es schon zum Teil umgesetzt zu haben....

https://www.suchie.de/robots.txt

Die Frage ist nur ob es wirkt und vor allem wie lange es dauert bis google die Ergebnisse aktualisiert.

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 20.01.2005, 17:03

guybrush hat geschrieben:Er scheint es schon zum Teil umgesetzt zu haben....

https://www.suchie.de/robots.txt
Nein, das ist der Teil der vorher schon da war :-?

Gruss

guybrush
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 20.01.2005, 15:28

Beitrag von guybrush » 20.01.2005, 17:11

Ich habe gerade noch mal eine Mail geschickt....

------------------------------------------------------------

Liebes Team von XXX,
ich möchte noch ein Nachtrag meiner vorigen Mail beifügen…

Um Ihnen das Problem mit dem herausstreichen meiner in der ersten Mail erwähnten Domains zu sparen würde ich Sie bitten folgenden Eintrag in Ihrer robots.txt anzufügen:

User-agent: Googlebot
Disallow: /cgi-bin/jump/outgoing.pl

Es würde mir und allen anderen Domains die vielleicht davon betroffen sind eine Menge Arbeit und Ärger ersparen.

Seien Sie bitte so nett und fügen Sie bitte bitte diesen oben genannten Eintrag in Ihre robots.txt.

Unabhängig davon würde ich mich wirklich sehr freuen, wenn Sie mir eine Antwort auf meine Mail schicken würden.

Viele Grüße

------------------------------------------------------------

Wenn ich bis morgen keine Antwort bekomme werde ich mal versuchen anzurufen...
vielleicht hilft es was.
Zuletzt geändert von guybrush am 20.01.2005, 17:27, insgesamt 1-mal geändert.

guybrush
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 20.01.2005, 15:28

Beitrag von guybrush » 20.01.2005, 17:19

Ich habe gerade eine Antwort bekommen:
---------------------------------------------------------------------------------------------

Die robots.txt Datei ist schon immer so angepasst dass kein Suchprogramm innerhalb des /cgi-bin/ Verzeichnisses etwas indizieren darf. Dies wird mit dem Parameter "Disallow: /cgi-bin/" verhindert. Das von Ihnen beschriebene Problem kann ich nicht nachvollziehen.

Bitte passen Sie zukünftig Ihre robots.txt Datei so an, dass unser Suchroboter Programm Ihre Webseiten nicht mehr besucht und indiziert.

Alle Informationen zu unserem Suchroboter finden Sie hier:
https://hilfe.acont.de/suchergebnisse_powered_by.html

Alle Informationen zu robots.txt finden Sie hier:
https://www.robotstxt.org

Ich hoffe ich konnte Ihnen weiterhelfen.

----------------------------------------------------------------------------------------------

Wer hat jetzt recht ???

Ich dachte das die erwähnung Mediapartners-Google* in der robots.txt nicht für den googlebot ansich gilt.... :-?

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 20.01.2005, 17:36

guybrush hat geschrieben:Wer hat jetzt recht ???

Ich dachte das die erwähnung Mediapartners-Google* in der robots.txt nicht für den googlebot ansich gilt....
Da hast Du völlig Recht!

Er muss das so ändern damit es Fuktioniert wie er sich das vorstellt:
User-agent: Googlebot
Disallow: /cgi-bin/
Disallow: /intern/
Disallow: /images/

oder gleich so

User-agent: *
Disallow: /cgi-bin/
Disallow: /intern/
Disallow: /images/
Seine robots.txt ist also falsch angelegt und daher auch die Probleme.

Gruss

visions4
PostRank 9
PostRank 9
Beiträge: 1070
Registriert: 04.08.2004, 12:13
Wohnort: Österreich

Beitrag von visions4 » 20.01.2005, 17:37

wie würde es sich auswirken, wenn die gehijackte site sich plötzlich in ein spammonster verwandeln würde? :D

hat das schon jemand ausprobiert?

mich würde interessieren auf welche seite sich dies zuerst auswirken würde?
urheber o. ziel der weiterleitung? :idea:

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 20.01.2005, 17:50

visions4 hat geschrieben:wie würde es sich auswirken, wenn die gehijackte site sich plötzlich in ein spammonster verwandeln würde? :D

hat das schon jemand ausprobiert?

mich würde interessieren auf welche seite sich dies zuerst auswirken würde?
urheber o. ziel der weiterleitung? :idea:

Die gehijackte Site ist dazu nicht mehr in der Lage, da sie zu stark geschwächt ist.

Ich habe eine nicht betroffene Site (PR5, DMOZ) hergenommen und versucht 10 URLs zu hijacken die wiederum andere Sites von mir gehijacket hatten.
Die Ergebnisse waren entäuschend, es hat nicht geklappt. Weder konnte ich diese URLs hijacken noch konnte ich die Verbindung zu meinen anderen Seiten lösen oder schwächen.
Das ich die fremden URLs nicht hijacken konnte, lag offensichtlich daran das sie selbst schon Weiterleitungen waren, mit anderen URLs ist es mir gelungen.
Aus diesen Erkenntnissen könnte man natürlich eine 302 Weiterleitung als Präventivmaßnahme herleiten. Habe ich aber nicht weiter getestet, da dies für mich keine Lösung ist.

Gruss

visions4
PostRank 9
PostRank 9
Beiträge: 1070
Registriert: 04.08.2004, 12:13
Wohnort: Österreich

Beitrag von visions4 » 20.01.2005, 18:02

ok, nochmal erklärung:

man nehme an, eine seite A wird durch eine seite B gehijacked!

fuck nicht? :D

was wäre, wenn man seite A nun mit keyworddichte 100% versieht?

für google ein mehr als dummer spam-versuch!

würde sich nun der spam-content der seite A welcher ja durch die weiterleitung der als content der seite B erkannt wird, auf B oder auf A negativ auswirken?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag