Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Backlink crawler

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
maniac
PostRank 2
PostRank 2
Beiträge: 51
Registriert: 17.02.2013, 17:51

Beitrag von maniac » 03.03.2013, 11:24

Hallo,

um Backlinks zu testen, ob sie noch gesetzt sind, habe ich einen crawler geschrieben.

Grob gesagt, wenn mein Link gesetzt ist, gib "ok" aus.

Ich habe die Möglichkeit einen useragent und einen referer mit zusenden.
Es ist nicht nett, einem anderen Webseitenbetreiber vor zu machen, mein crawler sei ein User.

Google macht es uns ja im useragent folgendermaßen vor:
Mozilla/5.0 (compatible;
Googlebot/2.1;
+https://www.google.com/bot.html)

referer ist logischerweise leer.

So könnte ich ja folgendes eintragen:
Mozilla/5.0 (compatible;
Backlink crawler/1.0;
+https://www.meineseite.de)

und referer leer lassen.

Ist es eigentlich rechtlich bedenklich andere Seiten zu crawlen?
Ich lesen und verwende den Inhalt nicht, sondern werte ihn ja nur aus.