Backlink crawler
Verfasst: 03.03.2013, 11:24
Hallo,
um Backlinks zu testen, ob sie noch gesetzt sind, habe ich einen crawler geschrieben.
Grob gesagt, wenn mein Link gesetzt ist, gib "ok" aus.
Ich habe die Möglichkeit einen useragent und einen referer mit zusenden.
Es ist nicht nett, einem anderen Webseitenbetreiber vor zu machen, mein crawler sei ein User.
Google macht es uns ja im useragent folgendermaßen vor:
Mozilla/5.0 (compatible;
Googlebot/2.1;
+https://www.google.com/bot.html)
referer ist logischerweise leer.
So könnte ich ja folgendes eintragen:
Mozilla/5.0 (compatible;
Backlink crawler/1.0;
+https://www.meineseite.de)
und referer leer lassen.
Ist es eigentlich rechtlich bedenklich andere Seiten zu crawlen?
Ich lesen und verwende den Inhalt nicht, sondern werte ihn ja nur aus.
um Backlinks zu testen, ob sie noch gesetzt sind, habe ich einen crawler geschrieben.
Grob gesagt, wenn mein Link gesetzt ist, gib "ok" aus.
Ich habe die Möglichkeit einen useragent und einen referer mit zusenden.
Es ist nicht nett, einem anderen Webseitenbetreiber vor zu machen, mein crawler sei ein User.
Google macht es uns ja im useragent folgendermaßen vor:
Mozilla/5.0 (compatible;
Googlebot/2.1;
+https://www.google.com/bot.html)
referer ist logischerweise leer.
So könnte ich ja folgendes eintragen:
Mozilla/5.0 (compatible;
Backlink crawler/1.0;
+https://www.meineseite.de)
und referer leer lassen.
Ist es eigentlich rechtlich bedenklich andere Seiten zu crawlen?
Ich lesen und verwende den Inhalt nicht, sondern werte ihn ja nur aus.