ich suche ein Tool, womit ich von der Seite X bestimmte Informationen mir holen kann (nicht die ganze Seite, sondern nur Teile). Als Besipiel ein Preisvergleich und ich möchte die Preise holen, die dann in CSV o.ä. geladen werden können.
Hat nichts mit Contentdiebstahl zu tun. Es ist eher "Überwachung" wichtiger Seiten (und darin enthaltene Infos) ohne das man die Seiten immer wieder besuchen (durchforsten) muss.
Das mit dem Preisvergleich war nur ein Beispiel, aber selbst das wäre ja kein Content-Klau!?
Sagen wir als Beispiel. Ich will von der Homepage eines Freundes immer die aktuellsten Infos, aber halt nur die Infos ohne den Content um dieses News. So etwas in der Art... Schneller Überblick über wichtige Infos...
beim Contentgrabbing kommt es natürlich darauf an was du dann mit den daten machst.... wenn du sie in irgendeiner weise wieder veröffentlichen möchtest, kann das sehr teuer werden... wenn du sie nur für deinen eigenen gebrauch sammelst kann dir eigentlich keiner etwas....
ich macj soetwas auch immer über php, mit der snoopy CLass den Content holen und dann mit preg_match die gewünschten Infos grabben.....
naja...soweit nicht schlecht, aber seiten, die diese infos kostenlos zur verfügung stellen, finanzieren diese häufig über werbung, die dann nicht eingeblendet wird. rechtlich ok, aber moralisch?
ein fertiges Tool kenne ich nicht. Aber du findest vielleicht unter https://www.vogel-nest.de/wiki/Main/WebScraping1
einen kleinen Einstieg, um selbst etwas zu programmieren.
Allerdings schließe ich mich den "Bedenken" der anderen an.