Wenn morgen der bot umbenannt wird oder 300 neue Suchmaschinen auftauchen, soll man dann ständig nachbessern müssen um sein Recht zu verteidigen? Außerdem, was wird mit der robots.txt geregelt? Das Lesen der Ressourcen durch bots. Kann man das Lesen einer öffentlich zugänglichen Ressource wirksam verbieten? Nein.lois69 hat geschrieben:das ganze ist ohnehin ein schwachsinn - von den gerichten und den zeitungen. man kann ja den google news bot je seite sperren oder seitenweit sperren dann kommt sie auch nicht im news.
typisch gerichte und anwälte die nichts verstehen und veraltete gesetze für das internet anwenden wollen. der richter wird ja nichts von news bot gehört haben.
"In Zukunft will sich Copiepresse übrigens an die Standards für Robots.txt und den Metatags halten. "Hirnhamster hat geschrieben:Problems solved: https://www.googlewatchblog.de/2011/07/ ... vorhanden/
Was impliziert, daß sie es bisher nicht getan haben. Aber ist das so?
"Außerdem lässt sich auch festlegen, ob man die Webseite nur aus Google News verbannen möchte."
Wie soll das gehen? Und warum sollte man das müssen? Google hat sich, wie jeder andere, an die Gesetze zu halten und eine Erlaubnis für eine Indexierung stellt keine Erlaubnis für andere Nutzungen dar.
PS.: Bei dem "Vorurteil" haben sie die Inhalte doch auch nur aus dem News-Angebot entfernt. Und wenn ich das richtig verstehe ist diese Urteil jetzt bestätigt worden.