In der
taz stellt Martin Seng die
Urheberschutzprogramme "Glaze Project" und "Nightshade" vor, zwei KI-Programme, die verhindern sollen, dass andere KI
fremde Kunst als Datensatz nutzen: "'Glaze' legt einen Filter über das jeweilige Bild, der die Anordnung der Pixel minimal verändert. Während das menschliche Auge das kaum erkennt, ist es umso deutlicher für die KI. Das Motiv des Kunstwerkes erkennt die KI zwar weiterhin, dafür schützt 'Glaze'
den Stil der jeweiligen Künstler, indem es eine Art Glasur über das Werk legt. Nach der Bearbeitung wird ein Bild in Comic-Optik von der KI nur noch als Ölgemälde oder Pop-Art ausgelesen. ... 'Nightshade' hingegen geht in die Offensive - die Entwickler verschleiern ihr 'Angriffswerkzeug' nicht. Auch hier wird mit einem kaum sichtbaren Filter gearbeitet, den Betrachtern nur im Detail erkennen. Dafür sieht die KI in einem 'shaded' Bild etwas
vollkommen Fremdes. Ähnlich wie 'Glaze' wird auch dafür die Anordnung der Pixel im jeweiligen Bild minimal verändert. Doch der technische Prozess ist bei 'Nightshade' deutlich umfangreicher, sodass sich nicht nur der Stil des Bildes, sondern ganze Motive abändern. Dadurch wird die KI am Auslesen des jeweiligen Bildes gehindert."
In der
SZ denkt auch der Jurist
Udo di Fabio darüber nach, wie Werke
urheberrechtlich vor der Nutzung durch
KI geschützt werden können. "Das Recht arbeitet neuerdings mit einer
Text-
and-
Data-
Mining-
Schranke, die 2019 durch die Richtlinie über das Urheberrecht im digitalen Binnenmarkt (DSM-Richtlinie) etabliert wurde", schreibt er. "Soweit die neue Schrankenregelung die Nutzung von rechtmäßig zugänglichen, abrufbaren Werken auch durch eine generative KI im Grundsatz ohne Erlaubnis oder Lizenzierung des Urhebers ermöglichen sollte, hätte das Urheberrechtsgesetz den
Rechtsdurchsetzungsmechanismus umgekehrt. Der Verwerter müsste nicht um Erlaubnis fragen, sondern der Urheber die Nutzung seines Werkes in Form eines 'maschinenlesbaren' Rechtevorbehalts sperren. Eine Urheberin oder Künstlerin, die ihr Werk nicht ungefragt zum Gegenstand einer erst trainierenden, dann mit ihr konkurrierenden Automatisierungsintelligenz machen will, kann und muss demnach ein 'Opt-out' erklären. Tut sie das nicht, so könnte ihr zugängliches Werk als Teil einer '
digitalen Allmende' betrachtet werden, an der sich jeder bedienen darf. Wie und ob das Opt-out ('maschinenlesbar') in der Praxis künftig funktioniert, darf als offene Frage gelten."