Künstliche Intelligenz findet zunehmend Verwendung in der Kunstwelt, was einerseits neue kreative Möglichkeiten eröffnet, andererseits jedoch vielen traditionellen Künstlern missfällt.
Generative AI und darauf aufbauende KI-Werkzeuge haben der Kunst eine völlig neue Dimension hinzugefügt. Sie können den Stil bekannter Künstler imitieren und so neue Werke schaffen oder sogar eigene einzigartige Werke erschaffen, die sogar Preise gewinnen können.
Doch dieser Weg gefällt nicht jedem.
Mit Nightshade und vergifteten Bildern wehren sich Künstler nun gegen KI-Firmen und Generative AI
Forscher der University of Chicago haben mit Nightshade ein neues Tool entwickelt, das es Künstlern ermöglicht, sich gegen die Nutzung ihrer Werke durch generative KI-Modelle zu verteidigen. Dies wurde kürzlich von MIT Technology Review berichtet.
Nightshade verändert subtil Trainingsdaten für bildgenerierende KI-Modelle und startet somit gezielte Angriffe auf diese Technologien.
Dieses innovative Werkzeug eröffnet Künstlern die Möglichkeit, unsichtbare Veränderungen an den Pixeln ihrer Kunst vorzunehmen, bevor sie diese im Internet veröffentlichen. Dadurch besteht jedoch das Risiko, dass bei der Übernahme in einen KI-Trainingssatz das resultierende Modell auf unvorhersehbare und chaotische Weise beschädigt wird.
Die absichtliche “Vergiftung” dieser Trainingsdaten könnte zukünftigen Versionen von bildgenerierenden KI-Modellen wie DALL-E, Midjourney und Stable Diffusion ernsthaft schaden. Einige Ergebnisse könnten dadurch unbrauchbar werden – Hunde könnten zu Katzen werden oder Autos zu Kühen usw.
Das MIT Technology Review hatte exklusiven Zugriff auf eine Forschungsstudie, die zur Peer-Review auf der Computersicherheitskonferenz Usenix eingereicht wurde.
KI-Unternehmen wie OpenAI, Meta, Google und Stability AI sehen sich einer Reihe von Klagen von Künstlern gegenüber. Diese behaupten, dass ihr urheberrechtlich geschütztes Material und ihre persönlichen Daten ohne Zustimmung oder Entschädigung verwendet wurden.
Ben Zhao, ein Professor an der University of Chicago und Leiter des Teams hinter Nightshade, hofft darauf, das Machtgleichgewicht zwischen den KI-Unternehmen und den Künstlern wiederherzustellen.
Dies soll durch eine starke Abschreckung gegen die Missachtung der Urheberrechte und geistigen Eigentumsrechte der Künstler erreicht werden. Die Unternehmen Meta, Google, Stability AI und OpenAI haben bisher nicht auf die Anfrage von MIT Technology Review reagiert bezüglich ihrer möglichen Reaktion.
Nightshade und Glaze als Kombi-Waffe gegen Urheberrechtsverletzungen der großen KI-Unternehmen
Zhaos Team hat außerdem Glaze entwickelt – ein Tool für Künstler -, mit dem sie ihren eigenen persönlichen Stil “maskieren” können. Dadurch wird verhindert, dass dieser von KI-Unternehmen kopiert wird.
Ähnlich wie bei Nightshade werden dabei subtile Veränderungen in den Pixeln eines Bildes vorgenommen. Diese sind für das menschliche Auge unsichtbar; jedoch manipulieren sie maschinelle Lernmodelle so sehr, dass diese das Bild als etwas anderes interpretieren als es tatsächlich ist.
Das Team plant, das Daten-Tool Nightshade in Glaze zu integrieren. Künstler haben die Wahl, ob sie dieses Tool verwenden möchten oder nicht. Zusätzlich wird Nightshade auch als Open Source angeboten, was anderen ermöglicht, daran herumzutüfteln und eigene Versionen davon zu erstellen.
Durch die Nutzung und Erstellung von verschiedenen Versionen wird das Tool immer leistungsstärker, betont Zhao. Die Datensätze für große KI-Modelle können aus Milliarden von Bildern bestehen. Je mehr vergiftete Bilder in das Modell eingespeist werden können, desto größer ist der Schaden durch diese Technik.
Wie funktioniert die Anwendung von Nightshade und Glaze?
Künstler, die ihre Werke online teilen möchten, aber nicht wollen, dass KI-Unternehmen sie für ihre Zwecke nutzen können, haben die bereits seit einigen Monaten vorhandene Lösung namens Glaze (hier geht’s zum Tool).
Hierbei können sie ihre Bilder hochladen und diese mit einem anderen Stil verfremden. Zusätzlich besteht nun auch die Möglichkeit Nightshade zu verwenden.
Hi artists!! We hope folks are finding Glaze easy to use. But if you have any issues / questions, please reply to this tweet and we’ll follow up. You can also DM this account (DMs open) if you want to send messages privately. Thx to @ZakugaMignon for the suggestion! #AskGlaze
— Glaze at UChicago (@TheGlazeProject) May 15, 2023
Wenn KI-Entwickler das Internet durchsuchen, um Daten zur Verbesserung oder Erstellung von Modellen zu sammeln, werden ihnen diese manipulierten Proben untergeschoben und führen dadurch zu Fehlfunktionen.
Diese vergifteten Datenproben haben den Effekt, die KI-Modelle so zu beeinflussen, dass beispielsweise Hüte als Kuchen und Handtaschen als Toaster erkannt werden. Es gestaltet sich äußerst schwierig solche falschen Informationen wieder auszusortieren – Technologieunternehmen müssten jede einzelne beschädigte Probe aufwändig finden und löschen.
Die Forscher testeten diesen Angriff sowohl auf den neuesten Modellen von Stable Diffusion als auch auf einem selbst entwickelten KI-Modell. Als sie Stable Diffusion lediglich 50 vergiftete Hundebilder fütterten und es dann aufforderten weitere Bilder von Hunden zu generieren sah das Ergebnis merkwürdig aus: Wesen mit übermäßig vielen Gliedmaßen und cartoonartigen Gesichtern entstanden.
Mit 300 vergifteten Proben kann ein Angreifer sogar Stable Diffusion dazu bringen Katzenbilder statt Hundebilder zu erstellen.
Welche Wirkung haben diese Tools auf das Machtgefüge zwischen Urhebern und KI-Unternehmen?
Junfeng Yang, ein Informatikprofessor an der Columbia University, der die Sicherheit von Deep-Learning-Systemen erforscht hat und nicht am Projekt beteiligt war, erklärt überzeugend, dass Nightshade potenziell große Auswirkungen haben könnte – insbesondere zur Abschreckung.
Zum Beispiel könnten KI-Unternehmen dazu gebracht werden, die Rechte von Künstlern besser zu respektieren und eher bereit sein Lizenzgebühren zu zahlen.
KI-Unternehmen wie Stability AI und OpenAI, die Text-zu-Bild generierende Modelle entwickelt haben, bieten Künstlern bereits die Möglichkeit an abzulehnen ihre Bilder zur Schulung zukünftiger Versionen dieser Modelle zu verwenden. Jedoch sind viele Künstler der Meinung, dass dies nicht ausreicht.
Eva Toorenent ist eine unter dem Pseudonym Evaboneva tätige Illustratorin und Künstlerin welche Glaze verwendet hat und kritisch anmerkt, dass solche Opt-out-Methoden dennoch verlangen würden, sich den Technologieunternehmen unterzuordnen.
Sieh dir diesen Beitrag auf Instagram an
Toorenent hofft darauf dass Nightshade den Status quo ändern kann:
Es wird [KI-Unternehmen] zum Umdenken bewegen da sie nun in der Lage sind ihr gesamtes Modell zu zerstören indem sie unsere Arbeit ohne Zustimmung nutzen“,
kommentierte sie gegenüber der MIT Technology Review.
Eine weitere Künstlerin namens Autumn Beverly berichtete davon, dass Tools wie Nightshade and Glaze ihr das Vertrauen zurückgegeben haben, ihre Werke wieder online zu veröffentlichen. Zuvor hatte sie diese entfernt, als herauskam dass diese ohne ihre Erlaubnis in einer beliebten Bilddatenbank namens LAION kopiert wurden.
Ich bin wirklich dankbar dafür ein Tool zur Verfügung zu haben welches den Künstlern helfen kann die Kontrolle über ihre Arbeit zurückzugewinnen“,
sagt sie.
Inhaber und Geschäftsführer von Kunstplaza. Publizist, Redakteur und passionierter Blogger im Bereich Kunst, Design und Kreativität seit 2011. Erfolgreicher Abschluss in Webdesign im Rahmen eines Hochschulstudiums (2008). Weiterentwicklung von Kreativitätstechniken durch Kurse in Freiem Zeichnen, Ausdrucksmalen und Theatre/Acting. Profunde Kenntnisse des Kunstmarktes durch langjährige journalistische Recherchen und zahlreichen Kooperationen mit Akteuren/Institutionen aus Kunst und Kultur.