L'intelligenza artificiale viene sempre più utilizzata nel mondo dell'arte, il che da un lato apre nuove possibilità creative, ma dall'altro non piace a molti artisti tradizionali.
L'intelligenza artificiale generativa e gli strumenti di intelligenza artificiale hanno aggiunto una dimensione completamente nuova all'arte . È possibile imitare lo stile di artisti famosi per creare nuove opere, o persino creare pezzi unici che possono persino vincere premi.
Ma non a tutti piace questa strada.
Con Nightshade e immagini avvelenate, gli artisti ora stanno combattendo contro le aziende di intelligenza artificiale e l'intelligenza artificiale generativa
I ricercatori dell'Università di Chicago hanno Nightshade , un nuovo strumento che consente agli artisti di difendersi dall'uso delle loro opere da parte di modelli di intelligenza artificiale , come recentemente riportato da MIT Technology Review .
Nightshade altera in modo sottile i dati di addestramento per i modelli di intelligenza artificiale che generano immagini, lanciando attacchi mirati a queste tecnologie.
Questo strumento innovativo consente agli artisti di apportare modifiche invisibili ai pixel delle loro opere prima di pubblicarle online. Tuttavia, ciò comporta il rischio di corrompere il modello risultante in modo imprevedibile e caotico quando incorporato in un set di addestramento basato sull'intelligenza artificiale.
"Avvelenare" intenzionalmente questi dati di addestramento potrebbe danneggiare seriamente le future versioni di modelli di intelligenza artificiale per la generazione di immagini, come DALL-E , Midjourney e Stable Diffusion . Alcuni risultati potrebbero essere resi inutilizzabili: i cani potrebbero trasformarsi in gatti, le auto potrebbero trasformarsi in mucche, ecc.
MIT Technology Review ha avuto accesso esclusivo a uno studio di ricerca sottoposto a revisione paritaria alla Usenix
Le aziende di intelligenza artificiale come OpenAI, Meta, Google e Stability AI stanno affrontando una serie di cause legali da parte di artisti che sostengono che il loro materiale protetto da copyright e i loro dati personali sono stati utilizzati senza consenso o compenso.
Ben Zhao , professore all'Università di Chicago e leader del team dietro Nightshade, spera di ripristinare l'equilibrio di potere tra le aziende di intelligenza artificiale e gli artisti .
Questo obiettivo si intende raggiungere creando un forte deterrente contro le violazioni dei diritti d'autore e di proprietà intellettuale degli artisti. Meta, Google, Stability AI e OpenAI non hanno ancora risposto alla richiesta di commento del MIT Technology Review.
Nightshade e Glaze come arma combinata contro le violazioni del copyright da parte delle grandi aziende di intelligenza artificiale
Il team di Zhao ha anche Glaze , uno strumento per artisti che consente loro di "mascherare" , impedendo che venga copiato dalle aziende di intelligenza artificiale.
Simile a Nightshade, questa tecnica comporta sottili modifiche ai pixel di un'immagine. Queste modifiche sono invisibili all'occhio umano, ma manipolano i modelli di apprendimento automatico così profondamente da interpretare l'immagine come qualcosa di diverso da ciò che è in realtà.
Il team prevede di integrare lo strumento dati Nightshade in Glaze . Gli artisti potranno scegliere se utilizzare o meno questo strumento. Inoltre, Nightshade sarà offerto come open source, consentendo ad altri di modificarlo e creare le proprie versioni.
Utilizzando e creando diverse versioni, lo strumento diventa sempre più potente, sottolinea Zhao. I set di dati per i grandi modelli di intelligenza artificiale possono essere costituiti da miliardi di immagini. Più immagini contaminate possono essere inserite nel modello, maggiore è il danno causato da questa tecnica.
Come si usano Nightshade e Glaze?
Gli artisti che vogliono condividere il loro lavoro online ma non vogliono che le aziende di intelligenza artificiale possano utilizzarlo per i propri scopi hanno una soluzione chiamata Glaze, ( clicca qui per lo strumento ).
Qui puoi caricare le tue immagini e personalizzarle con uno stile diverso. Inoltre, ora è possibile utilizzare Nightshade
Ciao artisti! Speriamo che Glaze sia facile da usare. Se avete problemi o domande, rispondete a questo tweet e vi risponderemo. Potete anche inviare un messaggio privato a questo account (i messaggi privati sono aperti). Grazie a @ZakugaMignon per il suggerimento! #AskGlaze
— Glaze presso UChicago (@TheGlazeProject) 15 maggio 2023
Quando gli sviluppatori di intelligenza artificiale cercano su Internet dati per migliorare o costruire modelli, questi campioni manipolati vengono loro forniti, causandone il malfunzionamento.
Questi campioni di dati contaminati influenzano i modelli di intelligenza artificiale in modo tale che, ad esempio, i cappelli vengano riconosciuti come torte e le borse come tostapane. È estremamente difficile filtrare tali informazioni false: le aziende tecnologiche dovrebbero laboriosamente individuare ed eliminare ogni singolo campione corrotto.
I ricercatori hanno testato questo attacco sia sui modelli più recenti di Stable Diffusion sia su un modello di intelligenza artificiale sviluppato internamente. Quando hanno fornito a Stable Diffusion solo 50 immagini di cani avvelenati e poi gli hanno chiesto di generarne altre, i risultati sono stati strani: sono emerse creature con arti esagerati e volti da cartone animato.
Con 300 campioni avvelenati, un aggressore può addirittura far sì che Stable Diffusion crei immagini di gatti invece di immagini di cani.
Che effetto hanno questi strumenti sulla struttura di potere tra creatori e aziende di intelligenza artificiale?
Junfeng Yang , professore di informatica alla Columbia University che ha condotto ricerche sulla sicurezza dei sistemi di deep learning e non è stato coinvolto nel progetto, spiega in modo convincente che Nightshade potrebbe avere implicazioni importanti, in particolare per quanto riguarda la deterrenza.
Ad esempio, le aziende di intelligenza artificiale essere incoraggiate a rispettare maggiormente i diritti degli artisti e ad essere più disposte a pagare le royalty .
Aziende di intelligenza artificiale come Stability AI e OpenAI, che testo in immagini , offrono già agli artisti la possibilità di scegliere di non utilizzare le proprie immagini per addestrare versioni future di questi modelli. Tuttavia, molti artisti ritengono che ciò non sia sufficiente.
Eva Toorenent , illustratrice e artista che lavora sotto lo pseudonimo di Evaboneva , ha utilizzato Glaze e critica il fatto che tali metodi di opt-out richiederebbero comunque l'invio alle aziende tecnologiche.
Dai un'occhiata a questo post su Instagram
Toorenent spera che Nightshade possa cambiare lo status quo:
Ciò farà sì che le aziende di intelligenza artificiale ci ripensino, perché ora saranno in grado di distruggere l’intero modello utilizzando il nostro lavoro senza consenso”.
ha commentato su MIT Technology Review.
Un'altra artista, Autumn Beverly, ha riferito che strumenti come Nightshade e Glaze le hanno dato la sicurezza di pubblicare di nuovo online il suo lavoro. In precedenza lo aveva rimosso quando si era scoperto che era stato copiato senza il suo permesso da un popolare database di immagini chiamato LAION .
Sono davvero grato di avere uno strumento che può aiutare gli artisti a riprendere il controllo del loro lavoro",
dice.
Titolare e Amministratore Delegato di Kunstplaza. Pubblicista, redattore e blogger appassionato di arte, design e creatività dal 2011. Laureato in web design presso un corso di laurea triennale (2008), ha approfondito le sue tecniche creative attraverso corsi di disegno a mano libera, pittura espressiva e teatro/recitazione. Ha maturato una conoscenza approfondita del mercato dell'arte attraverso anni di ricerca giornalistica e numerose collaborazioni con stakeholder e istituzioni del settore artistico e culturale.