Tecnologia Nightshade, il tool che "avvelena" i dataset di IA
Marina Londei
2' 14''
27/10/2023

L'Università di Chicago ha sviluppato un tool, "Nightshade", che altera le opere degli artisti per proteggerlo dagli usi scorretti dei modelli di IA.

Nightshade, il tool che "avvelena" i dataset di IA

Il web si sta riempiendo di immagini generate con tool di IA e gli artisti continuano a manifestare le proprie preoccupazioni sull'uso delle loro opere nei dataset di addestramento, dal momento che molti non rispettano il diritto d'autore.

Le regolamentazioni in merito sono ancora piuttosto fumose e gli artisti non sono tutelati adeguatamente; per questo l'Università di Chicago ha ideato un tool, "Nightshade", che promette di salvaguardare i diritti delle opere alterandole prima che vengano caricate online e incluse nei dataset di training.

Il nome del tool - "belladonna" in italiano, pianta dai frutti velenosi e potenzialmente fatali - non è stato scelto a caso: Nightshade "avvelena" le opere modificando alcuni pixel per fare in modo che gli algoritmi interpretino immagini, video o audio in modo errato. 

Pixabay
intelligenza artificiale

"Perché Nightshade? Perché l'asimmetria di potere tra le compagnie di IA e i content owner è ridicola" si legge in un tweet del profilo ufficiale del progetto Glaze, un altro strumento per contrastare il fenomeno dello sfruttamento delle opere senza consenso. 

"Sei sei uno studio cinematografico, una compagnia di videogiochi, una galleria d'arte o un artista indipendente l'unica cosa che puoi fare per evitare di essere risucchiato in un modello è 1) iscriversi a una lista opt-out e 2) specificare direttive 'do-not-scrape'".

L'università di Chicago vuole proteggere gli artisti

Le modifiche sono praticamente invisibili a occhio nudo, ma impattano l'analisi dei modelli: per esempio, l'IA potrebbe scambiare un soggetto per un altro a causa dei pixel alterati e produrre qualcosa di totalmente diverso. 

Leslie Katz, giornalista e autrice presso Forbes, ha intervistato Ben Zhao, professore a capo del team di sviluppo del tool. Zhao ha spiegato che il sistema "è pensato per chi addestra i modelli senza tenere conto del diritto d'autore, delle liste opt-out e delle direttive do-not-scrape degli artisti".

Pexels
artista IA

Il professore ha anche sottolineato che le compagnie etiche, cioè quelle che tengono conto del copyright e delle indicazioni degli artisti, non devono temere Nightshade.

Il tool non è ancora stato rilasciato e non è chiaro come si potranno distinguere gli utenti etici dei modelli da quelli che non rispettano il diritto d'autore: visto che l'opera viene modificata prima di essere caricata sul web, una volta che è stata inserita in un dataset pubblico tutti gli utenti degli strumenti di IA saranno colpiti dal "veleno".

Nightshade può essere efficace se usato solo su dataset privati di aziende o singoli utenti, ma ciò implica l'esecuzione di attacchi di poisoning mirati. 

La vera soluzione è sensibilizzare gli utenti dei modelli a collaborare con gli artisti per utilizzare le loro opere rispettandone il copyright e le richieste sui limiti di utilizzo.

Potrebbe interessarti anche

Approfondimenti

Adottare la GenAI: le sfide principali dei decision maker

Oggi tutti parlano di intelligenza artificiale e in particolare di IA generativa: questa tecnologia offre benefici reali...

Approfondimenti

L'IA nel mondo della consulenza: il caso Boston Consulting Group

Boston Consulting Group ha integrato l'IA in numerosi processi, ottenendo un generale miglioramento delle performance pe...

Opinioni

L'IA potenzia il lavoro dei dipendenti del customer service

L'intelligenza artificiale può migliorare l'operatività dei contact center e garantire un maggiore engagement dei dipend...

Opinioni

L'IA velocizza la presentazione dei brevetti, ma va usata con attenzione

L'intelligenza artificiale sta semplificando un gran numero di attività in quasi tutti i settori lavorativi, comp...