È notizia di pochi giorni fa la creazione di una task force dedicata al monitoraggio di ChatGPT: l’EPDB - European Data Protection Board, ovvero il Comitato Europeo per la protezione dei dati, ha annunciato la nascita di un gruppo di lavoro per promuovere la collaborazione tra OpenAI e il Garante della privacy al fine di regolare l’addestramento del modello e l’uso dei dati personali dei cittadini europei.
"Poiché non è stato raggiunto un accordo sulle obiezioni depositate dai DPA dei diversi Paesi, l’EDPB è stata chiamata per risolvere la disputa tra i DPA entro due mesi" si legge nel comunicato.
I membri della task force dovranno supportare la collaborazione tra i Paesi per trovare un accordo per la protezione dei dati personali. Dopo la decisione del Garante italiano di sospendere ChatGPT, la situazione si è fatta complessa a tal punto che potrebbe di nuovo slittare l’approvazione dell’Artificial Intelligence Act.
Artificial intelligence Act
L’Unione Europea sta concentrando tutte le sue forze sullo sviluppo di una legislazione per l’intelligenza artificiale. L’Artificial Intelligence Act, presentato per la prima volta nell’aprile 2021, è ancora oggetto di dibattito: i punti da chiarire sono numerosi.
L’atto definisce controlli stringenti sulla qualità dei dati, la trasparenza dei modelli e la responsabilità di utilizzo, e mira a gestire questioni etiche e sfide implementative dei tool. L’Artificial Intelligence Act è il primo framework legale mai sviluppato, creato coordinando le richieste e i contributi di tutti gli Stati Membri.
"Nel campo dell’intelligenza artificiale la fiducia è un must" aveva affermato Margrethe Vestager, Commissario Europeo per la concorrenza, in occasione dell’annuncio pubblico della legislazione. "Con queste regole di riferimento, l’Unione Europea sta guidando lo sviluppo di nuove norme globali per potersi fidare dell’IA. Definendo gli standard possiamo aprire la strada alla tecnologia etica mondiale e nel frattempo garantire che l’Unione rimanga competitiva".
Alla base della proposta di legislazione c’è un framework per la classificazione dei sistemi che serve a determinare il livello di rischio della tecnologia in termini di salute e sicurezza delle persone. A seconda del rischio che pongono i modelli possono essere usati liberamente, con limitazioni oppure proibiti del tutto.
I modelli considerati ad alto rischio sono permessi, ma solo se sottoposti a test rigorosi sulla qualità dei dati e comprensivi di documentazione esaustiva su come utilizzarli e sull’attribuzione di responsabilità; di questa tipologia fanno parte, tra gli altri, dispositivi medici e veicoli a guida autonoma.
Le organizzazioni che useranno modelli ritenuti non conformi andranno incontro a multe molto elevate, fino a 30 milioni o il 6% del fatturato totale.
Anche gli U.S.A. scendono in campo
Anche il governo degli Stati Uniti sta valutando dei provvedimenti per controllare i rischi dei modelli di IA. Il Dipartimento del Commercio ha richiesto un RFC (Request for Comment) per raccogliere informazioni su come regolare l’uso dei chatbot e dei sistemi generativi. I dati raccolti dal documento verranno usati per informare l’Amministrazione e sviluppare un approccio per gestire rischi e opportunità della tecnologia.
Il Dipartimento ha anche avanzato l’ipotesi di inserire un processo di certificazione per i modelli prima che vengano rilasciati al grande pubblico. Il governo americano si è attivato e sta valutando il modo migliore per monitorare gli strumenti di IA generativa al fine di ridurre i rischi di un uso improprio dei tool.
I commenti verranno raccolti nei prossimi 60 giorni; gli esperti del settore potranno esporre le proprie idee per aiutare il congresso americano a definire regolamentazioni e limiti nell’uso dei modelli.