Un gruppo di ricercatori dell’Università del Surrey ha sviluppato un software per verificare quante informazioni un sistema di dati AI ha raccolto dal database digitale di un’organizzazione durante il suo training.
Questo software di analisi è pensato per essere utilizzato come parte del protocollo di sicurezza online di un'azienda, aiutando un'organizzazione a capire se l'IA ha imparato troppo o addirittura ha avuto accesso a dati sensibili.
Inoltre, il software può identificare se l'IA ha assimilato ed è eventualmente in grado di sfruttare i difetti nel codice del software, ad esempio nel caso di un gioco online.
Fortunat Rajaona, ricercatore specializzato nei metodi formali per la verifica della privacy e autore principale della ricerca, ha spiegato che questo software può essere particolarmente utile in applicazioni dove i sistemi di intelligenza artificiale interagiscono tra loro o con gli esseri umani, come le auto a guida autonoma in autostrada o i robot ospedalieri.
Rajaona ha dichiarato: “Il nostro software di verifica può dedurre quanto l'IA può imparare dalla loro interazione, se hanno abbastanza conoscenze che consentono una cooperazione di successo e se hanno troppe conoscenze che danneggiano la privacy. Attraverso la capacità di verificare ciò che l'IA ha appreso, possiamo dare alle organizzazioni la possibilità di utilizzare in sicurezza la potenza dell'IA”.
La sicurezza delle informazioni sensibili
L'obiettivo principale che si propone la ricerca e, di conseguenza, il sistema software sviluppato, è quello di capire cosa effettivamente sappia un sistema AI e garantire quindi la sicurezza delle informazioni sensibili.
Lo studio che ha accompagnato il software sviluppato all’Università del Surrey ha vinto il premio per il miglior articolo alla venticinquesima edizione del Simposio internazionale sui metodi formali.
Il professor Adrian Hilton, direttore dell'Institute for People-Centred AI presso l'Università del Surrey, ha commentato: “Negli ultimi mesi c'è stato un enorme aumento di interesse pubblico e industriale nei modelli di intelligenza artificiale generativa alimentato dai progressi nei modelli linguistici di grandi dimensioni come ChatGPT”.
“La creazione di strumenti in grado di verificare le prestazioni dell'IA generativa è essenziale per sostenere la loro implementazione sicura e responsabile. Questa ricerca è un passo importante verso il mantenimento della privacy e dell'integrità dei set di dati utilizzati nella formazione”, ha concluso Hilton.