Tecnologia Un software può verificare cosa sappia realmente un’IA
Dario Orlandi
2' 3''
05/04/2023

L’università del Surrey ha sviluppato un software capace di analizzare e verificare le conoscenze dei sistemi di intelligenza artificiale.

Un software può verificare cosa sappia realmente un’IA

Un gruppo di ricercatori dell’Università del Surrey ha sviluppato un software per verificare quante informazioni un sistema di dati AI ha raccolto dal database digitale di un’organizzazione durante il suo training.

Questo software di analisi è pensato per essere utilizzato come parte del protocollo di sicurezza online di un'azienda, aiutando un'organizzazione a capire se l'IA ha imparato troppo o addirittura ha avuto accesso a dati sensibili.

Inoltre, il software può identificare se l'IA ha assimilato ed è eventualmente in grado di sfruttare i difetti nel codice del software, ad esempio nel caso di un gioco online.

Fortunat Rajaona, ricercatore specializzato nei metodi formali per la verifica della privacy e autore principale della ricerca, ha spiegato che questo software può essere particolarmente utile in applicazioni dove i sistemi di intelligenza artificiale interagiscono tra loro o con gli esseri umani, come le auto a guida autonoma in autostrada o i robot ospedalieri.

Fortunat Rajaona
Fortunat Rajaona, ricercatore specializzato in metodi formali dell'Università del Surrey

Rajaona ha dichiarato: “Il nostro software di verifica può dedurre quanto l'IA può imparare dalla loro interazione, se hanno abbastanza conoscenze che consentono una cooperazione di successo e se hanno troppe conoscenze che danneggiano la privacy. Attraverso la capacità di verificare ciò che l'IA ha appreso, possiamo dare alle organizzazioni la possibilità di utilizzare in sicurezza la potenza dell'IA”.

La sicurezza delle informazioni sensibili

L'obiettivo principale che si propone la ricerca e, di conseguenza, il sistema software sviluppato, è quello di capire cosa effettivamente sappia un sistema AI e garantire quindi la sicurezza delle informazioni sensibili.

Lo studio che ha accompagnato il software sviluppato all’Università del Surrey ha vinto il premio per il miglior articolo alla venticinquesima edizione del Simposio internazionale sui metodi formali.

Adrian Hilton
Adrian Hilton, direttore dell'Institute for People-Centred AI presso l'Università del Surrey

Il professor Adrian Hilton, direttore dell'Institute for People-Centred AI presso l'Università del Surrey, ha commentato: “Negli ultimi mesi c'è stato un enorme aumento di interesse pubblico e industriale nei modelli di intelligenza artificiale generativa alimentato dai progressi nei modelli linguistici di grandi dimensioni come ChatGPT”.

“La creazione di strumenti in grado di verificare le prestazioni dell'IA generativa è essenziale per sostenere la loro implementazione sicura e responsabile. Questa ricerca è un passo importante verso il mantenimento della privacy e dell'integrità dei set di dati utilizzati nella formazione”, ha concluso Hilton.

Potrebbe interessarti anche

Opinioni

Le sei grandi sfide nello sviluppo dell’IA

Una ricerca che ha coinvolto 26 ricercatori ha delineato le sei sfide principali che dovranno essere affrontate nello sv...

Approfondimenti

I big data rivoluzionano il settore del trasporto marittimo

La raccolta e l'analisi dei dati può offrire molti spunti di ottimizzazione e integrazione per il settore del trasporto...

Scenario

Quattro tendenze nello sviluppo dell'intelligenza artificiale

Rishi Bommasani dell’Università di Stanford ha individuato quattro tendenze molto significative che stanno emergendo nei...

Mercato

Efficienza e sicurezza spingono l’IA in Europa

Un nuovo report di Idc ha indicato le tendenze di crescita per il mercato IA europeo, individuando anche i campi d’appli...