Tecnologia Un software può verificare cosa sappia realmente un’IA
2' 3''
05/04/2023

L’università del Surrey ha sviluppato un software capace di analizzare e verificare le conoscenze dei sistemi di intelligenza artificiale.

Un software può verificare cosa sappia realmente un’IA

Un gruppo di ricercatori dell’Università del Surrey ha sviluppato un software per verificare quante informazioni un sistema di dati AI ha raccolto dal database digitale di un’organizzazione durante il suo training.

Questo software di analisi è pensato per essere utilizzato come parte del protocollo di sicurezza online di un'azienda, aiutando un'organizzazione a capire se l'IA ha imparato troppo o addirittura ha avuto accesso a dati sensibili.

Inoltre, il software può identificare se l'IA ha assimilato ed è eventualmente in grado di sfruttare i difetti nel codice del software, ad esempio nel caso di un gioco online.

Fortunat Rajaona, ricercatore specializzato nei metodi formali per la verifica della privacy e autore principale della ricerca, ha spiegato che questo software può essere particolarmente utile in applicazioni dove i sistemi di intelligenza artificiale interagiscono tra loro o con gli esseri umani, come le auto a guida autonoma in autostrada o i robot ospedalieri.

Fortunat Rajaona
Fortunat Rajaona, ricercatore specializzato in metodi formali dell'Università del Surrey

Rajaona ha dichiarato: “Il nostro software di verifica può dedurre quanto l'IA può imparare dalla loro interazione, se hanno abbastanza conoscenze che consentono una cooperazione di successo e se hanno troppe conoscenze che danneggiano la privacy. Attraverso la capacità di verificare ciò che l'IA ha appreso, possiamo dare alle organizzazioni la possibilità di utilizzare in sicurezza la potenza dell'IA”.

La sicurezza delle informazioni sensibili

L'obiettivo principale che si propone la ricerca e, di conseguenza, il sistema software sviluppato, è quello di capire cosa effettivamente sappia un sistema AI e garantire quindi la sicurezza delle informazioni sensibili.

Lo studio che ha accompagnato il software sviluppato all’Università del Surrey ha vinto il premio per il miglior articolo alla venticinquesima edizione del Simposio internazionale sui metodi formali.

Adrian Hilton
Adrian Hilton, direttore dell'Institute for People-Centred AI presso l'Università del Surrey

Il professor Adrian Hilton, direttore dell'Institute for People-Centred AI presso l'Università del Surrey, ha commentato: “Negli ultimi mesi c'è stato un enorme aumento di interesse pubblico e industriale nei modelli di intelligenza artificiale generativa alimentato dai progressi nei modelli linguistici di grandi dimensioni come ChatGPT”.

“La creazione di strumenti in grado di verificare le prestazioni dell'IA generativa è essenziale per sostenere la loro implementazione sicura e responsabile. Questa ricerca è un passo importante verso il mantenimento della privacy e dell'integrità dei set di dati utilizzati nella formazione”, ha concluso Hilton.

Potrebbe interessarti anche

Approfondimenti

L'IA trasforma la diagnostica per immagini e i percorsi di cura

Il dibattito "Evoluzione tecnologica e Intelligenza Artificiale in Diagnostica per Immagini. Stato dell’arte e prospetti...

Approfondimenti

Il 55% delle aziende farmaceutiche usa l'IA per progettare prodotti e servizi

Secondo il report "AI: radiografia di una rivoluzione in corso" condotto da Ascendant di Minsait, le aziende farmaceutic...

Approfondimenti

Il mercato italiano del Business Process Management continua a crescere

In Italia il mercato del Business Process Management sta crescendo grazie all'IA e a una maggiore attenzione delle impre...

News

Nasce Rethic.AI, rete d'imprese per l'adozione etica dell'IA in Italia

Nasce Rethic.AI, la prima rete d'imprese italiana per favorire l'adozione etica dell'intelligenza artificiale nel Paese.