Tecnologia Un software può verificare cosa sappia realmente un’IA
2' 3''
05/04/2023

L’università del Surrey ha sviluppato un software capace di analizzare e verificare le conoscenze dei sistemi di intelligenza artificiale.

Un software può verificare cosa sappia realmente un’IA

Un gruppo di ricercatori dell’Università del Surrey ha sviluppato un software per verificare quante informazioni un sistema di dati AI ha raccolto dal database digitale di un’organizzazione durante il suo training.

Questo software di analisi è pensato per essere utilizzato come parte del protocollo di sicurezza online di un'azienda, aiutando un'organizzazione a capire se l'IA ha imparato troppo o addirittura ha avuto accesso a dati sensibili.

Inoltre, il software può identificare se l'IA ha assimilato ed è eventualmente in grado di sfruttare i difetti nel codice del software, ad esempio nel caso di un gioco online.

Fortunat Rajaona, ricercatore specializzato nei metodi formali per la verifica della privacy e autore principale della ricerca, ha spiegato che questo software può essere particolarmente utile in applicazioni dove i sistemi di intelligenza artificiale interagiscono tra loro o con gli esseri umani, come le auto a guida autonoma in autostrada o i robot ospedalieri.

Fortunat Rajaona
Fortunat Rajaona, ricercatore specializzato in metodi formali dell'Università del Surrey

Rajaona ha dichiarato: “Il nostro software di verifica può dedurre quanto l'IA può imparare dalla loro interazione, se hanno abbastanza conoscenze che consentono una cooperazione di successo e se hanno troppe conoscenze che danneggiano la privacy. Attraverso la capacità di verificare ciò che l'IA ha appreso, possiamo dare alle organizzazioni la possibilità di utilizzare in sicurezza la potenza dell'IA”.

La sicurezza delle informazioni sensibili

L'obiettivo principale che si propone la ricerca e, di conseguenza, il sistema software sviluppato, è quello di capire cosa effettivamente sappia un sistema AI e garantire quindi la sicurezza delle informazioni sensibili.

Lo studio che ha accompagnato il software sviluppato all’Università del Surrey ha vinto il premio per il miglior articolo alla venticinquesima edizione del Simposio internazionale sui metodi formali.

Adrian Hilton
Adrian Hilton, direttore dell'Institute for People-Centred AI presso l'Università del Surrey

Il professor Adrian Hilton, direttore dell'Institute for People-Centred AI presso l'Università del Surrey, ha commentato: “Negli ultimi mesi c'è stato un enorme aumento di interesse pubblico e industriale nei modelli di intelligenza artificiale generativa alimentato dai progressi nei modelli linguistici di grandi dimensioni come ChatGPT”.

“La creazione di strumenti in grado di verificare le prestazioni dell'IA generativa è essenziale per sostenere la loro implementazione sicura e responsabile. Questa ricerca è un passo importante verso il mantenimento della privacy e dell'integrità dei set di dati utilizzati nella formazione”, ha concluso Hilton.

Potrebbe interessarti anche

Tecnologia

A.I. Verify: Creare fiducia nell'intelligenza artificiale

Singapore sta sperimentando un framework e un toolkit di test per aiutare le industrie a essere più trasparenti sulla loro implementazione dell'IA.

Scenario

Il ruolo del Chief Data Officer: tendenze e sfide

L’undicesimo Big Data and AI Executive Survey rivela l'aumento dell'adozione del ruolo CDO/CDAO e le sfide nella modernizzazione e gestione dei dati.

Scenario

Una nuova era di creatività o una minaccia per la società?

L'IA generativa promette di espandere la creatività umana, ma solleva preoccupazioni per l'impatto sulla società e sull'economia.

News

SiteGround: IA al servizio della sicurezza dei siti Web

Il provider di hosting ha implementato un sistema basato sull’'IA per bloccare il 95% delle query dannose e migliorare la sicurezza dei siti web ospitati.