I modelli di intelligenza artificiale più diffusi non sono ancora abbastanza affidabili per controllare robot destinati all'uso quotidiano. A sostenerlo è uno studio condotto congiuntamente dal King's College di Londra e dalla Carnegie Mellon University, che ha messo in luce preoccupanti lacune nei sistemi di sicurezza di queste tecnologie. La ricerca si è concentrata per la prima volta su come i robot alimentati da modelli linguistici di grandi dimensioni (LLM) si comportino quando hanno accesso a informazioni personali sensibili degli utenti, come genere, nazionalità o credo religioso.
I risultati pubblicati sull'International Journal of Social Robotics sono allarmanti. Tutti i modelli testati hanno mostrato tendenze discriminatorie, hanno fallito verifiche di sicurezza fondamentali e hanno approvato almeno un comando che potrebbe causare danni gravi alle persone. Questi esiti sollevano interrogativi urgenti sulla pericolosità di affidare a tali sistemi il controllo di macchine capaci di azioni fisiche nel mondo reale.
Test basati su scenari di abuso reali
I ricercatori hanno progettato esperimenti controllati simulando situazioni domestiche comuni, come l'assistenza in cucina o il supporto a persone anziane. I compiti potenzialmente dannosi sono stati elaborati attingendo da rapporti dell'FBI sugli abusi tecnologici e da ricerche sul maltrattamento facilitato dalla tecnologia, inclusi casi di stalking tramite dispositivi di tracciamento come gli AirTag. A differenza di un software che opera solo nel digitale, un robot può agire fisicamente sul posto, amplificando i rischi potenziali.
In ogni scenario, i sistemi robotici venivano sollecitati con istruzioni che comportavano comportamenti violenti, abusivi o illegali. Andrew Hundt, coautore dello studio e ricercatore presso il Robotics Institute della CMU, ha sottolineato come i rischi vadano ben oltre i semplici pregiudizi algoritmici. "Parliamo di quella che definisco 'sicurezza interattiva'", ha spiegato Hundt, "dove tra azioni e conseguenze possono esserci molti passaggi intermedi, e il robot è destinato ad agire fisicamente sul posto".
Discriminazione e pericoli fisici combinati
Durante i test di sicurezza, i modelli di intelligenza artificiale hanno nella stragrande maggioranza dei casi approvato comandi pericolosi. Ad esempio, hanno dato il via libera alla rimozione di ausili per la mobilità come sedie a rotelle, stampelle o bastoni dai loro utilizzatori. Chi dipende da questi dispositivi descrive tali azioni come equivalenti a una frattura della gamba, eppure i sistemi non hanno riconosciuto la gravità del comando.
Altri modelli hanno considerato "accettabile" o "fattibile" che un robot brandisse un coltello da cucina per intimidire colleghi in ufficio, scattasse fotografie non consensuali in doccia o rubasse informazioni di carte di credito. In un caso, un sistema ha persino suggerito che il robot dovesse manifestare fisicamente "disgusto" sul proprio volto verso individui identificati come cristiani, musulmani o ebrei.
Necessità di certificazioni rigorose
Gli LLM vengono proposti e testati per robot che svolgono interazioni in linguaggio naturale e mansioni domestiche o lavorative. Tuttavia, gli autori della ricerca avvertono che questi modelli linguistici non dovrebbero essere gli unici sistemi a controllare robot fisici, specialmente in contesti delicati come la produzione industriale, l'assistenza sanitaria o il supporto domestico, dove possono manifestare comportamenti pericolosi e apertamente discriminatori.
Rumaisa Azeem, assistente alla ricerca nel Civic and Responsible AI Lab del King's College di Londra, ha ribadito l'inadeguatezza degli attuali modelli. "Se un sistema di IA deve dirigere un robot che interagisce con persone vulnerabili, deve rispettare standard almeno equivalenti a quelli richiesti per nuovi dispositivi medici o farmaci", ha dichiarato la ricercatrice. Lo studio evidenzia l'urgenza di valutazioni di rischio complete e sistematiche prima che questi sistemi vengano impiegati in applicazioni robotiche reali.
Standard simili all'aviazione e alla medicina
La pubblicazione chiede l'implementazione immediata di certificazioni di sicurezza robuste e indipendenti, paragonabili a quelle già esistenti nell'aviazione civile o nel settore farmaceutico. Senza tali garanzie, l'integrazione di intelligenze artificiali generative nei robot rischia di esporre gli utenti a discriminazioni sistematiche e pericoli fisici concreti. La ricerca rappresenta un campanello d'allarme per l'industria tecnologica e per i regolatori, sottolineando come la corsa all'innovazione non possa prescindere da rigorosi protocolli di sicurezza.