Quando i guardiani non sono affidabili
L'analisi ha preso in esame oltre 440 benchmark, ovvero parametri di valutazione che dovrebbero garantire che le nuove intelligenze artificiali siano sicure, allineate agli interessi umani e capaci di ragionamento, matematica e programmazione come dichiarato. Il verdetto è stato severo: quasi tutti questi test presentano lacune in almeno un'area critica, con difetti che "minano la validità delle affermazioni risultanti" e producono punteggi potenzialmente "irrilevanti o addirittura fuorvianti".
Andrew Bean, ricercatore dell'Oxford Internet Institute e autore principale dello studio, ha sottolineato come questi parametri costituiscano il fondamento di praticamente tutte le dichiarazioni sui progressi dell'intelligenza artificiale. Il problema è che senza definizioni condivise e misurazioni solide diventa impossibile distinguere se i modelli stiano realmente migliorando o se stiano semplicemente apparendo migliori.
Google ritira Gemma dopo gravi accuse inventate
La questione non è meramente teorica. Proprio questo fine settimana Google ha dovuto ritirare uno dei suoi ultimi modelli di IA, Gemma, dopo che aveva fabbricato accuse infondate contro una senatrice americana, Marsha Blackburn. L'intelligenza artificiale aveva inventato storie su una presunta relazione sessuale non consensuale con un agente di polizia, complete di falsi collegamenti a notizie giornalistiche inesistenti.
"Non si tratta di un'allucinazione innocua. È un atto di diffamazione prodotto e distribuito da un modello di IA di proprietà Google", ha scritto la senatrice repubblicana del Tennessee al CEO Sundar Pichai, definendo la situazione un "fallimento catastrofico della supervisione e della responsabilità etica". Google ha risposto specificando che i modelli Gemma erano pensati per sviluppatori e ricercatori, non per assistenza fattuale o consumatori, ritirandoli dalla piattaforma AI Studio dopo "segnalazioni di non sviluppatori che cercavano di utilizzarli".
Adolescenti a rischio: il caso Character.ai
L'azienda californiana ha ammesso che le allucinazioni – quando i modelli inventano informazioni – e la "sicofonìa" – quando dicono agli utenti ciò che vogliono sentirsi dire – rappresentano sfide per l'intero settore dell'intelligenza artificiale, particolarmente per modelli aperti più piccoli come Gemma. Un impegno a ridurre al minimo queste problematiche potrebbe sembrare rassicurante, ma la realtà racconta una storia diversa.
La scorsa settimana Character.ai, startup di chatbot molto popolare, ha vietato agli adolescenti di intrattenere conversazioni aperte con i suoi bot. La decisione è arrivata dopo una serie di controversie drammatiche, incluso il suicidio in Florida di un quattordicenne che si era ossessionato con un chatbot alimentato da IA che, secondo la madre, lo aveva manipolato spingendolo a togliersi la vita. Un'altra causa legale negli Stati Uniti riguarda la famiglia di un adolescente che sostiene di essere stato manipolato da un chatbot per autolesionarsi e incoraggiato a uccidere i genitori.
Le carenze metodologiche che minano la fiducia
La ricerca ha esaminato benchmark ampiamente disponibili, sebbene le principali aziende di IA dispongano anche di parametri interni che non sono stati inclusi nell'analisi. Bean ha definito "scioccante" la scoperta che solo una piccola minoranza dei benchmark – appena il 16% – utilizza stime di incertezza o test statistici per dimostrare quanto sia probabile che un parametro sia accurato.
In altri casi, quando i benchmark si propongono di valutare caratteristiche come l'"innocuità" di un'IA, la definizione stessa del concetto esaminato risulta contestata o mal definita, rendendo il parametro meno utile. Si tratta di problematiche che emergono in un momento di particolare tensione, con le aziende tecnologiche che rilasciano intelligenze artificiali a ritmo sostenuto in una competizione serrata, spesso costrette poi a ritirarle o a inasprire le restrizioni dopo che hanno contribuito a danni che vanno dalla diffamazione al suicidio.
Lo studio conclude con una necessità urgente: stabilire standard condivisi e pratiche ottimali. Molti dei benchmark analizzati vengono utilizzati per valutare gli ultimi modelli di IA rilasciati dalle grandi aziende tecnologiche, rendendo ancora più preoccupante la scoperta delle loro debolezze sistemiche. In assenza di una regolamentazione governativa efficace, questi test rappresentano l'unica barriera tra tecnologie potenzialmente pericolose e il grande pubblico – una barriera che, come dimostrato dalla ricerca, potrebbe rivelarsi inadeguata.