Una chiacchierata di due ore con un chatbot ed ecco che sarà in grado di replicare la nostra personalità, di diventare un vero e proprio "clone" con i nostri stessi valori e le nostre preferenze.
Almeno questo è quanto sostenuto da una recente ricerca congiunta dell'Università di Stanford e Google DeepMind. Il team, guidato da Joon Sung Park, ha coinvolto 1.052 individui e li ha sottoposti a delle interviste qualitative sulle loro vite per misurare quanto gli agenti di IA riuscissero a replicare il loro comportamento e le attitudini.
Ogni partecipante ha preso parte a un'intervista a voce che spaziava tra diversi argomenti. Seguendo il protocollo di intervista sviluppato dai sociologi dell'American Voices Project, le persone coinvolte hanno parlato di temi sociali e di attualità, condividendo la propria visione sul mondo, e anche della propria storia di vita, approfondendo la propria infanzia, la storia famigliare, le relazioni importanti e qualsiasi evento importante.
In seguito, un'architettura dedicata sviluppata dal team ha sfruttato le trascrizioni delle interviste iniettandole nei prompt del singolo agente di IA, istruendolo a imitare l'intervistato basandosi sulle trascrizioni.
L'IA che simula l'uomo
Stando ai risultati riportati nel paper, gli agenti generativi hanno replicato le risposte dei partecipanti con un'accuratezza dell'85% in un test di confronto svolto due settimane dopo le interviste.
"La simulazione generalizzata degli atteggiamenti e dei comportamenti umani - in cui ogni persona simulata può impegnarsi in una serie di contesti sociali, politici o informativi - potrebbe consentire ai ricercatori di testare un'ampia serie di interventi e teorie. Come potrebbe, ad esempio, un insieme eterogeneo di individui rispondere a nuove politiche e messaggi di salute pubblica, reagire al lancio di un prodotto o rispondere a grandi shock?" spiega il team nel paper.
Secondo Park, avere degli agenti in grado di comportarsi come uno specifico essere umano sarebbe anche comodo per delegare loro molte attività. "Se puoi avere dei piccoli 'te' intorno che prendono delle decisioni che effettivamente avresti preso tu - questo, penso, è il futuro definitivo" ha affermato Park in un'intervista per MIT Technology Review.
La differenza principale tra questi agenti di IA e quelli già esistenti è che primi conversano effettivamente con gli esseri umani per comprenderne i tratti della personalità, mentre i secondi sono dei semplici chatbot che memorizzano le preferenze degli utenti, ma non riescono a comportarsi e ragionare come se fossero l'utente stesso.
Con queste premesse, gli agenti del team di Park potrebbero sottoporsi a simulazioni scientifiche che finora erano impossibili o difficili da eseguire con gli esseri umani. Questa "banca" di agenti, si legge nel paper, può essere usata anche come benchmark o come dataset di training per sviluppare nuovi modelli, prompt o architetture che riescono a simulare i partecipanti originali.
Se a livello teorico si tratta di un progresso notevole, bisogna considerare i rischi che derivano dall'uso di questi agenti. Non si tratta solo della possibilità di violazioni della privacy nel caso in cui qualcuno di non autorizzato acceda alla banca di agenti, ma soprattutto, come avverte il team di ricercatori, di manipolazioni degli agenti in modo che forniscano risposte diffamatorie o pericolose.
Per arginare questi rischi, i ricercatori propongono due modalità di accesso alle informazioni degli agenti: la prima, più restrittiva, fornisce risposte aggregate a domande prefissate, utili per analizzare il comportamento di grandi segmenti di popolazioni; la seconda prevede l'accesso a risposte individuali su domande scelte dal ricercatore. In questo secondo caso, però, colo che richiedono l'accesso alle informazioni dovranno fornire una documentazione dettagliata del progetto a cui si stanno dedicando per ottenere l'approvazione.
"Siamo consapevoli che con l'evolversi della ricerca aumenterà anche la complessità dei potenziali casi d'uso, i rischi, le opportunità e la possibilità di jailbreak" affermano i ricercatori. "Pertanto, manterremo un registro di controllo delle modalità di utilizzo di queste API e continueremo a monitorarne l'uso. Questo potrebbe portarci a espandere l'accesso - ad esempio, consentendo agli utenti di inviare nuove richieste per generare comportamenti degli agenti o integrare nuovi modelli - o, in alternativa, a limitare ulteriormente l'accesso, se necessario".
Nonostante i pericoli, molte compagnie hanno già espresso il loro interesse per l'architettura creata dal team di Stanford e DeepMind. Contattato dal MIT Technology Review, Hassaan Raza, CEO di Tavus, compagnia che crea gemelli digitali degli utenti, ha rivelato il suo interesse per il progetto, definendolo un modo più efficiente per replicare le unicità degli esseri umani. "La cosa davvero interessante è che potresti non aver bisogno di così tanta informazione. Che ne dici di parlare a un intervistatore virtuale per 30 minuti oggi, 30 minuti domani? E poi usiamo questi dati per creare il tuo gemello digitale"