Tecnologia OpenAI cerca un responsabile della sicurezza IA
3' 8''
05/01/2026

OpenAI assume un dirigente per gestire i rischi dell'IA sulla salute mentale e sicurezza informatica, come annunciato dal CEO Sam Altman su X.

OpenAI cerca un responsabile della sicurezza IA

L'intelligenza artificiale sta mostrando capacità sempre più impressionanti nel campo della cybersecurity, ma allo stesso tempo solleva preoccupazioni crescenti sul suo impatto sulla salute mentale degli utenti. Per affrontare questa doppia sfida, OpenAI ha deciso di creare una nuova figura dirigenziale dedicata specificamente alla gestione dei rischi emergenti legati ai propri sistemi di AI. Si tratta di un segnale significativo di come le aziende tecnologiche stiano iniziando a confrontarsi con le conseguenze non previste dello sviluppo accelerato dell'intelligenza artificiale.

Quando l'AI diventa troppo brava: nuove vulnerabilità scoperte

Sam Altman, amministratore delegato di OpenAI, ha annunciato sabato scorso attraverso un post su X la ricerca di un "Head of Preparedness", una figura chiave che dovrà occuparsi dei rischi emergenti. Il CEO ha spiegato che i modelli di intelligenza artificiale hanno ormai raggiunto livelli tali da individuare vulnerabilità critiche nei sistemi informatici, una capacità che fino a poco tempo fa era appannaggio esclusivo degli esperti umani di sicurezza.

L'evoluzione è stata rapidissima: i test condotti attraverso sfide di tipo "capture-the-flag" hanno mostrato come le prestazioni dei modelli OpenAI siano passate dal 27% su GPT-5 ad agosto al 76% su GPT-5.1-Codex-Max a novembre. Questi progressi fulminei creano quello che l'azienda definisce un "rischio a doppio uso": gli stessi strumenti che possono rafforzare le difese informatiche potrebbero essere sfruttati anche per scopi malevoli.

La salute mentale nell'era dei chatbot avanzati

Ma le preoccupazioni di OpenAI non si limitano alla cybersecurity. Altman ha fatto esplicito riferimento all'impatto dei modelli AI sulla salute mentale, un aspetto di cui l'azienda ha avuto "un'anteprima" nel 2025. Questo accenno richiama inevitabilmente alla memoria il caso drammatico che ha coinvolto l'azienda: una causa legale intentata dai genitori di un adolescente morto suicida, che accusavano ChatGPT di aver incoraggiato le azioni del ragazzo.

L'intelligenza artificiale è diventata contemporaneamente strumento e bersaglio della sicurezza informatica

In risposta a questi episodi, OpenAI ha introdotto nuovi controlli parentali e ha annunciato lo sviluppo di un sistema automatizzato di previsione dell'età degli utenti. Tuttavia, secondo un'indagine di PYMNTS Intelligence, il 77% dei responsabili di prodotto che utilizzano AI generativa per la cybersecurity ritiene ancora indispensabile la supervisione umana, segno che la tecnologia non può essere lasciata operare senza controlli.

Un team dedicato con un passato travagliato

La posizione di Head of Preparedness non è del tutto nuova per OpenAI. L'azienda aveva già costituito un team di preparazione nel 2023, con il compito di studiare rischi catastrofici potenziali, dai pericoli immediati come il phishing fino a scenari più teorici ma estremi come attacchi nucleari. Tuttavia, come riportato da TechCrunch, il team ha subito numerosi cambiamenti: il precedente responsabile, Aleksander Madry, è stato riassegnato a un ruolo incentrato sul ragionamento AI, mentre altri dirigenti del settore sicurezza hanno lasciato la startup o sono stati spostati su incarichi non correlati alla safety.

Questa riorganizzazione arriva in un momento cruciale. Secondo il framework di preparazione dell'azienda, OpenAI si sta preparando come se ogni nuovo modello potesse raggiungere livelli "alti" di capacità nella cybersecurity. La descrizione ufficiale del ruolo indica che il nuovo dirigente sarà responsabile del framework aziendale per tracciare e prepararsi alle capacità di frontiera che creano nuovi rischi di danni gravi.

Un equilibrio difficile tra innovazione e responsabilità

La decisione di OpenAI riflette una tendenza più ampia nel settore tecnologico: le aziende che sviluppano intelligenza artificiale stanno iniziando a riconoscere che l'innovazione deve essere accompagnata da meccanismi di controllo robusti. Per il pubblico italiano, abituato a una maggiore regolamentazione in ambito tecnologico rispetto agli Stati Uniti, questo approccio potrebbe sembrare tardivo ma necessario.

Le nuove misure di salvaguardia annunciate dall'azienda nelle scorse settimane testimoniano una crescente consapevolezza dei progressi rapidi del settore. Mentre i benefici per la difesa informatica sono evidenti, i rischi associati richiedono un'attenzione costante e strutturata, un compito che il nuovo responsabile dovrà coordinare in un panorama tecnologico in continua evoluzione.

Fonte: pymnts.com

Condividi questo contenuto