Tecnologia OpenAI cerca personale: stipendio da 500mila dollari
3' 16''
05/01/2026

Lavoro stressante e immersione immediata: l'avvertimento del CEO di OpenAI Sam Altman su X per i nuovi candidati all'assunzione.

OpenAI cerca personale: stipendio da 500mila dollari

Il dibattito sulla sicurezza dell'intelligenza artificiale torna al centro dell'attenzione con un'offerta di lavoro che ha fatto discutere: OpenAI, la società dietro ChatGPT, è alla ricerca di un nuovo responsabile della preparedness, disposta a pagare oltre mezzo milione di dollari all'anno. La cifra impressionante – 555.000 dollari più partecipazione azionaria – riflette l'urgenza con cui l'azienda guidata da Sam Altman affronta i rischi emergenti legati allo sviluppo dell'IA. Non si tratta di un incarico da ufficio tranquillo: lo stesso CEO ha avvertito su X che sarà un ruolo "stressante", dove ci si ritroverà "a tuffarsi nel profondo quasi immediatamente".

Le sfide crescenti dei modelli linguistici avanzati

Secondo Altman, i modelli di intelligenza artificiale stanno progredendo a ritmi vertiginosi, dimostrando capacità straordinarie ma iniziando a manifestare problematiche concrete. L'impatto sulla salute mentale degli utenti è emerso come questione rilevante nel 2025, mentre le competenze informatiche delle IA hanno raggiunto livelli tali da individuare vulnerabilità critiche nei sistemi di sicurezza. Il CEO non usa mezzi termini nel definire questo momento come "critico" per l'organizzazione.

La posizione vacante fa parte del team Safety Systems di OpenAI, il dipartimento dedicato allo sviluppo di protezioni, framework e valutazioni per i modelli dell'azienda. Il candidato ideale dovrà "essere il leader direttamente responsabile della costruzione e del coordinamento di valutazioni delle capacità, modelli di minaccia e misure di mitigazione" che costituiscano una pipeline di sicurezza coerente e scalabile.

Quando ChatGPT sostituisce lo psicologo

ChatGPT ha contribuito a rendere i chatbot basati sull'IA accessibili al grande pubblico: milioni di persone li utilizzano quotidianamente per ricerche, stesura di email, pianificazione di viaggi e altre attività pratiche. Tuttavia, una tendenza preoccupante ha preso piede: alcuni utenti ricorrono ai bot come alternativa alla terapia psicologica, con conseguenze talvolta problematiche. Casi documentati mostrano come queste interazioni abbiano in alcuni casi aggravato disturbi mentali esistenti, alimentando deliri e comportamenti allarmanti.

"Costruire macchine più intelligenti degli umani è intrinsecamente pericoloso"

Lo scorso ottobre, OpenAI ha dichiarato di collaborare con professionisti della salute mentale per migliorare le modalità con cui ChatGPT risponde agli utenti che manifestano segnali preoccupanti, inclusi sintomi psicotici o tendenze all'autolesionismo. Un'ammissione implicita che la tecnologia, per quanto avanzata, necessita ancora di supervisione umana qualificata nelle situazioni delicate.

L'esodo del team sicurezza

La missione dichiarata di OpenAI è sviluppare intelligenza artificiale a beneficio dell'intera umanità, con protocolli di sicurezza integrati sin dall'inizio. Tuttavia, diversi ex dipendenti hanno sollevato dubbi sul fatto che l'azienda stia mantenendo fede a questo impegno, accusandola di privilegiare il profitto rispetto alla sicurezza man mano che crescevano le pressioni commerciali.

Jan Leiki, ex responsabile del team di sicurezza poi sciolto, annunciò le proprie dimissioni nel maggio 2024 con un messaggio inequivocabile su X. "OpenAI si assume un'enorme responsabilità per conto di tutta l'umanità", scrisse, "ma negli ultimi anni la cultura e i processi di sicurezza sono passati in secondo piano rispetto a prodotti appariscenti". La sua uscita rappresentò solo l'inizio di una serie di defezioni.

Una fuga di cervelli preoccupante

Meno di una settimana dopo Leiki, un altro dipendente rassegnò le dimissioni citando analoghe preoccupazioni sulla sicurezza. Daniel Kokotajlo spiegò in un post di maggio 2024 di aver abbandonato l'azienda perché "stava perdendo fiducia nel fatto che si sarebbe comportata responsabilmente al momento dell'AGI" – l'intelligenza artificiale generale, ancora teorica, capace di ragionare come gli esseri umani.

Kokotajlo rivelò successivamente a Fortune che OpenAI disponeva inizialmente di circa 30 persone dedicate alla ricerca sui rischi legati all'AGI, ma una serie di abbandoni aveva ridotto quel numero quasi della metà. Un'emorragia di competenze difficile da ignorare per un'azienda che gestisce tecnologie così potenti e potenzialmente rischiose.

Il precedente responsabile della preparedness, Aleksander Madry, aveva assunto un nuovo ruolo nel luglio 2024, lasciando scoperta la posizione ora pubblicizzata da Altman. L'elenco dei rischi che il nuovo responsabile dovrà affrontare è lungo e inquietante: perdita di posti di lavoro, diffusione di disinformazione, utilizzo da parte di attori malintenzionati, distruzione ambientale ed erosione dell'autonomia umana. Per affrontare tutto questo, OpenAI ritiene che mezzo milione di dollari sia un investimento necessario.

Condividi questo contenuto