OpenAI ha nominato Dylan Scand, proveniente dal team di sicurezza di Anthropic, come nuovo responsabile della preparedness, un ruolo strategico che prevede una retribuzione fino a 555.000 dollari più equity. L'annuncio è stato dato da Sam Altman su X mercoledì scorso, sottolineando l'urgenza di gestire i rischi legati ai sistemi di intelligenza artificiale sempre più potenti che l'azienda sta sviluppando. La posizione, rimasta vacante per mesi, si colloca al centro delle crescenti preoccupazioni sulla sicurezza nell'IA generativa.
Il mercato del lavoro nell'intelligenza artificiale sta vivendo una fase di mobilità senza precedenti tra i principali laboratori, con talenti specializzati in sicurezza che diventano sempre più contesi. La decisione di OpenAI di reclutare direttamente da Anthropic, azienda fondata da ex dipendenti della stessa OpenAI proprio per dissensi sulla gestione dei rischi, evidenzia quanto sia critica la carenza di competenze in questo segmento.
Altman ha definito Scand "di gran lunga il miglior candidato incontrato ovunque per questo ruolo", aggiungendo che "le cose stanno per muoversi piuttosto velocemente e lavoreremo presto con modelli estremamente potenti". La formulazione lascia intendere che OpenAI sia prossima al rilascio di nuove generazioni di sistemi, probabilmente successori di GPT-4, con capacità computazionali significativamente superiori.
Il ruolo di head of preparedness richiede competenze nella guida di team tecnici, capacità di prendere decisioni ad alto rischio in condizioni di incertezza e abilità nel coordinare stakeholder con interessi divergenti sulle questioni di sicurezza. La job description specificava la necessità di expertise approfondita in machine learning, AI safety e aree di rischio correlate. Lo stesso Altman aveva avvertito il mese scorso che la posizione sarebbe stata "stressante", con un ingresso "quasi immediato nelle acque profonde".
La nomina arriva in un momento delicato per la società californiana. Negli ultimi anni, diversi dipendenti senior hanno lasciato OpenAI citando divergenze sulla gestione dei protocolli di sicurezza, incluso l'ex responsabile del team safety. Le tensioni interne riflettono un dibattito più ampio nel settore: quanto rapidamente sviluppare e commercializzare sistemi sempre più capaci, bilanciando innovazione e precauzioni.
Parallelamente, l'azienda affronta crescenti pressioni legali. Diversi utenti hanno intentato cause sostenendo che gli strumenti di OpenAI abbiano contribuito a comportamenti dannosi. In ottobre, la società ha rivelato dati preoccupanti: circa 560.000 utenti settimanali di ChatGPT mostrano "possibili segni di emergenze di salute mentale". L'ammissione ha sollevato interrogativi sulla responsabilità delle piattaforme conversazionali nel gestire situazioni di fragilità psicologica.
In risposta, OpenAI ha dichiarato di consultare specialisti di salute mentale per perfezionare le modalità con cui il chatbot risponde quando gli utenti manifestano segnali di disagio psicologico o dipendenza malsana dalla piattaforma. L'approccio solleva questioni etiche complesse: i sistemi di IA conversazionale dovrebbero fungere da primo filtro per problemi di salute mentale? E quale formazione specifica richiederebbe tale funzione?
Il compenso offerto per la posizione, che supera il mezzo milione di dollari escludendo l'equity, rappresenta un benchmark significativo per ruoli di sicurezza nell'IA. Tradizionalmente, le figure tecniche più remunerate nei laboratori di intelligenza artificiale sono ricercatori e ingegneri che sviluppano modelli, non chi ne valuta i rischi. Il pacchetto retributivo segnala un potenziale ribilanciamento delle priorità, almeno a livello retorico.
Scand, nel suo messaggio di commiato da Anthropic, ha espresso "profonda gratitudine" per il tempo trascorso nell'azienda rivale. Il tono diplomatico non nasconde la delicatezza del passaggio: Anthropic si è posizionata come alternativa "safety-first" proprio rispetto all'approccio percepito come più aggressivo di OpenAI nella corsa al rilascio di nuovi prodotti.
Resta da verificare se questa nomina rappresenti un genuino cambio di rotta nella governance dei rischi o principalmente una mossa di immagine per placare critiche crescenti da parte di regolatori, investitori e opinione pubblica. La velocità di sviluppo annunciata da Altman sembra contraddire un approccio prudenziale, suggerendo che la pressione competitiva nel settore continui a prevalere sulle considerazioni di sicurezza a lungo termine.