Crescita esplosiva e caos organizzativo
I numeri della crescita di OpenAI parlano da soli e spiegano molti dei problemi strutturali che French-Owen ha osservato. Quando l'ingegnere è entrato in azienda, il personale contava poco più di 1.000 persone. Dodici mesi dopo, quel numero era triplicato, raggiungendo quota 3.000 dipendenti. Una crescita così vertiginosa ha inevitabilmente creato fratture profonde nell'organizzazione aziendale.
"Quando cresci a quella velocità, tutto si rompe", ha scritto French-Owen, che si è ritrovato tra i dipendenti con maggiore anzienità nonostante avesse appena un anno di esperienza in azienda. La comunicazione interna, le strutture gerarchiche, il processo di assunzione: ogni aspetto organizzativo ha subito gli effetti di questa espansione incontrollata.
Una filosofia del "fare prima, coordinare poi"
Quello che emerge dal racconto dell'ex dipendente è un quadro di anarchia creativa dove i progetti nascono spontaneamente senza supervisione centralizzata. Gli ingegneri possono "semplicemente fare le cose", avviando iniziative autonome che spesso finiscono per sovrapporsi o entrare in conflitto tra loro. Non è raro che team diversi e non correlati convergano sulle stesse idee, creando duplicazioni del codice e sprechi di risorse.
Le decisioni vengono tipicamente prese dal team che intende svolgere il lavoro, senza un comitato centrale di pianificazione o architettura. Questo approccio dal basso verso l'alto, se da un lato favorisce l'innovazione e la rapidità d'azione, dall'altro genera una struttura organizzativa che French-Owen paragona più ai laboratori di Los Alamos che a un'azienda tradizionale orientata al profitto.
Microsoft Azure: un matrimonio non sempre felice
Un dettaglio tecnico interessante emerso dalle rivelazioni riguarda l'esclusiva dipendenza di OpenAI dall'infrastruttura Azure di Microsoft per ogni operazione. Secondo French-Owen, questa scelta comporta significative limitazioni tecniche, specialmente nei sistemi di gestione dell'identità e degli accessi, spingendo l'azienda a sviluppare molte soluzioni internamente piuttosto che affidarsi a servizi esterni.
L'ingegnere ha anche notato l'assenza di equivalenti veri per servizi come Dynamo, Spanner o BigQuery di Google, una lacuna che potrebbe influire negativamente sulle prestazioni complessive dell'infrastruttura.
Comunicazione via Slack e costi stratosferici delle GPU
Un aspetto curioso della cultura aziendale di OpenAI è l'uso quasi esclusivo di Slack per tutte le comunicazioni. French-Owen ha ricevuto solamente una decina di email durante il suo intero anno in azienda. Questo approccio, pur facilitando la comunicazione all'interno dei singoli team, può complicare il coordinamento tra gruppi diversi e sollevare questioni di sicurezza, considerando che Slack non eccelle nella crittografia end-to-end.
Infine, l'ex dipendente ha lasciato trapelare un dettaglio finanziario illuminante: "Praticamente tutto è un errore di arrotondamento rispetto al costo delle GPU". Questa rivelazione conferma quanto già si sospettava sui costi operativi astronomici necessari per far funzionare i modelli di intelligenza artificiale di OpenAI, dove le spese per il calcolo distribuito rappresentano la voce di gran lunga più significativa nel bilancio aziendale.