Tecnologia AI agenti funzionanti tra dieci anni secondo Karpathy
3' 44''
22/10/2025

Gli agenti AI non funzionano ancora: secondo Andrej Karpathy di OpenAI ci vorranno circa dieci anni prima che diventino davvero utili.

AI agenti funzionanti tra dieci anni secondo Karpathy

Nel mondo frenetico dell'intelligenza artificiale, dove ogni giorno si annunciano progressi rivoluzionari e nuove startup promettono di cambiare il futuro del lavoro, c'è chi invita alla cautela. Andrej Karpathy, cofondatore di OpenAI e figura di riferimento nel settore dello sviluppo AI, ha lanciato un messaggio controcorrente che sfida l'ottimismo dilagante degli ultimi mesi. La sua tesi? Gli agenti AI autonomi, ossia quegli assistenti virtuali che dovrebbero svolgere compiti complessi senza supervisione umana, sono ancora lontani dall'essere davvero funzionali.

Una visione realistica contro l'entusiasmo eccessivo

Intervenuto recentemente al Dwarkesh Podcast, Karpathy ha espresso senza mezzi termini il suo scetticismo sullo stato attuale degli agenti intelligenti. Secondo la sua stima, ci vorranno circa dieci anni prima che queste tecnologie raggiungano un livello di maturità tale da poter essere considerate realmente affidabili. "Semplicemente non funzionano", ha dichiarato l'esperto, oggi impegnato nello sviluppo di una scuola basata sull'AI attraverso la sua società Eureka Labs.

Le lacune che Karpathy identifica negli agenti AI attuali sono molteplici e sostanziali. Non possiedono sufficiente intelligenza, mancano di vere capacità multimodali, non sono in grado di utilizzare efficacemente i computer e, soprattutto, non dispongono di apprendimento continuo. "Non puoi semplicemente dire loro qualcosa aspettandoti che se lo ricordino", ha spiegato. La loro capacità cognitiva è ancora troppo limitata per le aspettative create attorno a questa tecnologia.

Il divario tra hype e realtà

Il 2025 è stato battezzato da molti investitori come "l'anno degli agenti", con numerose aziende che puntano su questa tecnologia come prossima frontiera dell'innovazione. Gli agenti AI, nella loro definizione teorica, dovrebbero essere assistenti virtuali capaci di scomporre problemi complessi, pianificare strategie e agire autonomamente senza necessità di continui input umani. La realtà, però, appare molto più prosaica.

L'industria vive in un futuro dove gli esseri umani sono inutili

Consapevole della velocità del suo eloquio durante l'intervista, Karpathy ha voluto chiarire ulteriormente il suo pensiero attraverso un post su X (ex Twitter). La sua critica si concentra sul fatto che l'industria tecnologica sta costruendo strumenti per uno scenario futuristico che ancora non esiste. "L'industria vive in un futuro dove entità completamente autonome collaborano in parallelo per scrivere tutto il codice mentre gli esseri umani sono inutili", ha scritto, aggiungendo che non desidera affatto vivere in quel mondo.

Una collaborazione, non una sostituzione

La visione di Karpathy per il futuro dell'intelligenza artificiale è radicalmente diversa da quella dominante nella Silicon Valley. Piuttosto che puntare su agenti completamente autonomi che sostituiscano gli sviluppatori umani, l'esperto immagina un modello collaborativo dove umani e AI lavorano fianco a fianco. Desidera sistemi che consultino documentazione tecnica e dimostrino di utilizzare correttamente le funzionalità, che facciano meno presunzioni e chiedano conferme quando sono incerti.

"Voglio imparare lungo il percorso e diventare un programmatore migliore, non semplicemente ricevere montagne di codice di cui mi viene detto che funziona", ha sottolineato. Il rischio di costruire agenti che rendono gli umani superflui è, paradossalmente, proprio quello: rendere gli umani effettivamente inutili e inondare il mondo digitale di "slop", termine con cui viene definito il contenuto di bassa qualità generato dall'intelligenza artificiale.

I problemi matematici degli agenti autonomi

Le preoccupazioni di Karpathy trovano eco in altre voci del settore. Quintin Au, responsabile della crescita di ScaleAI, ha evidenziato su LinkedIn come gli errori commessi dagli agenti AI si moltiplichino esponenzialmente con l'aumentare delle azioni da compiere. Con un tasso di errore del 20% per ogni singola operazione – una caratteristica intrinseca dei modelli linguistici di grandi dimensioni – un agente che deve completare cinque azioni consecutive ha solo il 32% di probabilità di eseguirle tutte correttamente.

Questo aspetto matematico rappresenta un ostacolo fondamentale per l'affidabilità degli agenti autonomi in scenari complessi. Non si tratta di semplici imperfezioni correggibili con aggiornamenti software, ma di limitazioni strutturali legate al funzionamento stesso dei modelli linguistici, che per loro natura operano su probabilità piuttosto che certezze assolute.

Ottimismo calibrato, non scetticismo assoluto

Nonostante la sua posizione critica sugli agenti AI, Karpathy tiene a precisare di non essere un detrattore dell'intelligenza artificiale in generale. Le sue previsioni temporali, ha spiegato, sono circa 5-10 volte più pessimistiche rispetto a quelle che si sentono alle feste tecnologiche di San Francisco o sui social media, ma rimangono comunque ottimistiche se confrontate con la crescente ondata di negazionisti e scettici radicali dell'AI.

La posizione dell'ex leader di OpenAI rappresenta dunque un punto di equilibrio: riconoscere il potenziale trasformativo dell'intelligenza artificiale senza cadere nell'ottimismo acritico che caratterizza gran parte dell'industria tecnologica. Un invito alla pazienza in un settore che sembra aver dimenticato che, anche nell'era digitale, l'innovazione reale richiede tempo per maturare e consolidarsi.

Condividi questo contenuto