Tecnologia AI agenti funzionanti tra dieci anni secondo Karpathy
3' 18''
29/10/2025

Gli agenti AI non funzionano ancora e servirà un decennio per renderli davvero utili, secondo il cofondatore di OpenAI Andrej Karpathy.

AI agenti funzionanti tra dieci anni secondo Karpathy

Nel panorama dell'intelligenza artificiale, dove l'entusiasmo spesso supera la realtà, arriva una doccia fredda da uno dei protagonisti del settore. Andrej Karpathy, cofondatore di OpenAI e figura di riferimento nello sviluppo dell'IA, ha recentemente espresso un giudizio piuttosto severo sullo stato attuale degli agenti AI, quelle entità virtuali che dovrebbero essere capaci di svolgere compiti in autonomia. La sua previsione è chiara quanto spiazzante: ci vorranno almeno dieci anni prima che questi sistemi funzionino davvero come promesso.

Durante un'intervista al podcast Dwarkesh, Karpathy non ha usato mezzi termini per descrivere le lacune degli attuali agenti AI. La sua critica si concentra su diversi aspetti fondamentali che ancora oggi rappresentano ostacoli insormontabili.

Le carenze cognitive degli agenti AI

"Semplicemente non funzionano", ha dichiarato senza giri di parole l'esperto, che oggi guida Eureka Labs nello sviluppo di una scuola basata sull'intelligenza artificiale nativa. Gli agenti AI mancano di intelligenza sufficiente, non sono abbastanza multimodali e non riescono a utilizzare efficacemente i computer come dovrebbero. Inoltre, secondo Karpathy, sono privi di apprendimento continuo: non è possibile comunicare loro un'informazione aspettandosi che la memorizzino per utilizzi futuri.

La questione è particolarmente rilevante considerando che il 2025 è stato definito da molti investitori "l'anno degli agenti". Queste entità virtuali dovrebbero teoricamente essere in grado di scomporre problemi complessi, pianificare soluzioni e agire senza bisogno di continui input dall'utente.

Il divario tra aspettative e realtà

In un post di chiarimento pubblicato su X, piattaforma dove Karpathy è molto attivo, l'esperto ha approfondito la sua posizione critica verso l'industria tecnologica. Il problema principale, a suo avviso, è che l'industria sta sviluppando strumenti pensati per un futuro in cui entità completamente autonome collaborano in parallelo per scrivere tutto il codice, rendendo gli esseri umani superflui.

L'industria vive in un futuro dove gli umani sono inutili

Questa visione non corrisponde affatto a quella che Karpathy considera desiderabile. Il suo futuro ideale prevede una collaborazione tra umani e intelligenza artificiale, non una sostituzione. Vuole sistemi che mostrino la documentazione delle API utilizzate, che facciano meno assunzioni e che chiedano conferma quando non sono sicuri di qualcosa. L'obiettivo dovrebbe essere imparare lungo il percorso e diventare programmatori migliori, non semplicemente ricevere montagne di codice di cui viene garantito il funzionamento.

Il rischio dello "slop" digitale

Karpathy solleva un punto cruciale: costruire agenti che rendono gli esseri umani inutili porta inevitabilmente a un risultato dove gli umani sono effettivamente inutili. Il risultato sarebbe la proliferazione di quello che nel gergo del settore viene chiamato "AI slop", ovvero contenuti di bassa qualità generati dall'intelligenza artificiale che finirebbero per invadere ogni spazio digitale.

Conferme da altri esperti del settore

Le preoccupazioni di Karpathy trovano eco in altre voci autorevoli. Quintin Au, responsabile della crescita di ScaleAI, ha analizzato su LinkedIn il problema dell'accumulo di errori negli agenti AI. Secondo i suoi calcoli, ogni azione compiuta da un'intelligenza artificiale comporta circa il 20% di possibilità di errore, una caratteristica intrinseca del funzionamento dei modelli linguistici. Se un agente deve completare cinque azioni per portare a termine un compito, la probabilità che tutte le fasi vengano eseguite correttamente scende al 32%.

Questi dati spiegano perché, nonostante gli investimenti miliardari e l'entusiasmo generale, gli agenti AI rimangano ancora lontani dall'affidabilità necessaria per un utilizzo su larga scala.

Ottimismo calibrato, non scetticismo

Nonostante le critiche taglienti, Karpathy tiene a precisare di non essere uno scettico dell'intelligenza artificiale. Le sue previsioni temporali sono "da 5 a 10 volte più pessimistiche" rispetto a quelle che si sentono nelle feste delle startup di San Francisco o sui social media, ma restano comunque ottimistiche se paragonate alla crescente ondata di negatori dell'IA.

Conosciuto per la sua velocità di eloquio quasi leggendaria nell'ambiente tech, Karpathy rappresenta una voce autorevole nel dibattito sull'intelligenza artificiale. Il suo ruolo di cofondatore di OpenAI e la sua esperienza pratica nello sviluppo di sistemi AI conferiscono particolare peso alle sue valutazioni. La sua posizione suggerisce che, forse, l'industria tecnologica dovrebbe rallentare le aspettative e concentrarsi sulla costruzione di fondamenta più solide, piuttosto che inseguire visioni futuristiche non ancora realizzabili.

Condividi questo contenuto