Tecnologia Tokenmaxxing: la corsa ai consumi AI divide il tech
3' 13''
14/04/2026

Il "tokenmaxxing" divide il mondo tech USA: misurare la produttività degli sviluppatori dal consumo di token AI è utile o una metrica che distorce incentivi e budget?

Tokenmaxxing: la corsa ai consumi AI divide il tech

Il settore tecnologico è attraversato da un acceso dibattito sul modo in cui misurare la produttività degli ingegneri nell'era dell'intelligenza artificiale. Al centro della discussione c'è il cosiddetto "tokenmaxxing" — la pratica di massimizzare il consumo di token AI — che divide la comunità degli sviluppatori software statunitense tra chi la considera un indicatore utile e chi la ritiene una metrica pericolosamente distorta.

La posta in gioco va oltre una querelle tecnica tra programmatori. Con la spesa mensile in AI tra le aziende che, secondo dati Gartner citati dalla fintech Ramp, ha quadruplicato nell'ultimo anno, la scelta delle metriche di produttività influenza direttamente allocazione di budget, politiche di incentivazione e, in ultima analisi, il ritorno sull'investimento di miliardi di dollari in infrastrutture AI.

Per comprendere il fenomeno è necessario partire dalla definizione tecnica: i grandi modelli linguistici (LLM) elaborano il testo suddividendolo in unità chiamate token, ciascuna corrispondente a circa tre quarti di una parola. I fornitori di AI addebitano i costi in base al numero di token consumati. Il tokenmaxxing è, dunque, la corsa a spenderne il maggior numero possibile — pratica che ha trovato terreno fertile nelle culture aziendali che premiano metriche di utilizzo visibili e quantificabili.

Ranking engineers by token spend is like me ranking my marketing team by who spent the most money.

Il caso più emblematico riguarda alcuni ingegneri di Meta, che secondo quanto riportato da The Information gareggiano per scalare una classifica interna chiamata "Claudeonomics", che traccia i consumi di token e assegna titoli come "Token Legend". Meta non ha risposto alle richieste di commento. Parallelamente, OpenAI e altre società tecnologiche avrebbero adottato dashboard simili, trasformando il consumo di risorse computazionali in una forma di status symbol professionale.

Le critiche più severe arrivano da chi conosce i meccanismi di incentivazione aziendale dall'interno. Cristina Cordova, COO di Linear, ha sintetizzato il paradosso su X con un'analogia efficace: misurare la produttività degli ingegneri dai token spesi equivale a valutare un team marketing dalla quantità di denaro bruciato, confondendo un tasso di consumo elevato con un tasso di successo elevato. Jon Chu, partner di Khosla Ventures — fondo di venture capital tra i più influenti della Silicon Valley — ha definito la metrica "assolutamente stupida", riferendo che alcuni dipendenti Meta avrebbero già sviluppato bot automatizzati che consumano token in loop senza generare alcun output utile.

Tokenmaxxing without tokenverifying is just tokenslopping.

Sul fronte opposto si schiera Garry Tan, CEO di Y Combinator, l'acceleratore che ha lanciato Airbnb, Stripe e Dropbox: "Facciamo tokenmaxxing da più tempo della maggior parte delle persone", ha scritto, abbracciando apertamente la pratica. Jensen Huang, CEO di Nvidia — azienda il cui fatturato dipende in larga misura dalla domanda di chip per l'addestramento AI — ha affermato di essere "profondamente allarmato" se un ingegnere da 500.000 dollari l'anno non consumasse almeno 250.000 dollari di token. Un'affermazione che, letta nel contesto degli interessi commerciali di Nvidia, merita una valutazione critica.

Le posizioni più equilibrate riconoscono alla metrica un valore segnaletico parziale. Edwin Wee Arbus, ingegnere di Cursor, ha paragonato il token spending all'indice di massa corporea in medicina: utile come proxy rapido, ma strutturalmente incompleto. Arush Shankar, già in forza a Square e Microsoft, ha precisato che il consumo di token è sempre un output, mai un input, e che interpretarlo in isolamento produce valutazioni distorte.

In the AI era, every employee becomes a compute consumer.

Il dibattito sul tokenmaxxing riflette una tensione più profonda che attraversa l'industria tecnologica: la difficoltà di misurare il valore cognitivo del lavoro in un'epoca in cui le macchine eseguono porzioni crescenti dei compiti tecnici. Se le aziende non trovano metriche di produttività più sofisticate, rischiano di incentivare comportamenti che ottimizzano la metrica anziché il risultato — un fenomeno che gli economisti conoscono bene come Legge di Goodhart. La vera domanda è se il settore tech, che pure produce gli strumenti più avanzati al mondo, sia in grado di applicarli con più intelligenza di quanta ne dimostri nel misurarli.

Condividi questo contenuto