Le aziende di tutto il mondo hanno speso 90,9 miliardi di dollari nel primo trimestre del 2024 per servizi cloud di infrastruttura e platform-as-a-service, registrando un incremento del 21% rispetto all'anno precedente. Dietro questa crescita si nasconde però un paradosso che sta frenando l'adozione su larga scala dell'intelligenza artificiale: proprio mentre le imprese migrano sempre più carichi di lavoro verso il cloud ed esplorano le potenzialità dell'AI generativa, la paura di ricevere bollette astronomiche sta limitando il pieno sfruttamento di queste tecnologie. La complessità nel prevedere i costi ricorrenti dei servizi di inferencing rappresenta oggi uno dei principali ostacoli alla commercializzazione dell'AI a livello enterprise.
Il dilemma dei costi ricorrenti nell'era dell'AI
Secondo l'analista Canalys, il problema fondamentale risiede nella natura stessa dell'inferencing rispetto al training dei modelli AI. Mentre l'addestramento rappresenta un investimento una tantum, l'inferencing genera costi operativi ricorrenti che possono crescere in modo imprevedibile man mano che l'utilizzo si espande.
"A differenza del training, che è un investimento singolo, l'inference rappresenta un costo operativo ricorrente, rendendolo un vincolo critico nel percorso verso la commercializzazione dell'AI", spiega Rachel Brindley, senior director di Canalys. Le aziende si trovano quindi a confrontare modelli, piattaforme cloud e architetture hardware diverse, dalla GPU tradizionali agli acceleratori personalizzati, nel tentativo di ottimizzare l'efficienza dei costi.
Modelli di pricing che complicano le previsioni
La sfida si amplifica quando si considerano i modelli di pricing adottati da molti servizi AI, basati sull'utilizzo effettivo attraverso tariffazione per token o chiamate API. Come evidenzia il ricercatore Yi Zhang di Canalys, questa struttura rende estremamente difficile prevedere i costi quando i servizi vengono scalati su larga scala.
Le conseguenze sono tangibili: quando i costi di inferencing diventano volatili o eccessivamente elevati, le imprese sono costrette a limitare l'utilizzo, ridurre la complessità dei modelli o restringere il deployment solo agli scenari ad alto valore aggiunto. Il risultato è che il potenziale più ampio dell'AI rimane sottoutilizzato.
Lezioni apprese dalle bollette cloud "sorpresa"
L'esitazione delle aziende non è infondata, considerando che molte sono già state scottate da bollette cloud più alte del previsto. Un caso emblematico è quello di 37signals, sviluppatore della piattaforma di project management Basecamp, che ha deciso di abbandonare il cloud pubblico dopo aver ricevuto una fattura annuale superiore ai 3 milioni di dollari.
Gartner aveva già lanciato l'allarme lo scorso anno, avvertendo che le organizzazioni che adottano l'AI potrebbero scoprire "errori di stima dei costi AI dal 500 al 1.000 percento". Questi errori derivano da aumenti di prezzo dei fornitori, scarsa attenzione ai costi o semplicemente da un uso inappropriato dell'intelligenza artificiale.
Il dominio dei giganti del cloud in evoluzione
Nonostante queste sfide, i tre grandi player del settore - AWS, Microsoft Azure e Google Cloud - continuano a dominare il mercato IaaS e PaaS, rappresentando il 65% della spesa globale dei clienti. Tuttavia, si sta delineando un interessante cambiamento negli equilibri competitivi.
Mentre AWS mantiene la leadership, il suo tasso di crescita ha rallentato al 17%, in calo rispetto al 19% dell'ultimo trimestre del 2024. Nel frattempo, Microsoft e Google stanno guadagnando terreno mantenendo tassi di crescita superiori al 30%, segno di una competizione sempre più serrata nel settore dei servizi cloud.
Alternative al cloud pubblico per l'AI
La ricerca di soluzioni più sostenibili dal punto di vista economico sta spingendo alcune aziende verso alternative al cloud pubblico tradizionale. Come osserva Alastair Edwards, chief analyst di Canalys, "il cloud pubblico, quando si iniziano a deployare questi casi d'uso su cui ci stiamo concentrando e a scalarli, diventa insostenibile dal punto di vista dei costi".
La risposta del mercato include il ricorso a servizi di colocation e provider di hosting specializzato, piuttosto che affidarsi esclusivamente ai grandi operatori di cloud pubblico. Parallelamente, i fornitori cloud stanno lavorando per migliorare l'efficienza dell'inferencing attraverso infrastrutture modernizzate costruite specificamente per l'AI, con l'obiettivo di ridurre i costi complessivi dei servizi di intelligenza artificiale.