Opinioni Storage e consumi limitano l’adozione dell’IA
1' 57''
14/03/2023

Due professori della Penn University hanno analizzato i costi e i problemi legati all’adozione massiva dell’intelligenza artificiale

Storage e consumi limitano l’adozione dell’IA

Deep Jariwala e  Benjamin C. Lee, rispettivamente assistente e professore alla Penn University, hanno condiviso un’analisi sulle sfide a livello infrastrutturale e sui costi nascosti che incidono sull’adozione dei sistemi di analisi e calcolo basati sull’intelligenza artificiale.

La computazione per l'Intelligenza Artificiale prevede tre fasi principali: il pre-processamento dei dati, l'addestramento e l'inferenza dell'AI. Il pre-processamento dei dati consiste nell'organizzare un grande dataset, che potrebbe includere l'etichettatura o la pulizia per creare una struttura.

Una volta pre-processati, i dati possono essere utilizzati per addestrare il modello a interpretarli mediante algoritmi complessi e machine learning. L'inferenza dell'AI prevede l'esecuzione del modello in risposta alle richieste dell'utente, utilizzando dati di grandi dataset per fornire risposte che assomigliano molto a quelle umane.

Unsplash
Data Center

I grandi modelli di linguaggio come ChatGPT mostrano questo nuovo insieme di operazioni unendo risposte specifiche provenienti da fonti multiple, portando il concetto base di un motore di ricerca a un livello superiore.

Con l'aumento della popolarità dei prodotti di Intelligenza Artificiale come ChatGPT e Bing, la computazione sta diventando sempre più basata sull'inferenza, a differenza dei modelli di machine learning come AlphaGo.

Problemi di scala

Tuttavia, l'integrazione di modelli di IA massicci nelle operazioni quotidiane ha implicazioni significative.

Tutte le attività svolte dai computer sono transazioni tra memoria e processori che richiedono energia. Tuttavia, man mano che queste attività diventano più elaborate e data intensive aumenta l'energia richiesta e la necessità di maggiore spazio di archiviazione.

Unsplash
Wafer

Secondo la Semiconductor Research Corporation, entro breve la richiesta supererà la quantità globale di storage prodotto ogni anno.

Se l’adozione dell’AI continuerà ai ritmi attuali, è all’orizzonte una crisi energetica, in quanto i computer consumano già oggi il 20%-25% dell'energia globale. Entro il 2040, tutta l'energia prodotta sarà necessaria solo per la computazione, aggravando la crisi energetica attuale.

Unsplash
Power Plant

Inoltre, l'aumento dell'IA ha portato alla costruzione di enormi data center, come quelli di Amazon, Google e Meta, che consumano una quantità significativa di energia e aumentano le emissioni di anidride carbonica.

La costruzione di nuove fabbriche per la produzione e l'assemblaggio dei chip necessari per soddisfare la crescente domanda di calcolo sono processi altamente energivori ed esplicitamente costosi dal punto di vista dell’impatto sul clima.

Potrebbe interessarti anche

Approfondimenti

L'IA trasforma la diagnostica per immagini e i percorsi di cura

Il dibattito "Evoluzione tecnologica e Intelligenza Artificiale in Diagnostica per Immagini. Stato dell’arte e prospetti...

Approfondimenti

Il 55% delle aziende farmaceutiche usa l'IA per progettare prodotti e servizi

Secondo il report "AI: radiografia di una rivoluzione in corso" condotto da Ascendant di Minsait, le aziende farmaceutic...

Approfondimenti

Il mercato italiano del Business Process Management continua a crescere

In Italia il mercato del Business Process Management sta crescendo grazie all'IA e a una maggiore attenzione delle impre...

News

Nasce Rethic.AI, rete d'imprese per l'adozione etica dell'IA in Italia

Nasce Rethic.AI, la prima rete d'imprese italiana per favorire l'adozione etica dell'intelligenza artificiale nel Paese.