I progressi dell'intelligenza artificiale del 2023 sono solo un assaggio di ciò a cui potremo assistere nel 2024. Durante l'anno appena concluso c'è stato molto entusiasmo nei confronti di questa tecnologia, ma anche molti dubbi e paure per i rischi derivanti da essa; ora, con un po' di consapevolezza in più e lo sforzo delle istituzioni di definire linee guida per proteggere gli utenti, l'innovazione potrà progredire su binari ben definiti.
Di fermare il progresso non ne se ne parla, e sarebbe anche inutile: l'intelligenza artificiale ha davvero il potenziale per migliorare il lavoro e la società intera, e ignorare le opportunità che mette a disposizione sarebbe uno sbaglio. Senza dubbio, però, ci sono rischi e implicazioni che vanno considerati a fondo affinché la tecnologia diventi effettivamente un aiuto e non un problema.
James Broughel, economista e autore per Forbes, spiega che gran parte dei rischi dell'IA saranno legati a questioni di sicurezza nazionale: la tecnologia potrebbe abilitare nuove forme di cyber guerra che mirano alle infrastrutture critiche, oltre a facilitare la diffusione di deepfake nella propaganda politica.
Le tecnologie biometriche potenziate dall'IA si stanno diffondendo a macchia d'olio, con il riconoscimento facciale ormai diventato la normalità in molti aeroporti, il che ha dato vita a molte preoccupazioni per la privacy degli utenti.
Broughel sottolinea anche che una delle questioni più scottanti del 2024 sarà la "guerra" tra i sistemi aperti e chiusi, ovvero tra quelli che prediligono la trasparenza e quelli che invece sono delle vere e proprie scatole chiuse. Saranno le regolamentazioni come l'AI Act a definire quale tra questi due tipi di sistemi prevarrà; la difficoltà è bilanciare i vantaggi dell'innovazione con la necessità di proteggere gli utenti.
Le nuove regolamentazioni europee avranno un peso notevole anche sul mercato: leggi troppo stringenti potrebbero rafforzare i colossi tecnologici e danneggiare le startup e i progetti open-source, rendendo il mercato poco vario. Secondo Broughel, se l'Europa vuole puntare sull'innovazione, deve promuovere un mercato competitivo dove anche le piccole realtà hanno l'occasione di brillare.
Non mancano poi i timori per il copyright: nel 2023 si è discusso a lungo del problema della provenienza dei dati per l'addestramento dei modelli, e nel 2024 sarà necessario imporre delle regole per proteggere la proprietà intellettuale e al contempo addestrare i sistemi di IA su dati e risorse aggiornati.
Infine, un'altra questione centrale riguarderà il consumo di energia da parte dei modelli: l'intelligenza artificiale avrà bisogno di data center sempre più grandi per operare e userà molta elettricità, col rischio di rallentare il raggiungimento degli obiettivi di sostenibilità. Se è vero che l'IA può aiutare a combattere il cambiamento climatico, sarà necessario lavorare per ottimizzare le risorse, facendo in modo che i benefici superino gli svantaggi.
Nonostante le controversie che nasceranno, Broughel sostiene che il 2024 sarà l'anno della razionalità e delle strategie vincenti per la gestione dell'IA. Tra il "cieco ottimismo" e il "pessimismo paralizzante" c'è la strada giusta da percorrere per promuovere l'innovazione sana e risolvere le problematiche che rallentano il progresso.