Opinioni Le armi autonome preoccupano i governi: servono nuove normative
2' 6''
30/04/2024

L'intelligenza artificiale sta cambiando per sempre il modo di combattere: le armi autonome si stanno diffondendo e i governi devono regolamentarne l'uso.

Le armi autonome preoccupano i governi: servono nuove normative

Il continuo miglioramento delle tecnologie di intelligenza artificiale ha riportato all'attenzione dei governi il tema delicato della gestione delle armi autonome, ordigni in grado di colpire obiettivi militari senza l'intervento umano. 

L'inasprimento dei conflitti in corso, unito agli incentivi finanziari per promuovere l'IA nelle aziende, ha messo all'angolo le autorità: se già ora le forze militari stanno ampiamente usando algoritmi e veicoli aerei autonomi, non manca molto al momento in cui le decisioni sugli obiettivi da colpire verranno lasciate completamente alle macchine.

Per questo il 29 e il 30 aprile 900 delegati provenienti da più di 140 Paesi si sono riuniti a Vienna in occasione della "Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation", conferenza internazionale con l'obiettivo di discutere e risolvere le principali sfide legate alle armi autonome e definire una regolamentazione condivisa. 

Alexander Schallenber, Ministro degli esteri austriaco, ha affermato che questo è "il momento Oppenheimer della nostra generazione", invitando i delegati a collaborare per creare regole e norme internazionali. 

L'intelligenza artificiale e la milizia sono due settori che godono degli investimenti più elevati al mondo ed è impensabile rallentare il progresso; per questo è indispensabile lavorare a nuove soluzioni diplomatiche e renderle effettive il prima possibile. 

Pexels
aereo militare

I Governi intorno al mondo stanno collaborando già da tempo con le compagnie tecnologiche per integrare l'IA negli strumenti di difesa: il Pentagono sta investendo milioni di dollari nelle startup di IA, mentre di recente l'Unione Europea ha stretto una collaborazione con Thales SA per creare un database di immagini per individuare gli obiettivi sul campo di battaglia. 

Secondo il magazine +972 di Tel Aviv, il governo israeliano avrebbe usato un programma di IA chiamato Lavender che individuava gli obiettivi da assassinare; secondo il report, contestato dal governo, il sistema avrebbe giocato un ruolo centrale nei bombardamenti. 

Definire delle regole per l'uso di armi autonome basate potrebbe non essere così semplice: l'intelligenza artificiale non è una tecnologia solo militare, quindi le decisioni dei governi potrebbero influire negativamente su altri settori. 

D'altra parte, la crescente accessibilità delle tecnologie di IA permetterebbe a potenziali gruppi nation-state e terroristi di sviluppare armi pericolose e provocare vittime senza sforzo.

"I sistemi di armi autonome hanno cambiato per sempre il concetto di stabilità internazionale" ha commentato Arnoldo André Tinoco, Ministro degli esteri del Costa Rica. Inevitabilmente, i governi dovranno lavorare a nuove regole per regolamentare l'uso dell'IA nel settore militare e imporre limitazioni stringenti, ma non sarà facile. 

Potrebbe interessarti anche

Approfondimenti

L'IA trasforma la diagnostica per immagini e i percorsi di cura

Il dibattito "Evoluzione tecnologica e Intelligenza Artificiale in Diagnostica per Immagini. Stato dell’arte e prospetti...

Approfondimenti

Il 55% delle aziende farmaceutiche usa l'IA per progettare prodotti e servizi

Secondo il report "AI: radiografia di una rivoluzione in corso" condotto da Ascendant di Minsait, le aziende farmaceutic...

Approfondimenti

Il mercato italiano del Business Process Management continua a crescere

In Italia il mercato del Business Process Management sta crescendo grazie all'IA e a una maggiore attenzione delle impre...

News

Nasce Rethic.AI, rete d'imprese per l'adozione etica dell'IA in Italia

Nasce Rethic.AI, la prima rete d'imprese italiana per favorire l'adozione etica dell'intelligenza artificiale nel Paese.