Opinioni Le armi autonome preoccupano i governi: servono nuove normative
Marina Londei
2' 6''
30/04/2024

L'intelligenza artificiale sta cambiando per sempre il modo di combattere: le armi autonome si stanno diffondendo e i governi devono regolamentarne l'uso.

Le armi autonome preoccupano i governi: servono nuove normative

Il continuo miglioramento delle tecnologie di intelligenza artificiale ha riportato all'attenzione dei governi il tema delicato della gestione delle armi autonome, ordigni in grado di colpire obiettivi militari senza l'intervento umano. 

L'inasprimento dei conflitti in corso, unito agli incentivi finanziari per promuovere l'IA nelle aziende, ha messo all'angolo le autorità: se già ora le forze militari stanno ampiamente usando algoritmi e veicoli aerei autonomi, non manca molto al momento in cui le decisioni sugli obiettivi da colpire verranno lasciate completamente alle macchine.

Per questo il 29 e il 30 aprile 900 delegati provenienti da più di 140 Paesi si sono riuniti a Vienna in occasione della "Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation", conferenza internazionale con l'obiettivo di discutere e risolvere le principali sfide legate alle armi autonome e definire una regolamentazione condivisa. 

Alexander Schallenber, Ministro degli esteri austriaco, ha affermato che questo è "il momento Oppenheimer della nostra generazione", invitando i delegati a collaborare per creare regole e norme internazionali. 

L'intelligenza artificiale e la milizia sono due settori che godono degli investimenti più elevati al mondo ed è impensabile rallentare il progresso; per questo è indispensabile lavorare a nuove soluzioni diplomatiche e renderle effettive il prima possibile. 

Pexels
aereo militare

I Governi intorno al mondo stanno collaborando già da tempo con le compagnie tecnologiche per integrare l'IA negli strumenti di difesa: il Pentagono sta investendo milioni di dollari nelle startup di IA, mentre di recente l'Unione Europea ha stretto una collaborazione con Thales SA per creare un database di immagini per individuare gli obiettivi sul campo di battaglia. 

Secondo il magazine +972 di Tel Aviv, il governo israeliano avrebbe usato un programma di IA chiamato Lavender che individuava gli obiettivi da assassinare; secondo il report, contestato dal governo, il sistema avrebbe giocato un ruolo centrale nei bombardamenti. 

Definire delle regole per l'uso di armi autonome basate potrebbe non essere così semplice: l'intelligenza artificiale non è una tecnologia solo militare, quindi le decisioni dei governi potrebbero influire negativamente su altri settori. 

D'altra parte, la crescente accessibilità delle tecnologie di IA permetterebbe a potenziali gruppi nation-state e terroristi di sviluppare armi pericolose e provocare vittime senza sforzo.

"I sistemi di armi autonome hanno cambiato per sempre il concetto di stabilità internazionale" ha commentato Arnoldo André Tinoco, Ministro degli esteri del Costa Rica. Inevitabilmente, i governi dovranno lavorare a nuove regole per regolamentare l'uso dell'IA nel settore militare e imporre limitazioni stringenti, ma non sarà facile. 

Potrebbe interessarti anche

Opinioni

Gli operatori dei call center spariranno ed è tutta "colpa" dell'IA

Secondo K Krithivasan, CEO di Tata Consultancy Services, l'intelligenza artificiale presto sostituirà la componente uma...

Opinioni

Da vantaggio competitivo a requisito fondamentale: il ruolo dell'IA sta evolvendo

La democratizzazione dell'IA sta trasformando questa tecnologia in un elemento imprescindibile per il business e non più...

News

"Piccoli ma potenti": i modelli Phi-3 di Microsoft bilanciano costi e performance

Microsoft ha annunciato l'arrivo di Phi-3, una nuova famiglia di modelli di piccole e medie dimensioni che bilanciano co...

Approfondimenti

L'IA automatizza la selezione degli autisti

Anche nel settore dei trasporti l'automazione basata su IA consente di migliorare il processo di selezione e facilitare...