Il continuo miglioramento delle tecnologie di intelligenza artificiale ha riportato all'attenzione dei governi il tema delicato della gestione delle armi autonome, ordigni in grado di colpire obiettivi militari senza l'intervento umano.
L'inasprimento dei conflitti in corso, unito agli incentivi finanziari per promuovere l'IA nelle aziende, ha messo all'angolo le autorità: se già ora le forze militari stanno ampiamente usando algoritmi e veicoli aerei autonomi, non manca molto al momento in cui le decisioni sugli obiettivi da colpire verranno lasciate completamente alle macchine.
Per questo il 29 e il 30 aprile 900 delegati provenienti da più di 140 Paesi si sono riuniti a Vienna in occasione della "Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation", conferenza internazionale con l'obiettivo di discutere e risolvere le principali sfide legate alle armi autonome e definire una regolamentazione condivisa.
Alexander Schallenber, Ministro degli esteri austriaco, ha affermato che questo è "il momento Oppenheimer della nostra generazione", invitando i delegati a collaborare per creare regole e norme internazionali.
L'intelligenza artificiale e la milizia sono due settori che godono degli investimenti più elevati al mondo ed è impensabile rallentare il progresso; per questo è indispensabile lavorare a nuove soluzioni diplomatiche e renderle effettive il prima possibile.
I Governi intorno al mondo stanno collaborando già da tempo con le compagnie tecnologiche per integrare l'IA negli strumenti di difesa: il Pentagono sta investendo milioni di dollari nelle startup di IA, mentre di recente l'Unione Europea ha stretto una collaborazione con Thales SA per creare un database di immagini per individuare gli obiettivi sul campo di battaglia.
Secondo il magazine +972 di Tel Aviv, il governo israeliano avrebbe usato un programma di IA chiamato Lavender che individuava gli obiettivi da assassinare; secondo il report, contestato dal governo, il sistema avrebbe giocato un ruolo centrale nei bombardamenti.
Definire delle regole per l'uso di armi autonome basate potrebbe non essere così semplice: l'intelligenza artificiale non è una tecnologia solo militare, quindi le decisioni dei governi potrebbero influire negativamente su altri settori.
D'altra parte, la crescente accessibilità delle tecnologie di IA permetterebbe a potenziali gruppi nation-state e terroristi di sviluppare armi pericolose e provocare vittime senza sforzo.
"I sistemi di armi autonome hanno cambiato per sempre il concetto di stabilità internazionale" ha commentato Arnoldo André Tinoco, Ministro degli esteri del Costa Rica. Inevitabilmente, i governi dovranno lavorare a nuove regole per regolamentare l'uso dell'IA nel settore militare e imporre limitazioni stringenti, ma non sarà facile.