La California sta prendendo in considerazione nuove regolamentazioni che metterebbero un deciso freno alle aziende che sviluppano Intelligenza Artificiale (IA). La proposta di legge, se approvata, richiederebbe agli sviluppatori di IA di testare rigorosamente i loro sistemi e implementare misure di sicurezza per prevenire potenziali abusi.
Una proposta radicale, qualcosa di inaudito negli USA e che sembrerebbe azzardato persino in territorio europeo: la legislazione in questione, infatti, prevede che le aziende di IA effettuino test approfonditi sui loro sistemi e adottino misure di sicurezza per evitare scenari catastrofici, come la manipolazione per distruggere la rete elettrica dello stato o la creazione di armi chimiche.
Naturalmente è ben noto il fatto che le IA sono e possono diventare strumenti nelle mani dei criminali, ma qui si sta proponendo qualcosa che forse è davvero irrealizzabile. Sarebbe più o meno come chiedere ai produttori di pistole di eseguire test approfonditi affinché le loro armi non si possano usare per fare rapine o per commettere altri crimini.
E infatti le critiche sono arrivate praticamente subito, seppure l’intento del senatore dem Scott Wiener sia del tutto comprensibile: si vuole evitare a tutti i costi che gli strumenti IA rendano possibili attacchi informatici ancora più devastanti di quelli che abbiamo visto finora. Tuttavia è una proposta di legge che guarda al futuro: i requisiti si applicheranno solo ai sistemi che richiedono più di 100 milioni di dollari in potenza di calcolo per essere addestrati, una soglia che nessun modello attuale ha ancora raggiunto.
I colossi tech non hanno tardato nel far sentire la loro opposizione, e tra chi ha commentato negativamente non mancano Meta e Google. In attesa di ulteriori sviluppi, le aziende suggeriscono che le leggi si concentrino sugli utenti che abusano degli strumenti, piuttosto che direttamente sugli strumenti.
E anche in questo caso torna utile la metafora sulle armi, i cui produttori dicono la stessa cosa: che ci si concentri su chi usa le armi per commettere crimini, piuttosto che sui crimini stessi.
La differenza è che l’idea di proibire le AI sembra assurda, per non dire surreale, in tutto il mondo; mentre la proibizione delle armi da fuoco stride solo con la cultura statunitense.
Se una vera e propria proibizione non è nemmeno pensabile, tuttavia, il problema della weaponization delle IA resta ancora una questione aperta. Sono strumenti potenti, e possono arrivare anche nelle mani dei criminali.
I potenziali danni sono probabilmente incalcolabili, e forse non è una buona idea lasciare che tutto si sviluppi senza regole e aspettare che succeda un qualche disastro. Anzi, i sostenitori della proposta affermano che la California non può permettersi di aspettare ulteriori linee guida dal governo federale, citando proprio le dure lezioni apprese dal mancato intervento tempestivo nei confronti delle aziende di social media. Dove si è “lasciato fare”, spesso e volentieri si sono creati problemi che sarebbero stati prevenibili con la giusta regolamentazione.
Forse la proposta Californiana è insensata, ma il bisogno che l’ha fatta nascere è assolutamente concreto. Ed è lo stesso che ha fatto nascere recenti leggi europee come il DMA o l’IA Act, che cercando di frenare la corsa dello sviluppo tecnologico proprio per evitare tutta una serie di possibili problemi, da quelli di cybersecurity alla nascita di nuovi monopoli.
Certo, il leit motif è che le regole rischiano di soffocare l’innovazione, e probabilmente rallentano lo sviluppo industriale. Ma secondo molti è un prezzo che vale la pena pagare.