Approfondimenti Pro e contro del disegno di legge SB 1047 della California
5' 59''
21/08/2024

La California vuole prevenire catastrofi causate dall'intelligenza artificiale ma la Silicon Valley teme effetti collaterali devastanti.

Pro e contro del disegno di legge SB 1047 della California

Un crescente gruppo di ricercatori e pionieri dell'intelligenza artificiale, spesso definiti "catastrofisti dell'IA", sta lanciando un allarme sempre più pressante: l'avanzamento incontrollato dell'IA potrebbe portare all'estinzione di massa dell'umanità.

Questa preoccupazione non è confinata ai dibattiti accademici ma sta influenzando direttamente il panorama legislativo, come dimostra il disegno di legge SB 1047 attualmente in discussione in California.

Il disegno di legge SB 1047, formalmente noto come Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, mira a prevenire che i modelli di intelligenza artificiale più avanzati vengano utilizzati per causare danni catastrofici.

L'iniziativa è guidata dal senatore della California Scott Wiener, che sostiene la necessità di una regolamentazione preventiva per evitare che scenari distopici, finora relegati alla fantascienza, diventino realtà.

Cosa prevede il disegno di legge SB 1047?

Il disegno di legge si propone di regolamentare i modelli di intelligenza artificiale che superano determinate soglie di complessità e costo di sviluppo. In particolare, SB 1047 si applica ai modelli di IA che costano almeno 100 milioni di dollari per essere addestrati e che utilizzano almeno 10^26 FLOPS (operazioni in virgola mobile per secondo) durante la fase di training.

Questi modelli sono tra i più potenti al mondo e includono sistemi sviluppati da aziende come OpenAI, Google e Microsoft.

Tra le principali misure previste dal disegno di legge vi sono l'obbligo per gli sviluppatori di IA di implementare protocolli di sicurezza rigorosi per prevenire usi impropri dei loro modelli, come la creazione di armi di distruzione di massa o il lancio di attacchi cibernetici che potrebbero causare danni superiori ai 500 milioni di dollari.

Ogni modello di IA coperto dalla legge dovrebbe inoltre essere dotato di un meccanismo di spegnimento d'emergenza, per disattivare il sistema in caso di necessità.

Gli sviluppatori dovrebbero poi ottenere una certificazione per ogni nuovo modello di IA pubblicamente rilasciato, dimostrando che sono stati seguiti i protocolli di sicurezza, e sottoporsi a audit annuali da parte di revisori terzi per verificare l'efficacia delle misure di sicurezza adottate.

Infine, la legge prevede protezioni per i dipendenti che denunciano problemi di sicurezza legati ai modelli di IA e richiede che qualsiasi incidente di sicurezza venga segnalato entro 72 ore alla Frontier Model Division (FMD), una nuova agenzia governativa che sovrintenderebbe all'applicazione di queste regole.

La FMD sarebbe guidata da un consiglio composto da cinque membri, tra cui rappresentanti dell'industria dell'IA, della comunità open source e del mondo accademico, nominati dal governatore e dalla legislatura della California. Questo consiglio avrà il compito di consigliare il procuratore generale della California sulle potenziali violazioni del SB 1047 e di fornire indicazioni agli sviluppatori di modelli di IA riguardo alle pratiche di sicurezza da adottare.

È da notare che la legge si estende anche ai modelli di IA sviluppati al di fuori degli USA. Essi saranno comunque soggetti alla legge SB 1047 se operano in California. 

Quelli cui piace la SB 1047…

I sostenitori della legge, tra cui i succitati "catastrofisti dell'IA", vedono nella legge SB 1047 un passo cruciale per evitare che l'umanità si trovi impreparata di fronte a potenziali disastri causati dall'intelligenza artificiale.

Due dei principali sostenitori sono Geoffrey Hinton e Yoshua Bengio, entrambi considerati tra i padri fondatori dell'IA. Essi avvertono che senza una regolamentazione adeguata, le intelligenze artificiali potrebbero essere sfruttate per scopi distruttivi su larga scala, portando a scenari di estinzione di massa.

Dan Hendrycks, direttore del Center for AI Safety, ha espresso il suo sostegno al disegno di legge affermando che "un grave incidente di sicurezza sarebbe probabilmente il più grande ostacolo al progresso ulteriore della tecnologia".

Hendrycks, che ha recentemente lanciato una startup focalizzata sulla valutazione dei rischi legati all'IA, ha persino disinvestito dalla sua azienda per evitare conflitti di interesse, rispondendo così alle critiche secondo cui la sua iniziativa potrebbe essere motivata da interessi personali.

Il senatore Scott Wiener, autore del disegno di legge, ha dichiarato che SB 1047 è un tentativo di imparare dagli errori del passato, come quelli commessi con i social media e la privacy dei dati, e di proteggere i cittadini prima che sia troppo tardi.

Wiener ha sottolineato che, data l'inerzia del Congresso statunitense su questi temi, spetta alla California stabilire un precedente per la regolamentazione dell'IA. "Abbiamo una storia con la tecnologia di aspettare che i danni accadano, e poi stracciarci le vesti", ha dichiarato. "Non aspettiamo che accada qualcosa di brutto. Prendiamo semplicemente l'iniziativa".

… e le reazioni dei contrari

Dall'altro lato, il disegno di legge ha suscitato forti critiche da parte di importanti attori della Silicon Valley, tra cui venture capitalist, startup tecnologiche e giganti dell'industria.

Marc Andreessen e Ben Horowitz, fondatori della società di venture capital a16z, hanno criticato aspramente la legge, sostenendo che questa imporrà pesanti oneri alle startup, ostacolando l'innovazione nell'ecosistema dell'IA.

Secondo a16z, man mano che la tecnologia dell'IA avanza, diventerà più costosa, il che significa che sempre più startup supereranno la soglia dei 100 milioni di dollari, rientrando così nel campo di applicazione della legge.

Fei-Fei Li, un'altra figura di spicco nella comunità dell'IA e fondatrice della startup World Labs, ha avvertito che il disegno di legge danneggerà il nascente ecosistema dell'IA in California, spingendo la ricerca e l'innovazione fuori dallo stato.

Andrew Ng, uno dei più influenti accademici dell'IA, ha definito il disegno di legge "un assalto all'open source", sostenendo che le restrizioni imposte penalizzeranno ingiustamente i creatori di modelli open source, i quali, per natura, sono più facilmente modificabili e vulnerabili a usi impropri.

Anche i giganti della tecnologia non hanno tardato a far sentire la loro voce. La Chamber of Progress, un gruppo di pressione che rappresenta aziende come Google, Apple e Amazon, ha dichiarato che SB 1047 mina la libertà di espressione e spinge l'innovazione tecnologica fuori dalla California.

Meta, il cui modello LLM Llama è uno dei principali esempi di intelligenza artificiale open source, ha espresso preoccupazione attraverso il suo capo scienziato Yann LeCun, il quale ha affermato su X che la legge nasce dalla "illusione di rischio esistenziale spinta da un manipolo di think-tank deliranti".

Il futuro della SB 1047

Il disegno di legge SB 1047 è attualmente in fase di revisione finale presso l'Assemblea del Senato della California, dove subirà ulteriori emendamenti prima di essere eventualmente approvato. Se il disegno di legge supererà questa fase, verrà inviato al governatore della California, Gavin Newsom, che deciderà se firmarlo entro la fine di agosto.

Tuttavia, anche in caso di approvazione, il disegno di legge non entrerà immediatamente in vigore. L'agenzia Frontier Model Division, responsabile dell'applicazione delle regole, non sarà operativa prima del 2026. Inoltre, è molto probabile che il disegno di legge affronti sfide legali da parte degli stessi gruppi che si stanno opponendo alla sua approvazione.

Mentre il dibattito si intensifica, una cosa è certa: la discussione sulla regolamentazione dell'intelligenza artificiale non è destinata a esaurirsi presto, con implicazioni che potrebbero ridefinire il futuro non solo della tecnologia, ma dell'umanità stessa.

Condividi questo contenuto

Potrebbe interessarti anche

Approfondimenti

Rinnovare la leadership per accogliere la diversità generazionale

Gli ambienti di lavoro si stanno trasformando profondamente ed è necessario rinnovare la leadership per rispondere alle...

Approfondimenti

TransUnion, operazioni strategiche unificate grazie all'AI

Questa agenzia di informazioni creditizie, che ha circa 50 anni sulle spalle, ha scelto di innovare usando l’AI come pia...

Approfondimenti

L'IA trasforma la diagnostica per immagini e i percorsi di cura

Il dibattito "Evoluzione tecnologica e Intelligenza Artificiale in Diagnostica per Immagini. Stato dell’arte e prospetti...

Approfondimenti

Targa Telematics introduce l'analisi di saturazione per il corporate car sharing

Targa Telematics ha annunciato la funzionalità di analisi di saturazione per ottimizzare l'allocazione dei mezzi nel cor...