Approfondimenti Sette big tech si sono unite per definire nuovi standard per l'IA
Marina Londei
3' 3''
02/08/2023

L'amministrazione Biden-Harris ha stretto un accordo con sette compagnie tecnologiche per definire linee guida per lo sviluppo dell'IA.

Sette big tech si sono unite per definire nuovi standard per l'IA

Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, i nomi più importanti nel panorama dell'intelligenza artificiale, hanno unito le proprie forze per definire nuovi standard volti ad assicurare lo sviluppo sicuro e trasparente dei modelli di IA.

Lo si legge in una dichiarazione ufficiale della Casa Bianca: l'amministrazione Biden-Harris ha convocato le compagnie per gestire i rischi dell'IA e garantire privacy e sicurezza ai cittadini americani.

"Le compagnie che sviluppano queste tecnologie emergenti hanno la responsabilità di assicurare che i loro prodotti siano sicuri" afferma l'amministrazione statunitense; per questo, le compagnie dovranno impegnarsi a rispettare tre principi fondamentali - sicurezza, fiducia e protezione - per continuare a innovare senza mettere in pericolo la popolazione.

Le responsabilità delle big tech

Le sette compagnie convocate dall'Amministrazione si sono dette subito pronte a collaborare per definire e seguire principi per lo sviluppo sicuro dei progetti di IA.

Pixabay
innovazione IA

Nel dettaglio, le big tech si impegnano in primo luogo ad assicurare che i loro prodotti risultino sicuri prima di renderli disponibili al pubblico. Prima del suo rilascio ogni sistema o strumento dovrà essere sottoposto a test interni ed esterni, eseguiti da esperti indipendenti dalle firme, per ridurre i rischi di cybersecurity e gli eventuali impatti negativi sulla società.

Ogni compagnia produttrice dovrà inoltre condividere informazioni e best practice di gestione dei rischi sia con le altre realtà del settore che con enti governativi e accademici per favorire la collaborazione.

Nello sviluppare i sistemi di IA le compagnie devono investire sulla sicurezza dei modelli per proteggere i dati e gli algoritmi proprietari dai cybercriminali; d'altra parte però le big tech si impegnano anche a facilitare l'individuazione e la notifica delle vulnerabilità nei propri sistemi da parte di terzi.

L'impegno delle grandi firme tecnologiche starà anche nel guadagnare la fiducia dei consumatori tramite diversi accorgimenti, primo fra tutti avvertire l'utente quando un contenuto è generato totalmente dall'IA e non proviene da una fonte particolare.

Pixabay
intelligenza artificiale

L'obiettivo è ridurre il più possibile il pericolo di errori e di conseguenze negative, e per far ciò le compagnie dovranno rendere pubblici i limiti e le capacità dei modelli, insieme all'area di utilizzo più indicata per ciascuno di essi.

Le big tech dovranno inoltre dare priorità alla ricerca sui rischi dei modelli per la società, come le minacce alla privacy e all'equità dei risultati, e allo sviluppo di sistemi che possano contribuire alla risoluzione delle grandi sfide per l'umanità, come il cambiamento climatico.

Un impegno che coinvolge tutti

L'accordo con le big tech è solo l'ultima delle iniziative volute dall'Amministrazione per sviluppare un framework condiviso e sicuro per lo sviluppo e l'uso delle nuove tecnologie. 

La Casa Bianca ha già stretto collaborazioni con Paesi di tutto il mondo, comprese l'Australia, il Brasile, diverse potenze europee tra le quali l'Italia, la Corea del Sud e il Regno Unito. 

Pixabay
intelligenza artificiale

L'Amministrazione Biden-Harris ha inoltre pubblicato un primo modello per una Carta dei Diritti specifica per l'IA nella quale si identificano e approfondiscono cinque principi guida dello sviluppo: la sicurezza e l'efficienza dei sistema, la protezione dalla discriminazione degli algoritmi, la privacy dei dati, la trasparenza sul funzionamento dei sistemi e la possibilità di considerare alternative umane.

Le indicazioni dell'Amministrazione americana sono in linea con quelle dell'Unione Europea e del suo AI Act che dovrebbe entrare in vigore già da quest'anno.

Le indicazioni non sono definitive ma evolveranno nel tempo in risposta all'evoluzione delle capacità dei modelli e all'uso dei consumatori, ma le collaborazioni tra governi, istituzioni e compagnie tecnologiche sono un ottimo punto di partenza per contenere i rischi dell'IA.

Potrebbe interessarti anche

Opinioni

L'IA guida la corsa all'assunzione di legali

OpenAI e le altre firme tech stanno assumendo decine di avvocati per far fronte alle implicazioni legali dei nuovi model...

News

OpenAI pensa a un marketplace per i chatbot

Secondo un'indiscrezione riportata da The Information, OpenAI starebbe pensando a un "app store" per i propri modelli di...

News

OpenAI lancia i Plugin e la Navigazione Web per ChatGPT Plus

Gli abbonati a ChatGPT Plus potranno integrare le risposte con informazioni provenienti dal Web o da una serie di integr...

News

Microsoft al lavoro su un chip proprietario per l'IA

Secondo alcune indiscrezioni Microsoft sarebbe al lavoro su chip proprietari per l'IA al fine di ridurre i costi e la di...