Approfondimenti Sette big tech si sono unite per definire nuovi standard per l'IA
3' 3''
02/08/2023

L'amministrazione Biden-Harris ha stretto un accordo con sette compagnie tecnologiche per definire linee guida per lo sviluppo dell'IA.

Sette big tech si sono unite per definire nuovi standard per l'IA

Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, i nomi più importanti nel panorama dell'intelligenza artificiale, hanno unito le proprie forze per definire nuovi standard volti ad assicurare lo sviluppo sicuro e trasparente dei modelli di IA.

Lo si legge in una dichiarazione ufficiale della Casa Bianca: l'amministrazione Biden-Harris ha convocato le compagnie per gestire i rischi dell'IA e garantire privacy e sicurezza ai cittadini americani.

"Le compagnie che sviluppano queste tecnologie emergenti hanno la responsabilità di assicurare che i loro prodotti siano sicuri" afferma l'amministrazione statunitense; per questo, le compagnie dovranno impegnarsi a rispettare tre principi fondamentali - sicurezza, fiducia e protezione - per continuare a innovare senza mettere in pericolo la popolazione.

Le responsabilità delle big tech

Le sette compagnie convocate dall'Amministrazione si sono dette subito pronte a collaborare per definire e seguire principi per lo sviluppo sicuro dei progetti di IA.

Pixabay
innovazione IA

Nel dettaglio, le big tech si impegnano in primo luogo ad assicurare che i loro prodotti risultino sicuri prima di renderli disponibili al pubblico. Prima del suo rilascio ogni sistema o strumento dovrà essere sottoposto a test interni ed esterni, eseguiti da esperti indipendenti dalle firme, per ridurre i rischi di cybersecurity e gli eventuali impatti negativi sulla società.

Ogni compagnia produttrice dovrà inoltre condividere informazioni e best practice di gestione dei rischi sia con le altre realtà del settore che con enti governativi e accademici per favorire la collaborazione.

Nello sviluppare i sistemi di IA le compagnie devono investire sulla sicurezza dei modelli per proteggere i dati e gli algoritmi proprietari dai cybercriminali; d'altra parte però le big tech si impegnano anche a facilitare l'individuazione e la notifica delle vulnerabilità nei propri sistemi da parte di terzi.

L'impegno delle grandi firme tecnologiche starà anche nel guadagnare la fiducia dei consumatori tramite diversi accorgimenti, primo fra tutti avvertire l'utente quando un contenuto è generato totalmente dall'IA e non proviene da una fonte particolare.

Pixabay
intelligenza artificiale

L'obiettivo è ridurre il più possibile il pericolo di errori e di conseguenze negative, e per far ciò le compagnie dovranno rendere pubblici i limiti e le capacità dei modelli, insieme all'area di utilizzo più indicata per ciascuno di essi.

Le big tech dovranno inoltre dare priorità alla ricerca sui rischi dei modelli per la società, come le minacce alla privacy e all'equità dei risultati, e allo sviluppo di sistemi che possano contribuire alla risoluzione delle grandi sfide per l'umanità, come il cambiamento climatico.

Un impegno che coinvolge tutti

L'accordo con le big tech è solo l'ultima delle iniziative volute dall'Amministrazione per sviluppare un framework condiviso e sicuro per lo sviluppo e l'uso delle nuove tecnologie. 

La Casa Bianca ha già stretto collaborazioni con Paesi di tutto il mondo, comprese l'Australia, il Brasile, diverse potenze europee tra le quali l'Italia, la Corea del Sud e il Regno Unito. 

Pixabay
intelligenza artificiale

L'Amministrazione Biden-Harris ha inoltre pubblicato un primo modello per una Carta dei Diritti specifica per l'IA nella quale si identificano e approfondiscono cinque principi guida dello sviluppo: la sicurezza e l'efficienza dei sistema, la protezione dalla discriminazione degli algoritmi, la privacy dei dati, la trasparenza sul funzionamento dei sistemi e la possibilità di considerare alternative umane.

Le indicazioni dell'Amministrazione americana sono in linea con quelle dell'Unione Europea e del suo AI Act che dovrebbe entrare in vigore già da quest'anno.

Le indicazioni non sono definitive ma evolveranno nel tempo in risposta all'evoluzione delle capacità dei modelli e all'uso dei consumatori, ma le collaborazioni tra governi, istituzioni e compagnie tecnologiche sono un ottimo punto di partenza per contenere i rischi dell'IA.

Potrebbe interessarti anche

News

OpenAI sta testando SearchGPT, il suo motore di ricerca intelligente

OpenAI ha annunciato SearchGPT, un motore di ricerca che usa l'intelligenza artificiale per offrire agli utenti risultat...

News

OpenAI vieta le sue tecnologie in Cina: comincia la guerra tech

La guerra tech sta per iniziare dopo la decisione storica di OpenAI: la compagnia di Sam Altman sta per bloccare l'acces...

Opinioni

L'impatto dell'IA generativa è appena cominciato: parola del CTO di OpenAI

Mira Murati, CTO di OpenAI, ritiene che l'impatto dell'IA generativa sui business e sul mondo del lavoro è appena cominc...

Opinioni

Accordo News Corp e OpenAI: cosa significa per il giornalismo?

News Corp e OpenAI hanno siglato un accordo che permetterà a GPT di accedere ai contenuti delle testate del gruppo. Cosa...