News Una partnership per l’uso responsabile dei modelli generativi
Dario Orlandi
1' 44''
23/03/2023

L’iniziativa Partnership on AI ha dettato una serie di linee guida che sono state adottate da alcune importanti aziende del settore, da OpenAI ad Adobe.

Una partnership per l’uso responsabile dei modelli generativi

Un gruppo di 10 importanti aziende, tra cui OpenAI, TikTok, Adobe, la BBC e l'app di appuntamenti Bumble, ha sottoscritto un nuovo insieme di linee guida volontarie per promuovere la creazione e la condivisione responsabile di contenuti generati dall'intelligenza artificiale.

Le raccomandazioni richiedono agli sviluppatori delle tecnologie e ai creatori di contenuti di essere trasparenti su ciò che l'IA può e non può fare e di rivelare quando le persone potrebbero interagire con questo tipo di contenuti.

La Partnership on AI (PAI), un’organizzazione no-profit di ricerca sull'IA, ha collaborato con oltre 50 organizzazioni per raccogliere e sintetizzare queste linee guida. Tra i partner di PAI ci sono grandi aziende tecnologiche, organizzazioni accademiche, della società civile e dei media.

Le prime 10 aziende ad aderire alle nuove linee guida sono Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness e le startup Synthesia, D-ID e Respeecher.

Un primo passo

Claire Leibowicz, responsabile dell'intelligenza artificiale e dell'integrità dei media di PAI, ha dichiarato: “Vogliamo garantire che i media sintetici non vengano utilizzati per danneggiare, depotenziare o privare dei diritti civili, ma piuttosto per sostenere la creatività, la condivisione delle conoscenze e i commenti”.

Claire Leibowicz
Claire Leibowicz, responsabile dell'intelligenza artificiale e dell'integrità dei media di PAI

Tra le raccomandazioni, le aziende si impegnano a segnalare in modo trasparente quando gli utenti interagiscono con contenuti generati dall'IA, attraverso filigrane, dichiarazioni di non responsabilità o tracciabilità dei dati di addestramento.

Queste linee guida non sono ancora codificate in regolamentazioni, come la prossima legge sull'IA dell'Unione Europea, che potrebbe imporre requisiti di trasparenza e divulgazione per i deepfake.

Nonostante ciò, gli esperti sperano che queste linee guida sensibilizzeranno le aziende sui potenziali rischi dell'IA generativa e forniranno linee guida per l'incorporazione responsabile della tecnologia.

Hany Farid
Hany Farid, professore dell'Università della California, Berkeley

Hany Farid, un professore dell'Università della California, Berkeley, che studia i media sintetici e i deepfake, ha sostenuto l'importanza di avviare conversazioni su come affrontare la questione, pur nutrendo molta diffidenza sulla reale efficacia dei sistemi basati su linee guida e principi volontari.

 

Potrebbe interessarti anche

News

OpenAI sta testando SearchGPT, il suo motore di ricerca intelligente

OpenAI ha annunciato SearchGPT, un motore di ricerca che usa l'intelligenza artificiale per offrire agli utenti risultat...

News

OpenAI vieta le sue tecnologie in Cina: comincia la guerra tech

La guerra tech sta per iniziare dopo la decisione storica di OpenAI: la compagnia di Sam Altman sta per bloccare l'acces...

Opinioni

L'impatto dell'IA generativa è appena cominciato: parola del CTO di OpenAI

Mira Murati, CTO di OpenAI, ritiene che l'impatto dell'IA generativa sui business e sul mondo del lavoro è appena cominc...

Opinioni

Accordo News Corp e OpenAI: cosa significa per il giornalismo?

News Corp e OpenAI hanno siglato un accordo che permetterà a GPT di accedere ai contenuti delle testate del gruppo. Cosa...