News Una partnership per l’uso responsabile dei modelli generativi
1' 44''
23/03/2023

L’iniziativa Partnership on AI ha dettato una serie di linee guida che sono state adottate da alcune importanti aziende del settore, da OpenAI ad Adobe.

Una partnership per l’uso responsabile dei modelli generativi

Un gruppo di 10 importanti aziende, tra cui OpenAI, TikTok, Adobe, la BBC e l'app di appuntamenti Bumble, ha sottoscritto un nuovo insieme di linee guida volontarie per promuovere la creazione e la condivisione responsabile di contenuti generati dall'intelligenza artificiale.

Le raccomandazioni richiedono agli sviluppatori delle tecnologie e ai creatori di contenuti di essere trasparenti su ciò che l'IA può e non può fare e di rivelare quando le persone potrebbero interagire con questo tipo di contenuti.

La Partnership on AI (PAI), un’organizzazione no-profit di ricerca sull'IA, ha collaborato con oltre 50 organizzazioni per raccogliere e sintetizzare queste linee guida. Tra i partner di PAI ci sono grandi aziende tecnologiche, organizzazioni accademiche, della società civile e dei media.

Le prime 10 aziende ad aderire alle nuove linee guida sono Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness e le startup Synthesia, D-ID e Respeecher.

Un primo passo

Claire Leibowicz, responsabile dell'intelligenza artificiale e dell'integrità dei media di PAI, ha dichiarato: “Vogliamo garantire che i media sintetici non vengano utilizzati per danneggiare, depotenziare o privare dei diritti civili, ma piuttosto per sostenere la creatività, la condivisione delle conoscenze e i commenti”.

Claire Leibowicz
Claire Leibowicz, responsabile dell'intelligenza artificiale e dell'integrità dei media di PAI

Tra le raccomandazioni, le aziende si impegnano a segnalare in modo trasparente quando gli utenti interagiscono con contenuti generati dall'IA, attraverso filigrane, dichiarazioni di non responsabilità o tracciabilità dei dati di addestramento.

Queste linee guida non sono ancora codificate in regolamentazioni, come la prossima legge sull'IA dell'Unione Europea, che potrebbe imporre requisiti di trasparenza e divulgazione per i deepfake.

Nonostante ciò, gli esperti sperano che queste linee guida sensibilizzeranno le aziende sui potenziali rischi dell'IA generativa e forniranno linee guida per l'incorporazione responsabile della tecnologia.

Hany Farid
Hany Farid, professore dell'Università della California, Berkeley

Hany Farid, un professore dell'Università della California, Berkeley, che studia i media sintetici e i deepfake, ha sostenuto l'importanza di avviare conversazioni su come affrontare la questione, pur nutrendo molta diffidenza sulla reale efficacia dei sistemi basati su linee guida e principi volontari.