Un gruppo di 10 importanti aziende, tra cui OpenAI, TikTok, Adobe, la BBC e l'app di appuntamenti Bumble, ha sottoscritto un nuovo insieme di linee guida volontarie per promuovere la creazione e la condivisione responsabile di contenuti generati dall'intelligenza artificiale.
Le raccomandazioni richiedono agli sviluppatori delle tecnologie e ai creatori di contenuti di essere trasparenti su ciò che l'IA può e non può fare e di rivelare quando le persone potrebbero interagire con questo tipo di contenuti.
La Partnership on AI (PAI), un’organizzazione no-profit di ricerca sull'IA, ha collaborato con oltre 50 organizzazioni per raccogliere e sintetizzare queste linee guida. Tra i partner di PAI ci sono grandi aziende tecnologiche, organizzazioni accademiche, della società civile e dei media.
Le prime 10 aziende ad aderire alle nuove linee guida sono Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness e le startup Synthesia, D-ID e Respeecher.
Un primo passo
Claire Leibowicz, responsabile dell'intelligenza artificiale e dell'integrità dei media di PAI, ha dichiarato: “Vogliamo garantire che i media sintetici non vengano utilizzati per danneggiare, depotenziare o privare dei diritti civili, ma piuttosto per sostenere la creatività, la condivisione delle conoscenze e i commenti”.
Tra le raccomandazioni, le aziende si impegnano a segnalare in modo trasparente quando gli utenti interagiscono con contenuti generati dall'IA, attraverso filigrane, dichiarazioni di non responsabilità o tracciabilità dei dati di addestramento.
Queste linee guida non sono ancora codificate in regolamentazioni, come la prossima legge sull'IA dell'Unione Europea, che potrebbe imporre requisiti di trasparenza e divulgazione per i deepfake.
Nonostante ciò, gli esperti sperano che queste linee guida sensibilizzeranno le aziende sui potenziali rischi dell'IA generativa e forniranno linee guida per l'incorporazione responsabile della tecnologia.
Hany Farid, un professore dell'Università della California, Berkeley, che studia i media sintetici e i deepfake, ha sostenuto l'importanza di avviare conversazioni su come affrontare la questione, pur nutrendo molta diffidenza sulla reale efficacia dei sistemi basati su linee guida e principi volontari.