La presentazione di modelli come Stable Diffusion e ChatGPT ha portato alla ribalta le funzioni di IA generativa, che è diventato un argomento di discussione non solo per gli addetti ai lavori, ma anche per le aziende, la politica e la società in generale.
L'IA generativa è una tecnologia che utilizza l'apprendimento automatico per generare contenuti come testo, immagini, musica, parlato, codice o video.
L'IA generativa ha utilizzato tecniche di deep learning e General Adversarial Network (GAN), ma l'approccio più recente è l'utilizzo dei Generative Pre-trained Transformer (GPT), che sono basati su un’architettura di rete neurale che genera testi eccezionalmente simili a quelli prodotti dagli umani.
Nonostante la congiuntura globale negativa, le società di IA generativa continuano ad attirare investimenti, con startup emergenti che operano in questo spazio e investitori che prevedono una crescita del settore fino a raggiungere valori di migliaia di miliardi di dollari.
Capacità emergenti
L'IA generativa va oltre le attività di elaborazione del linguaggio naturale tradizionali (come la traduzione o la generazione di riassunti) e sta proponendo nuovi casi d'uso, come la creazione di motori di ricerca personalizzati, bot terapeutici, spiegazione di algoritmi complessi e generazione di contenuti testuali di ogni livello, dalle ricette alle tesine scolastiche.
Servizi di text-to-image come Midjourney, DALL-E e Stable Diffusion promettono di cambiare il modo in cui l'arte, l'animazione e l'architettura vengono create. Gli ottimisti sostengono che l'IA generativa aiuterà il processo creativo degli artisti e designer, accelerando l'ideazione e la creazione.
Inoltre, i modelli generativi di IA hanno potenzialità dirompenti in campi come l'ingegneria informatica, come dimostrato da GitHub Copilot, che aiuta gli sviluppatori a completare automaticamente il loro codice.
Mentre l'IA generativa promette una nuova era di creatività, ci sono preoccupazioni sull'impatto che questi modelli avranno sulla società.
Alcuni artisti temono che Internet sarà inondata da opere d'arte generate dall'IA che saranno indistinguibili dalle loro, minacciando così la sopravvivenza dei lavoratori creativi.
Inoltre, i modelli generativi di IA sollevano preoccupazioni nella comunità di governance dell'IA, poiché possono generare contenuti falsi e fuorvianti. Ciò è particolarmente preoccupante quando si considera la capacità dei bot troll automatizzati di generare notizie false e disinformazione.
I modelli di grandi dimensioni vengono addestrati su set di dati rappresentativi che possono contenere distorsioni difficili da eliminare completamente.
Nonostante gli sforzi per ridurre questi output, i modelli generativi continuano a sollevare preoccupazioni per la loro capacità di generare contenuti tossici e distorti.
Governare l’IA
Nel settore privato si sono delineati due approcci alla governance dei modelli generativi di IA: alcune aziende come OpenAI adottano scelgono l’autogoverno attraverso strategie di rilascio limitate e uso monitorato dei modelli.
Altre organizzazioni, come Stability AI, rilasciano invece i loro modelli apertamente per democratizzare l'accesso e creare il massimo impatto possibile sulla società e sull'economia.
Dal settore pubblico non è ancora arrivata alcuna regolamentazione per governare l'evoluzione rapida dell'IA generativa.
Ci sono preoccupazioni per la sicurezza e la generazione di contenuti violenti e inappropriati da parte dei modelli, nonché questioni irrisolte legate alla proprietà intellettuale e al diritto d'autore.
Il problema del copyright si è manifestato in modo evidente nel settore della generazione di codice, con la class action intentata contro GitHub Copilot per aver costruito un “sistema di pirateria software su una scala senza precedenti" utilizzando codice pubblico senza accreditare i creatori.
L'IA generativa rappresenta una svolta per molte attività, ma è essenziale governare la diffusione e l'impatto di questi modelli sulla società e sull'economia.
Ci sono due approcci alla governance dei modelli generativi di IA: una maggiore centralizzazione e controllo etico da un lato, e una maggiore innovazione e distribuzione decentralizzata dall'altro.
Trovare un equilibrio è un compito che spetta non solo alle imprese private, ma anche alla società civile e ai responsabili politici, per affrontare questioni come l'impatto sui mercati del lavoro, la legittimità dei dati utilizzati, licenze, diritto d'autore e potenziali contenuti dannosi o disinformazione.