Da quando a ottobre scorso ChatGPT ha scosso il mercato dell'IA generativa, c'è una questione che continua a emergere e sembra ancora lontana dall'essere risolta: possiamo davvero fidarci dei modelli generativi?
Si tratta di un problema sentito in particolar modo dalle aziende, che devono preoccuparsi di fornire ai propri utenti contenuti affidabili e non errati o fraudolenti. Non si può negare che l'IA generativa abbia complicato i controlli sulla diffusione di fake news e contenuti pericolosi, quindi bisogna agire con urgenza: è necessario sviluppare strategie che riducano i rischi legati a informazioni false o diffamatorie.
Mark Esposito, CLO presso Nexus FrontierTech, Terence Tse, direttore esecutivo di Nexus Frontier Tech, e Tahereh Sonia Saheb, assegnista di ricerca, hanno condiviso un'interessante riflessione sul ruolo che le aziende possono avere nel combattere la disinformazione causata dall'IA generativa, aumentando l'accuratezza e l'affidabilità dei modelli.
Aumentare l'affidabilità dei modelli generativi
Nonostante l'automazione delle attività e della generazione dei contenuti ha velocizzato i tempi del business, le imprese non possono affidarsi totalmente all'IA. I tool generativi possono essere degli ottimi assistenti, ma c'è ancora bisogno di un monitoraggio professionale per confermare i risultati.
Come illustrano i tre autori, esistono diversi modi coi quali le imprese possono aumentare l'affidabilità dei modelli, e di conseguenza ottimizzare ulteriormente le attività del business.
Una delle opzioni migliori è utilizzare una piattaforma comunicativa dove i professionisti del settore danno un feedback alle risposte dei modelli e le modificano in caso di errori o imprecisioni. Non solo i risultati vengono confermati da un professionista, ma grazie al riscontro umano i modelli integrano questa nuova conoscenza e diventano più precisi nelle risposte.
Man mano che l'IA genera dei contenuti, lo staff li passa al vaglio, li modifica e li valida prima di passare allo step successivo, fino a che l'intero processo creativo non si conclude. Si tratta di un metodo che trae molto dalla pratica agile applicata solitamente al ciclo di sviluppo software.
I contenuti vengono generati in maniera continua ma divisi in porzioni che vengono controllate e perfezionate dagli utenti tramite feedback; in questo modo, le imprese possono aumentare la propria credibilità nei confronti dei clienti, e al contempo velocizzare le attività.
Investire sull'affidabilità dei modelli potrebbe non essere così faticoso come sembra: secondo alcuni studi riportati dagli autori, l'output delle macchine viene generalmente percepito come più affidabile rispetto a quello delle persone; questo perché i tool generativi non soffrono del pregiudizio e della soggettività degli esseri umani.
I chatbot trovano le risposte basandosi su algoritmi matematici e regole oggettive; il vero problema risiede nella bontà del dataset su cui vengono addestrati. Migliorare i dati di training è il primo, fondamentale passo per aumentare l'affidabilità dei modelli, ma il processo non può essere completo senza l'approvazione umana.