Opinioni Come sviluppare modelli generativi sicuri e affidabili
Marina Londei
2' 32''
22/02/2023

Come sviluppare modelli affidabili e sicuri? Salesforce ha condiviso 5 principi da seguire per garantire lo sviluppo responsabile dell'IA generativa.

Come sviluppare modelli generativi sicuri e affidabili

Come ben sappiamo, oggi c'è un enorme entusiasmo attorno ai modelli di IA generativa: grazie alle loro capacità è possibile trasformare il modo di vivere e lavorare, supportare la digitalizzazione delle imprese e favorire l'innovazione in ogni campo.

Gli algoritmi di IA generativa portano con sé anche diversi rischi legati a inesattezze presenti sia nel modello che nel data set di addestramento. Anche se esistono metodi e tecnologie per ridurre questi errori, non è sempre facile individuarli, e il fallimento è dietro l'angolo.

Le conseguenze di errori negli output possono andare da approssimazioni tutto sommato accettabili a contenuti pericolosi nei confronti di individui o gruppi. Per questo motivo, Salesforce ha condiviso 5 principi fondamentali per indirizzare lo sviluppo e l'utilizzo responsabile dei modelli.

Le linee guida di Salesforce per lo sviluppo responsabile dei modelli

Secondo le indicazioni dell'azienda, un sistema di intelligenza artificiale generativa deve essere accurato e permettere di verificare la precisione dei risultati. Gli utenti devono sapere quando una risposta non è attendibile al 100% e, nel caso, essere in grado di validarla o rifiutarla.

rawpixel.com - Freepik
accuratezza dei risultati

Per questo motivo Salesforce propone l'uso di citazioni per le fonti usate nell'elaborazione, la possibilità di risalire al "ragionamento" che ha portato a un certo risultato e l'introduzione di alcuni limiti all'automazione dei task, in particolare per quelli critici dove serve un intervento umano.

Secondo Salesforce, un modello generativo dovrebbe essere anche sicuro, ovvero senza errori o difetti che possano produrre risultati pericolosi per una o più persone. Un risultato che  può essere raggiunto filtrando opportunamente il dataset di training, così da garantire la privacy delle informazioni condivise, soprattutto nel caso di dati personali di identificazione.

Quando si raccolgono i dati per l'addestramento dei modelli va rispettato il principio di onestà, che si traduce nel rispetto della provenienza dei dati e dei diritti di copyright. I team di sviluppo dei modelli devono accertarsi di avere il consenso per l'uso dei dati (che siano open-source o forniti da privati).

Occorre anche discernere i casi in cui i modelli possono eseguire compiti in totale autonomia o quando serve l'intervento umano. In alcune situazioni, che per il momento sono la maggioranza del totale, l'IA deve rimanere un aiuto per i professionisti, poiché non è in grado di sostituirli.

rawpixel.com - Freepik
IA collaborativa

Le imprese devono fare uno sforzo ulteriore per capire quando i modelli possono farsi carico delle attività e quando invece è richiesta la supervisione umana per garantire l'affidabilità del sistema.

Infine, l'ultimo principio condiviso dall'azienda riguarda la sostenibilità dei sistemi per ridurre l'impronta ecologica. Modelli estesi non sono sempre garanzia di performance ottimali: spesso algoritmi più piccoli, ma addestrati adeguatamente, danno risultati più accurati in tempi minori.

 

I principi condivisi da Salesforce sono attualmente in uso nei loro sistemi. Sono linee guida che, nella visione dell'azienda, permettono di sviluppare un'IA affidabile, ovvero i cui risultati siano interpretabili, accurati, non discriminatori e che rispettino la privacy degli utenti. 

Potrebbe interessarti anche

Approfondimenti

I modelli generativi plagiano i testi e anche i concetti

Una ricerca della Penn State University ha analizzato oltre 200.000 testi per individuare le varie forme di plagio dei c...

Opinioni

Il destino dei chatbot tra etica e legalità

L'uso sempre più diffuso dei modelli generativi di IA sta facendo emergere questioni etiche e legali che potrebbero mett...

News

FRIDA: un robot che dipinge e collabora con gli artisti

FRIDA è un framework pensato per supportare gli artisti e collaborare con loro nella realizzazione di dipinti a partire...

Scenario

I modelli generativi supportano immaginazione e produttività

I modelli generativi di IA aiutano le imprese a essere più produttive e aprono nuove porte all'immaginazione durante i p...