Come ben sappiamo, oggi c'è un enorme entusiasmo attorno ai modelli di IA generativa: grazie alle loro capacità è possibile trasformare il modo di vivere e lavorare, supportare la digitalizzazione delle imprese e favorire l'innovazione in ogni campo.
Gli algoritmi di IA generativa portano con sé anche diversi rischi legati a inesattezze presenti sia nel modello che nel data set di addestramento. Anche se esistono metodi e tecnologie per ridurre questi errori, non è sempre facile individuarli, e il fallimento è dietro l'angolo.
Le conseguenze di errori negli output possono andare da approssimazioni tutto sommato accettabili a contenuti pericolosi nei confronti di individui o gruppi. Per questo motivo, Salesforce ha condiviso 5 principi fondamentali per indirizzare lo sviluppo e l'utilizzo responsabile dei modelli.
Le linee guida di Salesforce per lo sviluppo responsabile dei modelli
Secondo le indicazioni dell'azienda, un sistema di intelligenza artificiale generativa deve essere accurato e permettere di verificare la precisione dei risultati. Gli utenti devono sapere quando una risposta non è attendibile al 100% e, nel caso, essere in grado di validarla o rifiutarla.
Per questo motivo Salesforce propone l'uso di citazioni per le fonti usate nell'elaborazione, la possibilità di risalire al "ragionamento" che ha portato a un certo risultato e l'introduzione di alcuni limiti all'automazione dei task, in particolare per quelli critici dove serve un intervento umano.
Secondo Salesforce, un modello generativo dovrebbe essere anche sicuro, ovvero senza errori o difetti che possano produrre risultati pericolosi per una o più persone. Un risultato che può essere raggiunto filtrando opportunamente il dataset di training, così da garantire la privacy delle informazioni condivise, soprattutto nel caso di dati personali di identificazione.
Quando si raccolgono i dati per l'addestramento dei modelli va rispettato il principio di onestà, che si traduce nel rispetto della provenienza dei dati e dei diritti di copyright. I team di sviluppo dei modelli devono accertarsi di avere il consenso per l'uso dei dati (che siano open-source o forniti da privati).
Occorre anche discernere i casi in cui i modelli possono eseguire compiti in totale autonomia o quando serve l'intervento umano. In alcune situazioni, che per il momento sono la maggioranza del totale, l'IA deve rimanere un aiuto per i professionisti, poiché non è in grado di sostituirli.
Le imprese devono fare uno sforzo ulteriore per capire quando i modelli possono farsi carico delle attività e quando invece è richiesta la supervisione umana per garantire l'affidabilità del sistema.
Infine, l'ultimo principio condiviso dall'azienda riguarda la sostenibilità dei sistemi per ridurre l'impronta ecologica. Modelli estesi non sono sempre garanzia di performance ottimali: spesso algoritmi più piccoli, ma addestrati adeguatamente, danno risultati più accurati in tempi minori.
I principi condivisi da Salesforce sono attualmente in uso nei loro sistemi. Sono linee guida che, nella visione dell'azienda, permettono di sviluppare un'IA affidabile, ovvero i cui risultati siano interpretabili, accurati, non discriminatori e che rispettino la privacy degli utenti.