Opinioni I rischi legali e di conformità di ChatGPT, secondo Gartner
Dario Orlandi
2' 58''
29/05/2023

Gli analisti dell’azienda hanno identificato i principali pericoli collegati all’uso di ChatGPT in ambito professionale.

I rischi legali e di conformità di ChatGPT, secondo Gartner

Secondo un recente documento pubblicato da Gartner, i dirigenti responsabili del dipartimento legale e della conformità dovrebbero prendere in considerazione sei rischi specifici relativi all'utilizzo di ChatGPT e stabilire delle linee guida per garantire un uso responsabile degli strumenti di intelligenza artificiale generativa all'interno dell'organizzazione.

Ron Friedmann, Senior Director Analyst di Gartner, ha commentato: “L'output generato da ChatGPT e da altri strumenti LLM (Large Language Model) è soggetto a diversi potenziali problemi”.

Ron Friedmann
Ron Friedmann, Senior Director Analyst di Gartner

“I responsabili legali e di conformità dovrebbero valutare se questi problemi presentano un rischio materiale per la loro azienda e quali controlli sono necessari, sia all'interno dell'impresa sia nel rapporto con terze. In caso contrario, le imprese potrebbero essere esposte a conseguenze legali, reputazionali e finanziarie”, ha proseguito Friedman.

Risposte imprecise

L'uso di strumenti di intelligenza artificiale generativa, come ChatGPT, può comportare diversi rischi per le aziende. Innanzitutto, questi strumenti possono fornire informazioni errate o imprecise, anche se plausibili, e questo potrebbe compromettere la correttezza delle decisioni prese dai dipendenti che li utilizzano.

Inoltre, l'utilizzo di ChatGPT potrebbe comportare una violazione della privacy e della riservatezza dei dati, poiché le informazioni inserite nel sistema possono diventare parte del set di dati di formazione. Ciò potrebbe comportare la divulgazione di informazioni sensibili o proprietarie a terzi non autorizzati.

Per mitigare questi rischi, i responsabili legali e di conformità dovrebbero stabilire delle linee guida chiare per l'utilizzo di questi strumenti, richiedendo ai dipendenti di verificare l'accuratezza delle risposte generate e proibendo l'uso di dati sensibili o personali negli strumenti LLM pubblici.

Bias del modello

L'uso di ChatGPT e di altri strumenti di intelligenza artificiale generativa può comportare rischi legati al bias del modello e dell'output, nonostante gli sforzi di OpenAI per minimizzare questi problemi.

Bias Modello

La presenza di pregiudizi e discriminazioni nel sistema può compromettere la correttezza delle risposte generate e può comportare violazioni di leggi e regolamenti in materia di discriminazione.

Per mitigare questi rischi, i responsabili legali e di conformità dovrebbero collaborare con esperti in materia e impostare controlli di qualità dei dati per garantire che l'output generato sia affidabile e privo di pregiudizi.

Inoltre, l'uso di ChatGPT può comportare rischi per la proprietà intellettuale e il copyright, poiché il sistema è addestrato su una grande quantità di dati Internet che potrebbero includere materiale protetto da copyright.

In questo caso, i responsabili legali e di conformità dovrebbero tenere d'occhio eventuali modifiche alla legge sul copyright e richiedere agli utenti di esaminare attentamente l'output generato per evitare violazioni di copyright o di diritti di proprietà intellettuale.

Uso fraudolento

L'uso di ChatGPT e di altri strumenti di intelligenza artificiale generativa comporta anche rischi legati alle frodi informatiche e alla protezione dei consumatori.

Intelligenza artificiale

I malintenzionati possono utilizzare ChatGPT per generare informazioni false su larga scala e per eseguire attività dannose come lo sviluppo di siti di phishing.

Inoltre, le aziende che utilizzano ChatGPT come chatbot di assistenza clienti devono rivelare chiaramente ai consumatori che stanno comunicando con un bot, altrimenti possono perdere la fiducia dei loro clienti e violare le leggi sulla protezione dei consumatori.

Per mitigare questi rischi, i responsabili legali e di conformità dovrebbero collaborare con i responsabili della sicurezza per valutare la qualità delle informazioni e condurre audit delle fonti di due diligence. Inoltre, dovrebbero garantire che l'uso di ChatGPT sia conforme a tutte le normative e le leggi pertinenti e che siano state fornite informazioni appropriate ai clienti.

Potrebbe interessarti anche

News

La conferenza Microsoft Build prende il via nel segno dell’AI

L’annuale conferenza per gli sviluppatori ha visto una serie di annunci collegati all’integrazione degli strumenti AI in...

Approfondimenti

Il ML migliora le decisioni, ma aumenta lo sforzo dei decisori

Una ricerca dell’ESMT Berlin ha mostrato che il ML non incide solo sulla precisione, ma invece ha ricadute anche sul num...

News

ServiceNow annuncia funzioni di IA generativa per la Now Platform

La Now Platform sarà presto estesa con funzioni generative per automatizzare flussi di lavoro ed estrarre informazioni d...

News

OpenAI lancia i Plugin e la Navigazione Web per ChatGPT Plus

Gli abbonati a ChatGPT Plus potranno integrare le risposte con informazioni provenienti dal Web o da una serie di integr...