Opinioni I rischi legali e di conformità di ChatGPT, secondo Gartner
2' 58''
29/05/2023

Gli analisti dell’azienda hanno identificato i principali pericoli collegati all’uso di ChatGPT in ambito professionale.

I rischi legali e di conformità di ChatGPT, secondo Gartner

Secondo un recente documento pubblicato da Gartner, i dirigenti responsabili del dipartimento legale e della conformità dovrebbero prendere in considerazione sei rischi specifici relativi all'utilizzo di ChatGPT e stabilire delle linee guida per garantire un uso responsabile degli strumenti di intelligenza artificiale generativa all'interno dell'organizzazione.

Ron Friedmann, Senior Director Analyst di Gartner, ha commentato: “L'output generato da ChatGPT e da altri strumenti LLM (Large Language Model) è soggetto a diversi potenziali problemi”.

Ron Friedmann
Ron Friedmann, Senior Director Analyst di Gartner

“I responsabili legali e di conformità dovrebbero valutare se questi problemi presentano un rischio materiale per la loro azienda e quali controlli sono necessari, sia all'interno dell'impresa sia nel rapporto con terze. In caso contrario, le imprese potrebbero essere esposte a conseguenze legali, reputazionali e finanziarie”, ha proseguito Friedman.

Risposte imprecise

L'uso di strumenti di intelligenza artificiale generativa, come ChatGPT, può comportare diversi rischi per le aziende. Innanzitutto, questi strumenti possono fornire informazioni errate o imprecise, anche se plausibili, e questo potrebbe compromettere la correttezza delle decisioni prese dai dipendenti che li utilizzano.

Inoltre, l'utilizzo di ChatGPT potrebbe comportare una violazione della privacy e della riservatezza dei dati, poiché le informazioni inserite nel sistema possono diventare parte del set di dati di formazione. Ciò potrebbe comportare la divulgazione di informazioni sensibili o proprietarie a terzi non autorizzati.

Per mitigare questi rischi, i responsabili legali e di conformità dovrebbero stabilire delle linee guida chiare per l'utilizzo di questi strumenti, richiedendo ai dipendenti di verificare l'accuratezza delle risposte generate e proibendo l'uso di dati sensibili o personali negli strumenti LLM pubblici.

Bias del modello

L'uso di ChatGPT e di altri strumenti di intelligenza artificiale generativa può comportare rischi legati al bias del modello e dell'output, nonostante gli sforzi di OpenAI per minimizzare questi problemi.

Bias Modello

La presenza di pregiudizi e discriminazioni nel sistema può compromettere la correttezza delle risposte generate e può comportare violazioni di leggi e regolamenti in materia di discriminazione.

Per mitigare questi rischi, i responsabili legali e di conformità dovrebbero collaborare con esperti in materia e impostare controlli di qualità dei dati per garantire che l'output generato sia affidabile e privo di pregiudizi.

Inoltre, l'uso di ChatGPT può comportare rischi per la proprietà intellettuale e il copyright, poiché il sistema è addestrato su una grande quantità di dati Internet che potrebbero includere materiale protetto da copyright.

In questo caso, i responsabili legali e di conformità dovrebbero tenere d'occhio eventuali modifiche alla legge sul copyright e richiedere agli utenti di esaminare attentamente l'output generato per evitare violazioni di copyright o di diritti di proprietà intellettuale.

Uso fraudolento

L'uso di ChatGPT e di altri strumenti di intelligenza artificiale generativa comporta anche rischi legati alle frodi informatiche e alla protezione dei consumatori.

Intelligenza artificiale

I malintenzionati possono utilizzare ChatGPT per generare informazioni false su larga scala e per eseguire attività dannose come lo sviluppo di siti di phishing.

Inoltre, le aziende che utilizzano ChatGPT come chatbot di assistenza clienti devono rivelare chiaramente ai consumatori che stanno comunicando con un bot, altrimenti possono perdere la fiducia dei loro clienti e violare le leggi sulla protezione dei consumatori.

Per mitigare questi rischi, i responsabili legali e di conformità dovrebbero collaborare con i responsabili della sicurezza per valutare la qualità delle informazioni e condurre audit delle fonti di due diligence. Inoltre, dovrebbero garantire che l'uso di ChatGPT sia conforme a tutte le normative e le leggi pertinenti e che siano state fornite informazioni appropriate ai clienti.

Potrebbe interessarti anche

Approfondimenti

Gli agenti di IA supporteranno la crescita delle PMI

Gli agenti di IA hanno il potenziale di rivoluzionare il business delle PMI aiutandole a emergere sul mercato, aumentand...

Approfondimenti

I sei trend di IA che rivoluzioneranno il marketing

Bernard Marr di Forbes individua sei trend di intelligenza artificiale che guideranno lo sviluppo del marketing nel 2025...

Approfondimenti

L'IA trasforma la diagnostica per immagini e i percorsi di cura

Il dibattito "Evoluzione tecnologica e Intelligenza Artificiale in Diagnostica per Immagini. Stato dell’arte e prospetti...

Approfondimenti

Il 55% delle aziende farmaceutiche usa l'IA per progettare prodotti e servizi

Secondo il report "AI: radiografia di una rivoluzione in corso" condotto da Ascendant di Minsait, le aziende farmaceutic...