Approfondimenti L'80% delle organizzazioni non è pronto ad affrontare i rischi dell'IA
3' 31''
11/11/2024

Secondo il report New Generation of risk di Riskconnect, la maggior parte delle organizzazioni non è pronta ad affrontare crisi derivanti dai rischi dell'IA.

L'80% delle organizzazioni non è pronto ad affrontare i rischi dell'IA

L'intelligenza artificiale porta notevoli benefici al business, ma le organizzazioni devono essere in grado di gestire i rischi derivanti da questa tecnologia e prepararsi a eventuali crisi. 

Nonostante la conoscenza sui pericoli e le minacce dell'IA, l'80% delle imprese non ha ancora un piano dedicato per la gestione dei rischi di questa tecnologia, dalle questioni legate alla privacy a quelle della proprietà intellettuale, passando anche per gli attacchi informatici guidati dall'IA. A dirlo è il New Generation Risk Report 2024 di Riskconnect, una compagnia di software per la gestione del rischio. 

Come riporta Edward Segal, scrittore e autore per Forbes, il 24% degli intervistati ha affermato che le minacce di cybersecurity guidate da IA avranno l'impatto maggiore sul business entro i prossimi mesi, mentre il 72% ha dichiarato che questi rischi stanno già avendo delle conseguenze significative o gravi.

Attualmente il 65% delle compagnie non ha una policy per gestire l'uso dell'IA generativa da parte di partner e fornitori, anche se, secondo il report di Riskconnect, gli attori terzi sono il punto di accesso più comune per i cybercriminali. 

Le minacce informatiche stanno diventando sempre più sofisticate e pericolose grazie all'uso dell'IA. Mentre però i professionisti di sicurezza e dell'IT evidenziano queste e altre preoccupazioni legate alla tecnologia, gli sforzi per gestirle sono tutt'altro che sufficienti. 

Non sono solo le minacce esterne a preoccupare, ma anche quelle interne: secondo il report, l'uso dell'IA generativa per produrre contenuti di marketing sta esponendo le compagnie a dei rischi di business non indifferenti.

I prompt dell'intelligenza artificiale infatti dovrebbero essere revisionati attentamente dai professionisti umani; in caso contrario, c'è il rischio che le campagne di marketing non siano persuasive e che, anzi, ottengano l'effetto contrario allontanando i clienti. Bisogna considerare inoltre che Google ha in piano di de-prioritizzare i contenuti generati da IA, danneggiando così i siti web che si affidano ampiamente a questa tecnologia. 

Le compagnie con le policy di IA più robuste

Stabilire una policy di gestione robusta e sicura per proteggere le organizzazioni dalle minacce dell'IA non è semplice: ci sono molti fattori da considerare e spesso alcuni aspetti vengono lasciati in secondo piano, aprendo però a nuovi rischi.

Segal porta come esempi due organizzazioni conosciute globalmente che hanno invece definito linee guida robuste per l'uso e lo sviluppo dell'IA, riuscendo a coniugare il bisogno d'innovazione con un'adeguata gestione del rischio. 

La prima è Dell: già prima del boom dell'IA, la compagnia ha sviluppato un set di principi per guidare lo sviluppo e l'uso di applicazioni di intelligenza artificiale affinché siano utili, eque, trasparenti e affidabili, secondo quanto riportato da John Scimion, presidente e chief security office di Dell. 

"Abbiamo nominato un Chief AI Officer e istituito una struttura di governance dell'IA che comprende i leader di tutte le principali funzioni della nostra azienda. Il nostro comitato di revisione dei casi d'uso dell'IA valuta attentamente i progetti proposti e si assicura che aderiscano ai nostri principi e si allineino alle nostre priorità aziendali" ha spiegato Scimion. 

Inoltre, la compagnia ha definito dei requisiti di sicurezza in termini di IA per guidare i team nell'impostare le misure di sicurezza più appropriate per proteggere dati e sistemi, sin dalla fase di design. 

Un altro esempio virtuoso è quello di Empathy First Media: questa agenzia di digital marketing ha implementato policy e procedure per aiutare i dipendenti a usare l'intelligenza artificiale in modo responsabile. 

Le linee guida vietano di inserire dati proprietari o sensibili di un cliente nei tool di IA e non permettono di copiare e incollare le risposte degli strumenti di GenAI, le quali devono essere revisionate attentamente dagli umani. 

La compagnia inoltre cerca di evitare l'uso della tecnologia quando potrebbe creare difficoltà di compliance agli standard di altri settori e comunica ai propri clienti tutti i casi in cui ha utilizzato l'intelligenza artificiale. 

Anche se non è semplice prepararsi ai rischi dell'IA, è indispensabile cominciare da subito per evitare di mettere in pericolo il business. Oggi più che mai c'è bisogno di definire policy adeguate per cogliere tutti i benefici delle nuove tecnologie e gestirne al meglio i rischi. 

Potrebbe interessarti anche

News

Aindo è la prima azienda certificata Europrivacy per la generazione di dati sanitari sintetici

Aindo è la prima azienda europea a ottenere la certificazione Europrivacy per l'uso di dati sintetici in ambito sanitari...

Approfondimenti

Solo il 3% delle aziende italiane ha completato progetti di GenAI

L'intelligenza artificiale generativa ha conquistato i decision-maker di tutto il mondo, compresi quelli italiani, ma l'...

Approfondimenti

I professionisti sanitari non sono del tutto convinti dall'IA

L'IA può supportare molte attività del mondo sanitario, ma i professionisti del settore chiedono più controlli e una mag...

Approfondimenti

Anche i brand di lusso si affidano all'IA

Il mondo del lusso sta sperimentando la potenza dell'intelligenza artificiale per migliorare le esperienze di acquisto d...