Approfondimenti L'Europol mette in guardia dagli usi illeciti di ChatGPT
4' 18''
28/04/2023

L'Europol ha pubblicato i risultati di un'indagine sugli usi criminali di ChatGPT: la situazione è preoccupante e richiede interventi immediati.

L'Europol mette in guardia dagli usi illeciti di ChatGPT

I modelli generativi e i tool come ChatGPT si sono diffusi rapidamente e oggi vengono utilizzati in numerosi contesti per diversi casi d’uso. Se da una parte la potenza dei modelli velocizza le attività ripetitive e migliora la qualità della vita, dall’altra semplifica anche l’attività dei criminali. 

L’Innovation Lab di Europol ha organizzato una serie di workshop per discutere dei rischi associati a un uso improprio dei tool, specialmente per scopi criminali, e in che modo possono essere usati dalle autorità giudiziarie per contrastare fenomeni come il crimine organizzato, il cybercrime e il terrorismo. 

L’attività dei laboratori ha preso in esame ChatGPT per via del suo ampio utilizzo e della disponibilità pubblica dello strumento, ma le considerazioni valgono per qualsiasi tool generativo.

L'IA al servizio del crimine

Nonostante i tool come ChatGPT integrino dei sistemi di moderazione e misure di sicurezza per filtrare i contenuti violenti e pericolosi, i cybercriminali possono facilmente superare questi controlli tramite le tecniche di prompt engineering. 

Pexels
ChatGPT

Il prompt engineering consiste nel creare un input specifico per fare in modo che il chatbot risponda senza le limitazioni imposte e fornisca tutte le informazioni richieste.

Nel caso più semplice ChatGPT può fornire informazioni dettagliate su come eseguire un crimine, facendo sì che anche chi non ha esperienza possa procedere. Un malintenzionato potrebbe, per esempio, ottenere tutte le informazioni su come forzare serrature o disabilitare specifici sistemi di sicurezza.

Anche se tutte queste informazioni sono già disponibili sul web, utilizzare un tool significa ottenerle in breve tempo, già aggregate in maniera sensata e organizzate per step, facilitando l’esecuzione degli illeciti. 

Come sappiamo bene, ChatGPT può creare testi impersonando organizzazioni o individui in maniera realistica, migliorare il contenuto e la forma delle email di phishing affinché siano difficili da individuare e impostare frodi.

ChatGPT può essere usato anche per campagne di propaganda e disinformazione proprio per la sua capacità di replicare pattern e stile comunicativo di un soggetto specifico. 

Freepik
fake news disinformazione

Il tool è anche in grado di generare codice eseguibile in diversi linguaggi, di fatto facilitando il lavoro dei cybercriminali. In poco tempo è possibile ottenere script completi e funzionanti che, seppur elementari, permettono anche a chi non ha conoscenze tecniche di sferrare attacchi.

In questi casi è ancora più facile superare le misure di sicurezza: il filtro funziona solo se ChatGPT comprende che ciò che sta generando è codice malevolo. Dividendo la richiesta in più step la protezione risulta inefficace. 

Man mano che i modelli migliorano, i cybercriminali potranno creare programmi sempre più articolati e difficili da contrastare. Se è vero che GPT-4 è migliorato nella comprensione del contesto, d’altra parte anche i cybercriminali hanno accesso a contenuti più precisi per creare malware sofisticati.

Contrastare gli usi illeciti dei modelli

Il miglioramento continuo dei modelli preoccupa le forze dell’ordine: gli strumenti per contrastare le attività criminali non sono ancora abbastanza accurati e faticano a pareggiare le capacità dei LLM. 

Secondo l’Innovation Lab il più grande impatto di queste tecnologie riguarda il concetto di “comunicazione esplorativa”, ovvero la possibilità di ottenere grandi quantità di informazioni in poco tempo e con molta facilità. La potenza dei modelli consente inoltre di programmare attività criminali su larga scala e sfruttare nuovi casi d’uso.

Pexels
ChatGPT

Le forze dell’ordine devono vedersela con capacità sempre migliori e tecniche di attacco specializzate. Le autorità e le organizzazioni possono cercare di limitare i rischi collaborando per produrre linee guida più stringenti per lo sviluppo dei modelli e sistemi di controllo più severi. Le misure di sicurezza, inoltre, possono essere migliorate ulteriormente impostando dei filtri più specifici. 

L’Unione Europea sta finalizzando il suo Artificial Intelligence Act per regolare lo sviluppo e l’utilizzo dei sistemi di IA, identificando quelli ad alto rischio e imponendo alcune restrizioni. 

Più i sistemi si diffonderanno e miglioreranno, più numerose e critiche saranno le sfide da affrontare. Il crescente supporto delle big tech nello sviluppo dei modelli ha reso ancora più urgente la necessità di agire e porre un freno agli usi dolosi degli strumenti di IA.

Identificare i possibili scenari d’attacco è il primo, fondamentale passo per migliorare il lavoro delle forze dell'ordine. Il progresso non si arresterà, e le autorità devono essere pronte a contrastare le attività criminali in ogni ambito. 

Pixabay
intelligenza artificiale

Comprendere il contesto degli attacchi non è sufficiente: è anche e soprattutto necessario sviluppare nuove abilità attraverso addestramenti mirati. Gli ufficiali delle forze dell’ordine devono essere in grado di utilizzare i modelli per ottenere un vantaggio sui criminali e riconoscere contenuti generati dall’IA.

Combattere gli abusi diventerà sempre più importante per le autorità. L'obiettivo è permettere agli utenti di sfruttare tutti i benefici dei modelli e al contempo prevenire e contrastare le attività criminali.

Potrebbe interessarti anche

News

Robot per assistenza medica, fiducia ancora troppo bassa

L’Europa invecchia rapidamente e l'uso dei robot assistivi diventa una necessità per affrontare la carenza di personale...

News

I pagamenti B2B si stanno “consumerizzando”, ed è una buona cosa

L'adozione di tecnologie digitali per i pagamenti B2B sta trasformando l'esperienza utente, migliorando sicurezza, effic...

News

Creazione di modelli 3D, il prezzo crollerà grazie all'IA

La tecnologia "Stable Fast 3D" di Stability AI promette di rivoluzionare la creazione di modelli 3D, riducendo drasticam...

News

GenAI in azienda, un progetto su tre sarà cestinato. Ecco come avere successo

Gartner prevede che entro il 2025 il 30% dei progetti aziendali basati sull'intelligenza artificiale generativa (GenAI)...