Tecnologia ChatGPT usato per il male: CV falsi e cyberattacchi
3' 5''
16/06/2025

OpenAI chiude gli account collegati a 10 campagne dannose per contrastare l'uso improprio della sua tecnologia di intelligenza artificiale

ChatGPT usato per il male: CV falsi e cyberattacchi

Il mondo dell'intelligenza artificiale si trova sempre più al centro di una battaglia silenziosa ma intensa tra sviluppatori tecnologici e cybercriminali di tutto il mondo. OpenAI, l'azienda dietro ChatGPT, ha recentemente pubblicato un rapporto che svela come gruppi di hacker legati a Corea del Nord, Cina e Russia stiano sfruttando sistematicamente il celebre chatbot per condurre operazioni malevole su scala globale. La compagnia californiana ha dovuto interrompere ben dieci campagne criminali distinte, coinvolgendo centinaia di account fasulli utilizzati per inganneria sociale, spionaggio informatico e persino lo sviluppo di malware sofisticati.

L'inganno dei finti programmatori nordcoreani

Tra le scoperte più allarmanti emergono le operazioni di infiltrazione lavorativa che vedono protagonisti presunti cittadini nordcoreani. Questi individui utilizzavano ChatGPT per generare automaticamente curriculum vitae e materiali di candidatura per posizioni remote nel settore informatico, principalmente negli Stati Uniti. L'obiettivo non era soltanto quello di ottenere un impiego, ma di infiltrarsi nelle aziende occidentali per raccogliere informazioni sensibili e generare introiti per il regime di Pyongyang.

Secondo il documento di OpenAI, alcuni operatori africani collaboravano a questi schemi, reclutando persone in Nord America per gestire "fattorie di laptop" - un sistema già emerso in precedenza con il caso di una donna dell'Arizona che aveva contribuito a far guadagnare milioni di dollari alla Corea del Nord truffando oltre 300 aziende statunitensi.

Il malware russo ScopeCreep e l'inganno dei videogiocatori

Le operazioni russe si sono distinte per la loro creatività tecnica e diversificazione. Un cybercriminale russo ha utilizzato ChatGPT per sviluppare un malware chiamato ScopeCreep, mascherandolo come un innocuo strumento per videogiochi chiamato Crosshair X. Il software malevolo, scritto in linguaggio Go attraverso continue interazioni con l'intelligenza artificiale, è stato progettato per rubare credenziali, token e cookie dai browser delle vittime.

Il criminale aveva distribuito il malware attraverso repository di codice pubblici, sfruttando la fiducia dei gamer che cercavano strumenti per migliorare la propria esperienza di gioco.

Quattro delle dieci campagne malevole avevano origini cinesi

La propaganda elettorale tedesca e Portal Kombat

Sul fronte della disinformazione, operatori russi hanno sfruttato ChatGPT per generare contenuti in lingua tedesca mirati alle elezioni del 2025 in Germania. Utilizzando un canale Telegram con 1.755 iscritti e un account X con oltre 27.000 follower, hanno diffuso messaggi pro-AfD (Alternative für Deutschland), arrivando a invocare un "ministero DOGE" per quando il partito di estrema destra arriverà al potere.

Questi contenuti erano collegati a Portal Kombat, una rete di propaganda russa già identificata dal governo francese, che diffondeva regolarmente notizie false e commenti attraverso siti web apparentemente indipendenti.

L'offensiva cinese sui social media

La Cina si è rivelata il paese più attivo nelle operazioni malevole, con quattro campagne distinte su dieci. Gli operatori cinesi, alcuni dei quali collegati ai gruppi Keyhole Panda (APT5) e Vixen Panda (APT15), hanno utilizzato ChatGPT per produrre massicciamente contenuti sui social media in inglese e cinese.

I temi privilegiati includevano Taiwan, le tariffe commerciali americane e narrazioni favorevoli al Partito Comunista Cinese, distribuiti su piattaforme come TikTok, X, Bluesky, Reddit e Facebook. Oltre alla propaganda, questi gruppi hanno sfruttato l'AI per ricerche open-source, modifiche di script, risoluzione di problemi di sistema e sviluppo software, utilizzando strumenti come reNgine per la ricognizione automatizzata di applicazioni web.

Le contromisure di OpenAI

L'azienda di San Francisco ha risposto bannando tutti gli account associati a queste attività malevole e implementando nuovi sistemi di rilevamento. Nonostante i successi ottenuti dai criminali nell'utilizzo dell'AI, OpenAI sottolinea che molte operazioni non hanno raggiunto una diffusione significativa. Il caso del malware ScopeCreep, pur essendo tecnicamente sofisticato, non ha mostrato segni di distribuzione massiva nel mondo reale.

Questo rapporto evidenzia come l'intelligenza artificiale stia diventando un campo di battaglia digitale dove potenze mondiali e gruppi criminali cercano di sfruttare le più avanzate tecnologie per i propri scopi geopolitici e illeciti.

Condividi questo contenuto