Tecnologia Una filigrana per riconoscere i testi generati da ChatGPT
1' 56''
20/12/2022

OpenAI sta lavorando a una soluzione che consenta di individuare automaticamente i contenuti generati dai suoi modelli conversazionali.

Una filigrana per riconoscere i testi generati da ChatGPT

ChatGPT di OpenAI è un modello di intelligenza artificiale conversazionale che ha avuto un enorme, istantaneo successo fin dai primi giorni dopo la sua presentazione. Parte del successo è dovuto alla capacità di generare contenuti che sembrano davvero scritti da un essere umano.

Le reazioni del grande pubblico alle capacità di questo chatbot sono state principalmente di sorpresa e curiosità, ma molti hanno iniziato a rendersi conto di come la qualità dei risultati stia ormai raggiungendo un livello in cui è difficile discriminare tra gli autori umani e quelli automatici, specialmente in alcuni campi.

Le abilità di ChatGPT hanno quindi iniziato a sollevare preoccupazioni circa il potenziale uso improprio, come truffe di phishing o campagne di disinformazione.

Scott Aaronson
Scott Aaronson, professore e guest researcher presso OpenAI

OpenAI sta esplorando modi per affrontare questi problemi, incluso l'utilizzo di una soluzione di watermarking basata su un avanzato modello crittografico. Ne ha parlato in una recente lezione il ricercatore Scott Aronson, che sta lavorando come guest researcher proprio presso OpenAI.

Filigrana crittografica

Il modello GPT tokenizza parole, segni di punteggiatura e persino parti di parole, e crea una distribuzione di probabilità per il token successivo in base all'input che riceve. Ciò significa che c'è una certa casualità nei dati, il che spiega perché non tutte le risposte sono identiche.

La funzione di rilevamento della “filigrana crittografica” prevede una chiave privata e cerca nel testo specifici pattern di parole, che dovrebbe essere impercettibile per gli esseri umani.

I risultati mostrati da Aronson sono molto promettenti, ma il lavoro è soltanto all’inizio; solo per citare il problema più evidente, per ora la funzione di verifica della filigrana è in corso di sviluppo soltanto per ChatGPT, uno dei molti prodotti in questo settore (e molti altri si aggiungeranno presto).

Inoltre, questo approccio potrebbe essere contrastato attivamente, per esempio con l'utilizzo di altre funzioni basate sull’intelligenza artificiale per eludere il sistema, oppure potrebbe emergere una scarsa volontà di cooperazione tra i produttori dei modelli.

La standardizzazione delle tecnologie di watermarking è auspicabile per affrontare i problemi con l'utilizzo di queste tecnologie, ma un intervento di questo genere potrebbe essere ostacolato dalla tradizionale lentezza delle trattative necessarie per uniformare gli approcci tra i diversi governi e aree geografiche.

Potrebbe interessarti anche

Approfondimenti

I sei trend di IA che rivoluzioneranno il marketing

Bernard Marr di Forbes individua sei trend di intelligenza artificiale che guideranno lo sviluppo del marketing nel 2025...

Approfondimenti

L'IA trasforma la diagnostica per immagini e i percorsi di cura

Il dibattito "Evoluzione tecnologica e Intelligenza Artificiale in Diagnostica per Immagini. Stato dell’arte e prospetti...

Approfondimenti

Il 55% delle aziende farmaceutiche usa l'IA per progettare prodotti e servizi

Secondo il report "AI: radiografia di una rivoluzione in corso" condotto da Ascendant di Minsait, le aziende farmaceutic...

Approfondimenti

Il mercato italiano del Business Process Management continua a crescere

In Italia il mercato del Business Process Management sta crescendo grazie all'IA e a una maggiore attenzione delle impre...