Tecnologia Una filigrana per riconoscere i testi generati da ChatGPT
1' 56''
20/12/2022

OpenAI sta lavorando a una soluzione che consenta di individuare automaticamente i contenuti generati dai suoi modelli conversazionali.

Una filigrana per riconoscere i testi generati da ChatGPT

ChatGPT di OpenAI è un modello di intelligenza artificiale conversazionale che ha avuto un enorme, istantaneo successo fin dai primi giorni dopo la sua presentazione. Parte del successo è dovuto alla capacità di generare contenuti che sembrano davvero scritti da un essere umano.

Le reazioni del grande pubblico alle capacità di questo chatbot sono state principalmente di sorpresa e curiosità, ma molti hanno iniziato a rendersi conto di come la qualità dei risultati stia ormai raggiungendo un livello in cui è difficile discriminare tra gli autori umani e quelli automatici, specialmente in alcuni campi.

Le abilità di ChatGPT hanno quindi iniziato a sollevare preoccupazioni circa il potenziale uso improprio, come truffe di phishing o campagne di disinformazione.

Scott Aaronson
Scott Aaronson, professore e guest researcher presso OpenAI

OpenAI sta esplorando modi per affrontare questi problemi, incluso l'utilizzo di una soluzione di watermarking basata su un avanzato modello crittografico. Ne ha parlato in una recente lezione il ricercatore Scott Aronson, che sta lavorando come guest researcher proprio presso OpenAI.

Filigrana crittografica

Il modello GPT tokenizza parole, segni di punteggiatura e persino parti di parole, e crea una distribuzione di probabilità per il token successivo in base all'input che riceve. Ciò significa che c'è una certa casualità nei dati, il che spiega perché non tutte le risposte sono identiche.

La funzione di rilevamento della “filigrana crittografica” prevede una chiave privata e cerca nel testo specifici pattern di parole, che dovrebbe essere impercettibile per gli esseri umani.

I risultati mostrati da Aronson sono molto promettenti, ma il lavoro è soltanto all’inizio; solo per citare il problema più evidente, per ora la funzione di verifica della filigrana è in corso di sviluppo soltanto per ChatGPT, uno dei molti prodotti in questo settore (e molti altri si aggiungeranno presto).

Inoltre, questo approccio potrebbe essere contrastato attivamente, per esempio con l'utilizzo di altre funzioni basate sull’intelligenza artificiale per eludere il sistema, oppure potrebbe emergere una scarsa volontà di cooperazione tra i produttori dei modelli.

La standardizzazione delle tecnologie di watermarking è auspicabile per affrontare i problemi con l'utilizzo di queste tecnologie, ma un intervento di questo genere potrebbe essere ostacolato dalla tradizionale lentezza delle trattative necessarie per uniformare gli approcci tra i diversi governi e aree geografiche.

Potrebbe interessarti anche

Tecnologia

A.I. Verify: Creare fiducia nell'intelligenza artificiale

Singapore sta sperimentando un framework e un toolkit di test per aiutare le industrie a essere più trasparenti sulla loro implementazione dell'IA.

Scenario

Il ruolo del Chief Data Officer: tendenze e sfide

L’undicesimo Big Data and AI Executive Survey rivela l'aumento dell'adozione del ruolo CDO/CDAO e le sfide nella modernizzazione e gestione dei dati.

Scenario

Una nuova era di creatività o una minaccia per la società?

L'IA generativa promette di espandere la creatività umana, ma solleva preoccupazioni per l'impatto sulla società e sull'economia.

News

SiteGround: IA al servizio della sicurezza dei siti Web

Il provider di hosting ha implementato un sistema basato sull’'IA per bloccare il 95% delle query dannose e migliorare la sicurezza dei siti web ospitati.