ChatGPT di OpenAI è un modello di intelligenza artificiale conversazionale che ha avuto un enorme, istantaneo successo fin dai primi giorni dopo la sua presentazione. Parte del successo è dovuto alla capacità di generare contenuti che sembrano davvero scritti da un essere umano.
Le reazioni del grande pubblico alle capacità di questo chatbot sono state principalmente di sorpresa e curiosità, ma molti hanno iniziato a rendersi conto di come la qualità dei risultati stia ormai raggiungendo un livello in cui è difficile discriminare tra gli autori umani e quelli automatici, specialmente in alcuni campi.
Le abilità di ChatGPT hanno quindi iniziato a sollevare preoccupazioni circa il potenziale uso improprio, come truffe di phishing o campagne di disinformazione.
OpenAI sta esplorando modi per affrontare questi problemi, incluso l'utilizzo di una soluzione di watermarking basata su un avanzato modello crittografico. Ne ha parlato in una recente lezione il ricercatore Scott Aronson, che sta lavorando come guest researcher proprio presso OpenAI.
Filigrana crittografica
Il modello GPT tokenizza parole, segni di punteggiatura e persino parti di parole, e crea una distribuzione di probabilità per il token successivo in base all'input che riceve. Ciò significa che c'è una certa casualità nei dati, il che spiega perché non tutte le risposte sono identiche.
La funzione di rilevamento della “filigrana crittografica” prevede una chiave privata e cerca nel testo specifici pattern di parole, che dovrebbe essere impercettibile per gli esseri umani.
I risultati mostrati da Aronson sono molto promettenti, ma il lavoro è soltanto all’inizio; solo per citare il problema più evidente, per ora la funzione di verifica della filigrana è in corso di sviluppo soltanto per ChatGPT, uno dei molti prodotti in questo settore (e molti altri si aggiungeranno presto).
Inoltre, questo approccio potrebbe essere contrastato attivamente, per esempio con l'utilizzo di altre funzioni basate sull’intelligenza artificiale per eludere il sistema, oppure potrebbe emergere una scarsa volontà di cooperazione tra i produttori dei modelli.
La standardizzazione delle tecnologie di watermarking è auspicabile per affrontare i problemi con l'utilizzo di queste tecnologie, ma un intervento di questo genere potrebbe essere ostacolato dalla tradizionale lentezza delle trattative necessarie per uniformare gli approcci tra i diversi governi e aree geografiche.