Il fenomeno ChatGPT non si arresta: dalla sua pubblicazione il 30 novembre scorso, il chatbot basato sul modello GPT-3 di OpenAI continua a fare nuovi proseliti e intrattenere i "vecchi". A soli due mesi dal rilascio il chatbot aveva raggiunto i 100 milioni di utenti attivi, e a gennaio le statistiche parlavano di 13 milioni di utenti attivi in media ogni giorno.
Il successo del chatbot ha portato altre grandi firme tech, come Google e Microsoft, a investire sul campo dell'IA generativa: l'azienda di Menlo Park ha rilasciato Bard, che ha vissuto un debutto un po' zoppicante, e Microsoft ha investito 10 miliardi su OpenAI, ottenendo così il 46% delle azioni.
Tutto questo fermento attorno all'attività dei chatbot ha messo in secondo piano una questione fondamentale: la privacy. Uri Gal, professore presso l'Università di Sidney, ha portato la questione all'attenzione del web.
Mentre milioni di utenti continuano a usare ChatGPT ogni giorno per i compiti più disparati, in pochi si chiedono che fine facciano i dati condivisi col chatbot e soprattutto da dove proviene la sua base di conoscenza.
Questione di privacy
Come ribadisce Gal nel suo articolo, la precisione di ChatGPT dipende dalla quantità di dati sul quale viene addestrato: più il volume di dati è esteso ed eterogeneo, maggiore sarà la conoscenza e l'accuratezza del modello.
Se è vero che il feedback continuo e diretto degli utenti aiuta il modello a migliorare, dall'altra parte OpenAI si occupa di alimentare GPT-3 con la conoscenza presa da internet, proveniente da libri, articoli e post.
Tutta questa informazione viene raccolta senza consenso esplicito degli autori e senza rispettare gli eventuali diritti di copyright dei testi. Non solo: nel processo di scraping di siti web e contenuti social vengono raccolti anche dati personali che possono essere usati per identificare gli utenti.
Tutto ciò avviene sempre senza l'autorizzazione dei diretti interessati: i dati usati da ChatGPT sono ottenuti gratuitamente dall'azienda, che non paga autori e proprietari di siti web per usufruire dei loro contenuti.
Un altro problema è legato alle informazioni direttamente condivise col chatbot: il tool sfrutta i testi degli utenti, le loro risposte e il loro feedback per continuare a migliorarsi, utilizzando queste informazioni, per esempio, per rispondere alle domande di altri utenti.
L'attenzione non è mai troppa
Un'altra importante questione, se possibile ancora più sottovalutata delle altre, è relativa ai dati personali condivisi col chatbot. Si parla, come fa notare Gal, dell'indirizzo IP, del tipo di browser con impostazioni annesse e dell'attività dell'utente all'interno del sito.
OpenAI, inoltre, non permette agli utenti di specificare se il tool può memorizzare le proprie informazioni personali, o eventualmente richiedere di cancellarle.
Dietro l'entusiasmo globale di fronte a uno strumento potente - sebbene con ampio margine di miglioramento - come ChatGPT, molti si sono dimenticati dei problemi di privacy e copyright che sono emersi.
Il dibattito sul rispetto del GDPR da ChatGPT è ancora in corso: l'azienda si difende spiegando che le risposte del chatbot non vanno interpretate come una verità assoluta, e che quindi il tool va usato solo per compiti semplici, per non incorrere in problemi etici.
In ogni caso rimane il problema del trattamento dei dati personali e dei diritti d'autore non pervenuti: OpenAI si sta arricchendo con la conoscenza altrui senza sborsare un centesimo.