Opinioni Il destino dei chatbot tra etica e legalità
Marina Londei
3' 37''
17/02/2023

L'uso sempre più diffuso dei modelli generativi di IA sta facendo emergere questioni etiche e legali che potrebbero mettere in difficoltà le big tech.

Il destino dei chatbot tra etica e legalità

Con la diffusione dei large language model e strumenti come ChatGPT, Bard e la nuova versione di Bing, cresce anche la preoccupazione verso le implicazioni etiche e legali che essi portano con sé, in particolare in caso di condivisione di informazioni false e diffamatorie.

Adi Robertson, autrice presso The Verge, ha analizzato la questione sollevando alcuni dubbi sulla Sezione 230, un comma che ha dato forma a Internet come lo conosciamo oggi, e alle questioni legali che potrebbero nascere di qui ai prossimi anni.

La Sezione 230 e il caso Gonzalez 

Tutto è nato dal fatto che la Corte Suprema degli Stati Uniti potrebbe rivedere la Sezione 230 durante la valutazione del caso Gonzalez contro Google, aperto dal 2015 e non ancora concluso.

Si tratta di un caso nato dopo gli attacchi terroristici avvenuti a Parigi nel 2015: una ragazza statunitense, Nohemi Gonzalez, fu una delle vittime degli attacchi. La famiglia della ragazza accusò Google di essere stata in parte responsabile della morte della figlia, in quanto il sistema di raccomandazione dei contenuti implementato su YouTube avrebbe consigliato ai carnefici video di reclutamento dell'ISIS, portandoli quindi a compiere le carneficine.

Google si è difesa facendo appello alla Sezione 230, un comma del Telecommunications Act del 1996 che recita: "Nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi".

starline - Freepik
Sezione 230 Internet

Il caso in questione sta facendo rivalutare il valore del comma, che di fatto "protegge" i motori di ricerca dalle accuse di condivisione di contenuti falsi o inappropriati, in quanto essi si limitano soltanto a proporre contenuti che qualcun altro ha caricato.

Al di sopra della legge?

Le cose si stanno complicando nel caso dei chatbot e dell'IA generativa, considerati più che dei semplici motori di ricerca. Nonostante gli sforzi per filtrare contenuti inappropriati e il miglioramento continuo dei modelli anche grazie al feedback degli utenti, i chatbot commettono ancora molti errori.

Questo perché, in fin dei conti, questi strumenti non fanno altro che cercare la risposta nella loro base di conoscenza, unendo diverse fonti e presentando il risultato in forma discorsiva. Pensati in questo modo, i chatbot non sono altro che dei search engine con la capacità di integrare più informazioni e parafrasarle per fornire una risposta unica.

L'IA generativa ripropone ciò che è presente nella sua base di conoscenza senza verificare la validità delle informazioni. L'idea è che se un concetto è riportato più volte e da diverse fonti, allora è più probabile che si tratti della risposta giusta. Ovviamente questo non può essere considerato come un metodo infallibile e certo per avere risposte corrette.

starline - Freepik
base di conoscenza

Bisogna anche considerare che questi modelli possono essere "fregati" e portati a rispondere in un certo modo, anche se non è quello giusto. Pensiamo a un caso banale come la risoluzione di un'operazione: un utente potrebbe chiedere a ChatGPT il risultato di 2+2 e correggerlo rispondendo che fa 5. Il modello integra poi questo feedback considerandolo nelle successive interrogazioni.

In questo caso come sarebbe possibile dimostrare che è il modello a essere responsabile? Gli utenti possono portare gli strumenti a integrare informazioni false, le stesse che poi vengono proposte ad altri.

Come sottolinea Robertson, la modifica o addirittura la rimozione della Sezione 230 potrebbe causare seri problemi legali alle big tech dietro questi modelli. D'altra parte vincere battaglie legali non diventerebbe in automatico così semplice: se l'accusa è di diffamazione e di danno all'immagine, per esempio, bisogna prima riuscire a dimostrare che effettivamente il danno proviene dall'informazione proposta dai sistemi generativi e non da altre fonti.

Freepik
diffamazione

Quel che è certo è che l'uso smodato di questi strumenti sta portando alla luce numerosi problemi legali ed etici che magistrature e tribunali sono costretti ad affrontare in breve tempo. Nonostante questi tool siano, almeno per ora, soltanto degli aggregatori di conoscenza, molti si sono posti il problema della legalità dietro al loro uso, considerando che vengono usati a supporto di molte attività, anche in ambiti dove una scelta sbagliata può rivelarsi disastrosa.

Internet sta cambiando profondamente e di conseguenza anche la vita delle persone. L'IA generativa ha dei confini ancora sfocati, soprattutto in questa fase di passaggio durante la quale le big tech competono tra di loro per produrre il miglior modello sul mercato.

Potrebbe interessarti anche

News

Bard sbaglia la prima risposta

La prima demo del nuovo chatbot di Google ha scatenato una tempesta in borsa e alimentato il dibattito sull'affidabilità...

News

Google presenta Bard e nuovi servizi basati sull'AI

Un articolo a firmato dal Ceo di Google ha annunciato il nuovo servizio di AI conversazionale Bard e i prossimi passi ne...

News

MusicLM: la nuova frontiera della generazione musicale

Google ha presentato un nuovo sistema di intelligenza artificiale che genera musica con fedeltà sonora e capacità di com...

News

Muse: il nuovo modello Text-to-Image di Google AI

Basato su trasformatori generativi, Muse è in grado di generare foto di alta qualità a velocità estremamente elevate, su...