Opinioni Il destino dei chatbot tra etica e legalità
3' 37''
17/02/2023

L'uso sempre più diffuso dei modelli generativi di IA sta facendo emergere questioni etiche e legali che potrebbero mettere in difficoltà le big tech.

Il destino dei chatbot tra etica e legalità

Con la diffusione dei large language model e strumenti come ChatGPT, Bard e la nuova versione di Bing, cresce anche la preoccupazione verso le implicazioni etiche e legali che essi portano con sé, in particolare in caso di condivisione di informazioni false e diffamatorie.

Adi Robertson, autrice presso The Verge, ha analizzato la questione sollevando alcuni dubbi sulla Sezione 230, un comma che ha dato forma a Internet come lo conosciamo oggi, e alle questioni legali che potrebbero nascere di qui ai prossimi anni.

La Sezione 230 e il caso Gonzalez 

Tutto è nato dal fatto che la Corte Suprema degli Stati Uniti potrebbe rivedere la Sezione 230 durante la valutazione del caso Gonzalez contro Google, aperto dal 2015 e non ancora concluso.

Si tratta di un caso nato dopo gli attacchi terroristici avvenuti a Parigi nel 2015: una ragazza statunitense, Nohemi Gonzalez, fu una delle vittime degli attacchi. La famiglia della ragazza accusò Google di essere stata in parte responsabile della morte della figlia, in quanto il sistema di raccomandazione dei contenuti implementato su YouTube avrebbe consigliato ai carnefici video di reclutamento dell'ISIS, portandoli quindi a compiere le carneficine.

Google si è difesa facendo appello alla Sezione 230, un comma del Telecommunications Act del 1996 che recita: "Nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi".

starline - Freepik
Sezione 230 Internet

Il caso in questione sta facendo rivalutare il valore del comma, che di fatto "protegge" i motori di ricerca dalle accuse di condivisione di contenuti falsi o inappropriati, in quanto essi si limitano soltanto a proporre contenuti che qualcun altro ha caricato.

Al di sopra della legge?

Le cose si stanno complicando nel caso dei chatbot e dell'IA generativa, considerati più che dei semplici motori di ricerca. Nonostante gli sforzi per filtrare contenuti inappropriati e il miglioramento continuo dei modelli anche grazie al feedback degli utenti, i chatbot commettono ancora molti errori.

Questo perché, in fin dei conti, questi strumenti non fanno altro che cercare la risposta nella loro base di conoscenza, unendo diverse fonti e presentando il risultato in forma discorsiva. Pensati in questo modo, i chatbot non sono altro che dei search engine con la capacità di integrare più informazioni e parafrasarle per fornire una risposta unica.

L'IA generativa ripropone ciò che è presente nella sua base di conoscenza senza verificare la validità delle informazioni. L'idea è che se un concetto è riportato più volte e da diverse fonti, allora è più probabile che si tratti della risposta giusta. Ovviamente questo non può essere considerato come un metodo infallibile e certo per avere risposte corrette.

starline - Freepik
base di conoscenza

Bisogna anche considerare che questi modelli possono essere "fregati" e portati a rispondere in un certo modo, anche se non è quello giusto. Pensiamo a un caso banale come la risoluzione di un'operazione: un utente potrebbe chiedere a ChatGPT il risultato di 2+2 e correggerlo rispondendo che fa 5. Il modello integra poi questo feedback considerandolo nelle successive interrogazioni.

In questo caso come sarebbe possibile dimostrare che è il modello a essere responsabile? Gli utenti possono portare gli strumenti a integrare informazioni false, le stesse che poi vengono proposte ad altri.

Come sottolinea Robertson, la modifica o addirittura la rimozione della Sezione 230 potrebbe causare seri problemi legali alle big tech dietro questi modelli. D'altra parte vincere battaglie legali non diventerebbe in automatico così semplice: se l'accusa è di diffamazione e di danno all'immagine, per esempio, bisogna prima riuscire a dimostrare che effettivamente il danno proviene dall'informazione proposta dai sistemi generativi e non da altre fonti.

Freepik
diffamazione

Quel che è certo è che l'uso smodato di questi strumenti sta portando alla luce numerosi problemi legali ed etici che magistrature e tribunali sono costretti ad affrontare in breve tempo. Nonostante questi tool siano, almeno per ora, soltanto degli aggregatori di conoscenza, molti si sono posti il problema della legalità dietro al loro uso, considerando che vengono usati a supporto di molte attività, anche in ambiti dove una scelta sbagliata può rivelarsi disastrosa.

Internet sta cambiando profondamente e di conseguenza anche la vita delle persone. L'IA generativa ha dei confini ancora sfocati, soprattutto in questa fase di passaggio durante la quale le big tech competono tra di loro per produrre il miglior modello sul mercato.

Potrebbe interessarti anche

Approfondimenti

Audio Overview di Google migliora l'insegnamento trasformando le lezioni in podcast

Google ha presentato Audio Overview, una feature di IA in grado di trasformare i contenuti di documenti e appunti in dis...

News

Novità Gemini: arrivano i Gem personalizzati e la nuova versione di Imagen

Google ha annunciato l'arrivo di Gem, assistenti di produttività di Gemini, e l'integrazione nel motore del modello di g...

News

YouTube annuncia una feature di IA per aiutare i creator a generare idee

YouTube ha annunciato l'arrivo di una feature di IA che aiuterà i creator della piattaforma a generare nuove idee per il...

News

OpenAI sta testando SearchGPT, il suo motore di ricerca intelligente

OpenAI ha annunciato SearchGPT, un motore di ricerca che usa l'intelligenza artificiale per offrire agli utenti risultat...