Una causa legale contro LinkedIn per l'uso non autorizzato di messaggi privati degli utenti per l'addestramento di modelli di intelligenza artificiale è stata ritirata. Alessandro De La Torre, il querelante che aveva intentato l'azione collettiva la scorsa settimana, ha deciso di ritirare la sua denuncia, come riportato da Reuters venerdì 31 gennaio.
La vicenda ha sollevato importanti questioni riguardo la privacy dei dati e la fiducia dei consumatori nell'era dell'intelligenza artificiale. La causa accusava LinkedIn, di proprietà di Microsoft, di aver divulgato i messaggi privati dei suoi clienti premium a terze parti senza il loro consenso, al fine di addestrare modelli di IA generativa. L'azienda aveva respinto le accuse, definendole prive di fondamento.
Eli Wade-Scott, managing partner di Edelson PC, lo studio legale che rappresentava De La Torre, ha dichiarato: "Le tardive rivelazioni di LinkedIn in questo caso hanno lasciato i consumatori giustamente preoccupati e confusi su cosa venisse utilizzato per addestrare l'IA. Gli utenti possono almeno trovare conforto nel fatto che LinkedIn ci ha mostrato prove di non aver utilizzato i loro messaggi privati per questo scopo".
Sarah Wight, vicepresidente legale di LinkedIn, ha pubblicato un messaggio giovedì 30 gennaio affermando: "Condividiamo la buona notizia che una causa infondata contro LinkedIn è stata ritirata oggi. Accusava falsamente LinkedIn di aver condiviso messaggi privati dei membri con terze parti per l'addestramento dell'IA. Non l'abbiamo mai fatto. È importante ristabilire sempre la verità".
Impatto sul dibattito sulla privacy dei dati
Questa vicenda si inserisce in un più ampio dibattito sull'uso dei dati personali per l'addestramento dei modelli di IA. A settembre, un aggiornamento della politica sulla privacy di LinkedIn e l'uso degli utenti come inconsapevoli addestratori dei suoi modelli di IA aveva scatenato polemiche.
David McInerney, commercial manager per la privacy dei dati presso Cassie, aveva commentato in un'intervista che la mossa di LinkedIn avrebbe potuto spingere le aziende a riconsiderare la loro impronta digitale a causa del rischio di compromettere informazioni sensibili. McInerney aveva sottolineato che "ben il 93% [dei consumatori] è preoccupato per la sicurezza delle proprie informazioni personali online".
La sfida dei dati per l'addestramento dell'IA
La vicenda mette in luce anche le crescenti sfide nell'addestramento dei sistemi di IA. Secondo gli esperti, i dati disponibili su internet per addestrare i modelli di IA potrebbero essere in esaurimento.
Arunkumar Thirunagalingam, senior manager of data and technical operations presso McKesson Corporation, ha dichiarato a PYMNTS: "I dati di internet si stanno esaurendo e le aziende di IA stanno sentendo la pressione. Per anni, si sono affidate all'estrazione di enormi quantità di contenuti online per addestrare i loro sistemi. Questo ha funzionato per un po', ma ora i dati facilmente accessibili si stanno esaurendo".
Thirunagalingam ha aggiunto che questa situazione sta mettendo in primo piano le aziende con fonti di dati uniche, come cartelle cliniche o informazioni logistiche. "Non si tratta più di quanti dati si possono raccogliere, ma di avere il tipo giusto di dati", ha concluso.
Il caso LinkedIn, seppur ritirato, ha contribuito a portare all'attenzione pubblica le complesse questioni etiche e legali legate all'uso dei dati personali nell'era dell'intelligenza artificiale, sottolineando l'importanza di un approccio trasparente e responsabile allo sviluppo di queste tecnologie.