In più occasioni si è parlato dei benefici dell'intelligenza artificiale generativa nel settore sanitario: questa tecnologia può supportare i pazienti e aiutarli a trovare il percorso di cura più adatto, velocizzare la prenotazione di visite ed esami e aiutare i professionisti a individuare la terapia migliore in base alle particolarità del singolo paziente.
Nonostante le big tech stiano investendo su iniziative che integrano l'IA nel mondo della sanità e la presenza di startup di settore che sviluppano framework e applicazioni di IA generativa orientata alla medicina, medici e pazienti hanno spesso espresso opinioni contrastanti in merito.
TechCrunch riporta che, seconda una recente ricerca Deloitte, solo poco più della metà degli statunitensi ritiene che l'IA generativa possa migliorare il settore sanitario, con meno della metà che pensa che la sanità possa diventare più accessibile.
Andrew Borowski, chief AI officer del VA Sunshine Healthcare Network, sostiene che questi dubbi non siano infondati: l'intelligenza artificiale ha dei limiti significativi che, tra le altre cose, le impediscono di gestire problemi medici complessi ed emergenze.
Diverse ricerche hanno dimostrato che i chatbot più diffusi, come ChatGPT, elaborano delle diagnosi sbagliate o incomplete nella maggior parte dei casi. OpenAI e le altre compagnie avvertono gli utenti di non affidarsi totalmente ai loro tool e di verificare il trattamento con un professionista; ciò non toglie che molti pazienti prendono per buone le indicazioni dei chatbot e non si rivolgono al medico, in molti casi mettendo a rischio la propria salute.
Borowski ritiene che le compagnie di IA dovrebbero fare di più per impedire agli utenti di utilizzare i chatbot come unica fonte di verità e aumentare la consapevolezza dei limiti di questi tool.
I professionisti del settore sono anche spaventati dalla concreta possibilità che l'IA generativa possa alimentare gli stereotipi. Da uno studio realizzato dalla Stanford Medicine è emerso che, di fronte a domande relative a molteplici condizioni e malattie, i chatbot non solo generavano risposte sbagliate, ma includevano molte convinzioni false che in passato hanno già portato a errori di diagnosi.
L'aspetto più preoccupante è che nella maggior parte dei casi chi usa i chatbot per l'assistenza medica è proprio chi viene discriminato maggiormente dai tool, e ciò non fa altro che esacerbare le iniquità nei trattamenti.
I vantaggi dell'IA nel settore medico
L'IA generativa non è in grado di sostituire il parere di un medico, anche solo in parte, e non lo sarà ancora per molto tempo, ma ci sono comunque delle attività in cui questi tool hanno dimostrato ottime capacità di diagnosi.
È il caso per esempio dell'analisi delle immagini mediche da raggi X, TAC o risonanze: numerosi studi hanno rivelato un alto tasso di precisione dei tool di IA nell'identificare e classificare lesioni o indicatori di malattie.
Nel breve e medio termine le applicazioni di IA generativa possono essere usate anche per attività ripetitive come la correzione dei testi clini, la generazione di documentazione e la scrittura di email, oltre che per ottimizzare la ricerca di informazioni nei record medici.
L'IA sta dimostrando risultati promettenti in aree specifiche della medicina, ma, affinché sia davvero utile e affidabile, deve essere utilizzata sotto la stretta supervisione di medici e professionisti sanitari.
Non bisogna dimenticare poi che ci sono tutta una serie di problematiche legate alla privacy dei pazienti e alla sicurezza che devono essere gestite il prima possibile, altrimenti si rischiano gravi conseguenze sulla confidenzialità del rapporto medico-paziente e sulla fiducia delle persone nel sistema sanitario.
L'uso dei tool di IA richiede maggiore trasparenza, processi di auditing più robusti e una chiara definizione delle responsabilità affinché chatbot e affini diventino parte integrante del sistema sanitario, a qualsiasi livello.