ChatGPT, il modello generativo per rispondere a domande più o meno complesse, ha totalizzato un punteggio di 70% di risposte corrette all'USMLE, l'esame di licenza medica degli Stati Uniti.
L'USMLE comprende una serie di test standard per valutare la conoscenza dei dottorandi, che possono ottenere la pratica medica solo dopo aver superato l'esame, considerato uno dei più difficili al mondo.
ChatGPT è stato messo alla prova ed è riuscito a rispondere correttamente al 70% delle 119 domande proposte. Il test sottoposto al modello non era uno degli esami originali dell'USMLE, ma è stato costruito ad hoc selezionando solo domande a scelta multipla, eliminando quelle che prevedevano l'analisi di un immagine o esami in laboratorio.
Il modello, inoltre, non ha solo risposto alle domande selezionando l'opzione corretta, ma ha anche fornito una spiegazione piuttosto esaustiva sulla risposta fornita.
Questo risultato dimostra quanto l'uso di modelli di questo tipo potrebbe rivelarsi importante durante le fasi di diagnosi. Ciò che fanno i medici è valutare i sintomi e sfruttare la loro base di conoscenza e la loro esperienza per individuare la condizione del paziente e decidere il trattamento migliore.
L'intelligenza artificiale può aiutare i medici in questa fase supportando il processo decisionale grazie alla base di conoscenza da cui attingere. Le nozioni su casi clinici, se condivise, diventerebbero la fonte primaria a cui i modelli potrebbero riferirsi per definire diagnosi precise e limitare il rischio di errori.
L'adozione di modelli di questo tipo è uno scenario ancora molto lontano: l'ambito medico è tra i più restii ad affidarsi all'intelligenza artificiale e al machine learning. Il problema, come è facile immaginare, sono le numerose questioni etiche che potrebbero sollevarsi.
La transizione, se avverrà, sarà di certo graduale. I modelli hanno il potenziale per supportare sia i medici nel loro lavoro, sia i dottorandi durante il loro percorso di studi.