L’intelligenza artificiale può superare i medici nella diagnosi medica? Un nuovo studio esplora il potenziale e le insidie

17

Nell’ambiente ad alto rischio di un pronto soccorso, l’errore più pericoloso che un medico può commettere non è scegliere il trattamento sbagliato, ma non riuscire a identificare la diagnosi corretta in primo luogo. Uno studio recente suggerisce che una nuova generazione di Intelligenza Artificiale potrebbe presto diventare una salvaguardia vitale contro queste sviste critiche.

L’ascesa dei modelli “ragionanti”.

Il campo medico è all’apice di un cambiamento tecnologico guidato da Large Language Models (LLM) avanzati. A differenza delle precedenti iterazioni dell’intelligenza artificiale, i nuovi “modelli di ragionamento”, come o1-preview di OpenAI, sono progettati per elaborare problemi complessi attraverso una logica sequenziale passo dopo passo.

Questo salto tecnologico sta soddisfacendo una domanda significativa da parte della comunità medica. Secondo un sondaggio condotto su oltre 2.000 medici, 1 medico e infermieri su 5 in tutto il mondo utilizza già l’intelligenza artificiale per chiedere una seconda opinione su casi complessi e più della metà esprime il desiderio di integrarla ulteriormente nella propria pratica.

Lo studio: intelligenza artificiale contro medici umani

Uno studio condotto dallo scienziato di dati biomedici dell’Università di Harvard Arjun Manrai, pubblicato su Science, ha testato le capacità diagnostiche del modello o1-preview rispetto ai medici umani. I ricercatori hanno utilizzato due set di dati distinti:
1. Set di sintomi classici della formazione medica.
2. Dati reali provenienti da 76 pazienti trattati in un pronto soccorso di Boston.

I risultati sono stati sorprendenti: il modello di ragionamento basato sull’intelligenza artificiale ha sovraperformato sia i medici umani che i software diagnostici specializzati, identificando correttamente la diagnosi (o un’alternativa altamente accurata) in quasi 80% dei casi.

Un esempio notevole fornito dal coautore Adam Rodman ha coinvolto un paziente sottoposto a trapianto immunodepresso che presentava sintomi respiratori di routine. Anche se i medici umani potrebbero non essersi accorti della gravità della situazione, il modello di intelligenza artificiale ha segnalato il sospetto di un’infezione mortale e carnivora molto prima rispetto al team umano.

La controargomentazione: logica contro sfumatura

Nonostante queste cifre impressionanti, la comunità scientifica rimane cauta. I critici sostengono che esiste una differenza fondamentale tra “ragionamento computazionale” e “ragionamento clinico”.

“Quando parliamo di ragionamento clinico, non intendiamo la stessa cosa che di ragionamento morale”, avverte Arya Rao, ricercatrice della Harvard Medical School.

Il team di Rao ha recentemente condotto uno studio separato valutando 21 modelli di intelligenza artificiale, scoprendo una debolezza persistente: l’incapacità di gestire l’incertezza. Anche se i modelli di ragionamento eccellono nel seguire un percorso logico verso una conclusione, spesso hanno difficoltà con le sfumature richieste quando sono possibili diagnosi multiple.

I principali rischi identificati includono:
Ragionamento “fragile”: L’intelligenza artificiale tende a giungere alle conclusioni troppo rapidamente.
Mancanza di sfumature: i modelli hanno difficoltà quando devono valutare contemporaneamente diverse possibilità incerte.
Assenza di giudizio umano: l’intelligenza artificiale è priva del ragionamento morale e contestuale essenziale per la cura complessa dei pazienti.

Il futuro: assistente, non sostituto

Il consenso tra i ricercatori non è che l’intelligenza artificiale debba sostituire i medici, ma piuttosto fungere da potente estensione diagnostica. L’obiettivo è utilizzare l’intelligenza artificiale per cogliere ciò che l’occhio umano potrebbe non cogliere, fornendo una “rete di sicurezza” per i medici.

Man mano che la tecnologia matura, l’attenzione si sta spostando da se l’intelligenza artificiale può diagnosticare a come può essere integrata in modo sicuro nei flussi di lavoro clinici. Se gestita correttamente, questa tecnologia potrebbe fungere da “grande equalizzatore”, fornendo supporto diagnostico di alto livello alle regioni con accesso limitato alle cure mediche specialistiche.


Conclusione
Sebbene i modelli di ragionamento basati sull’intelligenza artificiale abbiano dimostrato una capacità superiore di identificare diagnosi corrette in studi controllati, devono ancora lottare con le sfumature e le incertezze inerenti alla medicina umana. La prossima frontiera dell’intelligenza artificiale medica risiede negli studi clinici volti a integrare questi strumenti come assistenti affidabili piuttosto che come decisori autonomi.