GETTY IMAGES

Un’IA ha usato gli appunti medici per imparare a individuare le malattie nelle radiografie del torace

Il modello è in grado di diagnosticare i problemi con la stessa efficacia di uno specialista umano e non ha bisogno di molti dati di addestramento che richiedono molto lavoro.

Dopo aver analizzato migliaia di radiografie del torace e i rapporti clinici che le accompagnano, un’intelligenza artificiale ha imparato a individuare le malattie in queste scansioni con la stessa precisione di un radiologo umano.

La maggior parte degli attuali modelli di intelligenza artificiale diagnostica sono addestrati su scansioni etichettate da esseri umani, ma l’etichettatura è un processo che richiede molto tempo. Il nuovo modello, chiamato CheXzero, può invece “imparare” da solo dai referti medici esistenti che gli specialisti hanno scritto in linguaggio naturale.

I risultati suggeriscono che non è necessario etichettare le radiografie per addestrare i modelli di intelligenza artificiale a interpretare le immagini mediche, il che potrebbe far risparmiare tempo e denaro.

Un team di ricercatori della Harvard Medical School ha addestrato il modello CheXzero su un set di dati disponibili pubblicamente di oltre 377.000 radiografie del torace e più di 227.000 referti clinici corrispondenti. In questo modo ha imparato ad associare determinati tipi di immagini con le note esistenti, piuttosto che apprendere da dati strutturati che erano stati etichettati manualmente per il compito.

Le prestazioni di CheXzero sono state poi testate su set di dati separati provenienti da due diverse istituzioni, una delle quali in un altro Paese, per verificare che fosse in grado di abbinare le immagini alle note corrispondenti anche quando i rapporti contenevano una terminologia diversa.

La ricerca, descritta in Nature Biomedical Engineering ha rilevato che il modello è più efficace nell’identificare problemi come polmonite, polmoni collassati e lesioni rispetto ad altri modelli di intelligenza artificiale auto-supervisionati. In effetti, l’accuratezza era simile a quella dei radiologi umani.

Mentre altri hanno tentato di utilizzare dati medici non strutturati in questo modo, è la prima volta che il modello di intelligenza artificiale di un team apprende da testi non strutturati e corrisponde alle prestazioni dei radiologi, dimostrando la capacità di prevedere più malattie da una determinata radiografia con un alto grado di precisione, afferma Ekin Tiu, studente universitario a Stanford e ricercatore in visita che ha collaborato alla stesura del rapporto.

“Siamo i primi a farlo e a dimostrarlo efficacemente in questo campo”, afferma.

Il codice del modello è stato reso disponibile pubblicamente ad altri ricercatori, nella speranza che possa essere applicato a TAC, risonanze magnetiche ed ecocardiogrammi per aiutare a rilevare una gamma più ampia di malattie in altre parti del corpo, afferma Pranav Rajpurkar, professore assistente di informatica biomedica presso il Blavatnik Institute della Harvard Medical School, che ha guidato il progetto.

“La nostra speranza è che le persone siano in grado di applicare questo sistema ad altri set di dati radiografici del torace e ad altre malattie a cui sono interessati”, ha dichiarato.

Rajpurkar è anche ottimista sul fatto che i modelli di IA diagnostica che richiedono una supervisione minima potrebbero contribuire ad aumentare l’accesso all’assistenza sanitaria nei Paesi e nelle comunità in cui gli specialisti scarseggiano.

“Ha molto senso utilizzare come addestramento i dati dei rapporti che sono dettagliati”, afferma Christian Leibig, direttore dell’apprendimento automatico della startup tedesca Vara, che utilizza l’intelligenza artificiale per rilevare il cancro al seno. “È un bel risultato arrivare a questo livello di prestazioni”.

Related Posts
Total
0
Share