Il futuro dell’intelligenza artificiale in radiologia: c’è un’app per tutto

Reading Time: 7 minutes read

La facilità di accesso agli algoritmi sta accelerando lo sviluppo delle app. Ma che cosa significa questo per la radiologia?

di Eliot Siegel, MD, FACR, FSIIM.

Vi interessa migliorare la rilevazione di un’emorragia intracranica nei pazienti traumatici? O quantificare la progressione della sclerosi multipla? Non temete, ci sarà un’app per tutto questo e forse anche prima di quanto immaginiate.

Qual è il futuro delle applicazioni ai in radiologia? E quali sono le loro implicazioni per i radiologi?

Nei prossimi cinque anni verremo letteralmente inondati da nuove e utili applicazioni per l’imaging diagnostico. I radiologi le utilizzeranno in modo molto diverso, scaricando gli algoritmi di cui hanno bisogno per la diagnostica da piattaforme analoghe agli attuali app store. Perché lo sviluppo è diventato così rapido? Perché si sono ridotti i tempi e le competenze specifiche necessari per sviluppare nuove applicazioni basate sull’intelligenza artificiale (IA).  Continuate a leggere per comprendere più a fondo questa trasformazione e le sue implicazioni per la radiologia.

Che cosa sta provocando questa accelerazione nello sviluppo di applicazioni basate sull’IA per la radiologia?

Iniziamo con un rapido sguardo agli sviluppi tecnologici che stanno stimolando lo sviluppo di queste applicazioni. L’idea di applicare l’intelligenza artificiale all’imaging diagnostico può sembrare un concetto nuovo, ma la radiologia si serve di una sorta di IA da decenni, la Computer-Aided-Diagnostics (CAD). Le applicazioni basate sull’IA che stanno nascendo oggi non sono né migliori né peggiori delle applicazioni CAD che le hanno precedute.

Tuttavia, lo sviluppo di queste ultime è piuttosto articolato, complesso e lungo e necessita di conoscenze avanzate in termini di segmentazione delle immagini, estrazione delle feature e analisi statistiche.  Chi sviluppa applicazioni CAD deve innanzitutto avere accesso a un ampio numero di casi di una certa patologia, ad esempio il tumore al polmone. Deve poi scegliere tra una molteplicità di tecniche avanzate di analisi delle immagini per definire i confini del polmone, segmentare l’anatomia normale, identificare le strutture che non rientrano nell’ambito dell’anatomia normale e infine isolarle. Lo sviluppatore deve quindi analizzare una molteplicità di parametri, come dimensione e contorni, simmetria, texture e tanti altri.

Oggi gli algoritmi sono generati in base ai dati, eliminando il lungo processo di sviluppo.

Ecco invece com’è cambiato questo processo oggi utilizzando sempre il tumore al polmone come esempio.  Lo sviluppatore accede a una grande coorte di casi che sono positivi o negativi per il tumore al polmone.  Applica poi strumenti di deep learning open source disponibili su Google e altrove per creare un algoritmo capace di discriminare tra casi positivi e negativi. L’algoritmo viene generato sulla base dei dati, eliminando così quel lungo processo di sviluppo sopra descritto.  È importante osservare che per ottimizzare questo processo occorrono annotazioni dettagliate e di alta qualità, nonché un numero elevato di casi.

Chi si occuperà dell’app store?

Non c’è dubbio che difficoltà e tempi di sviluppo siano diminuiti. Ma i pareri non sono unanimi su altri aspetti. Un argomento oggetto di numerose ricerche è, ad esempio, quale sia il numero sufficiente di set di dati e di immagini diagnostiche per “addestrare” l’algoritmo. Alcuni sviluppatori, essenzialmente quelli che non praticano la professione medica, pensano che anche solo 20 casi siano sufficienti, non rendendosi conto che la generalizzazione e l’apprendimento da un numero limitato di set di dati sono competenze al momento ancora appannaggio degli esseri umani.

Anche se occorrono di gran lunga meno tempo e meno competenze per sviluppare un algoritmo di deep learning, il testing, la verifica e l’approvazione dal punto di vista normativo richiedono lo stesso tempo o persino ancora più tempo rispetto alle applicazioni CAD sviluppate con metodo tradizionale. A oggi la FDA ha approvato meno di una manciata di applicazioni di deep learning. Un ostacolo nell’approvazione è dovuto al fatto che per valutare l’efficacia delle applicazioni basate sull’IA occorrono nuove competenze. E presto, quando nuovi sviluppatori si affacceranno sul mercato, la FDA sarà sommersa da applicazioni basate sull’IA.

Altre domande invece devono ancora trovare risposta. Ad esempio, chi testerà gli algoritmi per verificare se funzionano realmente? Molti studi recenti, in genere pubblicati senza revisione paritaria clinica, hanno suggerito che il deep learning è addirittura più performante dei radiologi.  Ma questi studi presentano importanti imperfezioni dal punto di vista clinico.

Chi è responsabile dal punto di vista medico-legale?


Inoltre, quali app dovrebbero essere approvate dalla FDA? Esistono già più di 100 applicazioni diagnostiche nell’ambito della dermatologia fai da te per smartphone, nessuna delle quali è stata ampiamente testata con studi clinici. Verranno sviluppate applicazioni analoghe, non regolamentate, che il pubblico potrà utilizzare con i CD ricevuti dopo una MRI, una TC o altri esami di imaging?  La certificazione dei radiologi è soggetta a rigorosi requisiti ben sviluppati. Abbiamo pertanto bisogno di altrettanto rigore circa il testing e la convalida degli algoritmi per l’imaging medicale, in particolare quelli offerti direttamente al pubblico.

In ultimo, ma non per importanza, chi è responsabile da un punto di vista medico-legale nel caso di una diagnosi mancata o non corretta o quando i computer eseguono le prime letture? Questo è un problema importante che porta i cardiologi negli Stati Uniti ad analizzare a fondo i tracciati degli elettrocardiogrammi, anche se vengono interpretati dai computer da 40 anni.

L’intelligenza artificiale nel prossimo futuro

Per rispondere a queste importanti domande occorre tempo. Cosa accadrà nel breve termine e in che modo ciò avrà effetti sui radiologi e sui responsabili dei dipartimenti di radiologia?

Col tempo ci ritroveremo con un ricco numero di algoritmi che non abbiamo mai visto prima. E alcuni verranno sviluppati da aziende di cui non abbiamo mai sentito parlare, almeno nell’ambito dell’imaging medicale. La facilità di accesso agli algoritmi di deep learning ha democratizzato il processo di sviluppo. Start-up tecnologiche e università, ma anche i fornitori attuali, diventeranno provider di app per l’imaging medicale.

Potrete, inoltre, utilizzare le nuove applicazioni con molte meno limitazioni rispetto al passato. Non avrete necessariamente bisogno di un contratto dettagliato con un solo gruppo di sviluppatori di algoritmi come avviene oggi per il sistema PACS e altri software. Potrete acquistare le applicazioni che vi servono “à la carte”, scegliendo un’app da un fornitore e le altre app da altri.

Domande sull’IA per capire di cosa avete bisogno

Iniziate domandandovi quale tipo di app vi permetterebbe di migliorare il vostro flusso di lavoro. Quali interpretazioni sono più comuni nella vostra popolazione di pazienti? Scoprite se esiste un’app per questo. Quando valutate l’app, pensate al set di dati. È stata basata su una popolazione simile alla vostra?  Un algoritmo sviluppato da un database creato da un’unica origine o da un’origine limitata potrebbe non rispecchiare la vostra popolazione di pazienti.

Confrontatevi con i vostri attuali provider di software per l’imaging diagnostico. Domandategli qual è la loro roadmap per lo sviluppo delle applicazioni. Presentategli i tipi di software che vi interessano e se riguardano i riscontri, i protocolli di visualizzazione, la valutazione della qualità dell’immagine, l’estrazione dei dati clinici e così via. E domandate loro quali piani hanno per la distribuzione delle applicazioni. Dovrete accedere al loro sito Web dove risiede l’algoritmo e caricare le vostre immagini? Oppure dovrete installare il software nelle vostre workstation?

Oggi i nostri centri di imaging sono dotati di più workstation, una per il software di ciascun vendor. Accadrà lo stesso per le app? Oppure all’orizzonte farà capolino una nuova workstation o un nuovo software più flessibile? Coinvolgete nell’analisi anche il vostro reparto IT.

L’IA per i metadati sembra più promettente rispetto all’analisi delle immagini

Nonostante tutta l’attenzione sull’IA sia legata all’interpretazione delle immagini, possiamo finalmente chiudere il capitolo circa la possibilità che l’IA sostituisca i radiologi. Non accadrà.

Sono state sviluppate una manciata di app che stanno sostituendo alcune delle funzioni più basilari nell’interpretazione radiologica, come noduli nei polmoni o frattura delle costole nella TC torace. Altri algoritmi di deep learning offrono un’interpretazione preliminare che consente ai casi sospetti di patologia di arrivare in cima a una worklist. In questi casi, l’IA diventa un partner nella diagnosi e non un sostituto.

Nel breve termine, la maggior parte delle app sarà dedicata all’interpretazione basata su metadati. Si tratta di app che migliorano la qualità delle immagini e accelerano la generazione delle immagini negli esami RM, TC e di altro tipo o che migliorano il flusso di lavoro, la comunicazione e il follow-up. Personalmente preferirei che venissero dedicati più tempo e impegno allo sviluppo di algoritmi per migliorare la qualità delle immagini e la sicurezza (inclusa la dose) e rendere la comunicazione più efficace. Mi auguro ci sarà un’app anche per quello.

Eliot Siegel, MD, FACR, FSIIM, è Professore e Vice Presidente della scuola di medicina dell’università del Maryland, reparto di radiologia diagnostica e medicina nucleare. È il responsabile di radiologia e medicina nucleare per il Veterans Affairs Maryland Healthcare System, entrambi a Baltimora, Maryland.  È anche Professore aggiunto di scienze informatiche e ingegneria biomedica presso l’università del Maryland.  È stato il primo al mondo a gestire un reparto ospedaliero di radiologia senza pellicola e ha pubblicato più di 300 articoli sui temi di imaging digitale, Big Data e high performance computing, e applicazioni dell’intelligenza artificiale in medicina. Il dottor Siegel è nel Carestream Medical Advisory Board e nel Consiglio di amministrazione di Carestream.

Scoprite di più sull’intelligenza artificiale avanzata di Carestream e sugli strumenti di imaging analytics progettati per migliorare la qualità e la velocità della diagnosi e la refertazione degli esami radiologici.

#AI #algoritmi #deeplearning #radiologia #intelligenza #artificiale #IA

POST A COMMENT

This site uses Akismet to reduce spam. Learn how your comment data is processed.