
Il rischio c’è ed è reale. Incorrere in un falso positivo o, al contrario, in un falso negativo all’esame della mammografia purtroppo capita. Nel primo caso la prassi è di affidarsi subito a ulteriori indagini che invece di andare a fondo dell’anomalia riscontrata risolvono il problema in un nulla di fatto, ponendo fine all’incubo di avere un cancro al seno. Di fronte a un falso negativo, invece, il rischio è quello di soprassedere per riconsiderare il problema tardivamente, con il rammarico di avere perso tempo prezioso. Eventualità poco simpatiche in entrambi i casi, giacché il cancro al seno è secondo per mortalità e morbidità nelle donne, subito dopo quello al polmone.
Secondo “Europa donna”, un’associazione che rappresenta i diritti delle donne nella prevenzione e nella cura del tumore al seno, attiva in 46 stati europei, vi sono studi che dimostrano che nell’arco di 10 anni, con esami ad intervalli di ogni due anni, quasi una donna su quattro (il 24%) riceve almeno una volta una diagnosi che si rivela un falso allarme.
A parere di uno studio di recentissima pubblicazione sulla rivista «Nature», le mammografie restano uno strumento di screening efficace ma il problema dei falsi positivi e negativi rimane, come dichiarato da uno degli autori. Questi, insieme ai colleghi che hanno preso parte alla ricerca, lavora per un’azienda hi-tech inglese acquisita da poco da Google, alla quale il colosso della Silicon Valley americana ha commissionato lo studio che ha portato alla pubblicazione. Nella fattispecie, i ricercatori si sono serviti dell’intelligenza artificiale (AI) per arrivare a refertare le mammografie con ridotto margine d’errore. Risultato, la loro macchina dotata di AI ha ridotto il numero dei falsi positivi del 5,7% e dei falsi negativi del 9,5%. In che modo? Rileggendo le stesse immagini dei radiologi di Regno Unito e Stati Uniti, paesi presso i quali erano state effettuate le mammografie. Per la precisione, sono passate al vaglio della AI per una “second opinion” le mammografie anonime di 25 mila pazienti inglesi e di 3 mila americane. Da notare che nel Regno Unito, dov’è buona prassi che siano almeno due i radiologi che vagliano la stessa immagine, il margine di successo nei referti della AI rispetto all’uomo si è ridotto, rispettivamente, dell’1,2 per i falsi positivi e del 2,7% per i falsi negativi.
Come pensare a questo travaso di risorse in ambito clinico? Da Google assicurano che non vi sarà nessuna sovrapposizione rispetto al lavoro prezioso del radiologo, anche se il leitmotiv del rispetto delle competenze umane, uniche e insostituibili, viene menzionato spesso, laddove le applicazioni di AI vengono testate per fare quello che fino al giorno prima faceva solo l’uomo. Forse la cautela di Google è solo viziata dal dato di fatto che, in misura molto minore, vi sono stati casi in cui a sbagliare è stata la macchina mentre il radiologo ha colto nel segno. Sta di fatto che per ora i propositi di Google non sono bellicosi, bensì collaborativi: «Ci sono un certo numero di casi in cui i radiologi prendono qualcosa che manca al modello, e viceversa. Riunire le due cose potrebbe rafforzare i risultati complessivi», ha dichiarato sempre lo stesso portavoce alla stampa inglese.
E se anche l’AI fosse in grado di ricorrere alla “second opinion” senza bisogno della figura umana? Da Google fanno sapere che la cosa non solo è possibile ma anche auspicabile, visto che le simulazioni messe a punto suggeriscono che il doppio lettore di AI, per ottenere gli stessi risultati della coppia di radiologi britannici, avrebbe portato a un risparmio di oltre l’80% in termini di carico di lavoro che toccava al secondo osservatore. Il che è come dire: “aspettate che affiniamo le procedure e poi vediamo quanto sarà utile il radiologo a leggere i referti”? Può darsi, a patto che a comunicare i risultati dell’esame alla paziente non si anteponga la voce metallica di AI ma che tale compito resti di dominio dell’uomo o della donna con il camice. Con i tempi che corrono, non si sa mai!
Scherzi a parte, c’è ancora un aspetto da considerare. Gli esperti ricordano che il funzionamento dei sistemi di intelligenza artificiale si basano sull’apprendimento. Orbene, non vi è apprendimento che non si affini se non attraverso gli errori compiuti. Chi fa sbaglia, chi non fa non sbaglia mai. L’adagio, a quanto pare, vale anche per l’AI. Sappiamo che non vi è medico senza una solida polizza assicurativa che lo tuteli da eventuali errori professionali. Ma se sbaglia la macchina dotata di intelligenza artificiale, chi paga? E in base a quale giurisprudenza? Come è noto, il diritto non procede mai di pari passo con lo sviluppo tecnologico. Diciamo che il campo è così pionieristico che nessuno si è posto il problema. La comunità europea ha commissionato un libro bianco sull’intelligenza artificiale che, a detta di alcuni opinionisti, è più preoccupato di porsi il problema della privacy dei dati che non di risolvere le questioni legali in caso di errori o di manchevolezze imputabili al sistema. Dati i tempi molto rapidi di attuazione che si prevedono per le applicazioni di AI in un settore tanto delicato come quello della salute, è lecito ipotizzare che a breve ne leggeremo delle belle in tema di cause legali sugli errori. Purché contro i colossi mondiali hi-tech non si applichi, anche per questo branca di diritto, la stessa benevolenza di cui, finora, essi hanno goduto a livello fiscale, per lo meno in Europa, dove come è noto Google, Apple Facebook e compagnia cantante pagano zero tasse o quasi.