Big data e machine learning in medicina: qual è il confine tra efficacia e calamità?
Description
Nel testo Tecnica, medicina ed etica Hans Jonas analizza i problemi legati ad una prassi del principio di responsabilità e del progresso tecnico in riferimento alla medicina, la quale si fonda — nella sua natura — su un evidente impianto personale, che esige una continua presa di posizione etica. Il discorso di Jonas parte, in questo contesto, dall’osservazione della tecnica come esercizio di potere dell’uomo, come prassi che richiede una valutazione morale. Per Jonas, non è invece ovvio che tale prassi contempli per definizione considerazioni di matrice etica. La medicina pone, in modo particolare, la peculiare condizione di una attività la cui valutazione morale non è riferita all’attività in sé, ma ai soggetti che in essa sono coinvolti, e dal cui consenso o dissenso può dipendere la prosecuzione e la realizzazione dell’attività stessa. Nella pratica medica, quindi, non è possibile riflettere sul solo piano di stati di cose od oggetti da modificare, ma piuttosto sulla libertà e sulla responsabilità degli attivi partecipanti cui l’attività è subordinata. Sulla scorta di Heidegger, Jonas nota come nel contesto e nelle scelte sanitarie e terapeutiche appare evidente, forse più che altrove, che è dalla tecnica stessa che soluzioni efficaci ai suoi quesiti debbono emergere, perché «il panico apocalittico non deve mai farci dimenticare che la tecnica è un’opera della libertà propria di noi uomini».
Gli ultimi sviluppi tecnologici in campo medico riportano in auge questi e numerosi altri problemi. All’interno dell’Unione Europea si sta conducendo e realizzando, in questi mesi, il progetto PERSIST, fondato su un’intelligenza artificiale che lavora su Big Data e relazioni di dati strutturati, destinata alla definizione di sempre migliori e più raffinate terapie per il trattamento e il follow-up dei malati di tumore.
Il testo di Jonas pone l’occasione di una rilettura attuale del rapporto tra intelligenza artificiale e sanità. Come applicare il principio di responsabilità in alcuni momenti critici dei processi clinici, alla luce di un’intelligenza artificiale che, come nel suddetto caso concreto, lavora su quantità enormi e correlazioni di dati, rispetto ai quali gli stessi medici possiedono conoscenze parziali? Qual è il confine tra intelligenza artificiale e decisione personale, e quali i criteri per definirlo? Fino a che punto le interfacce stesse devono semplificare (o al contrario rendere articolato) il processo di decisione personale, per essere sfruttate nella loro potenzialità senza tuttavia estraniare il medico dalla propria scelta responsabile?
La preoccupazione di Jonas e il suo monito a proseguire sulla strada di una costante prevenzione, richiesta dalla «troppo complessa sindrome tecnologica» in cui siamo coinvolti merita di essere nuovamente vagliata e giudicata. Se per Jonas l’inarrestabile progresso tecnico «significa che dobbiamo vivere in futuro all’ombra della minaccia di una calamità», sembra altresì urgente tener conto da un lato dei più recenti sviluppi tecnologici, dall’altro delle soluzioni e dei limiti propri che — per insita natura degli strumenti stessi, o per scelte normative attuali — sono ben individuati. Ciò consentirebbe di recuperare una discussione etica e una definizione del principio di responsabilità probabilmente differente da quello presagito, ma adeguato a problemi e possibilità efficaci e percorribili, capaci di comprendere significati nuovi e reali.