Nell’articolo “Artificial intelligence in clinical decision-making: Rethinking personal moral responsibility”, pubblicato su “Bioethics” del 19 settembre 2023, Helen Smith, Giles Birchley e Jonathan Ives affrontano il ruolo dell’intelligenza artificiale (AI) in medicina e la ridefinizione della responsabilità.
Negli ultimi anni, l’AI ha giocato un ruolo sempre più significativo nell’ambito medico, fornendo supporto ai professionisti sanitari nel prendere decisioni più informate e precise. Watson, uno dei sistemi di AI più noti, è stato sviluppato da IBM per assistere i medici nella diagnosi e nel trattamento dei pazienti. Pur offrendo un grande potenziale, Watson ha anche evidenziato alcuni problemi significativi. Un esempio emblematico riguarda il fatto che il sistema sembrava trascurare il rischio di polmonite in pazienti asmatici. Questo errore si è verificato perché i dati utilizzati non consideravano il fatto che gli asmatici non erano morti di polmonite grazie alle cure intensive che avevano ricevuto, proprio perché asmatici. Questo episodio mette in luce il rischio di errori nell’analisi dei dati e nell’interpretazione delle informazioni da parte dei sistemi AI, che potrebbero portare a raccomandazioni cliniche imprecise o errate. Un altro problema evidenziato riguarda l’opacità dei sistemi AI: spesso le indicazioni fornite non sono trasparenti, rendendo difficile per i clinici verificare o controllare le decisioni prese dai sistemi AI.
Questa mancanza di trasparenza complica l’assunzione di responsabilità. Attualmente, la responsabilità prospettica e retrospettiva per l’uso di sistemi AI come Watson ricade principalmente sui medici. La responsabilità prospettica si riferisce alla responsabilità anticipata nel prendere precauzioni per evitare danni, mentre quella retrospettiva riguarda l’attribuzione di responsabilità per eventi dannosi causati da azioni passate o omissioni. Tuttavia, ciò solleva domande sull’equità di questa suddivisione della responsabilità.
Esperti come Taddeo, Floridi e Whitby hanno suggerito un approccio diverso: una responsabilità condivisa. Questo modello promuove un coinvolgimento collaborativo tra gli sviluppatori di AI, i medici e altri attori coinvolti nella catena decisionale. Un approccio di responsabilità condivisa favorisce incoraggiare una maggiore interazione tra i professionisti medici e gli sviluppatori di AI potrebbe condurre a una migliore comprensione delle potenziali implicazioni dei sistemi AI nella pratica clinica, potrebbe ridurre i rischi associati all’interpretazione errata dei dati e migliorare la sicurezza e l’efficacia delle decisioni mediche.
La responsabilità condivisa si integra perfettamente con il concetto di “imparare anziché colpevolizzare”. (“learn not blame”). Adottare una mentalità di apprendimento implica esaminare gli errori per comprendere le cause sottostanti, individuare possibili migliorie nei processi o nei sistemi e implementare correzioni per evitare che gli stessi errori si ripetano. Questo approccio non si concentra esclusivamente sulla colpa di una singola entità, ma piuttosto mira a migliorare l’intero ecosistema clinico, includendo l’interazione tra medici, pazienti e sistemi di IA.