Cerca
Close this search box.

L’Intelligenza artificiale nel processo decisionale clinico: ripensare la responsabilità morale personale

Il 19 settembre 2023, Helen Smith, Giles Birchley e Jonathan Ives hanno pubblicato, sulla rivista Bioethics, un articolo sull’impiego dell’intelligenza artificiale nei processi decisionali clinici in cui propongono una riflessione approfondita sulla responsabilità morale.

Il testo esamina la questione della responsabilità morale personale nell’uso di sistemi di intelligenza artificiale (IA) nei contesti clinici, proponendo un modello di responsabilità condivisa. Attualmente, il sistema di responsabilità morale personale è frammentato, in cui ciascuna parte agisce come un individuo indipendente che rappresenta i propri interessi. Tuttavia, questo approccio frammentato solleva problemi di ingiustizia nei confronti dei clinici e non serve agli interessi delle Società di Sviluppo di IA Clinica (SDC).

Invece, il testo sostiene l’adozione di un modello di responsabilità condivisa in questo settore. Secondo questa prospettiva, le SDC devono accettare la loro parte di responsabilità morale, insieme ai clinici e alle istituzioni cliniche, e devono essere pronte a condividere i costi in caso di problemi. Questo modello si concentra sulla garanzia di un adeguato risarcimento per il paziente colpito e sulla prevenzione dei danni, in linea con l’approccio contemporaneo nell’ambito sanitario di “imparare anziché incolpare”.

Responsabilità condivisa nell’utilizzo di IA clinica

Per attuare un modello di responsabilità condivisa, è necessario introdurre nuove pratiche di collaborazione fin dalla fase di progettazione dei sistemi di intelligenza artificiale. Ciò potrebbe includere la creazione di una piattaforma di lavoro comune tra gli attori coinvolti, al fine di affrontare le cause prevedibili di danni derivanti dall’uso di IA cliniche. Questa piattaforma condivisa favorirebbe discussioni significative tra gli attori nell’ambito delle decisioni cliniche, promuovendo la chiarezza su questioni pratiche come l’accuratezza delle IA o il possibile indebolimento della vigilanza dei clinici.

Nonostante le IA cliniche vengano sviluppate in collaborazione con team clinici, il testo sottolinea la necessità che gli utenti clinici indipendenti possano esaminare le IA attraverso revisioni critiche di terze parti e studi clinici per valutare l’efficacia prima della distribuzione. Questo processo di revisione esterna dovrebbe essere trasparente e aperto alla valutazione della comunità clinica.

Benefici della responsabilità condivisa

La responsabilità condivisa offre vantaggi sia dal punto di vista etico che pratico. Consentire ai clinici di esprimere le proprie preoccupazioni riguardo all’ingiustizia di dover sostenere l’intera responsabilità nell’utilizzo delle IA cliniche può migliorare la loro fiducia nel processo. Allo stesso tempo, incoraggiare le SDC a dimostrare la loro affidabilità in questo settore è nell’interesse di entrambe le parti, poiché la sicurezza delle tecnologie delle SDC è fondamentale per il loro successo.

In sintesi, il testo affronta la complessa questione della responsabilità morale personale nell’uso di IA cliniche, proponendo un modello di responsabilità condivisa tra clinici e SDC come soluzione adeguata. Tale modello dovrebbe essere definito prima dell’implementazione o dell’uso delle IA nei contesti clinici per evitare l’attribuzione ingiusta di responsabilità ai soli utenti clinici. Il testo sottolinea l’importanza di affrontare questi problemi sin da ora, nonostante l’uso delle IA cliniche sia ancora in fase di sviluppo.

Andando oltre gli Autori, potremmo concludere affermando che il paradigma della responsabilità condivisa si riflette in un modello integrato di cura, che concepisce la salute come un equilibrio influenzato non solo da fattori organici e psichici, ma anche da quelli sociali e ambientali. Questo approccio riconosce che la responsabilità per la salute non può essere attribuita a un singolo attore, ma deve essere condivisa tra individui, operatori sanitari, società e ambiente circostante. In questo contesto, la promozione e il mantenimento della salute diventano una responsabilità collettiva, in cui ognuno contribuisce al benessere comune attraverso azioni consapevoli e collaborazione.

L’idea che i medici condividano le responsabilità, inclusa quella con coloro che sviluppano l’intelligenza artificiale per la clinica, non implica affatto una sminuizione del loro ruolo. Al contrario, questa prospettiva li riconosce come parte integrante di una complessa rete di cura. In questo contesto, i medici mantengono la loro importanza cruciale nella decisione clinica, ma collaborano attivamente con altri attori, compresi gli sviluppatori di intelligenza artificiale, per promuovere la migliore assistenza possibile ai pazienti. La responsabilità condivisa è un riconoscimento del fatto che affrontare sfide complesse richiede un approccio collaborativo, in cui ognuno porta il proprio contributo per il beneficio della salute e del benessere dei pazienti.

Leggi l’articolo scientifico (Open Access): Artificial intelligence in clinical decision-making: Rethinking personal moral responsibility

Foto di Marcelo Leal su Unsplash

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto