Cerca
Close this search box.

La “Dichiarazione sull’uso etico della tecnologia medica” dell’Associazione Medica Mondiale

immagine di un virus

Il 17 ottobre 2023 la World Medical Association, ha pubblicato la  “Declaration on the Ethical Use of Medical Technology  in cui si ribadisce il “quadro previsto dai principi fondamentali dell’etica medica” già chiarito in precedenti documenti. Nel Preambolo si legge che: “Il rispetto della dignità e dei diritti umani, l’autonomia del paziente, la beneficenza, la riservatezza, la privacy e l’equità devono essere i punti guida chiave quando la tecnologia viene sviluppata e utilizzata per scopi medici”.

È interessante analizzare se i principi della WMA Declaration siano adeguati ad una medicina che sempre più usa le tecnologie AI o se, come cercheremo di dire nelle conclusioni, sarebbe necessario un approccio più complesso e articolato che tenga conto del fatto che la tecnologia è influenzata dal contesto sociale e politico e che l’identità umana si struttura anche nel rapporto con le macchine, perché la tecnologia ormai è parte di noi.

Questi sono i 6 principi della Dichiarazione WMA:

Beneficenza

  1. L’uso della tecnologia medica dovrebbe avere come obiettivo primario il beneficio per la salute e il benessere dei pazienti. La tecnologia medica dovrebbe basarsi su solide prove scientifiche e competenze cliniche adeguate. I rischi prevedibili e qualsiasi aumento dei costi dovrebbero essere valutati rispetto ai benefici attesi per l’individuo e per la società, e la tecnologia medica dovrebbe essere testata o applicata solo se i benefici attesi giustificano i rischi.

Riservatezza e privacy

  1. La protezione della riservatezza e il rispetto della privacy del paziente sono principi centrali dell’etica medica e devono essere rispettati in tutti gli usi della tecnologia medica.

Autonomia del paziente

  1. L’uso della tecnologia medica deve rispettare l’autonomia del paziente, compreso il diritto dei pazienti a prendere decisioni informate sulla propria assistenza sanitaria e a controllare l’accesso alle proprie informazioni personali. Ai pazienti devono essere fornite le informazioni necessarie per valutare i potenziali benefici e rischi connessi, compresi quelli generati dall’uso della tecnologia medica.

Giustizia

  1. Per garantire scelte informate ed evitare pregiudizi o discriminazioni, la base e l’impatto della tecnologia medica sulle decisioni mediche e sui risultati dei pazienti dovrebbero essere trasparenti sia per i pazienti che per i medici. A sostegno di una fornitura di assistenza sanitaria giusta ed equa, i benefici della tecnologia medica dovrebbero essere disponibili a tutti i pazienti e prioritari in base alle necessità cliniche e non alla capacità di pagare.

Diritti umani

  1. La tecnologia medica non deve mai essere utilizzata per violare i diritti umani, ad esempio in pratiche discriminatorie, persecuzioni politiche o violazione della privacy.

Indipendenza professionale

  1. Per garantire l’indipendenza professionale e clinica, i medici devono sforzarsi di mantenere e aggiornare le proprie competenze, sviluppando la necessaria pratica con la tecnologia medica. I programmi di studio per studenti di medicina e tirocinanti, nonché le opportunità di formazione continua per i medici, devono essere aggiornati per soddisfare queste esigenze. I medici usufruiranno dei contributi alla ricerca e allo sviluppo. I medici devono rimanere gli esperti durante il processo decisionale condiviso e non essere sostituiti dalla tecnologia medica.

Il documento sembra riformulare il framework etico presente nel Manuale di Beauchamp e Childress: fare del bene ed evitare il male, rispettare l’autonomia, prendere decisioni in giustizia cioè distribuendo benefici e danni. È allargato il set dei principi perché è esplicitato il rispetto della privacy, che Beauchamp e Childress menzionano come articolazione del principio di autonomia. Il rispetto della privacy emerge come un elemento cruciale nel sostenere l’autonomia dei pazienti, consentendo loro di mantenere il controllo sulle proprie informazioni personali e di prendere decisioni informate riguardo alla loro assistenza sanitaria. Nella Dichiarazione viene richiamato il rispetto dei diritti umani che si potrebbe ricondurre al principio di non maleficienza e, soprattutto, c’è un richiamo all’”indipendenza” dei professionisti sanitari.

Più che sottolineare le opportunità offerte dalle tecnologie AI, il documento mette in guardia dal rischio che le tecnologie siano una minaccia per l’autonomia dei pazienti e per l’autonomia dei medici e che funzionino in modo ingiusto. Queste preoccupazioni espresse nella Dichiarazione si collegano agli esempi specifici della letteratura, che forniremo in seguito.

La Dichiarazione affronta in modo generale l’impiego della tecnologia in campo medico, senza focalizzarsi sull’ambito specifico dell’intelligenza artificiale. A differenza delle prospettive di Floridi (Floridi and Cowls 2019; Floridi et al. 2018) e Adams (2023), il documento non richiama esplicitamente il principio di “esplicabilità”, fondamentale nell’etica dell’intelligenza artificiale in medicina. Questo principio sottolinea l’importanza che i modelli di intelligenza artificiale siano comprensibili e spiegabili, garantendo così un controllo che costituisce la base dell’autonomia, sia per i pazienti che per gli operatori sanitari.

L’AI di nuova generazione si dimostra molto efficiente, quindi potenzialmente in medicina può aiutare a salvare vite, ma non spiega i suoi processi, perciò risulta impossibile definire chi è responsabile del suo funzionamento. La Dichiarazione non menziona questo problema,  che ha una valenza epistemologica, etica e giuridica. Se non controlliamo la tecnologia AI che si dimostra molto efficiente, possiamo usarla? Chi ne è responsabile? L’etica medica moderna pone al centro due principi, autonomia e benessere, che invece l’AI sembra mettere in opposizione. Utilizzare la tecnologia AI, senza comprenderla, significa passivizzarsi? Significa ricadere in un’obbedienza cieca? Sarebbe un ritorno al paternalismo, questa volta non medico ma tecnologico? O, pragmaticamente, sarebbe l’utilizzazione di una conoscenza non esplicita, però efficace per il benessere?

La Dichiarazione, che è prudente nei confronti della tecnologia perché può sostituire il ruolo dei medici e può creare ulteriori ingiustizie, sembra interpretare timori che ritroviamo in articoli scientifici sul tema. Nell’articolo “Algorithms at the Gate—Radiology’s AI Adoption Dilemmadi Saurabh Jha, su JAMA del 6 Ottobre 2023, si discute sull’uso dell’intelligenza artificiale in radiologia. L’AI potrebbe agire come assistente diagnostico, individuando dettagli che i radiologi non notano, riducendo gli errori. Tuttavia, potrebbe generare ingiustificati alert, facendo aumentare i falsi positivi. Jha scrive che la riduzione degli errori è un argomento convincente per l’uso dell’intelligenza artificiale. Comunque, i radiologi sono dubbiosi, consapevoli della curva ROC (Receiver Operating Characteristic) che dimostra come i guadagni di sensibilità spesso penalizzano l’efficienza. I risultati falsi positivi sopraffanno sia i radiologi distraendoli dai risultati veri positivi, sia i pazienti sottoponendoli a interventi non necessari. Inoltre, le tecnologie sensibili possono sovradiagnosticare la patologia (cioè trovare malattie clinicamente irrilevanti). Vale anche in medicina il paradosso di Solow che si usa in economia, infatti non sempre l’aumento della tecnologia porta ad un aumento di produttività. In conclusione, Jha riconosce che i radiologi possono affidare parte del loro lavoro agli algoritmi e reimmaginare le componenti umane non automatizzabili del loro lavoro. Questo smentisce il padre del deep learning, Geoffrey Hinton, che una volta sconsigliò la formazione dei radiologi perché credeva che l’intelligenza artificiale li avrebbe presto sostituiti. Sette anni dopo la profezia di Hinton, lungi dall’estinzione,  – ricorda Jha – esiste però una carenza di radiologi.

Potremmo sintetizzare che in radiologia, come in altri ambiti, l’AI ci spinge a mettere in luce la componente umana, componente che non è mortificata dall’AI, ma, anzi, la sollecitata. Mantenere “l’indipendenza”, menzionata nella Dichiarazione, rispetto alla tecnologia, significa proprio rideclinare lo specifico umano. Osservando il mondo dell’arte, constatiamo che la fotografia non ha sostituito la pittura, anzi l’ha pungolata a rappresentare la realtà in modi nuovi.

L’altro timore espresso dalla WMA Declaration è che la tecnologia accentui le discriminazioni e l’offesa ai diritti. Prendendo in considerazione le preoccupazioni etiche sollevate nella Dichiarazione WMA, esaminiamo ora un esempio tangibile di come tali questioni si manifestino nel contesto di un’iniziativa globale, illustrata dall’editoriale The Gates Foundation’s new AI initiative: attempting to leapfrog global health inequalities?di  Jonathan Shaffer, Arsenii Alenichev, Marlyn C Faure, sul British Medical Journal Global Health del 3 novembre.

L’editoriale critica l’iniziativa della Bill & Melinda Gates Foundation di investire 5 milioni di dollari in 48 progetti per introdurre modelli linguistici di intelligenza artificiale nei paesi a basso e medio reddito, con l’obiettivo di migliorare la vita delle comunità. Gli autori esprimono preoccupazioni sulla tendenza della fondazione a promuovere soluzioni tecniche riduttive (“proiettili magici”) per affrontare problemi complessi alla base delle disuguaglianze globali nella salute. Sottolineano che l’uso incontrollato di queste tecnologie potrebbe causare più danni che benefici per i sistemi sanitari già fragili.

Ricordano che la tecnologia dei Gates è costruita a partire da un mondo sociale estremamente diseguale e segnato dalla violenza razzista e questo mina i risultati, nonostante che i Gates e altri spesso manifestino il loro impegno per un “uso responsabile e sicuro” degli strumenti di intelligenza artificiale, nascondendosi dietro l’autorità dei bioeticisti e dei tecnocratici.

Gli autori denunciano che la mentalità euristica del “fare di più con meno” è sempre utilizzata per minare l’assistenza sociale per i poveri, secondo l’etica neoliberista. Così, se l’indigente ha un crollo emotivo potrà usufruire dell’assistente algoritmico, più economico rispetto allo psicoterapeuta umano. Polemicamente scrivono che “questi strumenti sono stati costruiti a partire da dati che codificano un mondo sociale profondamente diseguale e, come un cancro, l’intelligenza artificiale rischierà di metastatizzare e diffondere ideologie e priorità razziste maligne in modi nuovi e terrificanti”. Temono che, “l’intelligenza artificiale nella sanità globale probabilmente accelererà la spinta neoliberista volta a smembrare le istituzioni di assistenza sociale”.

A commento della Dichiarazione e degli articoli esaminati possiamo ricordare che la tecnologia è parte integrante di un contesto ampio che abbraccia aspetti industriali, economici, sociali e ambientali. La tecnologia AI non è un mondo a parte, ma innerva il quotidiano, dagli aspetti più banali a quelli cruciali legati alla salute, non è solo un mezzo ma è un aspetto integrante della nostra esperienza umana e la consapevolezza di ciò più che mortificarci dovrebbe aprirci a nuove possibilità in cui dimostrare “la componente umana”, i “diritti umani”, cioè la nostra capacità di dare senso e riconoscere valore.

Si tratta di riflettere non solo sui rischi, ma sulle opportunità, condividendo le responsabilità e questo in una medicina a forte componente AI potrebbe significare che il medico non è l’unico responsabile, come è proposto da Helen Smith, Giles Birchley e Jonathan Ives nell’articolo “Artificial intelligence in clinical decision-making: Rethinking personal moral responsibilitypubblicato il 19 settembre, sulla rivista Bioethics.

In sintesi, mentre ci confrontiamo con le sfide etiche, è essenziale considerare le opportunità che l’integrazione dell’AI offre al progresso della medicina. L’AI può diventare una risorsa preziosa, offrendo soluzioni innovative e collaborazioni che, guidate con responsabilità condivisa, possono trasformare positivamente la pratica medica.

I sei principi delineati dalla WMA Declaration – beneficenza, riservatezza, autonomia del paziente, giustizia, diritti umani e indipendenza professionale – costituiscono una base solida, ma sorgono interrogativi in merito alla loro formulazione nel contesto attuale. Sembrano più volti alla difesa dalle tecnologie che non a coglierne le opportunità.

Serve non solo richiamare l’”indipendenza professionale dei medici”, ma anche la “responsabilità condivisa” con altre professionalità proprio perché le tecnologie sono frutto di complesse correlazioni e la cura delle persone è frutto di attività integrate.

In definitiva, le ingiustizie non risiedono nella tecnologia in sé, ma nell’approccio sociale ed etico che adottiamo nell’utilizzarla per garantire le cure. Occorre andare oltre la paura e la speranza e costruire prassi di fiducia, basate sulla discussione pubblica, con un approccio aperto e partecipativo.

Riferimenti

Adams J., Defending esplicability as principle for the ethics of artificial intelligence in medicine, in “Medicine, Health Care and Philosophy”, 29 August 2023.

Beauchamp T. L., Childress, J. F., Principles of Biomedical Ethics. Oxford University Press, Oxford 1979.

Floridi L., Cowls J., A unified framework of five principles for AI in society, in “Harvard Data Science Review” 1, 2019.

Floridi L., Cowls J., Beltrametti M., Chatila R., Chazerand P., Dignum V., Luetge C. et  al., AI4People—an ethical framework for a good AI society: Opportunities, risks, principles, and recommendations, in “Minds and Machines”28, 2018, 689–707.

Jha S., Algorithms at the Gate—Radiology’s AI Adoption Dilemma, in “JAMA” 2023; 330 (17):1615-1616.

Shaffer J., Alenichev A., C Faure M., The Gates Foundation’s new AI initiative: attempting to leapfrog global health inequalities?, in “British Medical Journal Global Health”, 12 november 2023, pp. 1-4.

Smith H., Birchley G., Ives J., Artificial intelligence in clinical decision-making: Rethinking personal moral responsibility, in “Bioethics”, 19 September 2023.

World Medical Association, Declaration on the Ethical Use of Medical Technology, 17 October 2023.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto