Cerca
Close this search box.

Regolamentazione dell’AI: paralleli con la Medicina

L’articolo “Medicine’s Lessons for AI Regulation” di Laura Stark traccia un parallelo tra la regolamentazione nella medicina e quella nell’intelligenza artificiale (AI), mettendo in luce come entrambe le aree affrontino sfide simili.

Inizia sottolineando l’imminente regolamentazione dell’AI negli Stati Uniti e nel mondo, evidenziando le differenze tra le proposte statunitensi e quelle europee, senza però specificarle.

Paragona la situazione della regolamentazione dell’AI a quella della regolamentazione della ricerca medica sui soggetti umani dopo lo scandalo razziale dello studio di Tuskegee sulla sifilide. Questo studio, condotto dal 1932 al 1972, coinvolse uomini afroamericani affetti da sifilide, senza che loro ne fossero informati, privandoli di cure efficaci nonostante queste fossero disponibili. Lo scandalo emerse nel 1972 quando i dettagli dello studio furono resi pubblici, generando indignazione e portando a una maggiore attenzione verso la protezione dei soggetti umani coinvolti nella ricerca medica.

L’autrice menziona Henry K. Beecher, considerato uno dei fondatori della bioetica americana, il quale si oppose alla regolamentazione governativa della protezione dei soggetti umani nella ricerca. Beecher e i suoi sostenitori promuovevano un impegno rinnovato verso l’etica professionale, sostenendo che gli scienziati avrebbero dovuto mantenere il potere di giudicare l’accettabilità morale delle proprie azioni. Questo approccio si basava sull’autoregolamentazione professionale anziché su una regolamentazione governativa rigorosa.

Alla fine, il dibattito ha portato alla prevalenza della regolamentazione governativa, con il Congresso che ha promulgato il National Research Act nel 1974. Successivamente, le istituzioni hanno scritto regolamenti che hanno introdotto i comitati etici e formalizzato il consenso informato. Questo approccio ha portato a una regolamentazione più formale e vincolante rispetto all’autoregolamentazione professionale sostenuta da Beecher.

Nel 1979 fu pubblicato il Belmont Report, i cui principi sono il rispetto delle persone, la beneficenza e la giustizia. Questi principi sono stati direttamente collegati alle norme che prevedono il consenso informato, il calcolo del rischio-beneficio e la selezione non discriminatoria dei soggetti. Il Belmont Report è stato redatto da una commissione specifica istituita dalla Commissione Nazionale per la Protezione dei Soggetti Umani nella Ricerca Biomedica e Comportamentale, un’organizzazione governativa. Quindi, sebbene sia stato elaborato da professionisti ed esperti del campo della ricerca biomedica e comportamentale, è stato commissionato e istituito dal governo degli Stati Uniti, quindi può essere considerato un documento nato da un’iniziativa governativa.

L’autrice sostiene che la storia della regolamentazione nella ricerca medica fornisce un quadro utile per comprendere la situazione nell’intelligenza artificiale. Osserva che, simile al settore medico, anche nell’ambito dell’AI si dibatte tra coloro che propugnano una regolamentazione governativa e chi favorisce un’autoregolamentazione professionale.

L’articolo sottolinea l’importanza di proteggere non solo le persone coinvolte come “soggetti umani”, ma anche come “soggetti di dati”, evidenziando situazioni in cui i dati genetici sono stati utilizzati in modo non etico. Ad esempio, menziona la controversia legale tra la tribù Havasupai nel Sud-ovest degli Stati Uniti e l’Arizona State University, in seguito all’uso non autorizzato dei dati genetici dei membri della tribù. Inizialmente, lo studio si concentrava sulla genetica della popolazione Havasupai, ma i ricercatori hanno impiegato tali dati per scopi non contemplati dall’accordo di consenso, suscitando preoccupazioni diffuse riguardo alla privacy e all’abuso dei dati. Questo caso ha enfatizzato l’importanza della protezione dei dati e ha accresciuto la consapevolezza etica sull’uso delle informazioni genetiche, evidenziando la necessità di regole più stringenti per la gestione dei dati nella ricerca scientifica. Il rispetto dei dati personali rappresenta un aspetto fondamentale anche nell’etica dell’AI.

L’autrice non esprima apertamente una preferenza tra il modello dell’autoregolazione professionale e quello governativo, il testo sembra mettere in luce i punti di forza e le sfide di entrambi gli approcci. Suggerisce che una regolamentazione professionale potrebbe garantire maggiore flessibilità coinvolgendo l’esperienza del settore, mentre una regolamentazione governativa potrebbe assicurare una più ampia applicabilità universale e responsabilità vincolante, tuttavia sottolinea l’importanza di una regolamentazione flessibile.

Sarebbe importante riflettere sui rischi connessi al predominio del potere privato, motivo per cui nel campo medico si è optato per una regolamentazione pubblica, considerando pericoloso il controllo della conoscenza e delle normative da parte di soggetti privati.

È plausibile collegare le regole per l’AI a quelle del settore medico, poiché entrambi affrontano questioni vitali.

Riferimento:

Laura Stark, Medicine’s Lessons for AI Regulation, inNew England Medical Journal of Medicine”, 14 December 2023, pp. 2213-2215.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto