Cerca
Close this search box.

(USA) nH Predict esclude dalle cure: errore o dolo?

L’articolo di Beth Mole su Ars Technica del 17 novembre 2023 mette in luce un’ingiustizia sistemica perpetrata dalla più grande compagnia assicuratrice sanitaria degli Stati Uniti, UnitedHealthcare. L’azienda è accusata di utilizzare un algoritmo di intelligenza artificiale gravemente difettoso, denominato nH Predict, per negare ingiustamente cure necessarie agli anziani, ricoverati dopo un evento acuto grave, costringendoli a essere esclusi prematuramente dai programmi di riabilitazione e dalle strutture di assistenza.

La denuncia presentata presso il Tribunale distrettuale degli Stati Uniti per il Distretto del Minnesota, insieme a un’indagine condotta da Stat News, sottolinea che l’algoritmo nH Predic, sviluppato da NaviHealth (azienda controllata da UnitedHealth), genera stime estremamente restrittive sulle necessità di cure post-acuzie dei pazienti, ignorando importanti fattori di salute e recupero. Queste previsioni, che non considerano comorbilità e malattie che insorgono durante la degenza nelle strutture sanitarie,  portano a respingimenti di copertura che causano enormi difficoltà finanziarie e sofferenze agli anziani e alle loro famiglie.

Nonostante oltre il 90% dei rifiuti di assistenza basati sulle stime di nH Predict vengano annullati quando contestati, UnitedHealth persiste nell’utilizzare l’algoritmo senza apportare correzioni. Gli ex dipendenti di NaviHealth hanno rivelato che l’azienda si è concentrata maggiormente sulla valutazione dell’utile economico piuttosto che sull’impegno a favore dei pazienti.

La denuncia, portata avanti dalle famiglie di persone decedute a causa di rifiuti di copertura assistenziale ingiustificati, accusa UnitedHealth e NaviHealth di violazioni contrattuali e di legge, richiedendo rimborsi e la fine delle ingiustizie.

Si stima che UnitedHealth risparmi centinaia di milioni di dollari all’anno grazie all’utilizzo di nH Predict, mentre i vertici aziendali percepiscono compensi milionari.

La denuncia solleva l’urgenza di porre fine a questa prassi che mette a rischio la salute e il benessere degli anziani. Responsabile non è l’algoritmo, ma chi deliberatamente vuole che l’AI non prenda in considerazione alcuni fattori che si correlano alla necessità di cura e quindi all’aumento dei costi.

In questo modo l’AI massimizza le ingiustizie, potenzia l’opportunismo volgare, mentre potrebbe essere utilizzata per migliorare e personalizzare le cure. Se non si corregge, l’algoritmonH Predictrappresenta la razionalizzazione dell’esclusione e dell’ageismo.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto