Cerca
Close this search box.

L’Intelligenza artificiale nell’assistenza sanitaria: potenzialità e rischi di “AI gaslighting”, “AI Hallucinations” e violazione della privacy

Rebecca Voelker, in un articolo pubblicato su JAMA il 20 settembre 2023, presenta un’intervista condotta da Kirsten Bibbins-Domingo, Editor in Chief di JAMA, con il dottor Michael Howell, Chief Clinical Officer di Google Health. 

Il dottor Howell spiega che il suo team clinico è composto da medici, infermieri, psicologi ed economisti della salute. Questa squadra collabora a stretto contatto con ingegneri, product manager e ricercatori di Google Health. L’obiettivo è garantire che lo sviluppo e l’implementazione dell’IA nell’ambito sanitario siano il risultato di una sinergia tra l’esperienza medica e la tecnologia.

Il dottor Howell sottolinea l’importanza di coinvolgere il personale medico nel processo di sviluppo dell’IA in modo da non considerare il settore sanitario e la Silicon Valley come entità separate, ma piuttosto come voci complementari che collaborano per migliorare l’assistenza sanitaria.

Il dottor Howell sottolinea che l’obiettivo non è sostituire i medici, ma migliorare il loro lavoro. Egli precisa che ci sono compiti, come la documentazione e la ricerca di informazioni, che possono essere semplificati e accelerati dall’uso dell’IA. Inoltre, fa riferimento al modello chiamato Med-PaLM, che ha dimostrato accuratezza nelle risposte, e spiega che, come altri modelli, è progettato per assistere il personale medico in compiti di questo tipo, garantendo loro più tempo per prestare assistenza diretta ai pazienti.

Una delle sfide discusse nell’articolo è l'”AI gaslighting”, che si verifica quando un sistema di AI genera risposte che sembrano plausibili e coerenti, ma che sono inesatte o fuorvianti. Questo può essere dovuto a una varietà di motivi, come errori nell’addestramento del modello di IA, dati di addestramento imperfetti o bias nel modo in cui il modello interpreta le informazioni.

Un’altra sfida menzionata sono le “AI hallucinations”, cioè la generazione di citazioni o informazioni che non esistono veramente. Il dottor Howell spiega che i modelli sono addestrati a prevedere il termine successivo in una frase, ma quando si trovano di fronte a una citazione accademica, non cercano la citazione effettiva, ma generano qualcosa che sembra plausibile. 

Infine, il dottor Howell sottolinea l’importanza della privacy dei pazienti nei dati utilizzati per addestrare i modelli di IA. Gli ospedali e le organizzazioni sanitarie devono garantire che i dati dei pazienti siano protetti, la sicurezza dei dati è cruciale, specialmente quando si tratta di dati sensibili come quelli medici.

In generale, l’articolo mette in evidenza come l’IA stia rapidamente cambiando l’assistenza sanitaria, ma presenta anche alcune sfide importanti che devono essere affrontate per garantire che l’IA sia utilizzata in modo sicuro ed efficace nell’ambito medico.

Le preoccupazioni emergono anche nei commenti all’articolo che evidenziano inquietudini legate alla privacy dei dati e ai bias nell’IA in medicina. La privacy dei dati è messa a rischio quando grandi modelli di IA possono involontariamente condividere informazioni sensibili. Inoltre, i dati storici sbilanciati possono portare a bias negli algoritmi, creando disparità nell’assistenza sanitaria. Raccogliere dati diversificati e sviluppare strumenti per rilevare e correggere i bias è essenziale per affrontare queste sfide etiche nell’adozione dell’IA in medicina.

Leggi l’articolo scientifico: Google Health’s Chief Clinical Officer Talks About Incorporating AI in Health Care

Foto di Hush Naidoo Jade Photography su Unsplash

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto