Cerca
Close this search box.

The Human Error Project

Come hanno dimostrato recenti ricerche, le recenti tecnologie sono piene di “errori” sistematici, “pregiudizi” e “imprecisioni” ma che possono avere un impatto reale sulle vite individuali e sui diritti umani.

Il progetto e le sue ricerche utilizzano il termine “errore umano dell’IA” come concetto ombrello per far luce su diversi aspetti della fallacia algoritmica quando si tratta di profilazione umana: Pregiudizio – I sistemi di IA sono prodotti dall’uomo e saranno sempre modellati dai valori e dalle convinzioni culturali degli esseri umani e delle società che li hanno creati. Inesattezza – i dati elaborati dagli algoritmi sono spesso il prodotto di pratiche umane quotidiane, disordinate, contraddittorie e fuori contesto, per cui le previsioni degli algoritmi sono piene di imprecisioni, verità parziali e rappresentazioni errate. Non responsabilità – I sistemi di IA portano a previsioni specifiche che spesso non sono spiegabili e non sono responsabili.

Scopri di più sul progetto: The Human Error Project

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto