Cerca
Close this search box.

Gli algoritmi discriminatori della Banca Mondiale| Human Rights Watch

I governi di tutto il mondo si stanno rivolgendo all’automazione per aiutarli a fornire servizi pubblici essenziali, ma alcune forme di automazione escludono le persone dai servizi e le sottopongono a controlli basati su errori, criteri discriminatori o stereotipi sulla povertà. 

La Banca Mondiale è uno dei principali attori dello sviluppo che guida questa tendenza, in particolare nel Sud del mondo, puntando molto sulle tecnologie ad alta intensità di dati per aiutare i governi a fornire servizi. Tra questi vi sono i grandi programmi di trasferimento di denaro che forniscono a determinati individui o famiglie un sostegno finanziario. Solo in Medio Oriente e Nord Africa, otto Paesi su dieci hanno ricevuto prestiti dalla Banca per potenziare questi programmi.

Questo approccio, noto come poverty targeting, ha suscitato forti critiche per aver minato i diritti delle persone, in particolare sulla scia della crisi economica innescata dalla pandemia di Covid 19.

Il rapporto di Human Rights Watch documenta l’impatto sui diritti umani di uno di questi programmi finanziati dalla Banca in Giordania, noto come Programma unificato di trasferimento di denaro, ma comunemente indicato con il suo nome originale, Takaful.

Dopo aver escluso le famiglie che non soddisfano i criteri di ammissibilità di base, Takaful utilizza un algoritmo per identificare quali di quelle rimaste dovrebbero ricevere trasferimenti di denaro in base al loro livello di vulnerabilità economica.

Continua a leggere il documento. Estratto da: Automated Neglect. How The World Bank’s Push to Allocate Cash Assistance Using Algorithms Threatens Rights – Human Rights Watch

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto