Cerca
Close this search box.

L’Intrinseca Politicità dei Sistemi di IA: Analisi Critica di Daniela Tafani

degli omini verdi e blu, come tic-tac, vicino ad un sistema informatico. Sfondo bianco

In un’epoca dominata dall’ascesa dell’intelligenza artificiale, Daniela Tafani del Dipartimento di Scienze politiche dell’Università di Pisa ci invita a un’indagine approfondita sulle proprietà politiche degli AI systems. Il suo recente lavoro, “Do AI systems have politics? Predictive optimisation as a move away from liberalism, the rule of law and democracy”, è un campanello d’allarme che scuote le fondamenta etiche del nostro crescente affidamento su sistemi di ottimizzazione predittiva.

La ricerca di Tafani afferma che i sistemi IA non sono semplici strumenti neutrali: portano con sé impliciti assetti di potere che rispecchiano e rinforzano dinamiche politiche esistenti. L’adozione di tali sistemi non è una questione di design tecnologico, ma una scelta politica determinante, che può avere conseguenze profonde sul tessuto sociale.

L’impatto dei sistemi di ottimizzazione predittiva, secondo l’analisi di Tafani, è multiforme e inquietante. Questi sistemi minano il principio di autodeterminazione, trattando le persone come oggetti piuttosto che come soggetti capaci di fare scelte. Il loro utilizzo sistematico genera un ambiente in cui gli individui sono ineguali davanti alla legge e dove l’applicazione della legge diventa imprevedibile. Inoltre, tali sistemi equivalgono a una sorveglianza capillare, ponendo ogni cittadino sotto il sospetto di essere un potenziale trasgressore.

Nonostante le crescenti preoccupazioni, i sistemi di IA sono usati in vari settori, dalla valutazione del rischio pre-processuale alla polizia predittiva, dai servizi finanziari all’istruzione. Le decisioni che influenzano la vita delle persone sono basate su previsioni che possono essere errate o ingiuste, piuttosto che su valutazioni concrete e oggettive. Tafani sottolinea come siano stati sfatati i miti sull’oggettività delle decisioni algoritmiche. Questi sistemi sono stati criticati per reiterare bias e stereotipi, e spesso non sono adatti ai compiti a loro assegnati, portando a decisioni che possono essere gravemente dannose.

La conclusione di Tafani è senza appello: per preservare i valori del liberalismo e gli standard di uno stato di diritto, i sistemi di ottimizzazione predittiva non dovrebbero avere spazio nelle nostre società. In un’epoca in cui la tecnologia si intreccia sempre più con la nostra vita quotidiana, è essenziale che ci svegliamo dal “sonnambulismo tecnologico” e valutiamo attentamente le conseguenze legali, etiche e sociali degli AI systems che scegliamo di adottare o rifiutare.

Leggi l’articolo “Do AI systems have politics? Predictive optimisation as a move away from liberalism, the rule of law and democracy” completo su Zenodo:

Immagine in copertina di Google DeepMind su Pexels.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto