Cerca
Close this search box.

Riconoscimento facciale: diritti vs sicurezza

Il riconoscimento facciale è uno degli aspetti dell’AI che alimenta il dibattito pubblico, coinvolgendo questioni cruciali legate alla privacy e ai diritti individuali. Su The Guardian del 20 dicembre, Daniel Boffey ha pubblicato l’articolo “Police to be able to run face recognition searches on 50m driving licence holders”, concentrandosi sulla possibilità per la polizia di effettuare ricerche tramite riconoscimento facciale sui 50 milioni di titolari di patenti di guida nel Regno Unito. Si evidenzia che questa modifica normativa introdotta silenziosamente potrebbe mettere ogni automobilista del paese in una sorta di “lineup” permanente per la polizia. Tale mossa è stata criticata per la mancanza di consultazione pubblica, sollevando dubbi sulla legittimità di tali poteri e suscitando preoccupazioni riguardo alla minaccia ai diritti alla privacy, alla libertà di espressione e alla non discriminazione.

Kate Crawford (“Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence”) aveva sollevato l’allarme riguardo alla possibilità che il riconoscimento facciale possa amplificare le disuguaglianze esistenti. I sistemi possono presentare errori maggiori nelle identificazioni di persone appartenenti a gruppi minoritari. La sua ricerca ha evidenziato come i sistemi di riconoscimento facciale possano riflettere e amplificare i pregiudizi presenti nella società, con il rischio di discriminare gruppi marginalizzati. Ha sottolineato la necessità di regolamentare l’uso di questa tecnologia per evitare abusi e proteggere i diritti individuali e collettivi.

Questi timori sono confermati dall’articolo “Rite Aid facial recognition misidentified Black, Latino and Asian people as ‘likely’ shoplifters” di Johana Bhuiyan e altri, pubblicato su The Guardian del 20 dicembre. L’articolo discute del fatto che Rite Aid ha utilizzato sistemi di riconoscimento facciale per identificare potenziali ladri senza il consenso dei clienti e ha erroneamente identificato persone di colore – in particolare donne nere, latine o asiatiche – in “numerose” occasioni. L’azienda è stata accusata di utilizzare il riconoscimento facciale in centinaia di punti vendita in varie città degli Stati Uniti, segnalando individui precedentemente classificati come probabili autori di furti o comportamenti criminali. La Federal Trade Commission (FTC) ha vietato a Rite Aid di utilizzare la tecnologia di riconoscimento facciale nei suoi negozi per cinque anni. L’FTC ha sottolineato le numerose identificazioni errate, la mancanza di test di accuratezza e la mancanza di formazione adeguata del personale coinvolto nella gestione della tecnologia. La tecnologia si è dimostrata propensa a identificare erroneamente persone di colore, aumentando il rischio di discriminazioni e falsi arresti. In un contesto in cui la tecnologia avanza rapidamente, è fondamentale una regolamentazione rigorosa per proteggere la privacy e i diritti delle persone.

Come sottolinea Harari (“21 Lessons for the 21st Century”) è importante incoraggiare una discussione ampia su come bilanciare la sicurezza con la privacy e i diritti individuali nella società moderna. Serve una consapevolezza più ampia dei rischi del riconoscimento facciale, che incoraggi una gestione responsabile di queste nuove tecnologie.

La legge non può essere ‘silenziosa’, serve una consultazione pubblica quando sono in gioco i diritti. Devono essere chiare le possibilità di abuso e le conseguenze delle identificazioni errate. La sorveglianza può essere giustificata per prevenire reati gravi, ma non può diventare un mezzo per limitare le libertà civili dei cittadini. La sorveglianza si giustifica per ragioni di tutela di persone che rischiano di essere oggetto di crimini, ma occorre fare in modo che i sistemi siano accurati, perché i falsi positivi o negativi possono compromettere le indagini con gravi conseguenze.

I rischi di possibili derive autoritarie non possono però farci dimenticare l’efficacia che questi sistemi di sorveglianza possono avere, ad esempio per evitare la violenza su soggetti deboli. Sta alla discussione democratica e trasparente razionalizzarne l’uso per fini di tutela.

Come già abbiamo constatato nelle discussioni sulle misure messe in atto per bloccare la diffusione del virus Covid-19, occorre evitare che tutte le misure di controllo siano interpretate secondo le categorie di Foucault. Nel suo libro “Sorvegliare e punire”, Foucault esplora come le istituzioni di potere esercitino forme di sorveglianza e controllo sui corpi e sui comportamenti delle persone. La sua analisi critica si concentra sulle implicazioni della sorveglianza per la libertà individuale e sulle dinamiche di potere all’interno delle società, ma ci può essere una sorveglianza a difesa dei deboli. A tal fine ritengo che si possa derogare al diritto di privacy. Per queste ragioni serve una regolamentazione precisa.

Non dobbiamo investire i sistemi di sorveglianza AI di un’efficacia che non hanno. In occasione della strage del 7 Ottobre 2023, abbiamo tragicamente constatato che i sistemi israeliani non sono serviti ad evitare le violenze, è una prova che la sicurezza va costruita su un terreno che non è semplicemente tecnico.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto