Cerca
Close this search box.

Ethics and AI: dalla lezione della Professoressa Tiziana Catarci (18 ottobre)

Una statua della dea della giustizia bendata, con in mano una bilancia.

La “fairness” è il filo conduttore della lezione della Professoressa Tiziana Catarci che affronta la necessità di rendere l’intelligenza artificiale (AI) equa, evitando pregiudizi e comportamenti discriminatori.

Innanzitutto la Professoressa Catarci ricorda che l’intelligenza artificiale è una disciplina scientifica che mira a creare macchine che manifestano un comportamento che potremmo definire intelligente se fosse osservato in un essere umano.

Poi classifica l’AI in tre categorie: Narrow AI che è progettata per svolgere specifiche attività, questi sistemi operano all’interno di parametri ben definiti e non comprendono il contesto al di fuori delle attività per cui sono stati progettati; General AI che dovrebbe essere in grado di replicare completamente l’intelligenza umana, possedere una forma di coscienza o comprensione del proprio stato, è una prospettiva futura, non realizzata; Augmented AI, che può potenziare le capacità umane, è molto interessante dal punto di vista etico, perché pone l’essere umano al centro e tratta l’AI come qualcosa di funzionale alle attività e alle aspettative umane.

La Professoressa Catarci sottolinea che uno dei problemi principali dell’AI è la presenza di modelli che riflettono i pregiudizi presenti nei dati di apprendimento. Ad esempio, un modello di AI addestrato su dati storici di assunzioni aziendali potrebbe riflettere i pregiudizi di genere esistenti nei dati, producendo una selezione discriminatoria di candidati.

Testare e validare i modelli di AI è importante per garantire che funzionino correttamente. Ad esempio, un modello di AI per il riconoscimento facciale dovrebbe essere accurato ed equo in vari contesti demografici. La soluzione coinvolge la creazione di set di dati rappresentativi, nonché la valutazione continua delle prestazioni dei modelli in situazioni del mondo reale.

I modelli di AI spesso non sono sufficientemente robusti per affrontare scenari imprevisti o input dannosi. Ad esempio, un’AI utilizzata per la guida autonoma potrebbe essere confusa da situazioni stradali non standard. Per questo è importante sviluppare modelli di AI in grado di gestire in modo più affidabile situazioni complesse attraverso la simulazione e l’addestramento in scenari variabili.

Una questione cruciale è rappresentata dal fatto che  le reti neurali profonde sono “scatole nere” perché è difficile comprendere come arrivino alle loro decisioni. Questa mancanza di trasparenza è problematica in contesti in cui è importante capire il processo decisionale, come nel settore medico.

L’assenza di controlli sui sistemi di AI potrebbe portare a comportamenti indesiderati o pericolosi. Ad esempio, un’AI che controlla un veicolo autonomo deve garantire che il sistema operi in modo sicuro e conforme agli standard etici.

È essenziale evitare che l’AI venga utilizzata per scopi discriminatori o dannosi. La stella polare è la “fairness”  che può indicare l’equità di gruppo, il cui obiettivo è garantire che le decisioni prese da sistemi di intelligenza artificiale siano equamente distribuite tra gruppi demografici, evitando discriminazioni. Ad esempio, quando si utilizza l’AI per selezionare candidati per un’opportunità di lavoro, è importante che la selezione non sia influenzata in modo negativo da fattori come il genere o l’etnia.

La “fairness” indica anche equità Individuale, che significa che l’AI dovrebbe considerare le caratteristiche rilevanti di un individuo senza discriminazioni. Ad esempio, due persone con competenze e qualifiche simili dovrebbero ricevere offerte di lavoro simili indipendentemente da altre caratteristiche personali.

L’obiettivo è che l’AI garantisca decisioni eque che non perpetuino pregiudizi e disuguaglianze esistenti.

Per vedere la registrazione della lezione:

Foto in copertina di Tingey Injury Law Firm su Unsplash.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto