Cerca
Close this search box.

Il dilemma etico delle Voci AI dei bambini uccisi

L’articolo “Parents of gun violence victims use AI to bring kids’ voices to Capitol Hill” di Ellie Silverman, pubblicato su The Washington Post il 14 Febbraio 2024, racconta una storia straziante. Genitori di bambini vittime della violenza armata, spinti dal voler bloccare la diffusione incontrollata delle armi negli USA, hanno utilizzato l’intelligenza artificiale per ricreare le voci dei loro figli scomparsi. Questo progetto emerge in un contesto americano dove il dibattito sul controllo delle armi è fortemente polarizzato, riflettendo la profonda divisione nella società statunitense riguardo alla regolamentazione delle armi da fuoco e al diritto costituzionale di possederle.

Il progetto ha come obiettivo sensibilizzare il pubblico e influenzare il Congresso a promulgare leggi più rigide sul controllo delle armi. La disperazione e la determinazione dei genitori si manifestano nell’uso delle voci AI, un tentativo di ottenere controlli più severi sull’acquisto di armi e il divieto di armi d’assalto. La tecnologia utilizzata per ricreare queste voci, basata sull’intelligenza artificiale avanzata, analizza e replica le caratteristiche uniche di ogni voce registrata, creando una simulazione sorprendentemente realistica che sfida i confini tra il digitale e il reale.

Aram Sinnreich, professore di studi sulla comunicazione, riflette sulla legittimità e l’appropriato impiego di questa tecnologia, affermando che non esiste un consenso sociale su ciò che costituisce un uso legittimo e appropriato dell’AI. Sottolinea che, sebbene l’uso dell’AI per clonare le voci in questo contesto possa essere considerato positivo, ci sono molte preoccupazioni etiche da considerare. Pone la questione se questa pratica sia semplicemente un nuovo modo per utilizzare l’immagine delle persone per un discorso persuasivo e informativo, oppure se rappresenti qualcosa di più problematico, come “un abominio che ruba l’anima”. Secondo Sinnreich, anche se è propenso a vederne, in questo caso, gli aspetti positivi, la società dovrà decidere collettivamente se questo uso dell’IA sia accettabile o meno.

Mike Song, un genitore, descrive il progetto come “straziante” ma importante per stimolare una presa di coscienza. Oliver, il cui figlio è stato ucciso in una sparatoria scolastica e fondatore di Change the Ref, sottolinea la gravità della violenza armata nelle scuole e difende il progetto dalle critiche. Giselle Mörch partecipa per mostrare che la violenza che ha ucciso suo figlio Jaycee è ancora una realtà dolorosa.

Il progetto include diverse famiglie, ognuna con una storia personale e commovente. Hanno inviato video dei loro cari a Edisen, una società di produzione cinematografica, che ha lavorato per ricreare le voci. Queste voci AI sono disponibili sul sito theshotline.org, dove chiunque può ascoltarle e sentirle chiedere azioni concrete contro la violenza armata. Le voci, come quella di Ethan, parlano della loro vita e della loro tragica morte, esortando a una riforma delle leggi sulle armi.

In sintesi, mentre l’uso delle voci AI in questo contesto mira a una causa nobile, le questioni etiche sollevate richiedono un’attenta considerazione e un equilibrio tra gli obiettivi di sensibilizzazione e il rispetto per i defunti e i loro cari. La ricreazione delle voci dei bambini deceduti potrebbe essere vista come una violazione della loro dignità e del loro diritto al riposo eterno. Come si legge nell’articolo, alcuni ritengono che utilizzare l’immagine e la voce di una persona deceduta per scopi politici o di sensibilizzazione possa essere rispettoso, mentre altri lo considerano inappropriato. I bambini deceduti non possono dare il loro consenso per l’uso della loro voce e immagine in iniziative postume. Ciò solleva la domanda se sia etico utilizzare l’identità di qualcuno, in particolare un minore, per scopi che non hanno potuto approvare personalmente. L’uso delle voci AI potrebbe rievocare dolore e trauma per i familiari, che in questo caso sono stati consenzienti, ma anche nel resto della comunità dei defunti. Per alcune persone, potrebbe essere uno strumento potente di sensibilizzazione, ma per altre potrebbe rappresentare una fonte di dolore rinnovato.

Utilizzare voci AI di bambini deceduti per promuovere cambiamenti politici o sociali potrebbe essere visto come una forma di manipolazione emotiva. Questo solleva preoccupazioni su quanto sia etico sfruttare le emozioni del pubblico per raggiungere un obiettivo specifico.

Questo tipo di utilizzo dell’intelligenza artificiale potrebbe stabilire un precedente per usi futuri, alcuni dei quali potrebbero essere moralmente discutibili. Ciò include preoccupazioni su dove si tracci la linea nell’utilizzo delle voci e delle immagini delle persone decedute.

Sebbene le voci siano realistiche, non sono le vere voci dei bambini e ciò potrebbe portare a interrogativi sulla veridicità del messaggio trasmesso. Vi sono preoccupazioni sulle conseguenze a lungo termine dell’uso delle voci AI in questo modo, compresi gli impatti sulla salute mentale dei sopravvissuti, a lungo andare, c’è il rischio di desensibilizzare il pubblico di fronte a tematiche importanti, che alla fin fine risulterebbero banalizzate.

C’è la necessità di riflettere e regolare l’uso delle immagine e delle voci post mortem, come si è già fatto con il corpo. Possiamo chiedere di essere sepolti, cremati, di donare gli organi o di donare l’intero corpo alla scienza, dobbiamo riflettere sull’uso delle immagini e delle voci di chi non è più in vita, ma è ancora nella realtà digitale. In definitiva, il progetto ci ricorda l’invito kantiano al rispetto della persona, un principio che conserva la sua importanza anche dopo la morte.

Riferimento

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto