Cerca
Close this search box.

L’impatto dell’IA sulle vittime civili a Gaza

Immagine di città fantasma in seguito a un bombardamento o esplosione.

L’intelligenza artificiale è diventata il principale alleato dell’esercito israeliano nel quadro del conflitto a Gaza. 

Sistemi come “Lavender” e “Where is Daddy” vengono impiegati per identificare e colpire obiettivi militari, ma questa strategia ha comportato un aumento significativo dei danni collaterali. Infatti, Lavender è utilizzato per individuare i membri di Hamas e della Jihad islamica palestinese, selezionando anche giovani reclute e chiunque ne sia associato. Where is Daddy, invece, viene impiegato per determinare la posizione geografica degli obiettivi umani, con un particolare focus sulle abitazioni familiari. Questi sistemi, sebbene progettati per operazioni mirate, hanno causato la morte di un gran numero di civili. Il margine di errore del 10% di Lavender è particolarmente preoccupante, poiché significa che migliaia di persone innocenti sono diventate vittime del conflitto. 

L’impiego dell’IA nell’ambito militare solleva gravi questioni etiche e suscita preoccupazioni riguardo al rispetto dei diritti umani e al principio del danno collaterale. 

Leggi l’articolo completo: Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali su ilfattoquotidiano.it.

Foto di Jordy Meow su Unsplash.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto