Cerca
Close this search box.

Pregiudizi razzisti e stereotipi linguistici occulti: il lato oscuro degli LLM

Immagine ciò AI con tutte le connessioni elettriche ad esso collegate.

Una recente ricerca ha evidenziato come i grandi modelli linguistici come ChatGPT, non si limitano ad assorbire le opinioni razziste presenti nelle milioni di pagine web su cui sono addestrati, ma le riflettono anche. Nonostante gli sforzi svolti dagli sviluppatori per mitigare questa tendenza, i risultati indicano che i modelli, soprattutto quelli più grandi, tendono a sopprimere gli stereotipi razzisti espliciti mentre permettono ai più nascosti di rafforzarsi.

I ricercatori hanno evidenziato una lacuna nei metodi attuali per risolvere questi pregiudizi. Le aziende come OpenAI, Meta e Google utilizzano l’addestramento dei feedback per purificare i modelli da opinioni odiose, tuttavia questo metodo si è dimostrato efficace solo contro gli stereotipi espliciti, mentre quelli occulti rimangono inosservati. L’espansione dei modelli ha aggravato questo problema.
La ricerca solleva preoccupazioni sull’uso attuale di modelli AI in contesti decisionali critici, come i casi di asilo negli Stati Uniti o le valutazioni di reati giovanili. Il rischio di discriminazione e giudizi errati basati su stereotipi linguistici è reale e richiede un’attenzione immediata da parte delle aziende e dei regolatori.

I modelli linguistici giganti non solo riflettono i pregiudizi razzisti, ma addirittura li amplificano, sottolineando la necessità di affrontare questa sfida con urgenza.

Leggi l’articolo completo: LLMs become more covertly racist with human intervention su technologyreview.com.

Foto di Igor Omilaev su Unsplash.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto