Cerca
Close this search box.

Stereotipi nei LLM: Il richiamo all’azione dell’UNESCO

Immagine di schermata di un pc portatile con ChatGPT di OpenAI aperto e scritta "Optimizing Language Models for Dialogue".

Lo studio dell’UNESCO sui Large Language Models (LLM) ha rivelato evidenze allarmanti di stereotipi di genere regressivi, omofobia e stereotipi razziali. Le donne sono state spesso associate a ruoli domestici, mentre gli uomini a ruoli di business e carriera. Questo pregiudizio è presente in modelli come GPT-3.5, GPT-2 e Llama 2.

Nonostante gli LLM open source come Llama 2 e GPT-2 siano più propensi al pregiudizio di genere, la loro trasparenza offre opportunità per mitigare questi bias attraverso la collaborazione globale. Tuttavia, esistono ancora disparità nella rappresentazione dei generi nei testi generati.
Gli LLM mostrano anche tendenze omofobiche e stereotipi razziali. Questi modelli riflettono pregiudizi culturali nella loro produzione di testi.

L’UNESCO raccomanda urgentemente l’implementazione di regolamenti etici per affrontare questi problemi. È necessario investire nella diversificazione del personale nelle aziende tecnologiche e promuovere la partecipazione delle donne nelle discipline STEM e ICT per garantire una rappresentazione equa e una maggiore tutela dei diritti umani nei sistemi di intelligenza artificiale.

Leggi l’articolo completo: Generative AI: Unesco study reveals alarmng evidence of regressive gender stereotypes su unesco.org.

Foto di Rolf van Root su Unsplash.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto