Lo studio dell’UNESCO sui Large Language Models (LLM) ha rivelato evidenze allarmanti di stereotipi di genere regressivi, omofobia e stereotipi razziali. Le donne sono state spesso associate a ruoli domestici, mentre gli uomini a ruoli di business e carriera. Questo pregiudizio è presente in modelli come GPT-3.5, GPT-2 e Llama 2.
Nonostante gli LLM open source come Llama 2 e GPT-2 siano più propensi al pregiudizio di genere, la loro trasparenza offre opportunità per mitigare questi bias attraverso la collaborazione globale. Tuttavia, esistono ancora disparità nella rappresentazione dei generi nei testi generati.
Gli LLM mostrano anche tendenze omofobiche e stereotipi razziali. Questi modelli riflettono pregiudizi culturali nella loro produzione di testi.
L’UNESCO raccomanda urgentemente l’implementazione di regolamenti etici per affrontare questi problemi. È necessario investire nella diversificazione del personale nelle aziende tecnologiche e promuovere la partecipazione delle donne nelle discipline STEM e ICT per garantire una rappresentazione equa e una maggiore tutela dei diritti umani nei sistemi di intelligenza artificiale.
Leggi l’articolo completo: Generative AI: Unesco study reveals alarmng evidence of regressive gender stereotypes su unesco.org.
Foto di Rolf van Root su Unsplash.