Cerca
Close this search box.

MGE, la chiave per un allineamento morale efficace nei modelli linguistici

PC portatile aperto su una pagina di programmazione.

Un nuovo studio finanziato da OpenAI propone un approccio innovativo all’allineamento morale per i modelli linguistici LLM. L’allineamento morale, cruciale nell’era dell’IA, sta diventando un problema il cui peso aumenta sempre di più nel tempo. 

Il processo introdotto da quest’approccio innovativo si chiama MGE, “Moral Graph Elicitation” (Elicitazione del Grafo Morale), i cui risultati, secondo gli autori, si sono dimostrati promettenti nel migliorare l’allineamento del modello con i valori umani. L’approccio è stato testato su un campione rappresentativo di 500 americani, la maggior parte dei partecipanti ha ritenuto il processo equo e si è sentita ben rappresentata.

Una delle critiche esposte nei confronti dell’approccio all’allineamento morale è che si concentri sulla risoluzione dei sintomi e non dei problemi.  

Leggi l’articolo completo: What are human values, and how do we align AI to them? [Breakdowns] su artificialintelligencemadesimple.substack.com.

Foto di AltumCode su Unsplash.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto