Nel dinamico campo dell’Intelligenza Artificiale, i modelli di linguaggio (LM) hanno ottenuto un ruolo da protagonisti, sollevando interrogativi che travalicano l’ambito tecnologico per approdare alla filosofia del linguaggio. Un recente articolo di Matthew Mandelkern e Tal Linzen, affiliati alla New York University, ha acceso il dibattito: le parole generate da questi LMs, macchine capaci di costruire sequenze di parole statisticamente coerenti, hanno davvero un riferimento al mondo reale o sono semplicemente un eco senza significato?
La questione è di grande rilevanza. Se le parole dei modelli linguistici non si riferiscono a nulla nel mondo esterno, allora i LMs potrebbero essere ridotti a non più di “pappagalli stocastici”, terminologia coniata da Bender et al. nel 2021 per descrivere sistemi che riproducono il linguaggio senza comprenderne il significato intrinseco. È un’ombra che si allunga sul potenziale di queste tecnologie di comprendere e interagire con il mondo in maniera genuinamente significativa.
Mandelkern e Linzen si avvalgono della tradizione esternalista in filosofia del linguaggio per affrontare questo scetticismo. Secondo questa scuola di pensiero, la referenzialità delle parole non è vincolata dalla necessità di avere credenze, esperienze o capacità specifiche riguardo a ciò che esse denotano. Il problema di fondo, quindi, è se i LMs, privi di una vera esperienza del mondo, possono generare stringhe di testo che siano realmente significative.
Gli autori stimolano una discussione cruciale che va ben oltre la semplice curiosità accademica: ha implicazioni dirette per il modo in cui progettiamo, utilizziamo e interpretiamo l’intelligenza artificiale nel linguaggio. Questo potrebbe significare che i LMs sono già sulla soglia per produrre non solo testi coerenti, ma anche testi con un significato genuinamente ancorato al mondo esterno. Siamo, forse, a un passo dall’affidare ai nostri modelli linguistici non solo la generazione di testo, ma anche la capacità di parlare di cose reali con un significato autentico?
Leggi l’articolo completo Do Language Models’ Words Refer? su ArXiv: