Cerca
Close this search box.

I LLM sono senza coscienza e non si giocano la pelle

uomo che rischia in bilico

L’articolo “The feasibility of artificial consciousness through the lens of neuroscience” di Jaan Aru, Matthew E. Larkum e James M. Shine esplora la possibilità che i grandi modelli linguistici (LLM) possano diventare coscienti. Gli autori sostengono che i LLM attuali, nonostante possano simulare alcuni aspetti della coscienza, non ne sono effettivamente dotati e che la coscienza potrebbe essere strettamente legata alla complessità biologica.

L’articolo confronta l’ambiente informativo (Umwelt) dei LLM con quello dei mammiferi. Il termine “Umwelt” è di origine tedesca e si riferisce all‘ambiente percettivo o esperienziale proprio di un organismo vivente. L‘Umwelt delle Intelligenze Artificiali è molto più limitato e si basa su informazioni digitali e algoritmi astratti anziché su esperienze sensoriali complesse come quelle umane.

L’articolo sottolinea le differenze topologiche tra i LLM e i cervelli dei mammiferi, evidenziando che le caratteristiche architettoniche dei LLM non coincidono con i dettagli neurobiologici legati alla coscienza nei mammiferi e, soprattutto, si suggerisce che la complessità biologica potrebbe essere il requisito essenziale per la coscienza.

Si sottolinea che la coscienza può comprendere diversi aspetti: uno riguarda il livello di consapevolezza di un individuo, mentre un altro aspetto coinvolge i contenuti della coscienza stessa, come le esperienze, i ricordi e i pensieri che formano il mondo interno di un individuo.

L’intelligenza artificiale può simulare comportamenti complessi e interagire con gli esseri umani in modi che possono apparire sofisticati, ma manca di una vera coscienza, non possiede un mondo interno di percezioni, ricordi, emozioni o pensieri come lo sperimentiamo noi umani. Si limita alla capacità di processare dati, apprendere da essi e compiere azioni in risposta.

Citando Hans Jonas, gli autori sottolineano che l’essere umano e altri esseri viventi hanno un coinvolgimento personale profondo nel mantenere la loro esistenza e che questo è fondamentale per la loro coscienza.

La tesi suggerita dall’articolo è che affinché ci sia coscienza ci deve essere un coinvolgimento diretto, ci deve essere una “pelle in gioco” (“Skin in the game”).

Riferimento

Jaan Aru, Matthew E. Larkum, James M. Shine, The feasibility of artificial consciousness through the lens of neuroscience, in “Trends in Neurosciences”, December 2023, Vol. 46, No. 12, pp. 1008-1017.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto