Cerca
Close this search box.

‘AI Safety’ vs ‘AI Ethics’

Da un lato padrini dell’AI e miliardari e multinazionali che devono rientrare degli investimenti fatti e che paradossalmente gridano che domani arriverà il lupo dopo averne creato loro uno artificiale, che fanno riferimento a definizioni di intelligenza discriminatorie in articoli non soggetti a peer review e hanno prospettive ideologiche eugenetiche. Dall’altra scienziate e scienziati (e […]

Scintille di quale intelligenza artificiale generale?

L’articolo di Microsoft Research “Sparks of Artificial General Intelligence: Early experiments with GPT-4” (Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, Yi Zhang) pubblicato senza peer review su arXiv ha suscitato molto scalpore ed ha […]

IntelligenzE molto naturali

Come ci ricordano Daron Acemoglu, Kate Crawford et al. cercare di imitare e superare l’intelligenza umana è sono una delle scelte possibili. Tale scelta è condizionata da visioni ideologiche dei magnati di Silicon Valley  e sta condizionando anche la ricerca pubblica. Si potrebbe puntare a creare intelligenze artificiali che massimizzano la cooperazione fra umani e macchine, oppure […]

Niente paura!

Come la pensano i tanti ricercatori che non sono d’accordo con i “padrini” dell’AI che ci allarmano prefigurando il rischio dell’estinzione della razza umana per colpa di una superhuman intelligence? Blaise Agüera y Arcas di Google Research con Blake Richards, Dhanya Sridhar, e Guillaume Lajoie sull’Economist, fanno notare due retropensieri riguardo alle affermazioni di Hinton, […]

Stochastic Parrots revisited

A due anni dalla sua pubblicazione l’articolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” di Emily M Bender, Timnit  Gebru, Angelina  McMillan-Major, Shmargaret  Shmitchell (FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency p 610–623) mantiene tutta la sua attualità, avendo precorso i tempi riguardo ai rischi e limiti […]

Uomo avvisato, mezzo salvato

Dopo Geoffrey Hinton, anche l’altro “padrino dell’AI”, Yoshua Bengio, direttore scientifico del Montreal Institute for Learning Algorithms (MILA), lancia l’allarme “rischi catastrofici causati dall’AI” in un intervento sull’Economist:  una “superhuman AI” potrebbe “violare i diritti umani, minare la democrazia o minacciare l’umanità intera”. Perchè non si rende conto, come anche Hinton e molti altri autorevoli scienziati, […]

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto