Cerca
Close this search box.

Il lungotermismo: la filosofia della Silicon Valley

Il lungotermismo è una filosofia che recentemente si è guadagnata la ribalta tra le élite tecnologiche della Silicon Valley. Il saggio “L’utopia dei miliardari: analisi e critica del lungotermismo” di Irene Doda offre un’indagine approfondita sulle origini, l’evoluzione e le implicazioni etiche e sociali di questa filosofia. Parallelamente, Andrea Daniele Signorelli ha pubblicato due articoli su Wired e Il Tascabile dove esplora come il lungotermismo, nonostante le sue premesse, sfoci in conclusioni etiche ambigue e talvolta problematiche. Signorelli mette in luce il contrasto tra le visioni idealistiche di lungo termine del lungotermismo e le sfide immediate e tangibili che il mondo attualmente affronta.

Il lungotermismo è una filosofia influente nella Silicon Valley, ha radici profonde nell'”effective altruism“, o altruismo efficace. Quest’ultimo è una corrente di pensiero emersa all’inizio del XXI secolo, principalmente nel dipartimento di Filosofia dell’Università di Oxford. Fondamentalmente, l’altruismo efficace è un approccio alla beneficenza e alla filantropia che sottolinea l’uso della ragione e dell’evidenza empirica per determinare le azioni più efficaci per aiutare gli altri.

L’altruismo efficace si basa sull’idea che tutte le vite umane abbiano lo stesso valore intrinseco. Questo principio porta i suoi sostenitori a considerare non solo le persone a loro immediatamente vicine, ma anche quelle in aree remote del mondo. Il fondatore della corrente, Will MacAskill, sostiene che l’obiettivo dovrebbe essere quello di massimizzare l’impatto positivo delle nostre azioni, indipendentemente da dove vivano le persone che beneficiano di queste azioni.

La differenza tra l’altruismo efficace e il lungotermismo diventa evidente quando consideriamo il focus di entrambe le filosofie sul futuro dell’umanità. Mentre l’altruismo efficace si concentra sulla massimizzazione del beneficio immediato per il maggior numero possibile di persone, il lungotermismo estende questa logica alle generazioni future. Questo significa che le decisioni prese oggi non dovrebbero essere valutate solo sulla base del loro impatto immediato, ma anche in base a come influenzano il benessere delle generazioni future.

Signorelli, nelle sue analisi, evidenzia come il lungotermismo, adottato da figure di spicco come Elon Musk e Sam Altman, finisca per trascurare o minimizzare questioni urgenti come la crisi climatica, le disuguaglianze sociali e la povertà. Questa filosofia, per quanto guidata da un’ambizione di beneficiare l’umanità nel lungo termine, può paradossalmente portare a trascurare o sottovalutare le sofferenze e le necessità immediate, dando priorità a un futuro potenzialmente irraggiungibile.

L’aspetto più controverso del lungotermismo, come esposto da Doda e Signorelli, è il suo elitismo. Poiché si concentra su progetti ambiziosi come la colonizzazione dello spazio o lo sviluppo di intelligenza artificiale avanzata, tende a favorire una ristretta élite che ha le risorse e le capacità per investire in queste iniziative a lungo termine. Questo crea una disparità dove il benessere e le prospettive future delle élite tecnologiche e finanziarie vengono valorizzati più delle esigenze immediate della maggior parte della popolazione mondiale.

In questo contesto, il lungotermismo assume quasi le caratteristiche di una religione o di un culto, con una fede quasi mistica nel progresso tecnologico e nella capacità dell’umanità di superare i limiti terrestri e biologici. Tuttavia, come sottolineato da Doda, questa visione rischia di distorcere la realtà e di ignorare il valore intrinseco dell’esistenza umana e delle sfide attuali.

Un aspetto fondamentale e spesso criticato del lungotermismo è il suo marcato antropocentrismo. Questa filosofia, pur mirando a garantire un futuro a lungo termine per l’umanità, tende a concentrarsi esclusivamente sugli interessi e sul benessere dell’essere umano, trascurando altre forme di vita e l’ecosistema nel suo complesso. Il lungotermismo, come analizzato da Doda e Signorelli, assume che il futuro dell’umanità sia l’obiettivo primario, senza considerare adeguatamente il ruolo e l’importanza della biodiversità e dell’interconnessione tra tutte le forme di vita sulla Terra.

Questa visione antropocentrica porta a una serie di implicazioni problematiche. Per esempio, progetti come la colonizzazione dello spazio, spesso associati al lungotermismo, possono essere visti come tentativi di estendere il dominio umano oltre i confini terrestri, senza un’adeguata considerazione per l’ambiente naturale e le altre specie con cui condividiamo il pianeta. Inoltre, l’enfasi sull’avanzamento tecnologico e sull’esplorazione spaziale, pur essendo ambiziosa e tecnicamente affascinante, rischia di distogliere l’attenzione dai problemi ambientali urgenti, come il cambiamento climatico e la perdita di biodiversità.

In sintesi, il lungotermismo, con la sua focalizzazione sull’essere umano e sulle sue prospettive future, rischia di perpetuare un modello di pensiero che ha già contribuito a molte delle crisi ecologiche che oggi affrontiamo. Questo approccio unilaterale potrebbe non solo aggravare i problemi ambientali esistenti, ma anche impedire lo sviluppo di soluzioni più equilibrate e sostenibili, che tengano conto delle esigenze di tutti gli esseri viventi e dell’ambiente che condividiamo.

Riferimenti

Doda, Irene. “L’utopia dei miliardari: analisi e critica del lungotermismo.” Edizioni Tlon 2024.

Signorelli, Andrea Daniele. “Il nuovo credo della Silicon Valley è una religione da incubo.” Wired, 13 febbraio 2024.

Signorelli, Andrea Daniele. “Cos’è il lungotermismo, la nuova fanatica utopia della Silicon Valley.” Il Tascabile, 24 marzo 2023.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto