Cerca
Close this search box.

Il Prometeo rincatenato. La responsabilità condivisa nell’era dell’IA

Catene

Il nostro rapporto con l’Intelligenza Artificiale è una questione di fiducia, questo è sempre più evidente. È del 19 febbraio 2024 l’articolo su Forbes The Promising Movement Toward Creating AI Guardrails, che evidenza come tale atteggiamento sia riassumibile nel motto “In AI We Do Not Trust”. Onde evitare fraintendimenti linguistico-semantici: non avere fiducia nell’IA significa non avere fiducia in chi la produce. I sistemi di AI sono sottoposti a interessi diversi: chi finanzia, chi programma e chi usa. Così, i principi etici vengono modulati a seconda della categoria in cui si rientra. È certo, però, che tutti e tre si trovano sottoposti a un paradigma etico trasversale, quello della responsabilità.

Nel 1979, in Il principio responsabilità, Hans Jonas utilizzava la metafora del Prometeo “scatenato” per inquadrare l’indiscriminato sviluppo della tecnica. Una metafora con un precedente in Günther Anders che, per descrivere il senso di inferiorità dell’umano rispetto ai suoi prodotti, introduceva il sentimento di “vergogna” prometeica. Riflessioni nate nella fase post Hiroshima e Nagasaki e che servono come riferimento alla titanica potenza della tecnica. Un parallelismo, quello tra bomba atomica e AI, oggi ricorrente per inquadrare la portata etica dello sviluppo dell’Intelligenza Artificiale. Il principio responsabilità può tornare utile: (a) considerando macchine che presentano quattro caratteristiche fondamentali sganciandosi dalla “questione della tecnica” tradizionale: adattività, autonomia, pervasività, invisibilità; (b) in quanto strumento etico trasversale di responsabilità condivisa che rinvia al valore della sostenibilità. Il fine è quello di orientare l’utilizzo preservando il benessere ambientale, sociale ed economico in una visione circolare.

Così, la metafora di Prometeo e quella della circolarità si incontrano nel nuovo modello della responsabilità per lo sviluppo sostenibile dei modelli di AI, inquadrandone l’uso in un’analisi SWOT. È infatti irrimediabile considerare il valore dell’AI in una società informazionale, in cui aumenta la necessità di sistemi potenti per lavorare, predire, studiare, prevenire.

Tuttavia, di estrema rilevanza sono i rischi. Ultimamente l’attenzione etica converge verso i sistemi di IA Generativa, rispetto alla produzione di testi e immagini che mettono l’utente nella condizione di dover sospendere la fiducia. Recente è il software SORA di OpenAI (https://www.instagram.com/p/C3flJHVgirJ/?igsh=MXI3YW90OTIza25raQ), in grado di produrre video estremamente realistici partendo da informazioni testuali. L’interfaccia utente-sistema di AI generativa sta compromettendo il valore stesso della verità, creando una notevole bolla epistemica che vede tutti partecipi del test di Turing.

Quello che l’etica della responsabilità sottolinea è che un’epistemologia del rischio, anche calcolata in tempi lunghi, può arginare questi pericoli. La responsabilità come previsione possibile di eventuali danni può essere uno strumento in cui il futuro influenza le scelte del presente. È così possibile ipotizzare un approccio responsibility-based, per orientare produzione, possesso e utilizzo dei sistemi di AI e oltre il modello risk-based proposto nello AI Act europeo, e che si ritrova anche in una proposta del Center for AI Safety (https://www.safe.ai/ai-risk).

Un approccio etico basato sulla responsabilità è più strutturale e immediato rispetto agli strumenti di cui dispone la sfera del diritto. L’evoluzione dei sistemi di AI procede a una velocità indomabile perché il legislatore possa agire con immediatezza, anche considerando gli interessi delle aziende che si reggono sulla produzione di tali sistemi. Per questo, la responsabilità non può essere solo riferita ai processi top-down, siano esse linee guida o strumenti legislativi forti e proibitivi. Un’idea sostenibile di responsabilità è, per l’appunto, circolare in quanto non prevede solo interventi delle istituzioni politiche, ma anche interventi bottom-up. Fra questi, un ruolo non indifferente lo svolgono le istituzioni educative. Educare alla responsabilità nell’era dell’AI significa adottare strategie utili a costruire i futuri cittadini e lavoratori che co-abiteranno e collaboreranno con l’AI (Human Computer Interaction). Sollecitare un approccio critico all’AI è un imperativo della responsabilità, ponendosi nella prospettiva futura, delle prossime generazioni ma anche di quelle presenti. Chi oggi frequenta una scuola è in potenza un matematico, un ingegnere che programmerà e allenerà un algoritmo utilizzando specifici dataset. Se manca la sensibilità al contesto (frame analysis) e se si è accecati dal bias di automazione viene meno la possibilità di costruire sistemi di AI inclusivi e quindi sostenibili.

In questa struttura circolare della responsabilità, si aggiungono anche le aziende e relativa Governance etica dell’AI, nonché il singolo individuo nella responsabilità di cui è investito per effetto del diritto-dovere all’informazione. Un esempio di approccio circolare valido all’ etica della responsabilità è pensabile in riferimento alle istituzioni politiche che decidono di investire sulla formazione etica dell’AI, accostando alle competenze tecniche (es. pensiero computazionale), competenze umanistiche (es. valore dell’incertezza, pensiero critico o laterale), nonché finanziando le aziende per promuovere un uso etico dell’AI (es. sviluppo di team multidisciplinari).

L’AI sta stimolando la riflessione etica. La velocissima diffusione e implementazione dei sistemi di Intelligenza Artificiale permette infatti di ridefinire la temporalità della responsabilità. Non più e solo nell’ottica della linearità previsionale tipica della responsabilità prolettica (il presente per il futuro), ma anche della circolarità sostenibile della responsabilità attuale (il presente per il presente). Il pericolo di un’assenza del paradigma della responsabilità induce a immaginare una nuova condizione di Prometeo come “rincatenato”, prigioniero della stessa tecnica. Una nuova metafora prometeica che condensa il senso della dipendenza dai sistemi di IA in riferimento all’esonero anche da attività complesse, alla re-ontologizzazione degli ambienti e sempre più “a misura di IA” che rischiano di compromettere l’autonomia del soggetto.

Riferimenti

Anders G., L’uomo è antiquato, 2 voll., Bollati Boringhieri, Torino 2007

Arendt H. (1965-66) Some questions of moral philosophy, tr. it. Alcune questioni di filosofia morale, in (2003) Responsability and Judgment a cura di J., Kohn, tr. it. Responsabilità e giudizio, a cura di Davide Tarizzo, Einaudi, Torino 2010 (2a ed.)

Floridi L., La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina, Milano 2017.

Jonas H., Il principio responsabilità, Einaudi, Torino 2009.

Luhmann N., Fiducia, Il Mulino, Bologna 2002.

Immagine: Foto di Aida L su Unsplash

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto