Cerca
Close this search box.

Artificiali, ma Morali

lampione

Distinzione tra Umani e IA

L’interazione quotidiana con l’intelligenza artificiale (IA), come ChatGPT, ci porta spesso, anche inconsciamente, a cercare una forma di comprensione umana, benché l’IA offra un accesso vasto e dettagliato a dati e informazioni, piuttosto che una connessione empatica. Gli esseri umani tendono a personificare le IA, attribuendo loro qualità umane, una tendenza che può portare ad aspettative errate. Ad esempio, un’IA può simulare la comprensione di sentimenti o situazioni, ma in realtà elabora dati e risponde seguendo algoritmi complessi, senza empatia o intuizione. La forza dell’IA risiede nella sua capacità di fornire informazioni accurate e pertinenti. In contesti come il supporto clienti, l’apprendimento o la risoluzione di problemi, l’IA offre un contributo significativo basato sulla conoscenza e sull’analisi dei dati, piuttosto che sulla comprensione umana. Questa distinzione è cruciale per utilizzare l’IA efficacemente, sfruttando le sue capacità senza fraintendimenti. La chiarezza nella comunicazione è fondamentale, specialmente quando gli utenti potrebbero non essere consapevoli della natura artificiale del loro interlocutore. Questa consapevolezza è essenziale per stabilire un rapporto equilibrato e responsabile con l’IA.

Foto di Alex Kotliarskyi su Unsplash

Il ruolo etico degli agenti IA

Sebbene l’IA non possieda una comprensione emotiva o interiore, è comunque soggetta a considerazioni etiche che influenzano il suo operato e le interazioni con gli esseri umani. I sistemi di IA, con un certo grado di autonomia e capacità decisionale, non sono semplici strumenti passivi, ma possono influenzare direttamente il benessere umano e le dinamiche sociali.

Markus Krienke mette in luce una distinzione netta tra esseri umani e IA: mentre gli umani sono persone dotate di consapevolezza, libero arbitrio e capacità di fare scelte morali complesse, le IA sono considerate agenti che processano informazioni e rispondono autonomamente, ma senza la sinderesi, ovvero la capacità intuitiva di discernere principi morali universali, fondamentale nella moralità. Pertanto, benché le IA possano apparire eticamente responsabili, mancano di vera responsabilità e intuizione etica, rendendo le loro “decisioni morali” una mera simulazione di comportamenti umani.

Gianfranco Basti sottolinea l’importanza di distinguere tra “persone” e “individui” nel contesto dell’etica dell’IA. “Individuo” può riferirsi a qualsiasi entità singola, inclusi gli agenti IA, mentre “persona”, secondo Basti, si riferisce a individui consapevoli che partecipano in relazioni comunicative all’interno di una comunità socioculturale. Questa consapevolezza include non solo la cognizione ma anche la capacità di percepire, avere esperienze soggettive e partecipare in scambi comunicativi significativi. Le persone, così definite, sono capaci di comprendere e valutare le implicazioni morali delle loro azioni e di prendere decisioni basate su principi etici.

Foto di Gerard Siderius su Unsplash

Gli agenti IA, sebbene possano eseguire compiti complessi e sembrare prendere decisioni, mancano di consapevolezza e intuizione morale. Non possono vivere esperienze soggettive, non partecipano in relazioni comunicative nel senso umano e non possiedono una comprensione etica. Di conseguenza, mentre gli agenti IA possono essere programmati per aderire a regole etiche e comportarsi in maniere che imitano la responsabilità morale, non possono essere considerati “persone” nel pieno senso del termine.

Tuttavia, Basti riconosce che i sistemi IA, in particolare quelli autonomi dotati di apprendimento automatico, possono essere considerati “agenti morali artificiali” nel senso che le loro azioni devono essere contestualizzate entro un quadro etico e legale. Ciò implica che, pur non avendo consapevolezza o vera comprensione etica, devono operare secondo vincoli etici e legali.

Basti sottolinea che per attribuire un ruolo morale all’IA è fondamentale che i suoi algoritmi di apprendimento automatico siano programmati in modo trasparente con vincoli etici e legali. In pratica, le decisioni dell’IA dovrebbero essere coerenti con i principi etici accettati dalla società e tecnicamente accurate. Questa programmazione responsabile assicura che le IA agiscano non solo efficacemente, ma anche in modo eticamente corretto. Inoltre, un’IA moralmente responsabile dovrebbe essere capace di spiegare e giustificare le proprie decisioni in termini comprensibili, per soddisfare le esigenze di responsabilità e rendicontabilità, un aspetto di trasparenza particolarmente rilevante in situazioni dove le decisioni dell’IA hanno impatti significativi sulla vita umana o sull’ambiente sociale.

Nonostante le intelligenze artificiali non possano discernere intrinsecamente il bene dal male, operano in autonomia e devono conformarsi ai principi etici scelti dalla comunità umana. In questo senso, possono essere considerate come soggetti o individui all’interno di un quadro di responsabilità etica condivisa.

La responsabilità distribuita

Nell’approccio di Basti, la “responsabilità distribuita” indica che, nei sistemi di IA, la responsabilità morale delle decisioni e azioni deriva dalle interazioni tra diversi attori, inclusi progettisti, sviluppatori e utenti. È necessario un dialogo continuo tra sviluppatori di IA, utilizzatori ed esperti di etica, per garantire che l’evoluzione delle tecnologie IA sia guidata sia dall’innovazione tecnologica sia da principi morali solidi. In conclusione, il concetto di agente morale artificiale, come elaborato da Basti, ci invita a riflettere sulle nostre aspettative e interazioni con l’IA, promuovendo un uso responsabile e eticamente consapevole. Le IA possono essere considerate agenti morali nel senso che operano all’interno di un framework etico e legale definito, ma la loro “responsabilità morale” è più una questione di adesione a regole e direttive predefinite che di capacità intrinseca di discernimento morale, che rimane una prerogativa umana.

Bibliografia:

  1. Basti G., La sfida etica dell’intelligenza artificiale e il ruolo della filosofia, “Aquinas” Anno LXV 2022/II, pp. 299-322.
  2. Basti G., Vitiello G., Deep-learning opacity and the ethical accountability of AI systems, In R. Giovagnoli, R. Lowe (Eds.), “The Logic of Social Practices, Vol. II”. Springer, Berlin-New York, 2024.
  3. Ivarsson J., Lindwall O., Suspicious Minds: the Problem of Trust and Conversational Agents, “Comput Supported Coop Work” 32, pages 545–571, 2023.
  4. Krienke M., I robot distinguono tra bene e male? Aspetti etici dell’intelligenza artificiale, “Aggiornamenti Sociali”, aprile 2020, pp. 315-321.
  5. Marchegiani B., Undisclosed Conversational AIs: A Threat to Users’ Autonomy, National Oxford Uehiro Prize in Practical Ethics, 2024. Disponibile su: “Practical Ethics Blog”.

Immagine: Foto di Gokul Chandran su Unsplash

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto