13 giugno 2025

Etica e Intelligenza Artificiale dopo il crollo di Babele

L’algoretica di Paolo Benanti come fondamento di un nuovo umanesimo digitale

Nel dibattito contemporaneo sull’intelligenza artificiale, spesso dominato da entusiasmi tecnicistici o paure apocalittiche, si alza una voce lucida e profetica: quella del teologo Paolo Benanti. Questo saggio, ispirato alla sua opera Il crollo di Babele, riflette sulla necessità urgente di un’etica degli algoritmi — l’algoretica — come fondamento per un nuovo umanesimo digitale. Attraverso un’analisi attuale e multidisciplinare, proponiamo una lettura critica e costruttiva del rapporto tra intelligenza artificiale, educazione, cittadinanza e dignità umana. Una visione pericolosamente attuale, ma anche ricca di speranza.

A cura di Giorgio Gasperoni

Nel suo saggio Il crollo di Babele (San Paolo, 2024), il teologo e bioeticista Paolo Benanti utilizza l’antico mito biblico della torre di Babele come chiave di lettura del nostro presente digitale. L’utopia iniziale di una rete globale capace di unire popoli e culture si è rovesciata nel suo contrario: una frammentazione dell’informazione, una crisi del linguaggio condiviso e una crescente disumanizzazione della comunicazione. Oggi, a fronte di un’evoluzione tecnologica rapidissima e pervasiva, soprattutto nel campo dell’intelligenza artificiale, emerge l’urgenza di una riflessione morale profonda: come custodire la centralità della persona umana in un mondo sempre più governato dagli algoritmi?

Il sogno infranto della rete

Negli anni Dieci del nuovo millennio, Internet sembrava la promessa di una nuova torre positiva: una

struttura senza gerarchie, partecipativa, capace di amplificare la voce dei popoli e favorire i processi democratici. Le Primavere Arabe furono l’esempio più emblematico di un’umanità digitale che si autodeterminava. Ma l’euforia si è spenta rapidamente. Il decennio successivo ha visto il trionfo di logiche algoritmiche fondate sull’economia dell’attenzione, la polarizzazione delle opinioni, la manipolazione informativa e la perdita progressiva di fiducia nelle fonti. La rete, anziché connettere, ha diviso.

Nel 2021, con l’assalto al Campidoglio degli Stati Uniti fomentato anche attraverso le piattaforme social, è emerso con chiarezza un nuovo ordine mondiale informativo: le tecnologie digitali possono diventare veicolo di caos, non di liberazione. Questo è il “crollo di Babele” di cui parla Benanti: un’infrastruttura tecnica che, non guidata da criteri etici, implode su se stessa.

Algoretica: una nuova bussola morale

In risposta a questa crisi, Benanti propone un concetto che è ormai al centro del dibattito etico contemporaneo: l’algoretica, ovvero l’etica degli algoritmi. Non si tratta di un’etica “della macchina”, ma dell’etica umana che deve guidare la progettazione, l’utilizzo e la regolamentazione dei sistemi intelligenti.

Il principio è chiaro: l’intelligenza artificiale deve restare uno strumento al servizio della dignità umana, e non un fine autonomo. L’algoretica è chiamata a garantire:

trasparenza, affinché le decisioni automatizzate siano comprensibili e verificabili;

responsabilità, perché ci sia sempre un essere umano identificabile dietro ogni scelta algoritmica;

equità, per impedire che i dati utilizzati perpetuino pregiudizi o ingiustizie sociali;

inclusione, così che l’innovazione non diventi privilegio di pochi;

sostenibilità, sia ambientale che culturale.

Questa etica non può essere semplicemente un accessorio normativo: deve diventare l’asse portante dello sviluppo tecnologico.

L’Europa e l’AI Act: una convergenza

In questa prospettiva si colloca l’AI Act approvato dall’Unione Europea, la prima legislazione al mondo che cerca di porre limiti chiari ai sistemi di intelligenza artificiale. Il regolamento distingue i livelli di rischio e impone requisiti etici e tecnici crescenti in base al potenziale impatto sui diritti fondamentali.

Le intuizioni di Benanti trovano qui una forma concreta: non si tratta solo di “governare” la tecnologia, ma di plasmare un ecosistema digitale che rispetti e promuova l’umano. Le istituzioni cominciano ad accogliere la sfida: si passa dalla fascinazione per l’innovazione alla maturità del discernimento.

Studenti e intelligenza artificiale: opportunità e rischi

Uno dei campi più sensibili è quello dell’educazione. L’intelligenza artificiale sta cambiando radicalmente il modo in cui gli studenti apprendono, scrivono, elaborano contenuti. ChatGPT, DeepL, strumenti di sintesi automatica e piattaforme adattive possono rappresentare una straordinaria risorsa, se usati come supporto allo studio e non come scorciatoia.

Tra i vantaggi, si evidenziano la personalizzazione dell’apprendimento, il supporto linguistico e l’accesso rapido a informazioni complesse.

Tra i rischi, però, emergono l’omologazione del pensiero, l’erosione della creatività, la dipendenza dai sistemi generativi, fino al vero e proprio plagio.

L’algoretica, in ambito scolastico e universitario, implica dunque una rieducazione alla responsabilità: l’IA deve essere integrata in un percorso formativo che sviluppi spirito critico, autonomia di giudizio e coscienza etica.

L’intelligenza artificiale interroga la spiritualità

C’è una dimensione ancora più profonda, che Benanti mette in luce da teologo: l’IA ci costringe a ripensare che cosa significa essere umani. Se una macchina è in grado di imitare le nostre parole, le nostre immagini, le nostre azioni, allora dobbiamo domandarci: cos’è che nessuna macchina potrà mai replicare?

La risposta non è tecnica, ma esistenziale: l’essere umano è relazione, coscienza, trascendenza. Non è fatto solo di calcoli e risposte, ma di domande, libertà, mistero. Per questo serve un nuovo umanesimo digitale: una visione dell’essere umano che non si lasci ridurre a somma di dati, ma che riaffermi il valore della sua singolarità.

Verso una cittadinanza digitale consapevole

Il compito che ci attende è culturale: educare le nuove generazioni a vivere da cittadini nel mondo digitale, e non da consumatori passivi o utenti manipolati. Questo significa:

coltivare la verità, in un tempo di fake news;

coltivare la responsabilità, in un tempo di delega agli algoritmi;

coltivare la solidarietà, in un tempo di disintermediazione sociale.

L’algoretica non è solo un’etica “tecnica”, ma una proposta educativa e politica: costruire una società in cui la tecnologia sia orientata al bene comune.

Conclusione: il futuro è ancora umano

Il “crollo di Babele” evocato da Benanti non è la fine, ma l’inizio di una ricostruzione possibile. Dalle macerie di una tecnologia senza anima può nascere un nuovo progetto di civiltà, fondato sull’etica, sulla consapevolezza, sulla centralità della persona.

In un’epoca in cui l’IA rischia di generare tutto, ciò che dobbiamo generare con urgenza è una nuova coscienza umana. Solo così l’intelligenza artificiale potrà diventare davvero intelligente: perché avrà imparato a servire ciò che rende umano l’essere umano.

Nessun commento:

Posta un commento