Fede e scienza, il monito laico contro la tecnocrazia
- Postato il 5 maggio 2025
- Notizie
- Di Quotidiano del Sud
- 1 Visualizzazioni

Il Quotidiano del Sud
Fede e scienza, il monito laico contro la tecnocrazia
Conflitto fede e scienza: pensare l’intelligenza artificiale anche come fattore di ridefinizione dell’umano; arriva il monito contro la tecnocrazia
Nei giorni successivi alla scomparsa di Papa Francesco, si è aperto un periodo di riflessione sul suo magistero, tanto sul piano strettamente religioso quanto su quello più ampiamente culturale. Tra i tanti temi affrontati dal Pontefice, in particolare, stanno emergendo come sorprendentemente attuali le sue considerazioni sull’intelligenza artificiale (IA) ed il suo rapporto con l’etica. Questo argomento, già di per sé particolarmente delicato, risulta interessante anche perché, a parlare di tecnologia, era stato il Pontefice.
Se il legame tra scienza e religione è, in effetti, da sempre stato oggetto di dibattito — a tratti aspro, a tratti fecondo — in realtà andrebbe comunque fatta una premessa fondamentale. Esistono, da un lato, i contenuti propri della fede, che possono entrare in conflitto o in dialogo con l’approccio scientifico a seconda della rigidità delle posizioni; dall’altro lato, vi sono invece i principi etici che, pur potendo rifarsi anche ad una radice religiosa, possono essere condivisi da visioni laiche, filosofiche o umanistiche. Ed è soprattutto in questo secondo ambito che Papa Francesco ha concentrato gran parte delle sue riflessioni sull’intelligenza artificiale, negli ultimi anni del suo pontificato.
Già nel suo intervento al G7 del 2024, il Papa aveva richiamato l’attenzione della politica internazionale sull’urgenza di sviluppare un'”algoretica”, ossia un’etica degli algoritmi capace di orientare l’evoluzione dell’IA verso la centralità della persona umana. In quell’occasione, aveva parlato dell’intelligenza artificiale come di uno “strumento affascinante e tremendo”, sottolineando i rischi di disumanizzazione, esclusione e perdita di controllo derivanti da un suo possibile utilizzo improprio e manchevole di saldi riferimenti morali.
Non si trattava di una posizione isolata, né tantomeno di temi relegabili alla mera sfera religiosa. Al contrario, da tempo, nell’ambito dell’IA, si è ampiamente affermata la consapevolezza della necessità di adottare un approccio cosiddetto human-centred rispetto alla tecnologia, non limitandosi a ricercare l’efficienza e la produttività, ma mettendo al centro del progresso tecnico i valori umani fondamentali.
Questa prospettiva è oggi condivisa da esperti di ambiti diversi — tecnologi, giuristi, eticisti — sempre più consapevoli del fatto che l’integrazione dell’IA a livello sociale non è una questione solo tecnologica, ma un fenomeno capillare e multilivello. Proprio per questo, affinché i suoi effetti possano essere realmente compresi e orientati al bene comune, si sta provando già da tempo ad affrontare il macroargomento dell’IA in modo multidisciplinare e indirizzato all’umano.
Da una parte, in ambito giuridico, si stanno definendo quadri normativi sempre più articolati, come dimostra il neonato l’AI Act dell’Unione Europea. Dall’altra, sul fronte della ricerca tecnica, si stanno affermando i principi della cosiddetta trustworthy AI — verso un’intelligenza artificiale “affidabile”.
Si sta facendo inoltre strada anche la consapevolezza che questa trasformazione culturale innescata dallo sviluppo delle tecnologie di IA richieda una solida base educativa, cosicché le istituzioni, le università e molte aziende stanno lavorando per sviluppare percorsi formativi che forniscano una comprensione completa e critica, non solo in termini di competenze tecniche, ma anche rispetto alle sue implicazioni sociali. Insomma, si può dire che oggi si stanno affrontando con crescente serietà i rischi, le responsabilità, i limiti e le potenzialità delle tecnologie emergenti.
Tuttavia, se è vero che questa prospettiva è oggi una realtà riconosciuta, è altrettanto vero che, relativamente all’intelligenza artificiale, si stanno aprendo anche interrogativi più profondi.
Accanto a questa dimensione, potremmo dire, regolativa, ne esiste un’altra, più speculativa, che chiama in causa l’effettivo senso creato dall’IA. Da un lato, è indubbio che le tecnologie di IA siano appunto tecnologie, quindi incapaci di una qualche intrinseca proprietà morale. In questo senso, l’uomo ha da sempre usato strumenti, e un modello di IA non è che l’ultimo di una lunga serie di “estensioni tecniche” e potenziamenti di sé.
Eppure, è altrettanto vero che non siamo di fronte a uno strumento come gli altri. Le tecnologie di IA, infatti, non sono solo mezzi da impugnare, ma presenze con cui interagire: un modello apprende, simula, produce linguaggio, suggerisce decisioni, genera contenuti. E nel fare tutto questo, ha un impatto sul suo utilizzatore, con conseguenze differenti rispetto a quelle degli altri strumenti. Siamo, potremmo dire, su una soglia in cui lo strumento si fa interlocutore. E questo fatto, per quanto privo di coscienza o intenzionalità, apre scenari inediti.
Il paradigma classico dell’umanocentrismo funzionale — secondo cui la macchina ha valore solo in quanto rivolta all’uomo — se è comunque alla base di una prospettiva human-centric che ha, come abbiamo visto, un risvolto positivo in termini di progettualità etica, oggi rischia, probabilmente, di essere insufficiente. L’intelligenza artificiale chiama in causa sistemi che si adattano ed influenzano la relazione con l’umano, cosicché l’interazione non è più solo tecnica, ma anche cognitiva, affettiva, culturale.
L’IA non è soggetto morale, ma è comunque una presenza generativa di senso, che co-costruisce esperienze e orienta comportamenti. Il pericolo, oggi, non risiede soltanto in un uso scorretto dell’intelligenza artificiale, ma, come ammoniva lo stesso Papa Francesco, nella sua progressiva normalizzazione — nel fatto, cioè, che essa venga integrata nella nostra quotidianità senza un’adeguata riflessione critica sul suo impatto. Impatto che riguarda anche il modo in cui vi interagiamo. Su questo punto, semmai, si apre una possibile differenza di sguardo, che può dipendere dalla sensibilità religiosa o da un approccio più laico.
La domanda è se questa trasformazione costituisca un pericolo perché entra in conflitto con valori umani consolidati, oppure se non debba essere invece letta come un cambiamento da comprendere e orientare, capace di aprire nuove possibilità esistenziali, cognitive e sociali. In entrambi i casi, resta la necessità di pensare l’intelligenza artificiale non solo come strumento, ma come fattore attivo di ridefinizione dell’umano.
Forse, oggi la domanda non dovrebbe più essere solo “come regolare gli strumenti di IA”, ma anche “chi stiamo diventando mentre li utilizziamo”. Magari, non è solo il progresso tecnico a stare avanzando, ma anche noi stiamo diventando altro. Ed è proprio in questo scenario, come ecosistema misto che ha del resto implicazioni di tipo anche religioso, che l’etica non può limitarsi a porre limiti, ma deve aiutare a immaginare, con discernimento, che cosa voglia dire restare umani. È in questa prospettiva che il richiamo del Papa a non cedere alla tecnocrazia e a non lasciare che “siano gli algoritmi a dominare la vita” può essere un monito anche laico, da rivolgere a tutti coloro che pensano il futuro come una responsabilità comune.
Il Quotidiano del Sud.
Fede e scienza, il monito laico contro la tecnocrazia