Libero
DIGITAL LIFE

Ora l'AI parla anche di religione. Ma quali sono i rischi?

I chatbot cattolici promettono risposte rapide e affidabili sulla fede, ma generano rischi spirituali e formativi. Ecco perché non possono sostituire il discernimento umano

Pubblicato:

Ora l'AI parla anche di religione. Ma quali sono i rischi? Shutterstock

In sintesi

  • I modelli AI cattolici offrono risposte fluide e immediate, ma si basano su sistemi soggetti a errori e privi di vera comprensione morale.
  • Usarli come guida spirituale riduce la capacità di discernere e sostituisce l’incontro umano con una scorciatoia che indebolisce la formazione interiore.

L’intelligenza artificiale si sta insinuando in moltissimi aspetti della vita quotidiana, con risultati più o meno discutibili: la fede cattolica non fa eccezione. Anche l’ambito spirituale sta infatti sperimentando strumenti “intelligenti” pensati per rispondere alle domande sulla fede, sull’etica e sulla morale cristiana.

Un recente articolo pubblicato da The Public Discourse ha approfondito due casi specifici: Magisterium AI e Truthly AI, modelli linguistici che promettono di fornire chiarimenti dottrinali, accompagnamento spirituale e risposte a dilemmi morali basandosi su testi canonici e insegnamenti della Chiesa. Ma funzionano davvero?

Come funzionano i modelli AI cattolici e a cosa servono

I modelli AI cattolici operano come qualsiasi altro modello linguistico di grandi dimensioni: generano risposte sulla base della probabilità statistica delle parole, non su una reale comprensione teologica o spirituale.

Magisterium AI e Truthly AI affermano di essere addestrati su testi ufficiali della Chiesa, come il Catechismo o documenti del Magistero, e di offrire spiegazioni su dottrine complesse o dilemmi morali. Il loro obiettivo dichiarato è facilitare l’accesso ai contenuti cattolici, aiutare a orientarsi tra questioni complesse e rendere più immediata la consultazione di materiali difficili.

Anche se attingono a fonti autorevoli, però, questi modelli restano basati su architetture GPT, cioè sistemi generalisti inizialmente addestrati su grandi quantità di testo eterogeneo.

Non esiste infatti un corpus cattolico abbastanza vasto da generare un modello completo e autonomo. È per questo che, pur selezionando le fonti, rimangono sistemi probabilistici capaci di produrre errori, omissioni e interpretazioni fuorvianti, pur apparendo fluidi e sicuri di sé.

Perché è un problema parlare con l’AI di questioni spirituali

Il problema è che gli LLM soffrono di allucinazioni: inventano informazioni, generano citazioni inesatte o attribuiscono significati che non riflettono realmente l’insegnamento della Chiesa.

Le risposte, insomma, benché formulate con tono autorevole, possono essere incomplete o semplicemente sbagliate. Il che è particolarmente problematico quando il tema è spirituale o morale.

Esiste inoltre un fenomeno psicologico noto come bias di automazione: tendiamo a fidarci delle soluzioni rapide, coerenti e ben formulate, anche quando non sono corrette. Nei momenti di stress o in presenza di dilemmi urgenti, è più facile tirar fuori il telefono e chiedere consiglio a un chatbot piuttosto che rivolgersi a un prete o a una figura analoga, pregare o ritagliarsi tempo per il discernimento.

Questa scorciatoia, sottolinea l’articolo su The Public Discourse, trasferisce di fatto parte dell’autorità spirituale da un umano a una macchina, che per sua natura non può né credere né offrire vera sapienza pastorale.

Quali sono i rischi di parlare con una AI cattolica

Secondo l’analisi dell’articolo, i rischi principali sono due. Il primo riguarda la mancanza totale di esperienza incarnata. Un modello AI non può soffrire, amare, temere, crescere, cambiare, né portare il peso delle responsabilità reali. Non sa cosa significhi proteggere dei figli, affrontare una perdita, compiere scelte morali difficili o rischiare la vita per la verità.

Il discernimento morale autentico richiede invece di pesare i beni in gioco alla luce della propria storia, dei propri legami e del proprio vissuto. Un chatbot appiattisce tutto in un calcolo statistico in cui ogni fonte vale quanto l’altra, senza valori o intenzioni personali. Per questo non può guidare una persona come potrebbe fare invece un padre spirituale.

Il secondo rischio è più sottile ma non meno grave: l’abitudine alla scorciatoia. Se ci si abitua a chiedere alla macchina cosa fare, si riduce la capacità personale di discernere, riflettere, pregare e decidere. Tutte azioni che richiedono tempo e intenzione.

La prudenza, ricorda l’articolo nella conclusione, è una virtù che si acquisisce con l’esperienza e si esercita confrontandosi direttamente con la complessità delle proprie scelte. Delegare costantemente il giudizio morale a un algoritmo impedisce di formare la coscienza: è un impoverimento spirituale mascherato da efficienza.