Città del Vaticano - Nel cuore della Santa Sede, tra gli uffici climatizzati del Dicastero per la Comunicazione, qualcosa si muove silenziosamente, senza badge né contratto. Non ha un volto, né una firma in calce, ma produce testi, traduzioni, contenuti multilingua. È l’intelligenza artificiale – e non solo come strumento di supporto, ma sempre più spesso come sostituto strutturale del lavoro giornalistico, redazionale, linguistico.

Da mesi circolano all’interno del Dicastero contenuti pubblicati che mostrano inequivocabili tracce di generazione automatica: sintassi artificiosa, costruzioni stereotipate, errori di traduzione da parte di modelli linguistici e una perfetta, inquietante neutralità. Il tutto mentre i dipendenti umani passano il loro tempo a “spippolare” su Twitter, Instagram e Facebook a osservare cosa scrive di loro Silere non possum. Sembra che questa sia la soluzione trovata da qualcuno agli strafalcioni fatti da Andrea Tornielli, Salvatore Cernuzio, e Company. Prima si trattava di copia e incolla, ora neanche quello.

Il punto non è l’uso dell’AI. Ma l’abuso.

Che l’AI possa essere un valido alleato del lavoro giornalistico o redazionale non è in discussione. A dirlo non è il buon senso soltanto, ma anche le linee guida etiche pubblicate da organismi e agenzie internazionali. L’Associated Press (AP), ad esempio, ha stabilito che l’AI può essere usata solo per attività di supporto (come titoli, sintesi o traduzioni parziali), ma non deve mai produrre contenuti pubblicabili senza supervisione umana competente.

L’USA Today Network, nel suo codice aggiornato nel 2023, vieta l’impiego dell’AI per generare immagini e impone un controllo diretto da parte di un editor senior per ogni contenuto che ne preveda l’utilizzo. E ancora, la Radio Television Digital News Association (RTDNA) ha chiarito che ogni uso dell’AI nel giornalismo richiede trasparenza, accuratezza, contesto e supervisione umana.

In Austria, l’agenzia nazionale APA ha introdotto linee guida specifiche (“AI Guidelines”) che vincolano le redazioni a un principio di non sostituzione, chiedendo che l’AI rimanga uno strumento tra altri, mai un redattore invisibile. Eppure, in Vaticano, si procede nella direzione opposta: si rimpiazzano le competenze con l’algoritmo, si demandano contenuti interi alla macchina – e poi ci si affida alla provvidenza (digitale).

Il cortocircuito della competenza

Dietro questa prassi non c’è solo una deriva organizzativa, ma anche una pericolosa illusione epistemica: sperare che l’AI supplisca alle lacune di chi non ha le competenze, invece di valorizzare chi le ha. Non è raro, infatti, che dirigenti privi di conoscenza linguistica inseriscano testi nelle piattaforme AI per tradurli in inglese, francese o portoghese, confidando nel risultato automatico, senza sapere riconoscere un errore grave, l’utilizzo di titoli inesatti o una struttura del contenuto sempre identica. L’AI viene così usata non per supportare la professionalità, ma per nasconderne l’assenza.

Il nodo della sicurezza: dati sensibili nelle mani sbagliate

Il problema più grave, tuttavia, è quello della sicurezza. Nei processi redazionali vaticani, i testi prodotti (anche riservati) vengono spesso inseriti in strumenti di AI commerciale, che elaborano e memorizzano i dati per il loro addestramento. In altre parole, documenti sensibili passano attraverso sistemi esterni, che raccolgono, archiviano e potenzialmente riutilizzano quelle informazioni. È un rischio che le linee guida internazionali denunciano con forza. L’APA austriaca, ad esempio, richiede che l’AI venga utilizzata solo su piattaforme interne e protette, proprio per evitare fughe di dati, violazioni della privacy e appropriazioni indebite di contenuti. Il Poynter Institute, nel suo toolkit etico 2025, insiste sul principio della “controllabilità interna e tracciabilità dell’uso”. Tutti principi sistematicamente ignorati a Piazza Pia.

Serve un passo indietro. Ma umano.

Mentre Leone XIV richiama con chiarezza a un uso etico e giusto dell’intelligenza artificiale — «Pur essendo un eccezionale prodotto del genio umano, l’intelligenza artificiale è anzitutto uno strumento. Gli strumenti rimandano all’intelligenza umana che li ha creati e assumono valore morale dalle intenzioni di chi li usa» — nel Dicastero per la Comunicazione si procede in tutt’altra direzione. Il Pontefice mette in guardia contro l’uso distorto dell’AI, che, se da un lato può servire il bene comune e favorire l’equità, dall’altro può essere manipolata per interessi egoistici, per alimentare disuguaglianze, tensioni e persino conflitti. Eppure, proprio lì dove si dovrebbe testimoniare l’integrità della comunicazione ecclesiale, l’intelligenza artificiale viene spesso impiegata senza discernimento, con logiche funzionali più alla rapidità e al consenso che alla verità.

Non è un atto di fobia tecnologica chiedere una riflessione seria sull’uso dell’intelligenza artificiale nel Dicastero per la Comunicazione. È un appello alla responsabilità. L’AI può aiutare, ma non sostituire. Può semplificare, ma non discernere. Può tradurre, ma non interpretare. E, soprattutto, non può salvaguardare la verità, se non è l’uomo a guidarla. Da non trascurare il fatto che la Santa Sede impiega centinaia di dipendenti retribuiti, i quali dovrebbero svolgere il proprio lavoro con competenza e responsabilità, non delegarlo sistematicamente a strumenti come ChatGPT. In sostanza, ci vuole competenza anche nell’usare l’AI, non si può pensare di far finta di nulla

d.R.A.
Silere non possum