Bruxelles - L’Europa si trova davanti a un bivio che mette in gioco molto più della sola tecnologia. Da un lato c’è l’urgenza, sacrosanta, di proteggere i più piccoli dagli abusi e dalla pedopornografia online; dall’altro c’è la tentazione di imboccare una strada che rischia di trasformare la tutela in sorveglianza, la protezione in controllo. È il cuore del dibattito che da quasi tre anni attraversa le istituzioni europee e che, nelle prossime settimane, potrebbe arrivare a un punto di svolta.
Il progetto in questione si chiama CSAR (Regulation to Prevent and Combat Child Sexual Abuse), ma ormai è conosciuto soprattutto con l’etichetta che gli hanno cucito addosso i suoi oppositori: “Chat Control”. L’idea fu lanciata nella primavera del 2022 dall’allora commissaria europea agli Affari interni, Ylva Johansson, e da allora ha alimentato un confronto acceso nel Parlamento e nel Consiglio dell’Unione, senza però approdare a un risultato definitivo. Dopo vari rinvii, i governi dei Paesi membri dovranno ora chiarire se intendono o meno appoggiare la proposta.
La logica alla base del regolamento è radicale: qualsiasi conversazione privata in digitale – messaggi, immagini, video, audio – dovrebbe essere sottoposta a un esame preventivo attraverso algoritmi installati direttamente sui dispositivi degli utenti. Questi sistemi confronterebbero i contenuti con archivi delle forze dell’ordine che raccolgono materiale pedopornografico già noto. Se emergessero segnali sospetti, la piattaforma invierebbe in automatico una segnalazione alla polizia, allegando messaggi e informazioni utili per un controllo umano. In caso di conferma del reato verrebbero rivelati i dati personali degli autori.
I sostenitori – tra cui la coalizione ECLAG (Ending Child Sexual Abuse Online), che riunisce oltre sessanta organizzazioni – vedono nello strumento un modo per bloccare sul nascere la circolazione di contenuti criminali e prevenire l’adescamento dei minori.
Ma il rischio è enorme. Secondo giuristi, associazioni per la tutela dei diritti digitali e la Electronic Frontier Foundation, l’adozione di un sistema simile aprirebbe una falla irreparabile: l’indebolimento della crittografia end-to-end, garanzia fondamentale affinché solo mittente e destinatario possano leggere un messaggio. L’analisi preventiva creerebbe infatti una sorta di “backdoor”, una porta d’accesso nascosta che potrebbe essere sfruttata non solo per combattere la pedopornografia, ma anche – e questo è il timore – per sorvegliare cittadini, oppositori politici e giornalisti in regimi meno democratici.
Un ulteriore problema è rappresentato dai falsi positivi: algoritmi imperfetti potrebbero scambiare per illecite conversazioni innocenti o perfino messaggi tra adolescenti consenzienti, con la conseguenza che frammenti di vita privata finirebbero sotto la lente delle autorità senza giustificato motivo.
A livello politico, il panorama è tutt’altro che compatto. Svezia, Irlanda, Spagna e Francia hanno espresso un orientamento favorevole; Austria e Polonia sono nettamente contrarie; l’Italia ha mantenuto a lungo una posizione incerta, per poi manifestare di recente un cauto sostegno. La Germania, dopo il cambio di governo, è passata da un netto rifiuto a una disponibilità più sfumata, senza però rinunciare a sollevare dubbi sulla tutela della privacy.
Il 12 settembre, i rappresentanti degli Stati membri dovranno esprimersi in sede di Consiglio. Se verrà raggiunto un consenso, si aprirà la fase negoziale con il Parlamento. Ma resta una domanda che nessuna votazione potrà cancellare: fino a che punto la lotta contro un male innegabile come l’abuso dei minori può giustificare l’instaurazione di un sistema di controllo capillare delle comunicazioni private? E dove finisce la protezione e dove comincia la violazione della privacy?
F.B.
Silere non possum