Tecnologie e detenzione: la sorveglianza delle persone migranti in Europa
di Irene Proietto e Arianna Egle Ventre
In Grecia a gennaio 2025 le ONG “I Have Rights” e “Border Violence Monitoring Network (BVMN)”, con sede a Samos, hanno pubblicato il rapporto “Controlled and Confined: Unveiling the Impact of Technology in the Samos Closed Controlled Access Centre”. Le due organizzazioni locali presentano uno scenario distopico: sull’isola è presente un Centro chiuso ad accesso controllato (CCAC) interamente finanziato dall’Unione Europea dove i richiedenti asilo sono sottoposti a una limitazione estrema della libertà di movimento e sono soggetti a un monitoraggio costante. La struttura è circondata da una doppia recinzione di sicurezza, scanner a raggi X e sistemi di riconoscimento delle impronte digitali verificano chi entra ed esce dalla struttura. A Samos la detenzione de facto è implementata da un’infrastruttura di sorveglianza che comprende la rimozione dei cellulari delle persone migranti, l’utilizzo di droni, televisioni a circuito chiuso (CCTV), scansioni biometriche e sistemi guidati dall’intelligenza artificiale. I due principali sistemi impiegati dalle autorità hanno ottenuto finanziamenti dalla Commissione Europea: “Centaur” utilizza degli algoritmi di analisi del movimento e trasmette le riprese delle telecamere a circuito chiuso e dei droni alla sala di controllo del Ministero della Migrazione e dell’Asilo. Il sistema “Hyperion” impiega i dati biometrici per monitorare la mobilità in entrata e in uscita dal Centro. Come denunciano diverse organizzazioni, l’utilizzo di questa infrastruttura lede i diritti fondamentali sia di chi vive che di chi lavora nel Centro e sull’isola: c’è una scarsa trasparenza rispetto alla raccolta e alla condivisione di dati – compresi quelli biometrici – e l’uso pervasivo di droni e telecamere solleva gravi preoccupazioni in merito alla violazione della privacy. Anche i bambini residenti sull’isola – come accade anche a Leros – sono soggetti a perquisizioni rientrando dalla scuola. Ciò nonostante, il sistema dei Centri chiusi ad accesso controllato funge da modello per il nuovo patto europeo Migrazione e Asilo che entrerà in funzione dal 2026.
La distopica detenzione vissuta dai richiedenti asilo sull’isola di Samos rientra tra quelle che vengono definite le politiche di “smart borders” dell’Unione Europea, che da diverso tempo punta a rendere più efficiente e automatizzato il tracciamento delle persone che attraversano le frontiere interne ed esterne. L’efficientizzazione delle frontiere si intreccia con gli obiettivi politici degli undici atti legislativi del Patto migrazione e asilo. Lo scopo è chiaro: da un lato reprimere la mobilità alle frontiere esterne, dall’altro limitare e sorvegliare i movimenti secondari dei richiedenti asilo attraverso le frontiere interne all’Unione. Ciò a discapito della tutela della privacy e dei princípi di non discriminazione. Come sottolinea anche l’organizzazione Amnesty International «i danni ai diritti umani derivanti dalla tecnologia di riconoscimento facciale non vengono sperimentati in modo uniforme e comportano ben noti rischi di discriminazione. Ad esempio, alcuni gruppi possono essere rappresentati in modo sproporzionato nei database di immagini facciali a causa di pratiche discriminatorie di polizia o altre politiche. È inoltre ampiamente dimostrato che i sistemi di riconoscimento facciale hanno prestazioni diseguali in base a caratteristiche fondamentali come il colore della pelle, l’etnia e il genere. Questi rischi di discriminazione sono stati evidenziati da vari esperti delle Nazioni Unite».
Nonostante ciò, già dal 2007 l’UE ha finanziato più di 50 progetti di ricerca aventi come oggetto la sperimentazione di meccanismi di controllo automatizzato, dispositivi di identificazione e verifica biometrica e sistemi di raccolta e analisi dei dati in materia migratoria. Tra questi ad esempio il progetto iBorderCtrl, sperimentato al confine tra Serbia e Ungheria: il progetto è stato attivo dal 2016 al 2019 e prevedeva la presenza di guardie di frontiera virtuali insieme all’impiego di un sistema di “rilevamento automatico di bugie” basato sull’elaborazione delle microespressioni del volto da parte dell’intelligenza artificiale. Queste sperimentazioni hanno solo anticipato il regime di eccezionalità previsto per l’utilizzo dell’intelligenza artificiale nei confronti delle persone migranti e richiedenti asilo dagli ultimi atti normativi dell’Unione.
Il 14 giugno 2023 il Parlamento Europeo ha approvato la legge sull’intelligenza artificiale (AI Act) ponendo una serie di limitazioni e divieti rispetto all’utilizzo delle tecnologie considerate “ad alto rischio” per i diritti fondamentali: tra questi rientrano i sistemi di categorizzazione biometrica, le banche dati di riconoscimento facciale, i meccanismi di riconoscimento delle emozioni e le pratiche di polizia predittiva basate sulla profilazione o sulla valutazione delle caratteristiche personali. Per le persone migranti viene ufficializzato un doppio standard: l’articolo 83 del regolamento infatti esclude che i vincoli generali dell’AI Act si possano applicare ai database impiegati alle frontiere europee nella registrazione e nel tracciamento delle persone provenienti da Paesi terzi. Tra questi anche la banca dati Eurodac che è stata recentemente oggetto di riforma nell’ambito del nuovo Patto: dal 2026 Eurodac raccoglierà i dati biometrici di tutte le persone migranti e richiedenti asilo di età superiore ai 6 anni.
L’utilizzo di tecnologie sofisticate è funzionale a mantenere e alimentare un sistema violento, che lede i diritti delle persone migranti e che agisce non solo nell’ambito della gestione delle frontiere, ma anche nel contesto della detenzione amministrativa nei Paesi europei. Il riflesso, oltre che la diretta continuazione, di quelli che vengono definiti smart borders, “confini intelligenti”, è infatti l’utilizzo strumentale di tecnologie non neutre nell’ambito delle politiche di confinamento europee, definendo forme di alternative alla detenzione (e-ATD) che altro non sono che forme di detenzione alternativa.
Molteplici strumenti di sorveglianza intrusivi sono stati integrati nell’ambito delle alternative alla detenzione, insieme a una forte limitazione della privacy e la raccolta indiscriminata di dati. Vari governi, anche all’interno dell’Unione Europea, hanno adottato pratiche quali la segnalazione telefonica alle autorità e forme di controllo tramite dispositivi gps con l’obiettivo, per lo meno dichiarato, di ridurre il numero di persone trattenute nei centri di detenzione amministrativa. Un esempio chiaro è rappresentato da Danimarca, Ungheria, Lussemburgo e Portogallo che hanno reso norma nei regolamenti amministrativi il tracciamento costante tramite gps delle persone senza documenti, una forma estremamente intrusiva che limita la libertà di movimento dei soggetti coinvolti. La segnalazione telefonica d’altro canto, presuppone invece l’uso di software di riconoscimento vocale o facciale spesso eccessivamente invasivi e imprecisi.
In netta contrapposizione a questa interpretazione delle alternative alla detenzione l’International Detention Coalition (IDC) ha proposto il modello ‘Community Assessment and Placement’ (CAP) quale strumento per sviluppare alternative alla detenzione. Il modello segue il metodo del ‘case management’, un metodo di lavoro olistico che pone la persona al centro di un percorso individualizzato di supporto, orientamento e collaborazione.
Tuttavia la stessa IDC allerta del rischio che le alternative alla detenzione (ATD) vengano strumentalizzate e rese funzionali a scopi di controllo e sorveglianza che le renderebbero vere e proprie detenzioni alternative. L’approccio proposto da IDC, che presuppone la partecipazione della persona coinvolta con e insieme alla comunità dove vive, è in netto contrasto con alternative alla detenzione (o forse meglio, detenzioni alternative) che suppongono forme di sorveglianza, quali il tracciamento gps. Questa pratica infatti porta alla criminalizzazione della persona obbligata a indossare il dispositivo, oltre a un forte rischio di discriminazione. Rischi che si riscontrano anche nell’utilizzo di altre tecnologie, poiché IDC riporta infatti che “grazie a ricerche e testimonianze di IDC sappiamo che le tecnologie di riconoscimento vocale e facciale hanno un’accuratezza discutibile, soprattutto per le comunità che subiscono discriminazioni razziali. Questo può portare a errori che hanno conseguenze gravi e irreversibili, come la detenzione, la deportazione e la separazione di famiglie e persone care”
Foto copertina via Wikimedia Commons