Migration_Surveillance-DeMatos

Intelligenza artificiale: dalla repressione migratoria alla sorveglianza generalizzata

Gli stati membri dell’Unione europea mostrano da diversi anni una vera e propria passione per la sorveglianza di massa applicata al controllo delle frontiere.
Ma queste tecnologie potrebbero ritorcersi contro i loro abitanti?

Pubblicato il 25 Febbraio 2025

La fortezza Europa non è cosa di ieri. Dal limes romano alla cortina di ferro, il continente si è sempre preoccupato di definire attentamente i suoi confini, di separarsi dall’esterno, dall’altro. Le frontiere cambiano, si ridisegnano, si evolvono a seconda delle dinamiche sociali. Nell’era del digitale e dell’intelligenza artificiale, una parte di questi muri è diventata invisibile, ma pur sempre reale.

La frontiera è lontana e vicina, al tempo stesso dovunque e in nessun luogo. Le tecnologie che sviluppiamo ci permettono di proiettare queste demarcazioni nel mondo immateriale; e gli strumenti di sorveglianza di massa, gli algoritmi e il riconoscimento facciale offrono la possibilità di diluire queste frontiere, di generalizzarle, di estenderle. Verso l’esterno e verso l’interno.

Su Solomon, Giorgos Christides, Katy Fallon, Deana Mrkaja, Marguerite Meyer, Florian Schmitz e Hibai Arbide Aza condividono le conclusioni di una vasta inchiesta che mostra i massicci investimenti fatti da alcuni paesi, tra cui la Grecia, per fermare le persone migranti alle frontiere. “L’arsenale di cui dispone l’Europa comprende sistemi di intelligenza artificiale, droni, telecamere termiche, rilevatori di dialetti, sistemi di estrazione dei dati telefonici e sofisticate reti di sorveglianza”, spiegano. “A seconda del paese che li utilizza, l’impiego di questi sistemi avanzati e spesso costosi ha lo scopo di impedire l’arrivo di migranti, esaminare le domande di asilo e sgominare le reti del traffico di migranti”.

Se le tecnologie di sorveglianza di massa conoscono oggi una crescente popolarità, le insidie che nascondono sono particolarmente preoccupanti. “Secondo i loro detrattori sono piene di trappole giuridiche e morali, minano i diritti umani, limitano l’accesso all’asilo, violano la vita privata delle persone migranti e possono essere usate per favorire le espulsioni di massa – una pratica ampiamente documentata e da poco descritta come ‘sistematica’ dalla Corte europea dei diritti dell’uomo”.

In certi casi, i metodi pensati per controllare i movimenti migratori servono a sorvegliare anche le popolazioni autoctone, in movimento o meno. Per Wired, e in collaborazione con Lighthouse Reports, Caitlin Chandler svela l’ampiezza del mercato delle tecnologie di “sorveglianza predittiva dei viaggi”. Da diversi anni infatti ci sono aziende che promettono ai governi di tutto il mondo programmi che, sulla base degli algoritmi, sarebbero in grado di seguire persone sospette durante un volo aereo: terroristi, trafficanti o persone migranti. 

Lo scopo? Rendere più fluido il traffico aereo internazionale, semplificare il lavoro del personale di controllo e delle forze di polizia e assicurare la sicurezza degli altri viaggiatori. “Per chi si sposta, questi sistemi di sorveglianza possono essere comodi”, spiega Chandler. “Ma possono anche segnalarvi come soggetti potenzialmente pericolosi o addirittura di limitare la vostra libertà di viaggio, senza che possiate farci granché”.

Le possibili derive sono tante: che cosa succede se una persona è considerata a torto sospetta o, al contrario, se una persona davvero pericolosa viene ignorata dall’algoritmo? Si pone inoltre il problema della conservazione dei dati, e di chi vi ha accesso. C’è poi la questione dell’impatto sociale di questo genere di tecnologia che, come sintetizza una delle aziende citate nell’articolo, “permette a un governo di esportare le proprie frontiere in qualunque punto del globo sia possibile salire su un aereo, una nave o un treno diretto verso il proprio territorio”. Il mondo è aperto. La frontiera è dappertutto. Decentralizzata.

Il confine tra repressione migratoria e repressione tout court è sicuramente molto sottile. Da quando c’è stato il boom dell’intelligenza artificiale, qualche anno fa, la sorveglianza assistita esercita grande fascino, senza però che i rischi associati smuovano governi o industriali. È in special modo il caso della Francia: stando a un’inchiesta collaborativa di Investigate Europe, Parigi ha fatto pressioni perché alcune pratiche, come il riconoscimento facciale in tempo reale, l’interpretazione delle emozioni o la schedatura sulla base delle convinzioni politiche e religiose, siano consentite dal regolamento europeo sull’intelligenza artificiale entrato in vigore nel 2024.

“Immaginate di partecipare a una manifestazione per il clima, e di portare un qualche tipo di simbolo o tenere in mano un cartello”, ipotizzano Maria Maggiore, Leïla Miñano e Harald Schumann, che hanno firmato l’inchiesta. “Una telecamera ‘intelligente’ rileva questi segni, registra il vostro viso e trasmette le immagini alla polizia per metterle a confronto con il database delle persone ricercate per reati ambientali. Non ci siete, ma i vostri dati restano in memoria”. Una tecnologia che potrebbe essere utilizzata per sorvegliare le persone migranti. “Immaginate una persona appena sbarcata a Lampedusa a seguito di un naufragio. Viene arrestata, interrogata con una telecamera capace di rilevare le emozioni. Il sistema registra segni di nervosismo, paura, indecisione e ne conclude che la persona mente sulla sua età o la sua provenienza. E la sua domanda di asilo viene respinta”.

È quello che ha ottenuto la Francia dopo una lunga opera di lobbying presso le istituzioni di Bruxelles. In nome della sicurezza nazionale, lo stato potrà ricercare individui sulla base di criteri personali, in particolare il credo religioso o l’impegno politico. La Francia, insieme ad altri paesi europei, ha anche chiesto che le carceri e le zone frontaliere siano escluse dalla definizione di “spazio pubblico”. “Fra qualche settimana gli stati membri vi potranno quindi impiegare sistemi di riconoscimento emozionale”, spiega l’inchiesta. Poco importa che le intelligenze artificiali in grado di riconoscere le emozioni siano ampiamente criticate, soprattutto per le numerose distorsioni a cui è soggetto il loro funzionamento.

“L’intelligenza artificiale è anche questo”, spiega Félix Tréguer, autore e portavoce dell’associazione per la difesa delle libertà digitali La Quadrature du Net; ovvero “il ritorno delle teorie naturaliste, delle pseudoscienze e delle categorie arbitrarie, ormai inscritte in potenti sistemi automatizzati per mettere in atto la violenza di stato”.

Ma la sorveglianza generalizzata piace molto. Lo testimonia il programma dell’Unione cristiano-democratica tedesca (CDU) che – a pochi giorni dalle elezioni anticipate di febbraio 2025 – proponeva, fra le altre cose, di estendere la raccolta dati dei sistemi di telecomunicazione, l’uso del riconoscimento facciale e l’impiego di software spia da parte dello stato. Come racconta Constanze Kurz su Netzpolitik, “la visione che emerge [da questo elenco] è un futuro in cui la sorveglianza di massa sarà onnipresente”.

Il partito vuole anche affrancare questa sorveglianza di massa da ogni eventuale controllo:controllo che non esiste, per adesso, e che sembra difficilmente applicabile, come spiega Kurz, ridimensionando un po’ la questione: “È una campagna elettorale [della CDU]”. Tuttavia, “il gran parlare che se ne fa mostra chiaramente la direzione che il partito prenderà in caso di vittoria”.

Questo doppio uso delle tecnologie rimanda alla duplice funzione che hanno sempre svolto, nella storia, le frontiere: proteggere i popoli dall’esterno tenendoli all’interno. E facendoli rigare dritto, se possibile.

Da fuori, l’Europa assomiglia a una fortezza. Dall’interno, i suoi muri potrebbero ben presto ricordare quelli di una prigione.

In collaborazione con Display Europe, cofinanziato dall'Unione europea. I punti di vista e le opinioni espressi sono esclusivamente quelli dell'autore o degli autori e non riflettono necessariamente quelli dell'Ue o della Direzione Generale per le Reti di Comunicazione, i Contenuti e la Tecnologia. Né l'Unione europea né l'autorità che ha concesso il finanziamento possono essere ritenute responsabili.
ECF, Display Europe, European Union
Leggli gli altri commenti Divento membro per tradurre i commenti e partecipare

Sei un media, un'azienda o un'organizzazione? Dai un'occhiata ai nostri servizi di traduzione ed editoriale multilingue.

Sostieni un giornalismo che non si ferma ai confini

Fai un dono per rafforzare la nostra indipendenza

Sullo stesso argomento