Un informe radiografia l’ús de la intel·ligència artificial i altres tecnologies en el control migratori
Comparteix
L’informe ‘Fronteras “inteligentes”, democracias negligentes’, de la Fundación porCausa i el Centre Delàs, alerta que la digitalització del control de fronteres consolida un sistema opac, privatitzat i poc democràtic.
Fa anys que Europa s’ha llançat a una cursa sense aturador cap a la criminalització de les persones en trànsit. Així ho han advertit reiteradament les organitzacions en defensa dels drets humans, que han denunciat una creixent militarització, securitització i control de les fronteres que alimenta el marc de l’Europa Fortalesa. Durant anys, s’han invertit milions d’euros en dificultar moviments inevitables, i el que és pitjor, amb conseqüències nefastes des del punt de vista humanitari.
Aquest afany de control migratori ha desenvolupat tota una indústria —i un negoci— legitimat per les administracions europees, que s’ha anat engreixant, perfeccionant i tecnificant en paral·lel al reforç del blindatge fronterer, institucionalitzant la desconfiança i el prejudici cap a les persones en moviment. En aquest context, la Fundación porCausa i el Centre Delàs d’Estudis per la Pau posen el focus en una nova fase d’aquest model amb l’informe ‘Fronteras “inteligentes”, democracias negligentes’.
El document analitza com la incorporació massiva de tecnologies digitals —intel·ligència artificial, biometria, sistemes predictius i vigilància automatitzada, entre altres— està redefinint el control migratori a Europa. No pas per corregir els abusos del passat; ben al contrari, l’informe alerta que aquesta frontera intel·ligent consolida un sistema més opac, més deshumanitzat i amb greus impactes sobre els drets fonamentals.
De les tanques als algoritmes
L’estudi descriu una evolució en tres etapes. Primer, la frontera física, això és, murs, tanques, concertines i obstacles dissenyats per impedir el pas. Després, la frontera tecnificada i externalitzada, amb radars, sensors i vigilància a distància que desplaça el control més enllà del territori europeu, cap a països de trànsit. I finalment, la frontera algorítmica, una infraestructura invisible de dades i programes que ja no només vigila, sinó que classifica, prediu i decideix.
En aquesta tercera generació, adverteix l’informe, la decisió humana es dilueix cada cop més. Algoritmes de perfilatge assignen nivells de risc a les persones en funció de criteris com el seu origen, el trajecte, la documentació o el comportament. Sistemes biomètrics acumulen milions de registres facials i d’empremtes, alhora que programes predictius anticipen fluxos migratoris per activar mecanismes de control abans que les persones arribin a la frontera. Tot plegat es presenta sota una promesa d’eficiència i neutralitat que, segons l’informe, és profundament enganyosa. “No hi ha neutralitat possible quan el punt de partida és la desconfiança”, constata el document.
En aquest sentit, una de les realitats que el document posa sobre la taula és que la tecnologia no és neutra. Els sistemes automatitzats reprodueixen els prejudicis i desigualtats que arrosseguen les dades amb què són entrenats i en les decisions polítiques que hi ha al darrere. Quan aquests biaixos es traslladen a un algoritme, passen a convertir-se en norma. “Els biaixos humans, abans dispersos i imprevisibles, s’institucionalitzen en els codis”, sentencia l’informe.
En conseqüència, aquesta automatització del control migratori normalitza pràctiques discriminatòries sota una aparença tècnica. Decisions que abans exigien justificació política o jurídica passen a ser el resultat d’un càlcul opac, difícilment impugnable. “L’opacitat tècnica es converteix en opacitat democràtica”, s’esmenta. Així, el risc no és només l’error, sinó la impossibilitat de saber per què s’ha produït i qui n’és responsable.
Un sistema opac i sense control democràtic
La manca de transparència és un altre dels pilars del model. Bona part dels sistemes de vigilància i control s’adjudiquen mitjançant contractes públics poc clars, sovint tramitats com a procediments negociats sense publicitat. Els plecs tècnics utilitzen un llenguatge ambigu —com “solucions avançades”, “anàlisi intel·ligent”, “sistemes de detecció”, cita l’informe— que dificulta saber què es compra exactament i amb quines garanties.
Aquesta opacitat té conseqüències directes, perquè aquests algoritmes que acaben influint en decisions sobre asil, entrada o expulsió no resten sotmesos al control ciutadà i judicial. “En la pràctica, els algoritmes són tractats com a secrets d’Estat o, pitjor encara, com a propietat privada”, menciona al document. Les persones afectades no poden conèixer els criteris que han determinat el seu cas ni qüestionar-los de manera efectiva. Això erosiona un principi bàsic de qualsevol estat de dret, com és la rendició de comptes, apunta l’informe.
El document també posa el focus en la privatització del control migratori. Empreses tecnològiques i de defensa han trobat en el control de fronteres un nou nínxol de mercat. Sistemes concebuts inicialment per a usos militars o policials s’adapten ara al control de la mobilitat humana, amb importants beneficis econòmics per a les empreses que els desenvolupen i comercialitzen.
A l’Estat espanyol, per exemple, una part significativa dels contractes en matèria de vigilància fronterera es concentra en un nombre reduït de grans empreses. Aquestes corporacions no només subministren tecnologia, sinó que sovint participen en el disseny i la gestió dels sistemes. El resultat és una cessió de sobirania, en el sentit que decisions clau queden en mans d’actors privats guiats per lògiques comercials, no pel respecte als drets humans.
Concretament, l'informe revela que, entre el gener de 2018 i l’octubre de 2025, una part molt important dels contractes de l’Estat espanyol en matèria de vigilància fronterera es va concentrar en només tres empreses: Escribano, Telefónica i Thales. Si ampliem el focus, a escala europea, el mateix patró es repeteix amb gegants com Airbus, Leonardo, Sopra Steria, Idemia o Atos, que acumulen un pes creixent en el negoci del control migratori.
Igualment, l’informe identifica també una homogeneïtat ideològica preocupant. Institucions europees, governs estatals i empreses comparteixen un relat que associa més tecnologia amb més seguretat. I qualsevol crítica és desqualificada com a ingenuïtat o resistència al progrés.
Aquest “solucionisme tecnològic” permet justificar inversions milionàries en sistemes que no han demostrat millorar la protecció de vides, però sí reforçar mecanismes de dissuasió i expulsió. La frontera intel·ligent esdevé així una excusa per perpetuar un model de control que prioritza l’ordre i la sospita per sobre dels drets.
Una advertència sobre el futur de la democràcia
Més enllà de la política migratòria, l’informe llança una advertència inquietant: el que avui s’aplica a les persones migrants pot estendre’s demà a la resta de la població. “Les tecnologies que avui classifiquen migrants són les mateixes que demà poden classificar ciutadania”, alerten les autores.
Per això, des de l’informe es defensa que el debat no és tecnològic, sinó més aviat polític. “No es tracta de rebutjar la tecnologia, sinó de governar-la”, diu l’informe, mentre apunta a la necessitat d’imposar límits clars, com la transparència, el control humà efectiu, les auditories independents i els mecanismes reals de responsabilitat. Sense això, diuen, la frontera intel·ligent corre el risc de convertir-se en un espai d’excepció permanent.
‘Fronteras “inteligentes”, democracias negligentes’ conclou amb una reflexió punyent: quan la seguretat es construeix a costa dels drets, el preu no el paguen només les persones migrants, sinó el conjunt de la democràcia. “La intel·ligència de la frontera acaba sent la negligència de la política”, rebla el document.
Afegeix un nou comentari