MigrIAnts, un mur invisible

Eli Guillén.  Màrqueting digital. www.eliguillen.es
90

La intel·ligència artificial s’ha presentat com una promesa de futur: eficiència, rapidesa, objectivitat. Però aquesta promesa, quan es posa al servei dels estats per gestionar la migració, comença a mostrar esquerdes perilloses. Per a milers de persones que fugen de la guerra, la pobresa o la persecució, la IA no és un pont cap a la llibertat. És un mur. Un mur que no es veu, que no s’anuncia, però que classifica, vigila i descarta vides senceres en segons.

Els discursos dominants parlen de “millora de processos” i “automatització de tràmits” però la realitat per a molts migrants és ben diferent: una burocràcia opaca, dominada per algoritmes entrenats amb dades esbiaixades i sense cap mena de supervisió democràtica. La suposada neutralitat de la IA s’esmicola quan descobreixes que una decisió de vida o mort pot estar condicionada pel teu país d’origen o per la manera com somrius davant d’una càmera.

La nova frontera: l’algoritme

Ja no calen murs de formigó ni filats punxeguts. Ara, la frontera és digital i es desplega a través de sistemes d’identificació biomètrica, reconeixement facial, geolocalització i predicció de comportament. Les persones migrants són observades, enregistrades i analitzades sense el seu consentiment, sovint amb el pretext de la seguretat nacional.

A Europa, diversos governs han començat a utilitzar IA per decidir qui entra i qui no, qui mereix asil i qui ha de ser deportat. I ho fan sense garanties de transparència, sense possibilitat real de recurs, i amb una fredor estadística que redueix les persones a probabilitats. On queda el dret a una vida digna? On queda el dret a ser escoltat?

Traducció automàtica o control disfressat?

És cert que hi ha iniciatives que utilitzen la IA per facilitar l’ajuda humanitària: traductors simultanis, aplicacions mòbils, eines que permeten als metges entendre’s amb pacients d’arreu del món. Però cal anar amb compte de no caure en l’autoengany. Perquè, mentre s’ofereix una mà amb una eina útil, sovint l’altra mà activa sistemes de control i exclusió que passen desapercebuts.

No podem oblidar que aquestes mateixes tecnologies també poden ser utilitzades per identificar persones de forma massiva, rastrejar els seus moviments i etiquetar-les segons criteris que sovint reprodueixen prejudicis racials, culturals o de classe. Darrere la capa de neutralitat, hi ha interessos polítics molt clars: regular el flux migratori amb criteris econòmics, no humanitaris.

Una nova forma de racisme automatitzat

La IA no és racista per si sola, però pot aprendre molt bé el racisme dels humans. Quan s’alimenten algoritmes amb dades històriques plenes de discriminació, aquests algoritmes perpetuen els mateixos errors, amplificats. I, com que parlem d’un sistema “intel·ligent”, costa molt més detectar el biaix i molt més difícil demostrar que hi ha hagut una injustícia.

Imagina’t que demanes un visat i se’t denega perquè un sistema automàtic ha detectat que les persones de la teva regió tenen més probabilitats de quedar-se il·legalment. Ningú et dona explicacions. No hi ha cap funcionari a qui preguntar. Només una pantalla que diu “denegat”. Aquesta és la nova cara del racisme: impersonal, silenciosa i, aparentment, objectiva.

Cal plantar-hi cara

La pregunta no és si la IA ha d’entrar en la gestió migratòria. La pregunta és: en quines condicions, amb quines garanties i sota quin control. No podem permetre que la tecnologia sigui una excusa per deshumanitzar encara més les persones que ja viuen en situació de vulnerabilitat extrema. Necessitem una regulació clara, mecanismes de supervisió independents i, sobretot, posar els drets humans al centre del debat tecnològic.

MIGRIANTS no és només un joc de paraules. És un crit. Un toc d’alerta. Una denúncia dels nous mecanismes de control que es disfressen d’eficiència i progrés. És hora de parlar clar: la IA no és neutral. I, si no la qüestionem, pot acabar sent part del problema.