En noviembre pasado, el régimen del autoritario presidente bielorruso Aleksandr Lukashenko -cuya reelección en agosto de 2020 no reconoce la Unión Europea- trajo desde Siria, Irak, Líbano o Turquía a refugiados que luego presionó para que cruzaran por tierra la frontera con Polonia. Ello generó tensiones y un conflicto diplomático no sólo con el gobierno polaco, que enérgicamente blindó su frontera para evitarlo, sino con los países miembros de la Unión Europea. En ese contexto, en el que las únicas víctimas resultaron los propios migrantes instrumentalizados por el gobierno de Lukashenko, el periódico polaco Gazeta Wiborcza entrevistó a Petra Molnar, una experta internacional en migración, tecnología y derechos humanos de la Universidad de Toronto.
Con autorización exclusiva del diario, Underground reproduce completa la entrevista -en español- para sus lectores.
Los inmigrantes se convierten en conejillos de indias con los que se experimentan las tecnologías de vigilancia. El efecto de unas fronteras estrictas e “inteligentes” “sólo causará más muertes”, dice a Gazeta Wyborcza la investigadora y abogada Petra Molnar, del Laboratorio de Derecho de los Refugiados (Refugee Law Lab) y autora del informe Technological Testing Grounds: Management Experiments and Reflections from the Ground Up (Campos de pruebas tecnológicas: experimentos de gestión y reflexiones desde la base).
GAZETA WYBORCZA.- Única agencia de la UE con sede en Varsovia, la Agencia de la Guardia de Fronteras y Costas (Frontex) se ha convertido en los últimos años en la mayor fuerza uniformada de Europa, con un presupuesto y un acceso a la tecnología cada vez más importantes. ¿Qué hace con estos recursos?
PETRA MOLNAR.- Utiliza una amplia gama de soluciones, desde robots avanzados hasta controles fronterizos automatizados, pasando por drones y experimentos basados en la inteligencia artificial. Por ejemplo, lleva varios años probando drones y dirigibles autónomos para vigilar el Mar Egeo y detectar embarcaciones de inmigrantes. Frontex también encargó un informe al grupo de expertos estadounidense RAND Corporation que explica cómo -basándose en datos espaciales, la inteligencia artificial y los algoritmos- pueden, por ejemplo, producir análisis de predicción avanzados que muestren dónde podrían intentar cruzar las fronteras las personas.
Sin embargo, el aspecto más preocupante de la operación de Frontex es que, según relatos muy fiables, sus agentes se dedican a devolver a los refugiados, especialmente a Turquía y Libia, a pesar de que esto es contrario al derecho internacional. Las tecnologías de vigilancia que Europa despliega a gran escala en sus fronteras facilitan estas acciones.
También está el proyecto europeo Roborder, que pretende crear “un sistema de vigilancia de fronteras totalmente autónomo” con robots terrestres, aéreos y marítimos.
Esto provocará un aumento de las muertes en la frontera. La UE no es la única que está probando drones y robots para vigilar sus fronteras: en Estados Unidos, la Oficina de Aduanas y Protección de Fronteras se ha asociado con la empresa Anduril Industries para construir un muro virtual de torres de observación y drones en la frontera con México. Aunque los responsables políticos estadounidenses presentan estas fronteras “inteligentes” como una alternativa más “humanitaria” al muro físico previsto por Donald Trump, el control cada vez más estricto con las nuevas tecnologías de vigilancia ha hecho que se duplique el número de muertes de inmigrantes que intentan entrar en Estados Unidos, ya que les ha obligado a seguir rutas migratorias más peligrosas en los desiertos de Arizona. Se ha creado lo que el antropólogo Jason De León llama “La tierra de las tumbas abiertas” (The land of open graves, como el título de su libro en inglés).
En Europa tenemos lo mismo, pero en el mar…
La Organización Internacional para las Migraciones informa que, desde 2014, más de 20 mil personas han muerto en naufragios en las fronteras de la UE. Sin embargo, al hacer hincapié en la seguridad de las fronteras y la aplicación de la ley, el nuevo “Pacto sobre Migración y Asilo” propuesto por la Comisión Europea envía una clara señal: se pueden sacrificar vidas humanas para proteger el territorio de la UE.
En los aeropuertos de Lituania, Hungría y Grecia se probó la inteligencia artificial para detectar mentiras con el programa iBorderCtrl. El sistema hacía preguntas a los pasajeros y escaneaba las microexpresiones de sus rostros. En caso de duda, los dirigía a otros controles más exhaustivos.
Es increíble que este proyecto haya recibido financiamiento europeo. Incluso si los experimentos de este tipo se justifican con el argumento de que sólo son pruebas, ¿pensamos en sus posibles consecuencias?
¿Cuáles?
Sabemos que incluso los polígrafos convencionales no son fiables y que sus resultados son inadmisibles en muchos tribunales. En este caso, tenemos una tecnología que ha sido probada con muy poco control y sin definición de responsabilidad en caso de error. Además, la tecnología y los algoritmos de reconocimiento facial pueden contener, intencionadamente o no, sesgos raciales cuestionables. Por último, ¿tendría ese detector de mentiras en cuenta las diferencias en la comunicación intercultural?
¿Qué quiere decir eso?
A menudo, por razones culturales, religiosas o psicológicas individuales, las personas no establecen contacto visual con un funcionario o policía del sexo opuesto. Esto no significa que no digan la verdad. Además, ¿qué ocurre con los inmigrantes cuya memoria está afectada por una experiencia traumática, o cuando no cuentan su historia de forma lineal? ¿Cómo puede un detector de mentiras enfrentarse a estas situaciones?
Los creadores del programa explicaron que su sistema se limitaba a dar avisos y dejaba las decisiones en manos de los guardias fronterizos. Sin embargo, un inmigrante de nombre Adissu, citado en su informe, afirma que “como somos negros, los guardias fronterizos nos odian, y sus computadoras también”.
Aunque en teoría el algoritmo sólo previene, en la práctica -como sabemos sobre la base de estudios- el cerebro humano suele inclinarse a creer que las decisiones tomadas por un programa informático son más objetivas. Por lo tanto, si un algoritmo propone para el control a un refugiado que ya está discriminado por motivos raciales, a menudo será automáticamente sospechoso de terrorismo y tendrá que demostrar lo contrario.
Después de muchas críticas, iBorderCtrl se ha detenido, pero esto no significa que no se vayan a realizar otros experimentos similares. El programa Avatar, que también se basa en el “reconocimiento de emociones”, se está probando actualmente en Rumania y Canadá.
¿Qué ha cambiado el Covid-19 en el contexto de las tecnologías de vigilancia? ¿Se ha utilizado como pretexto para restringir los derechos de los refugiados?
Cuando estalló la pandemia, pensé que organizaciones como Frontex querrían actuar en nombre de la protección de la salud pública y de la protección de las fronteras contra las amenazas sanitarias. No me equivoqué. En sus declaraciones públicas dicen que tienen que evitar la propagación de la pandemia. Por supuesto, lo hacen para justificar las restricciones a los derechos humanos, desplegar nuevas tecnologías y recibir más financiación.
Se trata de una combinación realmente preocupante, ya que históricamente los refugiados y los inmigrantes eran vistos como los que propagaban las enfermedades. Esta retórica problemática, que confunde enfermedad y migración, ya ha sido utilizada por el gobierno húngaro o la administración de Donald Trump.
¿Cuáles han sido los otros efectos de la pandemia?
Ha acelerado y normalizado el uso de muchas tecnologías de vigilancia. Los activistas e investigadores ya se lo temían en marzo de 2020, cuando todas estas soluciones empezaron a introducirse masivamente como remedios, desde los robots que detectan coronavirus hasta los drones que indican a la gente que se quede en casa o las aplicaciones de seguimiento de contactos.
Esto es el tecnosolucionismo: la idea de que todos los problemas, por complejos que sean desde el punto de vista social, político o económico, pueden resolverse con la tecnología, por ejemplo con una simple aplicación.
Durante la pandemia, esta tendencia se aceleró sin que debatiéramos qué debemos automatizar y digitalizar, y qué no al ser demasiado sensible y sutil; por ejemplo, el control de fronteras y los procedimientos de asilo.
¿Por qué?
Estas tecnologías nos afectan de manera totalmente diferente. Hay una gran diferencia de derechos entre los inmigrantes y nosotros. Por ejemplo, nosotros tenemos la opción de no utilizar ciertas soluciones, como las aplicaciones de seguimiento de contactos en los teléfonos. Por otro lado, un refugiado que vive en un campamento en Europa, por ejemplo en Bruselas, tiene que aceptar un escáner de retina para recibir comida.
Para ser registrado, y luego seguido.
Estas circunstancias no permiten ejercer el tipo de “consentimiento informado” que expresamos para el tratamiento de nuestros datos personales.
En su informe, cita a un inmigrante que llama Kaleb. Sobre su contacto con las tecnologías biométricas en el campamento donde se encuentra, dice que se siente como “un trozo de carne sin alma” al que sólo se le escanean las huellas dactilares y los ojos.
Esto demuestra que la privacidad es sólo una parte del problema. Por supuesto, es muy importante, y la captura de datos por parte de gobiernos represivos puede tener consecuencias fatales. Lo vemos en Afganistán, donde los equipos biométricos dejados por los estadounidenses han acabado en manos de los talibanes. Si los talibanes consiguen utilizarlo para identificar a los activistas de derechos humanos, por ejemplo, será un desastre.
Así que la privacidad no debe pasarse por alto de ninguna manera, pero también debemos tener una perspectiva más amplia sobre cómo las tecnologías deshumanizan y afectan a la dignidad humana. También debemos tener en cuenta la complejidad de la experiencia humana y las razones por las que alguien emigra o busca asilo.
En nombre de la salud pública y la seguridad nacional, ahora estamos poniendo en marcha más herramientas de seguimiento y control: biometría, cámaras, drones, tecnologías de reconocimiento facial, también utilizadas contra los niños. Estamos militarizando las fronteras y encerrando a la gente en campamentos en lugar de centrarnos en lo que realmente detiene la propagación de la pandemia.
¿Es decir?
La redistribución de los recursos, proporcionar a los migrantes condiciones de vida dignas y acceso a la asistencia sanitaria. Si vamos a utilizar la tecnología principalmente para mantener a los inmigrantes alejados de nosotros y para vigilarlos, me parece que nos hemos equivocado en alguna parte.
Al mismo tiempo, el papel de las empresas privadas en la protección de las fronteras no hace sino aumentar. Los guardias fronterizos polacos utilizan sistemas de la empresa israelí Cellebrite para acceder a los datos almacenados en los teléfonos. Hace unos años, Cellebrite los vendía abiertamente como herramientas útiles para el examen de las solicitudes de asilo.
Esto no me sorprende en absoluto. En este sistema, las empresas privadas son un elemento que suele quedar oculto. Desde hace varios años se está desarrollando una gran industria en torno a la gestión de fronteras, con, por ejemplo, productores de drones y tecnologías de reconocimiento facial.
Una de ellas, Clearview AI, firmó un contrato con la Patrulla Fronteriza de Estados Unidos el año pasado.
Las multinacionales pueden vender este tipo de servicios a los gobiernos porque el sector público depende totalmente del desarrollo de la tecnología privada y no tiene prácticamente ninguna experiencia interna. Sin embargo, el sector privado tiene prioridades completamente diferentes a la hora de desarrollar este tipo de innovaciones, se plantea preguntas distintas y se rige por la lógica del beneficio. Por eso, la inteligencia artificial se desarrolla para detectar mentiras y se experimenta con refugiados y migrantes, y no, por ejemplo, para detectar racistas entre los guardias de fronteras.
Sería más difícil de vender…
También existe el problema legal de la responsabilidad de las tecnologías que pueden perjudicar a alguien, por ejemplo, discriminándolo. Es cómodo para un Estado decir: no hemos diseñado este sistema defectuoso, sólo lo hemos ordenado. Por otro lado, la empresa privada puede escudarse en el secreto comercial y en la ley de propiedad intelectual para evitar que terceros comprueben si su algoritmo está efectivamente sesgado contra una minoría. En la práctica, una persona afectada negativamente por una “innovación” tiene muy pocas posibilidades de hacer valer sus derechos. (Traducción: Underground Periodismo Internacional).
*Foto de portada: dron Predator operado por la Patrulla Fronteriza de Estados Unidos.
Copyright ©️ Todos los derechos reservados para Underground | Periodismo Internacional. Queda prohibida la publicación, edición y cualquier otro uso de los contenidos de Underground sin previa autorización.