Por Ella Jakubowska (EDRi), Matt Mahmoudi y Hajira Maryam (Amnistía Internacional)
Inculpado por reconocimiento facial
Tras un robo en una empresa francesa de logística en 2019, se aplicó un sistema de reconocimiento facial a la grabación del incidente que había realizado la cámara de seguridad a fin de identificar a los responsables. Los sistemas de reconocimiento facial funcionan cotejando imágenes —por ejemplo las registradas por las cámaras de videovigilancia— con bases de datos que a menudo pueden contener hasta millones de imágenes de rostros de personas, en muchos casos recopiladas sin su conocimiento ni su consentimiento. En este caso, el sistema de reconocimiento facial arrojó una lista de 200 posibles sospechosos, entre los que la policía señaló a un hombre, H, a quien acusó del robo, pese a carecer de pruebas físicas que lo relacionaran con el delito.
En el juicio, el tribunal denegó la petición del abogado de H de revelar cómo había compilado la lista el sistema, que había tenido un papel central en la decisión de acusar a H. El juez decidió confiar en esta tecnología, notoriamente discriminatoria, y lo condenó a 18 meses de prisión.
El reconocimiento facial “en directo” suele ser objeto de (más que merecidas) críticas, puesto que se utiliza para rastrear y vigilar a personas en tiempo real. No obstante, el uso de tecnología de reconocimiento facial de manera retrospectiva, transcurrido un tiempo desde el incidente, está menos analizado, pese a utilizarse en casos como el de H. La amplia disponibilidad de grabaciones de cámaras de seguridad y la infraestructura con la que ya cuenta esta tecnología facilitan y extienden el uso del reconocimiento facial retrospectivo.
En este momento, los gobiernos de la Unión Europea (UE) están negociando un nuevo reglamento para establecer normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y proponen que se permita a la policía, los gobiernos locales e incluso las empresas privadas utilizar el reconocimiento facial retrospectivo con la población en general de forma habitual.
La propuesta de Ley de Inteligencia Artificial de la UE se basa en la premisa de que el reconocimiento facial retrospectivo es menos dañino que el que opera “en directo”. El ejecutivo de la UE sostiene que el margen de tiempo que deja el procesamiento en diferido permite mitigar los riesgos y daños que entraña.
Es un razonamiento erróneo. El tiempo adicional no sólo no aborda las cuestiones clave —la desanonimización y la supresión de derechos y libertades— sino que acarrea más problemas.
La identificación biométrica remota “en diferido” es posiblemente la medida de vigilancia más peligrosa de la que hayamos oído hablar
La identificación biométrica remota es un término general para referirse a los sistemas, como el reconocimiento facial, que analizan e identifican a personas a partir de imágenes del rostro —o de otra parte del cuerpo— a distancia. Cuando estos sistemas se utilizan de forma retrospectiva, en la propuesta de Ley de Inteligencia Artificial de la UE se les llama “identificación biométrica remota en diferido”. La identificación biométrica remota en diferido permite identificar a personas grabadas en espacios públicos horas, semanas o incluso meses después de la captura de las imágenes; por ejemplo, usar el reconocimiento facial con imágenes de manifestantes captadas con cámaras de videovigilancia colocadas en determinados lugares. O, como en el caso de H, cotejar las imágenes captadas por las cámaras de videovigilancia con una base de datos gubernamental que contiene la asombrosa cantidad de 8 millones de imágenes faciales.
El uso de estos sistemas produce un efecto amedrentador sobre la sociedad, sobre cómo nos sentimos al participar en una manifestación, al solicitar servicios de salud —como un aborto en lugares en que está penalizado— o al hablar con un periodista. El mero hecho de saber que existe la posibilidad de que se esté utilizando el reconocimiento facial retrospectivo podría hacemos temer que, en el futuro, la información sobre nuestra vida personal pudiera usarse en nuestra contra.
Investigaciones realizadas al respecto sugieren que el uso de la identificación biométrica remota afecta desproporcionadamente a la población racializada. Amnistía Internacional ha demostrado que las personas que viven en zonas donde las operaciones policiales de parada y registro son más frecuentes —práctica que afecta abrumadoramente a las personas de color— es más probable que estén más expuestas a la tecnología de recolección de datos y reconocimiento facial invasivo.
Por ejemplo, Dwreck Ingram, neoyorkino organizador de las protestas de Black Lives Matter, fue hostigado por la policía en su apartamento durante cuatro horas, sin orden judicial ni acusación legítima, simplemente porque había sido identificado con un sistema de identificación biométrica remota en diferido tras participar en una protesta de Black Lives Matter. Ingram se embarcó en una larga batalla judicial para que se retiraran los cargos falsos que se le imputaban, tras lo cual quedó claro que la policía había usado esta tecnología experimental con él.
La lista de casos es larga. Robert Williams, vecino de Detroit, Michigan, fue arrestado bajo acusaciones falsas por un robo que había cometido otra persona. A Randall Reid lo encarcelaron en Louisiana, estado que jamás había pisado, porque la policía lo identificó erróneamente como sospechoso de un robo utilizando reconocimiento facial. Para la población racializada, en particular, la normalización del reconocimiento facial supone la normalización de la rueda de reconocimiento virtual perpetúa.
Si tienes presencia en Internet, seguramente estés ya en bases de datos de reconocimiento facial
Esta tecnología distópica también se ha utilizado en clubes de fútbol de Países Bajos para identificar a aficionados vetados, e imponer erróneamente una multa a un hincha que no había asistido al partido en cuestión. Según informes, la policía también la ha empleado en Austria contra manifestantes, así como en Francia, bajo el pretexto de incrementar la ‘seguridad’ y la eficiencia de las ciudades, pero con el resultado de un aumento de la vigilancia masiva.
Estas tecnologías suelen tener un coste muy bajo, cuando no nulo. Una de las empresas que presta estos servicios es Clearview AI. La empresa ha ofrecido búsquedas mediante reconocimiento facial altamente invasivas a miles de organismos y funcionarios encargados de hacer cumplir la ley de toda Europa, Estados Unidos y otras regiones. En Europa, las autoridades nacionales de protección de datos han adoptado una posición firme contra estas prácticas. En Italia y Grecia los organismos reguladores han impuesto a Clearview AI multas millonarias por recopilar sin respaldo jurídico alguno imágenes faciales de ciudadanos de la UE, y en Suecia han multado a la policía nacional por procesar datos personales de forma ilícita al utilizar Clearview AI con fines de identificación.
Pese a estas esperanzadoras iniciativas de las autoridades de protección de datos para proteger nuestros derechos humanos frente al reconocimiento facial retrospectivo, los gobiernos de la UE pretenden ahora adoptar estas peligrosas prácticas.
Los experimentos de identificación biométrica realizados en países de todo el mundo han demostrado una y otra vez que estas tecnologías, y la recogida masiva de datos que conllevan, erosionan los derechos de las personas más marginadas, especialmente la población racializada, refugiada, migrante y solicitante de asilo.
Los países europeos han empezado a legalizar una serie de prácticas de vigilancia masiva biométrica, y corremos el riesgo de que se normalice el uso de estos sistemas intrusivos en toda la UE. Por este motivo, ahora más que nunca necesitamos un reglamento europeo firme que englobe todas las formas de vigilancia masiva biométrica en tiempo real y retrospectiva en nuestras comunidades y en las fronteras de la UE, y que frene en seco la identificación biométrica remota en diferido.
Con la Ley de Inteligencia Artificial, la UE tiene una oportunidad única para poner fin a los abusos generalizados que propician las tecnologías de vigilancia masiva. Debe garantizar un elevado nivel de protección de los derechos humanos en el uso de tecnologías innovadoras, especialmente cuando dichas tecnologías amplifiquen las desigualdades existentes en la sociedad.