“El poder legislativo francés debe rechazar cualquier plan de usar videovigilancia alimentada por inteligencia artificial (IA) en los Juegos Olímpicos de París 2024. Estas tecnologías de vigilancia masiva violan el derecho a la intimidad y pueden violar también los derechos a la libertad de expresión y de reunión pacífica, lo que podría desembocar en niveles distópicos de vigilancia en el futuro”, ha declarado hoy Amnistía Internacional, cuando el proyecto de ley sobre los Juegos Olímpicos y Paralímpicos de 2024 va a ser sometido a la votación del pleno de la Asamblea Nacional francesa.
El proyecto de ley fue aprobado por el Senado francés en enero y, de ser adoptado, legalizará el uso de un sistema ubicuo de videovigilancia masiva alimentado por IA por primera vez en la historia de Francia... y de la Unión Europea. Según el poder legislativo francés, esta colosal arquitectura de vigilancia es “experimental” y se usará para garantizar la seguridad durante los Juegos. Amnistía Internacional teme, sin embargo, que el proyecto de ley amplíe las facultades de la policía al aumentar el arsenal de equipos de vigilancia del gobierno de forma permanente.
“Reabastecer el aparato de seguridad con una vigilancia masiva alimentada por IA es un proyecto político peligroso que podría desembocar en violaciones generalizadas de los derechos humanos. Todas y cada una de las acciones que se realicen en un espacio público serán absorbidas en una red de arrastre de infraestructura de vigilancia, lo que menoscabará libertades civiles fundamentales”, advirtió Agnes Callamard, secretaria general de Amnistía Internacional.
“El poder legislativo francés no ha demostrado que esta legislación cumple los principios de necesidad y proporcionalidad que son absolutamente fundamentales para garantizar que las medidas de seguridad y vigilancia no amenazan los derechos a la libertad de reunión y de asociación, a la intimidad y a la no discriminación. Siendo como es comprensible la necesidad de seguridad durante el evento, el derecho internacional de los derechos humanos sigue aplicándose a los Juegos Olímpicos. En su formato actual, estas aplicaciones generales de vigilancia masiva alimentada por IA son una violación total del derecho a la intimidad y de otros derechos.”
Si las medidas de vigilancia masiva alimentadas por IA se implementan, serán rastreadas y vigiladas millones de personas cuando se dirijan a los estadios o cuando usen el transporte público para acceder a las instalaciones del gran evento deportivo. Los algoritmos de la IA analizan y capturan datos de todas las personas que se encuentran en su radio de acción. La presencia ubicua de cámaras de circuito cerrado y drones en los Juegos que permitirán a las autoridades detectar actividades “sospechosas” o “anormales” en la multitud es, como tal, especialmente problemática.
“Estas definiciones, excesivamente amplias, establecidas por las autoridades para clasificar las actividades “sospechosas” o “anormales” en la multitud son muy preocupantes. Debemos hacernos algunas preguntas urgentes: ¿Quién fija la norma de lo que es ‘normal’? Las autoridades que controlan cuáles son las actividades ‘anormales o sospechosas’ en las sociedades tienen también el poder de exacerbar un efecto disuasorio sobre la disidencia y la protesta, y de agravar la discriminación que sufren comunidades ya discriminadas”, prosiguió Agnes Callamard.
Las amenazas para los derechos humanos que plantea el desarrollo y uso de la IA por empresas privadas y autoridades públicas en la Unión Europea (UE) están bien documentadas.
“Estas tecnologías amplifican la actuación policial racista y amenazan el derecho de protesta.” Las minorías étnicas —incluidas las personas migrantes, y las personas negras y pardas— son quienes más riesgo corren de ser objeto de ciertas herramientas de vigilancia, sobre todo de los sistemas de reconocimiento facial”, dijo Agnes Callamard.
Este proyecto de ley no es sólo una amenaza para la privacidad y los derechos humanos, sino que también traiciona el espíritu de la Ley de Inteligencia Artificial de la UE, una ley significativa en el ámbito global que tiene como fin regular la IA y proteger los derechos fundamentales en la Unión, de la que Francia es miembro influyente.
“El plan de Francia de usar medidas de vigilancia invasiva durante los Juegos Olímpicos debería servir de llamada de atención para la UE. El primer uso en la UE de este mecanismo de seguridad podría pervertir en última instancia la legislación sobre IA de la Unión de un modo que podría causar una crisis de derechos humanos mediante la violación en gran escala de los derechos de millones de personas que son vigiladas, sin su conocimiento ni su consentimiento, y potencialmente objeto de tecnologías experimentales de vigilancia masiva. A través de sus negociaciones en torno a la Ley de IA, la UE debe poner fin al uso de tecnologías de inteligencia artificial para la vigilancia masiva y para monitorear de forma discriminatoria a la ciudadanía. También pedimos la prohibición de los sistemas de reconocimiento facial empleados para la vigilancia masiva”, concluyó Agnes Callamard.
Si Francia legaliza la vigilancia masiva en el ámbito nacional, una de las mayores citas deportivas del planeta podría convertirse en una de las mayores violaciones del derecho a la intimidad.
Información general:
El texto del proyecto de ley fue aprobado por el Senado el 31 de enero y superó un obstáculo legislativo el 8 de marzo tras el voto de la comisión.
En una carta abierta iniciada por el Centro Europeo para la Ley Sin Fines de Lucro, 38 organizaciones de la sociedad civil, Amnistía Internacional entre ellas, han pedido a quienes elaboran las políticas en Francia que rechacen el proyecto de ley que permite la vigilancia invasiva.
Amnistía Internacional, junto con una coalición de organizaciones de la sociedad civil encabezada por la Red Europea de Derechos Digitales (EDRi), pide una regulación de las tecnologías y prácticas de IA en la UE acorde con los derechos humanos.
Amnistía Internacional ha documentado con anterioridad el uso de miles de cámaras de circuito cerrado con capacidad para el reconocimiento facial en la ciudad de Nueva York, muchas de las cuales se usaron en comunidades racializadas y aumentaron la actuación policial racialmente discriminatoria.
Tras los Juegos Olímpicos de Londres en 2012, numerosas medidas de vigilancia utilizadas por motivos de seguridad durante el evento se hicieron permanentes.