El proyecto de reforma, expediente 1686-D-2020, propone la incorporación del Sistema de Reconocimiento Facial de Prófugos (SRFP) a la Ley 5688. El SRFP fue implementado por el Gobierno de la Ciudad en abril del año pasado, mediante la Resolución 398/19 del Ministerio de Justicia y Seguridad.
La incorporación de esta tecnología presenta múltiples afectaciones para el ejercicio de los derechos humanos:
- Privacidad: el sistema no solo procesa información biométrica de las personas buscadas, sino de todo transeúnte que pase frente a las cámaras. Es, por lo tanto, una modalidad de vigilancia masiva, y su implementación no es necesaria o proporcionada en ninguna circunstancia.
- Libertad de expresión: la idea de estar bajo constante vigilancia produce un efecto inhibitorio, sobre todo en aquellas personas que emiten discursos críticos contra las mismas autoridades que tienen control sobre estas tecnologías.
- Libertad de reunión y asociación: al eliminar el anonimato, la tecnología de reconocimiento facial impide el libre ejercicio de este derecho por el miedo a futuras represalias.
- No discriminación: se ha demostrado que esta tecnología tiene dificultades para distinguir personas de tez oscura, lo cual deriva en un sinnúmero de falsos positivos y afecta de forma desproporcionada a los grupos que ya se encuentran en situación de vulnerabilidad.
- Presunción de inocencia y debido proceso: el sistema asume que todos y todas somos culpables, por lo que recolecta datos sensibles para determinar luego si somos o no una persona buscada.
El Gobierno de la Ciudad de Buenos Aires impuso este sistema de manera opaca, esquivando la discusión pública, y sin llevar a cabo estudios sobre el impacto en derechos humanos.
Los problemas del SRFP han sido reconocidos por el Sistema Universal de Protección de los Derechos Humanos. Durante su visita a Argentina, en 2019, el Relator Especial de la ONU sobre el derecho a la privacidad Joseph Cannataci manifestó que no veía la “proporcionalidad de instalar una tecnología con graves implicaciones para la privacidad para buscar en una lista de 46.000 personas que actualmente incluye a menores y delitos no graves y que no se actualice y compruebe cuidadosamente su exactitud”.
La Legislatura es la instancia democrática adecuada para poner límites a todo accionar del Poder Ejecutivo que afecte el goce y ejercicio de derechos fundamentales. Las organizaciones firmantes consideran problemático que se intente legitimar un sistema impuesto unilateralmente por el Gobierno de la Ciudad de Buenos Aires, sin desarrollar un debate profundo y exhaustivo en la materia que involucre a los distintos actores interesados. Cabe destacar que este proyecto de ley ni siquiera fue discutido en la Comisión de Derechos Humanos y Garantías de la Legislatura. Es preocupante que las y los legisladores desconozcan la grave afectación que el uso de este tipo de tecnologías provoca en la vida de todos.
En este sentido, las organizaciones firmantes sostienen que existe evidencia suficiente para afirmar que los sistemas de reconocimiento facial, no solo son una forma de vigilancia masiva que viola el derecho a la privacidad, sino que también producen errores que menoscaban el derecho a la igualdad, a la no discriminación, a la presunción de inocencia y pueden llevar a la criminalización de personas incorrectamente identificadas.
Al mismo tiempo, manifiestan que el uso de estas tecnologías puede generar un efecto inhibidor y desincentivar gravemente formas de disidencia dificultando el ejercicio del derecho a la libertad de reunión, la libertad de asociación y la libertad de expresión. Por lo tanto, requieren que, lejos de convalidar la implementación de un sistema tan abusivo, la Legislatura rechace el proyecto de ley en cuestión y sancione una ley que prohiba el uso de tecnologías de reconocimiento facial para la vigilancia del espacio público.
Access Now
Amnistía Internacional
Asociación por los Derechos Civiles
Centro de Estudios Legales y Sociales
DATAS
Fundación Vía Libre
Observatorio de Derecho Informático Argentino