Miles de personas voluntarias de todo el mundo participaron en la investigación, y detectaron 15.280 cámaras de vigilancia en intersecciones de Manhattan (3.590), Brooklyn (8.220) y el Bronx (3.470). Entre los tres, estos barrios suman casi la mitad (47%) de las intersecciones de la Ciudad de Nueva York, y constituyen una enorme superficie de vigilancia omnipresente.
La ciudad vigilada
“Esta extensa red de cámaras puede ser utilizada por la policía para un reconocimiento facial invasivo, y amenaza con convertir Nueva York en una ciudad de vigilancia orwelliana”, ha manifestado Matt Mahmoudi, investigador de Amnistía Internacional sobre Inteligencia Artificial y Derechos Humanos.
“Nunca gozas de anonimato. Ya asistas a una protesta, camines por un barrio concreto o simplemente vayas de compras, tu cara puede ser rastreada por tecnología de reconocimiento facial que utiliza imágenes de miles de cámaras colocadas por toda Nueva York”.
El barrio más vigilado
Nueva York Este, en Brooklyn, un área cuya población es en un 54,4% negra, un 30% hispana y un 8,4% blanca, según datos del censo más reciente, ha resultado ser la zona más vigilada de los tres barrios, con la alarmante cifra de 577 cámaras situadas en intersecciones.
La Policía de Nueva York ha utilizado tecnología de reconocimiento facial en 22.000 casos desde 2017, la mitad de ellos únicamente en 2019. Cuando las imágenes de las cámaras se procesan con esta tecnología, la policía puede rastrear la cara de todas las personas de Nueva York mientras se mueven por la ciudad.
La tecnología de reconocimiento facial trabaja comparando las imágenes de las cámaras con millones de rostros de sus bases de datos, muchas de ellas tomadas de fuentes como las redes sociales sin el conocimiento o el consentimiento del usuario. Se ha reconocido ampliamente que esta tecnología aumenta la actuación policial racialmente discriminatoria y que puede amenazar los derechos a la libertad de reunión pacífica y a la privacidad.
La investigación de Amnistía Internacional ha hecho un modelo del amplio campo de visión de la red de cámaras de circuito cerrado de Nueva York. Por ejemplo, la intersección de las calles Grand y Eldridge está cerca del límite de Chinatown, y estaba cerca de un lugar clave en las protestas de Black Lives Matter (La vida de las personas negras importa). Nuestra investigación encontró tres cámaras Argus pertenecientes al Departamento de Policía cerca del lugar, además de otras cuatro cámaras públicas y más de 170 cámaras de vigilancia privadas, una cifra que, según sugiere nuestro modelo, tiene la capacidad de rastrear caras desde una distancia de hasta 200 metros (o hasta dos calles).
Exacerbar una actuación policial racista
En el verano de 2020, probablemente se utilizó el reconocimiento facial para identificar y rastrear a un participante de una protesta de Black Lives Matter, Derrick “Dwreck” Ingram, que al parecer gritó a un policía al oído. Los agentes de policía no presentaron una orden judicial de registro cuando llegaron a su apartamento.
Amnistía Internacional y sus socios de la coalición para la campaña Veto al escaneo presentaron a la Policía de Nueva York numerosas solicitudes en virtud de la Ley de Libertad de Información, en las que pedían más información sobre el alcance del uso del reconocimiento facial a la luz del caso de Dwreck. Fueron desestimadas, junto con un recurso posterior, mientras que otras siguen en proceso de litigio.
“Ha habido una flagrante falta de información en torno al uso que la Policía de Nueva York hace del software de reconocimiento facial, por lo que a la población de Nueva York le resulta imposible saber si su cara está siendo rastreada por la ciudad, y en qué momento”, afirma Matt Mahmoudi.
“Los problemas de la Policía de Nueva York respecto al racismo y la discriminación sistémicos están bien documentados, y también lo está el sesgo de la tecnología contra las mujeres y la gente de color. El uso de tecnología de reconocimiento facial con imágenes de miles de cámaras en toda la ciudad amenaza con incrementar la actuación policial racista y el acoso a manifestantes, e incluso podría dar lugar a detenciones indebidas”.
“Los Estados pueden usar, y están usando, el reconocimiento facial para dirigirse intencionadamente contra determinadas personas o grupos de personas basándose en sus características, tales como la etnia, la raza y el género, sin que exista una sospecha razonable individualizada de actos delictivos”.
Esfuerzo global
Más de 5.500 personas voluntarias han participado en la investigación, lanzada el 4 de mayo de 2021 como parte de la innovadora plataforma Amnesty Decoders. El proyecto está en curso para recopilar datos sobre los otros dos barrios de Nueva York, pero los voluntarios y voluntarias han analizado ya 38.831 ubicaciones en la ciudad.
Ha sido un esfuerzo global: han participado voluntarios y voluntarias de 144 países, y el grupo más grande (26%) estaba en Estados Unidos. En tan sólo tres semanas, estos voluntarios y voluntarias contribuyeron con la impresionante cifra de 18.841 horas: más de 10 años de trabajo para un investigador o investigadora trabajando a jornada completa en Estados Unidos. A las personas participantes se les dieron imágenes de Google Street View de ubicaciones en toda la Ciudad de Nueva York, y se les pidió que detectaran cámaras; cada intersección era analizada por tres personas. Las cifras totales incluyen una mezcla de cámaras públicas y privadas, pues pueden utilizarse ambos tipos para tecnología de reconocimiento facial.
Metodología
Recopilación de datos
Los datos de Decode Surveillance NYC fueron generados por varios miles de voluntarios y voluntarias digitales. Los voluntarios y voluntarias participaron a través de la plataforma Amnesty Decoders, que utiliza técnicas de microtarea para ayudar a nuestros investigadores a dar respuesta a cuestiones en gran escala.
Para el proyecto Decode Surveillance NYC se asignó a los voluntarios y voluntarias una imagen panorámica de Google Street View de una intersección y se les pidió que detectaran cámaras de vigilancia. Después, les pedimos que registraran dónde estaban instaladas. Se les ofrecieron tres opciones: 1, farola, señal de tráfico o poste; 2, edificio; 3, otra cosa. Si seleccionaban “farola, señal de tráfico o poste”, se les pedía que clasificaran el tipo de cámara como: 1, domo o PTZ; 2, bala; 3, otra o desconocida.
Los voluntarios y voluntarias contaron con el apoyo de un tutorial en video, una guía de ayuda visual y un foro con moderador. Cada uno tardó una media de 1,5 minutos en analizar una intersección.
Análisis de datos:
La información sobre dónde estaba instalada la cámara y su tipo se utilizó como indicador de propiedad pública o privada. A efectos de la investigación, se asumió que las cámaras instaladas en los edificios eran probablemente de propiedad privada. Lo más probable es que determinadas cámaras, como las de tipo domo, colocadas en las farolas, los semáforos o los postes de la carretera, sean propiedad de un organismo gubernamental con permiso y acceso para instalarlas.
Cada intersección fue evaluada por tres voluntarios. Los datos publicados el 3 de junio de 2021 son la mediana del recuento de cámaras de estas tres evaluaciones por intersección. Decidimos utilizar la mediana porque es menos proclive a valores atípicos y errores individuales, y aprovechar así el “conocimiento público”. Los recuentos se estandarizaron según el número de intersecciones dentro de cada unidad administrativa para tener en cuenta las diferentes superficies.
Nuestro equipo científico de datos también utilizó la revisión cualitativa de un subconjunto de intersecciones realizada por un experto para buscar errores o sesgos sistemáticos, como que los voluntarios etiquetaran sólo una de las dos cámaras de las cajas Argus de la policía de Nueva York.
Este análisis preliminar garantiza unos órdenes de magnitud correctos, suficientes para las primeras conclusiones. A continuación, se llevará a cabo un análisis más detallado, que incluirá intervalos de confianza basados en el análisis de los datos. También evaluaremos en un pequeño subconjunto representativo de intersecciones determinadas métricas de calidad, como la precisión y el reconocimiento, para comparar el desglose de los Amnesty Decoders con la opinión de expertos.
Modelización 3D
Se utilizó la modelización 3D para determinar la distancia estimada desde la que una cámara Argus de la policía de Nueva York podía capturar imágenes de vídeo procesables por el software de reconocimiento facial.
A falta de especificaciones técnicas de las cámaras Argus de la policía de Nueva York, investigamos los modelos comerciales. Según las imágenes históricas de Google Street View, la cámara con la que hicimos el ejercicio de modelización se habría instalado entre noviembre de 2017 y junio de 2018. Los datos sobre las cámaras comerciales disponibles en ese momento sugieren que es probable que se trate de un modelo de movimiento horizontal, vertical y zoom (Pan, Tilt, and Zoom, PTZ) con un objetivo varifocal de 6-134 mm capaz de filmar con una resolución de 4K u 8 megapíxeles.
El modelo 3D muestra que la cámara podría vigilar las carreteras vecinas y captar rostros en alta definición desde unos pocos metros hasta 200 metros (o dos manzanas) de distancia.
Para obtener más información sobre el proyecto, se puede acceder a Decode Surveillance NYC (en inglés) y consultar la guía de ayuda. Decode Surveillance NYC se diseñó teniendo en cuenta proyectos anteriores de mapeo de cámaras, como las encuestas a pie de 1998 y 2006 realizadas por la Unión de Libertades Civiles de Nueva York (NYCLU)