“Desde la implementación sin control de sistemas de identificación digital hasta los algoritmos que se utilizan en sistemas de prestaciones sociales, existe una tendencia creciente a integrar la tecnología en todos los aspectos de la vida cotidiana en un contexto de ‘brecha digital’ de género global preexistente donde el acceso a la tecnología está restringido para algunas personas gracias a patrones de desigualdad histórica”, ha manifestado Imogen Richmond, investigadora sobre tecnología y derechos económicos, sociales y culturales de Amnistía Internacional.
“Toda tecnología introducida para la gobernanza está insertada en el contexto discriminatorio de esta brecha digital existente”.
Por ejemplo, en Pakistán, la Autoridad Nacional de Bases de Datos y Registro (NADRA) suspendió la categoría X en sus tarjetas de identidad nacionales computarizadas (CNIC), categoría que había permitido a las personas identificarse con un género que no fuera masculino o femenino. La decisión dejó a miles de personas transgénero y de género diverso sin un documento de identidad válido, lo que les impedía ejercer sus derechos fundamentales, como votar o acceder a atención médica y a oportunidades de empleo. Sin embargo, las inscripciones en la categoría X se reanudaron en septiembre de 2023.
Existe una tendencia creciente a integrar la tecnología en todos los aspectos de la vida cotidiana en un contexto de ‘brecha digital’ de género global preexistente donde el acceso a la tecnología está restringido para algunas personas gracias a patrones de desigualdad histórica.
Imogen Richmond, investigadora sobre tecnología y derechos económicos, sociales y culturales de Amnistía Internacional
Además de la brecha digital, existen otras barreras a las que se enfrentan las mujeres, las niñas y las personas LGBTI a la hora de ejercer sus derechos humanos en el espacio digital, incluido el acceso a la información sobre salud, derechos y servicios sexuales y reproductivos, como el aborto.
La limitación del acceso a la información sobre salud, en particular para servicios clave para las mujeres y las personas LGBTI, por gobiernos o plataformas de redes sociales puede constituir una violación del derecho a la salud. Esta tendencia está en aumento en Estados Unidos, donde activistas y organizaciones por el derecho al aborto han denunciado la eliminación de contenido relacionado con éste en Meta y TikTok, lo que impide de hecho el acceso de las personas a información que salva vidas.
Los sistemas que utilizan algoritmos para promover contenido en las plataformas de redes sociales también pueden facilitar el sesgo al amplificar el contenido dañino y discriminatorio. Una investigación de Amnistía Internacional sobre TikTok descubrió que la empresa infiere las características personales de una persona usuaria, incluidos su género e intereses, en función de la información que tiene sobre ella para personalizar y adaptar el contenido y los anuncios.
La vigilancia digital selectiva mediante el uso de software espía también puede constituir una forma de violencia de género facilitada por la tecnología. Se selecciona y vigila a mujeres y personas LGBTI por participar en el activismo de derechos humanos, lo que las somete a una serie de impactos relacionados con el género.
La investigación de Amnistía Internacional en Tailandia ha puesto de manifiesto que agentes estatales y no estatales someten a activistas a vigilancia digital y acoso en Internet de forma maliciosa e ilegítima, lo que ha tenido consecuencias relacionadas con el género muy perjudiciales para las mujeres y las personas LGBTI que defienden los derechos humanos. Estos funestos ataques selectivos, algunos de ellos realizados con el conocido software espía Pegasus, han creado un efecto disuasorio que, en algunos casos, ha llevado a la autocensura o a la retirada del activismo.
Las mujeres y activistas LGBTI en Tailandia también fueron objeto de formas de acoso en Internet, como revelación de datos personales, campañas de desprestigio, amenazas y mensajes insultantes, con el fin de intimidarlas, causarles angustia y silenciarlas.
“Es vital que gobiernos y actores privados adopten un enfoque explícitamente inclusivo de género para regular las tecnologías y abordar sus daños. Si estos sistemas perpetúan la discriminación y la desigualdad para las mujeres y las personas LGBTI, entonces no deberían implementarse”, concluyó Imogen Richmond-Bishop.
Información complementaria
En 2024, Amnistía Internacional publicó un documento explicativo técnico sobre el uso del sistema Samagra Vedika en el estado indio de Telangana. La explicación técnica estuvo precedida de informaciones en la prensa en las que se culpaba a este sistema de excluir a miles de personas del acceso a medidas de protección social, incluidas las relacionadas con la seguridad alimentaria, los ingresos y la vivienda.
En 2023, la investigación de Amnistía Internacional expuesta en el informe titulado Trapped by Automation: Poverty and Discrimination in Serbia’s Welfare State documentó que numerosas personas, en particular romaníes y personas con discapacidad, no podían pagar sus facturas ni llevar comida a casa, y tenían dificultades para llegar a fin de mes tras haber sido eliminadas de la ayuda de la asistencia social con la introducción del registro de la tarjeta social.