Robots asesinos: una oportunidad crucial para prohibirlos, mientras estemos a tiempo – Amnistía Internacional Argentina | Defendemos los derechos humanos

Robots asesinos: una oportunidad crucial para prohibirlos, mientras estemos a tiempo


48975265112_b3f010accb_o-scaled-1444x710

 Varios países están realizando una fuerte inversión en el desarrollo de armas autónomas, a pesar de las devastadoras implicaciones para los derechos de otorgar a las máquinas control sobre el uso de la fuerza. En diciembre, un grupo de expertos de la ONU se reunirá para decidir si se empieza a negociar una nueva legislación internacional sobre la autonomía de los sistemas de armas. Amnistía Internacional y Stop Killer Robots han lanzado una petición dirigida a todos los gobiernos para que muestren su apoyo a las negociaciones.

Además, para concientizar sobre el problema, las organizaciones presentaron hoy un filtro para redes sociales que permite dar una aterradora ojeada al futuro de la guerra, la actuación policial y el control de fronteras. Escape the Scan, un filtro para Instagram y Facebook, forma parte de una importante campaña que pide una nueva legislación internacional que prohíba los sistemas de armas autónomos. El filtro emplea tecnología de realidad aumentada (RA) para mostrar aspectos de sistemas de armas que ya se están desarrollando, como el reconocimiento facial, los sensores de movimiento y la capacidad de lanzar ataques sobre “objetivos” sin un control humano significativo.

“Nos vamos a encontrar con un panorama aterrador, un mundo en el que los drones y otras armas avanzadas pueden escoger objetivos y atacarlos sin control humano. Este filtro está diseñado para ofrecer a la gente una idea de lo que los robots asesinos podrían hacer pronto, y mostrar por qué debemos actuar con urgencia para mantener el control humano sobre el uso de la fuerza”, afirmó Verity Coyle, asesora general de Amnistía Internacional sobre transferencias de material militar, de seguridad y policial.

“Permitir a las máquinas decidir sobre la vida o la muerte es un ataque a la dignidad humana, que probablemente generará terribles violaciones de derechos humanos y de las leyes de la guerra. También intensificará la deshumanización digital de la sociedad, reduciendo a las personas a puntos de datos que pueden ser procesados. Necesitamos un tratado internacional vinculante robusto que detenga la proliferación de robots asesinos antes de que sea demasiado tarde.”

Escape the Scan estará disponible a partir del 2 de noviembre en las páginas de Instagram y Facebook de Stop Killer Robots.

 Una versión más amplia del filtro se expondrá en el marco de una experiencia interactiva en Westfield Stratford City (Londres), uno de los centros comerciales más grandes de Europa, a partir de hoy y durante las dos próximas semanas.


 Momento de establecer un límite

 “Llevamos 10 años de conversaciones sobre armas autónomas en las Naciones Unidas, pero están siendo bloqueadas por los mismos Estados que las están desarrollando”, ha sostenido Ousman Noor, de la Campaña contra los Robots Asesinos.

“El secretario general de la ONU, el Comité Internacional de la Cruz Roja, premios Nobel, miles de científicos, especialistas en robótica y personas que trabajan en el sector tecnológico están pidiendo un tratado para prevenir este tipo de armas; los gobiernos deben establecer un límite a las máquinas que pueden decidir matar.”

El 2 de diciembre de 2021, el grupo de expertos gubernamentales de la Convención sobre Ciertas Armas Convencionales iniciará unas conversaciones críticas sobre si comenzar las negociaciones sobre un nuevo tratado para abordar la amenaza que plantean los robots asesinos. Hasta la fecha, 66 Estados han pedido un nuevo marco jurídico vinculante sobre la autonomía de los sistemas de armas. No obstante, los avances se han visto estancados por un pequeño grupo de poderosos Estados entre los que figuran Rusia, Israel y Estados Unidos, que consideran prematura la creación de nueva legislación internacional.

La sustitución de tropas por máquinas facilitará que se decida ir a la guerra. Además, las máquinas no pueden tomar decisiones éticas complejas en el contexto de un campo de batalla impredecible o situaciones del mundo real; no se puede sustituir la toma de decisiones humana. Ya hemos visto cómo tecnologías como el reconocimiento facial, de emociones, de la forma de caminar y de la voz no reconocen a personas negras y personas con discapacidad; y cómo causan enormes perjuicios en materia de derechos humanos incluso cuando “funcionan”. Emplear estas tecnologías en el campo de batalla, en la actuación policial o en el control de fronteras sería desastroso.

Pese a estos motivos de preocupación, países como Estados Unidos, China, Israel, Corea del Sur, Rusia, Australia, India, Turquía y Reino Unido están realizando fuertes inversiones en el desarrollo de sistemas autónomos. Por ejemplo, Reino Unido está desarrollando un vehículo aéreo no tripulado capaz de volar de manera autónoma e identificar un objetivo en una zona programada. China está creando “enjambres” de pequeños drones que podrían programarse para atacar cualquier cosa que emita temperatura corporal, y Rusia ha construido un tanque robot al que se le puede acoplar una ametralladora o un lanzagranadas.

Si desean acceder a una vista preliminar del filtro, pónganse en contacto con press@amnesty.org o media@stopkillerrobots.org.

Stop Killer Robots es una coalición global de más de 180 ONG internacionales, regionales y nacionales y personas del mundo académico que trabaja en 66 países para garantizar un control humano significativo sobre el uso de la fuerza mediante el desarrollo de una nueva legislación internacional. Amnistía Internacional es una de las nueve organizaciones del comité conductor de la coalición.

Publicado el

COLABORÁ

Me gustaría ayudar y donar hoy

Gracias al aporte de personas como vos, Amnistía Internacional trabaja con absoluta independencia. Tu aporte nos permite continuar exigiendo el respeto de los derechos humanos en todo el mundo.

Noticias Relacionadas

¿Cómo quieres que se usen las cookies en este sitio? Hemos descargado cookies en tu equipo para facilitarte el uso de este sitio web. Puedes utilizar esta herramienta para cambiar la configuración de las cookies. Si no la cambias, entenderemos que accedes a continuar.
ACEPTO
NO USAR COOKIES