Este es un blog escrito por una activista juvenil independiente de Argentina y tienen como objetivo brindar una plataforma para las voces de los jóvenes.
Abril, Argentina
Abril es una activista de derechos humanos y actualmente estudia una licenciatura en ciencias políticas. Forma parte del grupo de jóvenes activistas de Amnistía Internacional Argentina, y también forma parte del programa RIGHTSclick. También trabaja como joven becaria de prospectiva en UNICEF Innocenti.
El lado B de las redes sociales
En la era digital actual, las redes sociales, como Tik Tok, se han convertido en una parte integral de nuestras vidas. Estas plataformas nos ofrecen entretenimiento, conocimiento y la posibilidad de conectar con personas de todo el mundo. Sin embargo, detrás de la fachada de diversión y conectividad, hay una cara B que amenaza nuestros derechos y expone grandes desigualdades sociales.
En los países de la Unión Europea y del Espacio Económico Europeo (EEE), la protección de los derechos de privacidad y la regulación de las redes sociales para niños y jóvenes se han convertido en temas prioritarios en los últimos años. Las leyes de protección de datos imponen fuertes restricciones a la recopilación y el uso de información personal por parte de las plataformas. Estas regulaciones tienen como principal objetivo proteger la privacidad de los usuarios y garantizar que las empresas operen de manera ética y responsable.
TikTok está tomando medidas concretas para proteger a los niños menores de 18 años en el Espacio Económico Europeo, el Reino Unido y Suiza de ciertos abusos, como la prohibición de la publicidad personalizada dirigida a este grupo demográfico. Esto demuestra claramente que la plataforma puede funcionar sin depender de estos elementos abusivos en su negocio.
Sin embargo, este enfoque nos lleva a plantearnos preguntas importantes sobre la situación en países fuera de la UE y del EEE, que es completamente diferente.
En Argentina y otros países del sur global, las desigualdades en la regulación de las redes sociales son evidentes. Las políticas de privacidad utilizadas por TikTok extraen más datos para niños menores de 18 años, porque la regulación o la aplicación de la regulación existente es más débil. Esto crea una brecha importante en la protección de la privacidad que se vuelve cada día más evidente y marca una alerta importante para exigir acciones.
La disparidad en la regulación plantea preguntas importantes sobre la desigualdad global en la era digital. ¿Por qué las mismas plataformas pueden operar con estándares diferentes en diferentes partes del mundo? ¿Por qué TikTok respeta los derechos de los niños en Europa más que en otras partes del mundo?
Las desigualdades sociales y las relaciones de disparidad que han sido evidentes a nivel mundial durante muchos años ahora se están recreando en entornos digitales. Y en una era en la que las vidas de la mayoría de los niños y jóvenes están entrelazadas con la tecnología, es esencial exigir una protección adecuada e igualitaria para todos.
Proteger a los niños y jóvenes en línea debe ser una prioridad global, no un privilegio limitado a determinadas regiones. Las medidas de Tik Tok nos muestran que otro camino es posible. La igualdad de derechos y la protección de la privacidad deben extenderse más allá de las fronteras de Europa y llegar a todos los niños y jóvenes, sin importar dónde se encuentren.
Es una responsabilidad tanto política como corporativa que debemos exigir y defender, para garantizar que ningún niño o joven esté expuesto a relaciones de disparidad en el entorno digital.
Más información:
La investigación técnica en asociación con el Algorithmic Transparency Institute y AI Forensics utilizando cuentas automatizadas mostró que después de 5 a 6 horas en la plataforma, casi 1 de cada 2 videos estaban relacionados con la salud mental y eran potencialmente dañinos, aproximadamente 10 veces el volumen mostrado a cuentas sin Interés por la salud mental. Hubo un efecto de “madriguera de conejo” aún más rápido cuando los investigadores volvieron a mirar manualmente videos relacionados con la salud mental sugeridos para cuentas de “títeres de calcetines” que imitaban a usuarios de 13 años en Kenia, Filipinas y Estados Unidos.
Entre 3 y 20 minutos después de nuestra investigación manual, más de la mitad de los videos en el feed "Para ti" estaban relacionados con problemas de salud mental con múltiples videos recomendados en una sola hora que romantizaban, normalizaban o fomentaban el suicidio. El propio modelo de negocio de TikTok es intrínsecamente abusivo y privilegia la participación para mantener a los usuarios enganchados a la plataforma, con el fin de recopilar cada vez más datos sobre ellos. Aplica protecciones de manera desigual para los usuarios de todo el mundo. El sistema de recomendación de contenido de TikTok y sus prácticas invasivas de recopilación de datos representan un peligro para los usuarios jóvenes de la plataforma al amplificar el contenido depresivo y suicida que corre el riesgo de empeorar los problemas de salud mental existentes, según muestran dos informes complementarios publicados hoy por Amnistía Internacional.
Los dos informes, Impulsados hacia la oscuridad: cómo TikTok fomenta la autolesión y la ideación suicida y Me siento expuesto: atrapado en la red de vigilancia de TikTok, resaltan los abusos experimentados por niños y jóvenes que usan TikTok, y las formas en que estos abusos son causado por el sistema de recomendación de TikTok y el modelo de negocio subyacente.
Los hallazgos de una investigación técnica conjunta con nuestros socios, el Instituto de Transparencia Algorítmica (ATI) en la Conferencia Nacional sobre Ciudadanía y Análisis Forense de IA, muestran cómo los niños y jóvenes que ven contenido relacionado con la salud mental en la página "Para ti" de TikTok son verse arrastrados rápidamente a “madrigueras” de contenido potencialmente dañino, incluidos videos que romantizan y fomentan el pensamiento depresivo, la autolesión y el suicidio. “Los hallazgos exponen las prácticas de diseño manipuladoras y adictivas de TikTok, que están diseñadas para mantener a los usuarios interesados el mayor tiempo posible. También muestran que el sistema algorítmico de recomendación de contenidos de la plataforma, al que se le atribuye haber permitido el rápido crecimiento mundial de la plataforma, expone a niños y adultos jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños”, afirmó Lisa Dittmer, investigadora de Amnistía Internacional.