TikTok, salud mental y privacidad: una combinación nociva para niños, niñas y adolescentes en Argentina – Amnistía Internacional Argentina | Defendemos los derechos humanos

TikTok, salud mental y privacidad: una combinación nociva para niños, niñas y adolescentes en Argentina


¿Qué pasa cuando los jóvenes quedan atrapados horas en su celular en una espiral que puede ser perjudicial para su bienestar? Esto es lo que se preguntó Amnistía Internacional en su último informe: “Domar el algoritmo”: desafíos para la salud mental y privacidad en el uso de TikTok Argentina. 

Los hallazgos de la investigación se centran en dos ejes principales: privacidad y datos personales, por un lado, y salud mental por el otro. En ellos se incluye la espiral tóxica que puede ser TikTok, las estrategias de hiperpersonalización del algoritmo, la conflictiva gestión del tiempo, los miedos y la exposición a la violencia.   

Las redes sociales deberían combinar entretenimiento, comunicación y servir además como fuente de información, y de hecho han dado muestras de lo beneficiosas que pueden ser para socializar, difundir noticias y conectar. Sin embargo, nuestro estudio enciende algunas alarmas que preocupan no solo a mamás y papás sino a los propios usuarios de TikTok”, alertó Mariela Belski, directora ejecutiva de Amnistía Internacional Argentina.  

Este proyecto etnográfico, el primero de este tipo en Argentina, fue liderado por Martín Becerra y Victoria Irisarri, doctores en Ciencias de la Información y en Antropología, respectivamente. Se desarrolló entre febrero y junio en cinco localidades.El enfoque consistió en comprender las experiencias cotidianas de jóvenes de entre 13 a 25 años con esta plataforma. Durante la pandemia, TikTok exacerbó su crecimiento, y el vínculo con la app es percibido como más intenso y permanente entre las personas menores de edad. 
 

lnforme


Miniguía para familias



TikTok

 

“El algoritmo me escucha”: privacidad en TikTok 

El algoritmo de la app es percibido como una entidad con vida propia que predice, casi mágicamente, los gustos, preferencias y hasta los pensamientos de los usuarios. A lo largo del trabajo de campo los jóvenes compartieron frases tales como: “el algoritmo se dio cuenta de lo que me gusta”.    

Así, TikTok genera una especie de “burbuja”. Extrae información con y sin consentimiento en base a variables como intereses, gustos y motivaciones, género y rango etario; información técnica sobre el dispositivo móvil, dirección IP, proxy, operador de telecomunicaciones, zona horaria, tipo de red, identificadores del dispositivo, nombres y tipos de aplicaciones y archivos, patrones o ritmos de pulsación de teclas, estado de la batería, configuración de audio y dispositivos de audio conectados. Los datos y la huella digital de los usuarios son rastreables e identificables. 

La extracción de datos no puede desactivarse. Su política de privacidad es poco respetuosa de los datos personales y de la información generada por sus usuarios.La plataforma utiliza estos datos para crear perfiles que se ponen a disposición de los anunciantes para que se dirijan a ellos con contenidos y anuncios altamente personalizados.   

Este “nivel de extracción” no es parejo en todo el mundo. Según el lugar donde viva el niño, niña o usuario adolescente de TikTok, el sistema es más o menos respetuoso. Por ejemplo, en la Unión Europea o en algunas partes de Asia el sistema presenta más barreras para el acceso a los datos de los usuarios.  

 

Miedos y salud mental 

Uno de los hallazgos del estudio fue la distinción entre el “lado malo” y el “lado bueno” de TikTok. Los jóvenes generan estrategias para “salir del lado malo”. Por ejemplo, entrenarlo a través de los “me gusta” y también de la elección “no me interesa”; abrir cuentas que “entrenan” para que la programación algorítmica reitere determinados temas y contenidos deseados; también suelen pedirles a otros usuarios que les envíen links con contenidos “buenos” que ayudarán a domesticar al algoritmo.  

Complementariamente, hay otros temores como el volverse viral por un contenido o por la atención derivada desde otras cuentas. En TikTok el peso de la viralidad recae más sobre el tema del video, su geolocalización y otras variables que la compañía no revela.  

Además, el estudio destaca el carácter absorbente de la aplicación que genera nociones de “pérdida” del tiempo, de descontrol, e incluso de “abducción. En principio, las búsquedas de autorregulación o control parental no parecerían suficientes para frenar la sensación de adicción. Incluso las alertas que la misma app promociona para limitar su consumo no son eficaces. Las advertencias sobre “contenido sensible” tampoco son una respuesta adecuada. 

El autodiagnóstico emerge como una práctica frecuente. Su popularidad, la distancia con el saber profesional y científico respecto de síntomas percibidos como problemas de salud física y mental y el acceso directo a consejos de influencers u otras cuentas, experiencias y recetas vinculadas con el aspecto y con el bienestar emocional es un resultado sobresaliente del estudio, no sólo por los testimonios de los interlocutores, sino porque narran estas situaciones como generalizadas en sus entornos. Estos contenidos pueden poner en riesgo la integridad física o el equilibrio mental, sin que la programación algorítmica de la plataforma detecte o emita alertas en estos casos.  

 

lnforme


Miniguía para familias



Presentación del informe 

“Nuestra investigación en Argentina confirma que los problemas de salud de las franjas más jóvenes de la población suelen tramitarse en forma de autodiagnósticos y consumos de contenidos relacionados con la salud mental carentes de curaduría profesional ni científica. Este diagnóstico sumado al modelo de negocios de la app que extrae datos sin consentimiento genera una combinación peligrosa”, advirtió Paola García Rey, directora adjunta de Amnistía Internacional Argentina durante la presentación del informe en el espacio ArtLab, ubicado en Capital Federal.  

Del panel también participaron Martín Becerra, doctor en ciencias de la información, y Victoria Irisarri, doctora en antropología social. Ambos lideraron la investigación junto a un equipo de trabajo.  

Del panel también participaron Martín Becerra, doctor en ciencias de la información, y Victoria Irisarri, doctora en antropología. Ambos lideraron la investigación junto a un equipo de trabajo. También participaron integrantes del Grupo de Jóvenes de Amnistía Internacional Argentina.  

“La plataforma no ofrece información sobre el algoritmo, por eso las y los jóvenes nos transmitieron sus rutinas de ensayo y error para intentar ‘domar’ el algoritmo en el marco de una puja por el control inherente a toda tecnología; y esa puja es desigual entre los usuarios, que no tienen toda la información, y las empresas”, señaló Becerra. 

“Ninguna de las redes socio digitales puede garantizar cuestiones de seguridad, privacidad y protección de los datos a sus usuarios. TikTok tiene un perfil más agresivo en este sentido: la extracción de datos no solo se hace dentro de esta plataforma, sino que dialoga con otras, concluyó Irisarri.  

 

Pedidos a TikTok y a las Big Tech  

En investigaciones anteriores a nivel global, Amnistía Internacional reveló las vulneraciones de derechos no sólo de TikTok sino otros grandes de la tecnología como Meta y Twitter (ahora X). La protección y la seguridad de personas vulnerables (la niñez, la adolescencia y quienes padecen trastornos físicos o psíquicos) demanda conocimientos y elaboración de respuestas por parte de los Estados y de las grandes compañías dueñas de las plataformas digitales que canalizan, crecientemente, las experiencias formativas, recreativas, informativas y vinculares de la mayor parte de la población mundial. 

TikTok debe respetar los derechos de sus usuarios más jóvenes. Aunque Amnistía Internacional pide a la app que adopte medidas urgentes hacia un modelo de negocio respetuoso de los derechos, también es necesaria una regulación vinculante para proteger y hacer realidad los derechos de la infancia y la juventud. Finalmente, las compañías y los Estados deben impulsar la concientización sobre el respeto a la privacidad y la necesidad de que temas de salud sean tratados por profesionales.   

 

 

Información complementaria  

Este informe realizado en Argentina es parte de una estrategia global cuyos antecedentes son dos investigaciones internacionales: Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida (en español) y “Siento que no se me protege”: Emboscada en la red de vigilancia de TikTok (solo en inglés) - publicados a inicios de noviembre. Ambos reportes revelan la manera en que niños, niñas y jóvenes pueden caer en espirales de contenido que romantiza o anima la autolesión y el suicidio y como el modelo de negocio de Tiktok y su algoritmo supone violaciones a la privacidad y seguridad.  

Y forma parte, además, de un llamado de la organización #FixTikTok para que TikTok prohíba en todo el mundo la publicidad dirigida selectivamente a los usuarios/as más jóvenes, y que la hiperpersonalización del feed “Para ti” no sea una funcionalidad por defecto. 

  

lnforme


Miniguía para familias


 


Publicado el

COLABORÁ

Me gustaría ayudar y donar hoy

Gracias al aporte de personas como vos, Amnistía Internacional trabaja con absoluta independencia. Tu aporte nos permite continuar exigiendo el respeto de los derechos humanos en todo el mundo.

Noticias Relacionadas

¿Cómo quieres que se usen las cookies en este sitio? Hemos descargado cookies en tu equipo para facilitarte el uso de este sitio web. Puedes utilizar esta herramienta para cambiar la configuración de las cookies. Si no la cambias, entenderemos que accedes a continuar.
ACEPTO
NO USAR COOKIES