Los hallazgos de la investigación se centran en dos ejes principales: privacidad y datos personales, por un lado, y salud mental por el otro. En ellos se incluye la espiral tóxica que puede ser TikTok, las estrategias de hiperpersonalización del algoritmo, la conflictiva gestión del tiempo, los miedos y la exposición a la violencia.
“Las redes sociales deberían combinar entretenimiento, comunicación y servir además como fuente de información, y de hecho han dado muestras de lo beneficiosas que pueden ser para socializar, difundir noticias y conectar. Sin embargo, nuestro estudio enciende algunas alarmas que preocupan no solo a mamás y papás sino a los propios usuarios de TikTok”, alertó Mariela Belski, directora ejecutiva de Amnistía Internacional Argentina.
Este proyecto etnográfico, el primero de este tipo en Argentina, fue liderado por Martín Becerra y Victoria Irisarri, doctores en Ciencias de la Información y en Antropología, respectivamente. Se desarrolló entre febrero y junio en cinco localidades. El enfoque consistió en comprender las experiencias cotidianas de jóvenes de entre 13 a 25 años con esta plataforma. Durante la pandemia, TikTok exacerbó su crecimiento, y el vínculo con la app es percibido como más intenso y permanente entre las personas menores de edad.
lnforme
Miniguía para familias
“El algoritmo me escucha”: privacidad en TikTok
El algoritmo de la app es percibido como una entidad “con vida propia” que predice, casi mágicamente, los gustos, preferencias y hasta los pensamientos de los usuarios. A lo largo del trabajo de campo los jóvenes compartieron frases tales como: “el algoritmo se dio cuenta de lo que me gusta”.
Así, TikTok genera una especie de “burbuja”. Extrae información con y sin consentimiento en base a variables como intereses, gustos y motivaciones, género y rango etario; información técnica sobre el dispositivo móvil, dirección IP, proxy, operador de telecomunicaciones, zona horaria, tipo de red, identificadores del dispositivo, nombres y tipos de aplicaciones y archivos, patrones o ritmos de pulsación de teclas, estado de la batería, configuración de audio y dispositivos de audio conectados. Los datos y la huella digital de los usuarios son rastreables e identificables.
La extracción de datos no puede desactivarse. Su política de privacidad es poco respetuosa de los datos personales y de la información generada por sus usuarios. La plataforma utiliza estos datos para crear perfiles que se ponen a disposición de los anunciantes para que se dirijan a ellos con contenidos y anuncios altamente personalizados.
Este “nivel de extracción” no es parejo en todo el mundo. Según el lugar donde viva el niño, niña o usuario adolescente de TikTok, el sistema es más o menos respetuoso. Por ejemplo, en la Unión Europea o en algunas partes de Asia el sistema presenta más barreras para el acceso a los datos de los usuarios.
Miedos y salud mental
Uno de los hallazgos del estudio fue la distinción entre el “lado malo” y el “lado bueno” de TikTok. Los jóvenes generan estrategias para “salir del lado malo”. Por ejemplo, entrenarlo a través de los “me gusta” y también de la elección “no me interesa”; abrir cuentas que “entrenan” para que la programación algorítmica reitere determinados temas y contenidos deseados; también suelen pedirles a otros usuarios que les envíen links con contenidos “buenos” que ayudarán a “domesticar” al algoritmo.
Complementariamente, hay otros temores como el volverse viral por un contenido o por la atención derivada desde otras cuentas. En TikTok el “peso” de la viralidad recae más sobre el tema del video, su geolocalización y otras variables que la compañía no revela.
Además, el estudio destaca el carácter absorbente de la aplicación que genera nociones de “pérdida” del tiempo, de descontrol, e incluso de “abducción”. En principio, las búsquedas de autorregulación o control parental no parecerían suficientes para frenar la sensación de adicción. Incluso las alertas que la misma app promociona para limitar su consumo no son eficaces. Las advertencias sobre “contenido sensible” tampoco son una respuesta adecuada.
El autodiagnóstico emerge como una práctica frecuente. Su popularidad, la distancia con el saber profesional y científico respecto de síntomas percibidos como problemas de salud física y mental y el acceso directo a consejos de influencers u otras cuentas, experiencias y recetas vinculadas con el aspecto y con el bienestar emocional es un resultado sobresaliente del estudio, no sólo por los testimonios de los interlocutores, sino porque narran estas situaciones como generalizadas en sus entornos. Estos contenidos pueden poner en riesgo la integridad física o el equilibrio mental, sin que la programación algorítmica de la plataforma detecte o emita alertas en estos casos.
lnforme
Miniguía para familias
Presentación del informe
“Nuestra investigación en Argentina confirma que los problemas de salud de las franjas más jóvenes de la población suelen tramitarse en forma de autodiagnósticos y consumos de contenidos relacionados con la salud mental carentes de curaduría profesional ni científica. Este diagnóstico sumado al modelo de negocios de la app que extrae datos sin consentimiento genera una combinación peligrosa”, advirtió Paola García Rey, directora adjunta de Amnistía Internacional Argentina durante la presentación del informe en el espacio ArtLab, ubicado en Capital Federal.
Del panel también participaron Martín Becerra, doctor en ciencias de la información, y Victoria Irisarri, doctora en antropología social. Ambos lideraron la investigación junto a un equipo de trabajo.
Del panel también participaron Martín Becerra, doctor en ciencias de la información, y Victoria Irisarri, doctora en antropología. Ambos lideraron la investigación junto a un equipo de trabajo. También participaron integrantes del Grupo de Jóvenes de Amnistía Internacional Argentina.
“La plataforma no ofrece información sobre el algoritmo, por eso las y los jóvenes nos transmitieron sus rutinas de ensayo y error para intentar ‘domar’ el algoritmo en el marco de una puja por el control inherente a toda tecnología; y esa puja es desigual entre los usuarios, que no tienen toda la información, y las empresas”, señaló Becerra.
“Ninguna de las redes socio digitales puede garantizar cuestiones de seguridad, privacidad y protección de los datos a sus usuarios. TikTok tiene un perfil más agresivo en este sentido: la extracción de datos no solo se hace dentro de esta plataforma, sino que dialoga con otras“, concluyó Irisarri.
Pedidos a TikTok y a las Big Tech
En investigaciones anteriores a nivel global, Amnistía Internacional reveló las vulneraciones de derechos no sólo de TikTok sino otros grandes de la tecnología como Meta y Twitter (ahora X). La protección y la seguridad de personas vulnerables (la niñez, la adolescencia y quienes padecen trastornos físicos o psíquicos) demanda conocimientos y elaboración de respuestas por parte de los Estados y de las grandes compañías dueñas de las plataformas digitales que canalizan, crecientemente, las experiencias formativas, recreativas, informativas y vinculares de la mayor parte de la población mundial.
TikTok debe respetar los derechos de sus usuarios más jóvenes. Aunque Amnistía Internacional pide a la app que adopte medidas urgentes hacia un modelo de negocio respetuoso de los derechos, también es necesaria una regulación vinculante para proteger y hacer realidad los derechos de la infancia y la juventud. Finalmente, las compañías y los Estados deben impulsar la concientización sobre el respeto a la privacidad y la necesidad de que temas de salud sean tratados por profesionales.
Información complementaria
Este informe realizado en Argentina es parte de una estrategia global cuyos antecedentes son dos investigaciones internacionales: Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida (en español) y “Siento que no se me protege”: Emboscada en la red de vigilancia de TikTok (solo en inglés) - publicados a inicios de noviembre. Ambos reportes revelan la manera en que niños, niñas y jóvenes pueden caer en espirales de contenido que romantiza o anima la autolesión y el suicidio y como el modelo de negocio de Tiktok y su algoritmo supone violaciones a la privacidad y seguridad.
Y forma parte, además, de un llamado de la organización #FixTikTok para que TikTok prohíba en todo el mundo la publicidad dirigida selectivamente a los usuarios/as más jóvenes, y que la hiperpersonalización del feed “Para ti” no sea una funcionalidad por defecto.