Con el incremento de usuarios que utilizan TikTok registrado durante los últimos dos años, la plataforma se vio forzada a comenzar a aplicar un control más minucioso sobre los contenidos que se comparten en la app para detectar cualquier posible infracción de sus normas.

Esta moderación de los contenidos se lleva adelante mediante el trabajo de personas que ven diferentes videos, algo que en algunos casos puede resultar traumático.

Según una publicación de Forbes, empleados tercerizados de TikTok denunciaron que son "entrenados" con imágenes y videos de menores de edad en situaciones sexuales explícitas y que no reciben el acompañamiento adecuado, lo que les genera traumas psicológicos.

Los testimonios recogidos por el medio estadounidense son de exmoderadores subcontratados de TikTok, es decir, empleados de firmas externas a las que ByteDance, empresa dueña de TikTok, contrata para esta tarea específica.

Los moderarodes de TikTok denunciaron que los obligaban a ver videos traumáticos.

Las personas consultadas por Forbes coinciden en que el trabajo es traumatizante y que la compañía sigue prácticas cuestionables, incluyendo capacitaciones en las que se muestra material sexualmente explícito de niños, según contó un exempleado identificado como Nasser.

De acuerdo con la declaración de Whitney Turner, que trabajó como moderadora, a quienes cumplían esta tarea se les daba una hoja de cálculo titulada "Lectura diaria requerida", en la que se listaban ejemplos de contenido prohibido y se incluían fotografías de niños desnudos y abusados.

TikTok supera los 800 millones de usuarios activos.

"Estaba moderando y pensando: este es el hijo de alguien. Esta es la hija de alguien. Y estos padres no saben que tenemos esta foto, este video, este trauma, este crimen", dijo Turner, que entregó documentación al FBI.

Violencia explícita


 

Dos antiguos moderadores que hablaron con Business Insider ampliaron las denuncias. Una de ellas, Candie Frazier, dijo que demandó a la compañía luego de ser obligada a ver decapitaciones, accidentes, suicidios y material de abuso infantil.

"Moderar para TikTok duele. Me hizo perder la confianza en la gente", dijo Frazier.

La respuesta de TikTok


 

La empresa responsable de la aplicación de videos desmintió los comentarios de los moderadores. Un vocero de TikTok le dijo a Bussines Insider que en las capacitaciones brindan descripciones textuales y no ejemplos visuales de abuso sexual infantil.

Sin embargo, señaló que trabajan con compañías externas que podrían tener prácticas diferentes.

"El contenido de esta naturaleza es abominable y no tiene cabida dentro o fuera de nuestra plataforma, y nuestro objetivo es minimizar la exposición de los moderadores de acuerdo con las mejores prácticas de la industria", comentó el vocero.

Además, indicó que los materiales de capacitación de TikTok tienen controles estrictos y que se presentan informes periódicos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés).