En los Ćŗltimos meses, TikTok inició una reorganización global que afectó a cientos de moderadores de contenido en diferentes regiones, incluyendo Reino Unido, el Sudeste AsiĆ”tico y AmĆ©rica Latina. Esta medida responde a un giro estratĆ©gico hacia una moderación cada vez mĆ”s automatizada, con inteligencia artificial (IA) reemplazando progresivamente a los trabajadores humanos.Ā
- Te puede interesar: Demanda contra TikTok en Europa: de quĆ© fue acusado y quĆ© consecuencias podrĆa enfrentar
Los despidos masivos en TikTok
ByteDance, la compaƱĆa matriz de TikTok, busca optimizar sus operaciones y consolidar su modelo de moderación en menos ubicaciones estratĆ©gicas. En el Reino Unido, se estima que serĆ”n afectados cerca de 300 empleados, principalmente en Ć”reas de moderación y trust & safety.
La empresa asegura que la inteligencia artificial ya elimina de manera automatizada alrededor del 85āÆ% del contenido problemĆ”tico, y que el 99āÆ% de esas acciones se realizan proactivamente antes de que los usuarios lo reporten. SegĆŗn TikTok, esta reorganización permitirĆ” āmaximizar la eficacia y velocidadā gracias a los avances tecnológicos, aunque implica la reducción de personal humano esencial.
La decisión generó fuertes crĆticas desde distintos frentes, especialmente sindicatos y moderadores afectados. En Reino Unido, el sindicato Communication Workers Union (CWU) alertó que reemplazar moderadores humanos por sistemas automatizados puede poner en riesgo la seguridad de los usuarios, dado que la inteligencia artificial no siempre capta con precisión la peligrosidad o el contexto cultural de ciertos contenidos.

En Alemania, alrededor de 150 moderadores en BerlĆn iniciaron huelgas y protestas, respaldados por el sindicato, denunciando que la IA no puede evaluar correctamente contenidos sensibles y que su reemplazo pone en riesgo tanto la seguridad de los usuarios como su propio bienestar laboral.
Moderadores en TurquĆa y empleados de empresas tercerizadas denunciaron despidos vinculados a intentos de sindicalización, asĆ como condiciones laborales difĆciles y falta de apoyo psicológico. AdemĆ”s, se han reportado casos de trastorno por estrĆ©s postraumĆ”tico entre moderadores en Estados Unidos tras revisar contenidos extremadamente violentos sin el soporte necesario.
El impacto de la moderación de contenido en redes sociales
El impacto de esta reestructuración puede ser significativo. La reducción de intervención humana en redes sociales y plataformas como TikTok podrĆa provocar una menor protección frente a contenido daƱino, dado que los algoritmos no siempre logran distinguir matices culturales o contextuales y pueden cometer errores de moderación, afectando comunidades vulnerables o marcando injustamente ciertos contenidos como inapropiados.

AdemĆ”s, la percepción de los usuarios y creadores podrĆa verse afectada, generando desconfianza ante la falta de transparencia y la inconsistencia en la aplicación de normas. En un contexto regulatorio mĆ”s exigente, con leyes como la Online Safety Act en Reino Unido o el Digital Services Act en la Unión Europea, una dependencia excesiva de la IA podrĆa considerarse insuficiente para cumplir con obligaciones legales de protección del usuario.
La transición hacia sistemas automatizados también tiene un costo humano, ya que los moderadores que permanecen deben asumir cargas emocionales importantes, con riesgos para su salud mental.




