En los últimos meses, TikTok inició una reorganización global que afectó a cientos de moderadores de contenido en diferentes regiones, incluyendo Reino Unido, el Sudeste Asiático y América Latina. Esta medida responde a un giro estratégico hacia una moderación cada vez más automatizada, con inteligencia artificial (IA) reemplazando progresivamente a los trabajadores humanos.
- Te puede interesar: Demanda contra TikTok en Europa: de qué fue acusado y qué consecuencias podría enfrentar
Los despidos masivos en TikTok
ByteDance, la compañía matriz de TikTok, busca optimizar sus operaciones y consolidar su modelo de moderación en menos ubicaciones estratégicas. En el Reino Unido, se estima que serán afectados cerca de 300 empleados, principalmente en áreas de moderación y trust & safety.
La empresa asegura que la inteligencia artificial ya elimina de manera automatizada alrededor del 85 % del contenido problemático, y que el 99 % de esas acciones se realizan proactivamente antes de que los usuarios lo reporten. Según TikTok, esta reorganización permitirá “maximizar la eficacia y velocidad” gracias a los avances tecnológicos, aunque implica la reducción de personal humano esencial.
La decisión generó fuertes críticas desde distintos frentes, especialmente sindicatos y moderadores afectados. En Reino Unido, el sindicato Communication Workers Union (CWU) alertó que reemplazar moderadores humanos por sistemas automatizados puede poner en riesgo la seguridad de los usuarios, dado que la inteligencia artificial no siempre capta con precisión la peligrosidad o el contexto cultural de ciertos contenidos.

En Alemania, alrededor de 150 moderadores en Berlín iniciaron huelgas y protestas, respaldados por el sindicato, denunciando que la IA no puede evaluar correctamente contenidos sensibles y que su reemplazo pone en riesgo tanto la seguridad de los usuarios como su propio bienestar laboral.
Moderadores en Turquía y empleados de empresas tercerizadas denunciaron despidos vinculados a intentos de sindicalización, así como condiciones laborales difíciles y falta de apoyo psicológico. Además, se han reportado casos de trastorno por estrés postraumático entre moderadores en Estados Unidos tras revisar contenidos extremadamente violentos sin el soporte necesario.
El impacto de la moderación de contenido en redes sociales
El impacto de esta reestructuración puede ser significativo. La reducción de intervención humana en redes sociales y plataformas como TikTok podría provocar una menor protección frente a contenido dañino, dado que los algoritmos no siempre logran distinguir matices culturales o contextuales y pueden cometer errores de moderación, afectando comunidades vulnerables o marcando injustamente ciertos contenidos como inapropiados.

Además, la percepción de los usuarios y creadores podría verse afectada, generando desconfianza ante la falta de transparencia y la inconsistencia en la aplicación de normas. En un contexto regulatorio más exigente, con leyes como la Online Safety Act en Reino Unido o el Digital Services Act en la Unión Europea, una dependencia excesiva de la IA podría considerarse insuficiente para cumplir con obligaciones legales de protección del usuario.
La transición hacia sistemas automatizados también tiene un costo humano, ya que los moderadores que permanecen deben asumir cargas emocionales importantes, con riesgos para su salud mental.