InicioCiencia & TecnologíaRedes sociales bajo presión: el caso Meta y el futuro de la...

Redes sociales bajo presión: el caso Meta y el futuro de la moderación de contenido

El manejo de la moderación de contenido por parte de gigantes tecnológicos como Meta vuelve a estar en el centro del debate global. 

En los últimos años, los conflictos armados y crisis humanitarias fueron atravesados en grandes plataformas tecnológicas como Meta, particularmente en términos de moderación. Luego de muchos debates respecto a estas iniciativas en las plataformas sociales, surgieron casos que pondrían en duda su rol e importancia. 

Meta —la empresa detrás de Facebook e Instagram— enfrenta crecientes cuestionamientos por su presunta inacción ante la propagación de discursos de odio en Etiopía, en medio del conflicto en la región de Tigray. A partir de denuncias, demandas judiciales y testimonios de víctimas, el caso se convirtió en un emblema global sobre los límites éticos, políticos y legales de la moderación de contenidos. 

Te puede interesar: Por qué la reducción de moderación de contenido en Meta se relaciona con Donald Trump

El caso de Etiopía: cómo la falta de moderación en Meta podría haber provocado desastres

Durante los años más críticos del conflicto, los algoritmos de Facebook habrían potenciado publicaciones dirigidas contra la comunidad tigrayana. Pese a las advertencias de expertos —y a los antecedentes trágicos como el caso de Myanmar—, Meta no tomó medidas efectivas. Amnistía Internacional fue tajante: la empresa no cumplió con su responsabilidad de mitigar el daño, a pesar de estar al tanto del riesgo.

En Etiopía, Meta no tomó medidas efectivas frente a discursos de odio en la comunidad tigrayana.

Ante este escenario, el Dr. Iván Vladimir Meza Ruiz, investigador del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la UNAM, y especialista en inteligencia artificial, advierte que “la moderación de contenido es una herramienta indispensable para garantizar una experiencia digital segura y reducir el daño que puede generar la exposición a contenido violento, ilegal o desinformativo”.

Un caso paradigmático es el de Abrham Meareg, quien acusa a Meta de haber contribuido a la muerte de su padre, tras amenazas difundidas a través de Facebook. En su denuncia, presentada en Kenia, sostiene que los algoritmos amplificaron estos mensajes, elevando el riesgo real. 

En abril de 2025, la Corte Suprema de ese país resolvió que Meta puede ser juzgada allí por su presunta responsabilidad. Es un fallo histórico: sienta precedente para que las grandes tecnológicas respondan legalmente en países donde ni siquiera están registradas.

El impacto y las consecuencias detrás del caso Meta

Además, el debate sobre la moderación cobró nueva relevancia cuando Sama —el principal contratista de Meta para moderación en África oriental— anunció en 2023 que dejaba de ofrecer ese servicio, aludiendo al “clima económico”. Esto generó preocupación sobre la capacidad de Meta para gestionar contenidos nocivos en contextos de alta fragilidad social.

De hecho, Meta quedó por fuera de la moderación en gran parte de Africa.

Según Meza Ruiz, el cambio podría estar impulsado por razones políticas, más que técnicas. “Todo apunta a una alineación con ciertas corrientes que rechazan la intervención de las plataformas en nombre de la libertad de expresión, incluso si eso significa permitir discursos de odio”, sostiene. Y advierte: “Lo peligroso no es solo el cambio, sino la falta de transparencia”.

Más de 100 ex moderadores en Kenia también demandaron a Meta y Sama por secuelas psicológicas graves, luego de haber estado expuestos constantemente a violencia gráfica, asesinatos, abusos sexuales y otras imágenes perturbadoras. Denuncian que trabajaban bajo presión extrema, con métricas inhumanas de rendimiento y sin pausas suficientes, lo que les provocó depresión, ansiedad y trastorno de estrés postraumático.

Consultado sobre si situaciones como las ocurridas en Kenia y Etiopía pudieron haberse evitado, el investigador Meza Ruiz reconoce que “es difícil prevenir todo, especialmente en plataformas globales donde convergen múltiples culturas y conflictos”; pero aclara que “sí se pudo mitigar el daño si se hubieran tomado decisiones más responsables”. El experto asegura que permitir que los algoritmos amplifiquen contenido violento sin control es, en sí mismo, una forma de intervención, y como tal, debería tener consecuencias.

Por ello, plantea la necesidad urgente de regulación. “Estas plataformas ya no pueden seguir diciendo que solo son intermediarias. Si su algoritmo decide qué vemos y qué no, entonces tienen responsabilidad sobre esos efectos”, afirma. Propone que se exija a las tecnológicas mayor transparencia, auditorías independientes y mecanismos de participación pública. Además, advierte que se necesita una mirada multidisciplinaria que incluya aspectos técnicos, legales, éticos y sociales. 

spot_img
[td_block_21 custom_title="Artículos más leídos" sort="random_7_day" linked_posts=""]

Contenido mas reciente

“Los pilotos teníamos un revólver y pensé en usarlo”: así fue la guerra aérea por las Malvinas 

La llegada a Bariloche de un avión Mirage III que combatió en Malvinas, permitió conocer  nuevos testimonios  sobre las heroicas hazañas  de los pilotos argentinos para recuperar las Islas y defender la soberanía. 

Venezuela despliega un arsenal militar en La Orchila en respuesta a Estados Unidos

El régimen de Caracas fortificó la isla ubicada a 160 kilómetros de la capital venezolana con sistemas aéreos y equipos de guerra electrónica.

TikTok en EE. UU.: cómo la geopolítica y la seguridad de datos definieron su destino

Oracle se metió en la disputa de la aplicación en territorio estadounidense. ¿Se llegó a un acuerdo con China?

Contenido Relacionado

“Los pilotos teníamos un revólver y pensé en usarlo”: así fue la guerra aérea por las Malvinas 

La llegada a Bariloche de un avión Mirage III que combatió en Malvinas, permitió conocer  nuevos testimonios  sobre las heroicas hazañas  de los pilotos argentinos para recuperar las Islas y defender la soberanía. 

Venezuela despliega un arsenal militar en La Orchila en respuesta a Estados Unidos

El régimen de Caracas fortificó la isla ubicada a 160 kilómetros de la capital venezolana con sistemas aéreos y equipos de guerra electrónica.

TikTok en EE. UU.: cómo la geopolítica y la seguridad de datos definieron su destino

Oracle se metió en la disputa de la aplicación en territorio estadounidense. ¿Se llegó a un acuerdo con China?