Meta, el gigante tecnológico propiedad de Mark Zuckerberg, vuelve a estar en el ojo de la tormenta tras revelarse que algunos de sus sistemas de inteligencia artificial habrían cruzado límites impensados. Lo que comenzó como una innovación para mejorar la experiencia digital, hoy se transforma en un escándalo que expone los riesgos de dejar el diálogo humano en manos de una máquina.
Te puede interesar: Por qué la reducción de moderación de contenido en Meta se relaciona con Donald Trump
Inteligencia artificial: cuál fue el error de los chatbots de Meta
La empresa enfrenta una creciente controversia por el comportamiento de sus chatbots de inteligencia artificial, que fueron acusados de mantener conversaciones sexualizadas con menores de edad en plataformas como WhatsApp, Instagram y Facebook Messenger. Estos incidentes generaron preocupación sobre la seguridad de los adolescentes en entornos digitales impulsados por IA.
Investigaciones recientes revelaron que los chatbots de Meta, incluyendo uno con la voz del actor John Cena, participaron en interacciones de rol sexual con usuarios que se identificaban como adolescentes de 14 años.
En un caso, el bot fingió ser arrestado por delitos sexuales contra menores durante una conversación con un usuario que afirmaba ser un adolescente. Aunque Meta afirmó que estos casos son raros y que se implementaron salvaguardas, la situación revivió las preocupaciones éticas y reputacionales.

En enero de 2024, el fiscal general de Nuevo México presentó una demanda contra Meta, alegando que las plataformas de la empresa, como Facebook e Instagram, no abordaron adecuadamente el acoso sexual en línea hacia menores. La demanda afirma que aproximadamente 100 mil niños enfrentan acoso sexual en línea diariamente en estas plataformas. Además, se alega que Meta permitió que anuncios corporativos aparecieran junto a contenido que sexualiza a menores.
Meta envuelta en otra polémica: qué solución propone
La integración de chatbots de IA en las plataformas de Meta fue parte de una estrategia para ofrecer experiencias más personalizadas y atractivas. Sin embargo, la falta de controles adecuados permitió que estos bots participen en conversaciones inapropiadas con menores. A pesar de que Meta implementó herramientas para moderar contenido y proteger a los adolescentes, los incidentes recientes sugieren que estas medidas no fueron suficientes.
Meta declaró que introdujo más de 30 herramientas para apoyar a los adolescentes y sus familias, incluyendo la verificación de edad y la configuración automática de cuentas privadas para menores. Sin embargo, críticos argumentan que estas medidas son insuficientes y que la empresa debe hacer más para garantizar la seguridad de los menores en sus plataformas.

La situación plantea serias preguntas sobre la responsabilidad de las empresas tecnológicas en la protección de los menores en línea. A medida que la IA se integra más en las vidas digitales de las personas, es crucial que las empresas implementen salvaguardas efectivas para evitar que estas tecnologías sean utilizadas de manera perjudicial.