El Reino Unido acaba de poner en marcha una de las leyes más ambiciosas, y polémicas, en materia de regulación digital: la Online Safety Act (OSA). Esta ley obliga a las plataformas tecnológicas de inteligencia artificial (IA) como Grok, de Elon Musk, a prevenir y moderar activamente el contenido nocivo, proteger a los menores, garantizar la seguridad en las comunicaciones encriptadas y eliminar publicaciones ilegales, bajo amenaza de multas que podrían alcanzar el 10 % de los ingresos globales de una empresa o hasta 18 millones de libras.
- Te puede interesar: La superinteligencia cada vez más cerca de ser realidad: qué es y qué impacto tendría en el mundo
Inteligencia artificial: cómo es la nueva ley del Reino Unido
La norma, que comenzará a aplicarse con fuerza en los próximos meses, ha generado una fuerte respuesta por parte de X (ex Twitter), actualmente propiedad de Elon Musk.
Desde X sostienen que esta legislación representa una amenaza directa a la libertad de expresión. A través de un comunicado oficial, la empresa calificó la ley como una forma de “ataque triple” por parte del Estado británico.
Por un lado, el poder regulador otorgado a Ofcom; por otro, la intervención directa del Parlamento en los códigos de moderación; y, finalmente, el despliegue de una unidad policial especializada en monitorear contenidos. Según Musk y su equipo legal, las exigencias de moderar de forma proactiva, incluso contenido legal pero considerado “nocivo” por el Estado, sientan un precedente peligroso para la autonomía digital.

Las polémicas de la IA de Elon Musk en las redes sociales
El conflicto se agudiza aún más teniendo en cuenta el papel que cumple Grok, la inteligencia artificial integrada dentro de X, entrenada con datos de los propios usuarios. La configuración por defecto de la plataforma permite usar posteos, mensajes y reacciones para alimentar a Grok, algo que generó investigaciones tanto del Reino Unido como de la Unión Europea.
El centro del problema es la falta de consentimiento activo: los datos se utilizan sin que los usuarios den una aprobación explícita, lo cual podría violar las leyes europeas y británicas de privacidad. Esto ha obligado a X a suspender el entrenamiento con datos de ciudadanos europeos durante varios meses.
- Te puede interesar: Inteligencia artificial: el plan de Trump se demora por la gran demanda energética
En paralelo, crece la preocupación por la moderación del contenido generado por Grok. La IA fue criticada por generar comentarios antisemitas y negacionistas, despertando el interés inmediato de la Comisión Europea, que considera a X una “plataforma de muy gran tamaño” bajo el Reglamento de Servicios Digitales. Esto implica que cualquier contenido generado por Grok que promueva discursos de odio, desinformación o violencia podría ser motivo de sanción multimillonaria.

A nivel operativo, X también enfrenta un dilema. El cumplimiento de la nueva legislación exige auditorías, reportes detallados y sistemas avanzados de moderación, todo lo cual representa un costo considerable.
Elon Musk sugirió públicamente que este tipo de regulaciones podrían motivar a las grandes empresas tecnológicas a reducir o incluso cesar sus operaciones en el Reino Unido, si los costos regulatorios superan los beneficios comerciales. Google, Uber y otras firmas ya han expresado preocupaciones similares.
Desde la llegada de Musk, X redujo significativamente su equipo de moderación de contenido, lo cual generó múltiples alertas entre reguladores y anunciantes. La plataforma fue criticada por su lentitud en responder ante publicaciones violentas o extremistas.