El Parlamento Europeo avanzó en uno de los debates más sensibles de los últimos años: la restricción de edad para acceder a redes sociales y plataformas digitales. La resolución aprobada no es aún vinculante, pero marca una posición política fuerte y consolida una tendencia que crece en todo el mundo.
- Te puede interesar: Redes sociales bajo presión: el caso Meta y el futuro de la moderación de contenido
Restricción de edad en redes sociales: cómo es la propuesta europea
La propuesta fija un umbral claro: establecer una edad mínima común de 16 años para que los usuarios puedan abrir cuentas en redes sociales y utilizar ciertos servicios digitales, incluidas plataformas impulsadas por inteligencia artificial. Para los adolescentes de entre 13 y 16 años, el acceso sería posible únicamente con consentimiento parental, mientras que para los menores de 13 la prohibición sería total.
Esta medida busca terminar con la disparidad entre países y reemplazar el mosaico de regulaciones actuales por un estándar homogéneo en los 27 Estados miembros.
El Parlamento sostiene que la decisión responde a un diagnóstico contundente: los menores se exponen cada vez más a riesgos como ciberacoso, contenido dañino, presión social, consumo adictivo de pantallas y manipulación algorítmica.
Muchos de estos problemas se ven amplificados por mecanismos de diseño que hoy forman parte del funcionamiento cotidiano de las redes, como el scroll infinito, las notificaciones constantes, los sistemas de recompensas visuales y las mecánicas similares a videojuegos presentes en algunas aplicaciones.
La resolución también propone supervisar o directamente prohibir este tipo de funciones cuando estén dirigidas a menores, así como limitar la publicidad segmentada y reforzar la protección frente a herramientas de IA que puedan exponer a vulnerabilidades o contenidos inapropiados.
Las polémicas detrás de esta restricción
Uno de los puntos más discutidos es la verificación de edad. Los legisladores europeos piden la creación de sistemas que permitan comprobar la identidad de los usuarios sin invadir su privacidad, posiblemente integrando herramientas de identidad digital europea.
Este proceso debería ser complementario, y no un sustituto, de la responsabilidad de las plataformas, que deberán rediseñar parte de sus servicios bajo el principio de “seguridad por defecto” para usuarios menores. La iniciativa busca imponer un estándar que obligue a las empresas tecnológicas a asumir un rol más activo en la protección infantil, algo que hasta ahora ha quedado en manos de mecanismos parciales o ineficientes.
Si las recomendaciones se transforman en una legislación formal, el impacto sería profundo. Millones de jóvenes necesitarían autorización de sus padres para seguir usando redes sociales, y las plataformas tendrían que invertir en nuevos sistemas de control, moderación y diseño.
- Te puede interesar: OpenAI planea incursionar en el mundo de las redes sociales: rumores y alertas por la privacidad
Algunas funciones que hoy se consideran centrales para retener a los usuarios podrían verse limitadas o eliminadas para menores, y la publicidad orientada dejaría de ser una herramienta disponible en ese segmento. A nivel global, la Unión Europea podría convertirse en referente y empujar a otras regiones a adoptar normas similares, tal como ocurrió con el GDPR y las regulaciones de privacidad.
Sin embargo, el camino para implementar estas medidas no está libre de desafíos. Verificar la edad sin vulnerar la privacidad es un problema técnico y político complejo. Las plataformas podrían resistirse por el costo económico y por la posible pérdida de usuarios.
También existe un debate cultural entre quienes priorizan la protección infantil y quienes temen que estas normas recorten libertades digitales o generen mecanismos de vigilancia indirecta. Además, la resolución aún necesita que la Comisión Europea presente una propuesta legislativa formal y que los Estados miembros la aprueben, por lo que el proceso podría extenderse y modificarse.




