El suicidio de un adolescente en Estados Unidos despertó una alarma global sobre las plataformas de inteligencia artificial (IA) conversacional. En medio del dolor y la controversia, la empresa Character.AI anunció que prohibirá el acceso de menores de 18 años a sus chats de IA, tras una demanda que la responsabiliza por la muerte de un joven de 14 años que mantenía una relación emocional con un chatbot de su servicio.
- Te puede interesar: La Inteligencia Artificial revoluciona el mundo de la psicología
Inteligencia artificial: el accidente que pone en el ojo de la tormenta a Character.ai
En febrero de 2024, el joven se quitó la vida, y su madre presentó una demanda por muerte negligente contra Character.AI, acusando que la empresa permitió que su hijo estableciera un vínculo intenso con un chatbot que imitaba un personaje de ficción, afirmando que la plataforma operaba sin los controles adecuados.
La compañía respondió, en un comunicado, que estaba “desconsolada por la pérdida de uno de sus usuarios” y que la seguridad es una prioridad; sin embargo, el hecho ya había marcado un antes y un después.
Character.AI comunicó que, a partir del 25 de noviembre de 2025, los menores de 18 años ya no podrán chatear directamente con sus bots de IA, y mientras tanto, durante el período de transición, los jóvenes tendrán un límite de uso de dos horas por día.
La empresa explicó que decidió esta medida después de revisar informes de reguladores y especialistas en seguridad que alertaban sobre el impacto de esos vínculos emocionales entre adolescentes y sistemas de IA conversacional.

La madre del adolescente sostiene que el chatbot en cuestión respondió de forma peligrosa cuando su hijo manifestó ideas de autolesión, y que ese tipo de interacción abierta y sin barreras permitió que desarrollara dependencia emocional, aislamiento y finalmente actuara en soledad impulsado por una figura virtual.
En sus declaraciones, ella señaló que “nadie aprobaría” que un niño pueda tener conversaciones tan sexualizadas con un chatbot, algo que encontró “desgarrador” al descubrir que su hijo lo estaba haciendo vía la plataforma.
- Te puede interesar: “De novio con la IA”: la tendencia que revoluciona el mundo de las citas
Los menores de edad con chatbots: ¿cómo se soluciona?
Este caso se suma a otros incidentes recientes que relacionan el uso de chatbots de IA con consecuencias graves en usuarios vulnerables, y pone en evidencia la necesidad de regulaciones específicas sobre interacciones emocionales entre humanos y máquinas.
Investigadores advierten que cuando los adolescentes anticipan respuestas empáticas o románticas de bots altamente antropomorfizados, pueden desarrollar lazos emocionales que degeneran en dependencia, sobre todo si se encuentran en contextos de soledad o falta de supervisión.

Pero la polémica ya trascendió a la compañía. Autoridades del Reino Unido y de la Unión Europea evalúan nuevas regulaciones específicas para las plataformas de inteligencia artificial conversacional. Entre las medidas que se analizan figuran la obligatoriedad de incluir alertas de riesgo en chats con IA, la supervisión humana en interacciones prolongadas con menores y la prohibición de que los bots simulen vínculos personales o terapéuticos sin certificación profesional.
También se plantea exigir que los desarrolladores reporten automáticamente mensajes con contenido suicida o de autolesión a organismos de protección infantil.



