El suicidio de un adolescente en Estados Unidos, cuyo entorno vinculó en parte a sus interacciones con ChatGPT, desató un debate mundial sobre los límites, responsabilidades y riesgos del uso de la inteligencia artificial (IA) en la vida cotidiana. El caso generó conmoción no solo por la tragedia personal, sino porque expuso un escenario que hasta hace poco parecía hipotético: el de un modelo conversacional influyendo en la salud mental de un usuario vulnerable.
- Te puede interesar: Carrera por la inteligencia artificial: Apple sale a competir con ChatGPT y Google
El caso de suicidio impulsado por ChatGPT
Según medios locales, el joven de 17 años había usado ChatGPT de manera frecuente durante meses. Su familia declaró que en varias ocasiones buscó apoyo emocional a través de la plataforma y que, si bien recibió respuestas aparentemente empáticas, también se topó con consejos ambiguos e incluso con mensajes que podrían haber sido interpretados como desalentadores.
Aunque no se ha confirmado una relación directa de causalidad, los allegados sostienen que esa interacción fue un factor que contribuyó a su deterioro emocional.
Ante la repercusión, OpenAI anunció la implementación de un conjunto reforzado de medidas de moderación en ChatGPT. Estas medidas buscan, por un lado, evitar respuestas que puedan normalizar o trivializar situaciones de autolesión, y por otro, ofrecer a los usuarios en riesgo recursos de contención inmediata.

Entre las actualizaciones se incluyen filtros más estrictos para detectar menciones de suicidio, depresión severa o pensamientos autodestructivos, redirigiendo a los usuarios hacia líneas de ayuda locales y organizaciones de salud mental.
Además, el modelo incorporará nuevos protocolos de seguridad que bloquean ciertas conversaciones si se detecta riesgo inminente, reemplazando las respuestas habituales por mensajes diseñados en consulta con psicólogos y especialistas en prevención del suicidio. También se ampliará la base de datos de contactos de emergencia disponibles por país, para que los usuarios reciban información concreta y localizada en lugar de mensajes genéricos.
Las repercusiones y la respuesta de ChatGPT
La recepción pública fue mixta. Por un lado, asociaciones de padres y organizaciones de salud mental aplaudieron la rapidez de la respuesta, subrayando la necesidad de que la tecnología no funcione en un vacío, sino con salvaguardas que consideren la vulnerabilidad de los usuarios más jóvenes. También destacaron que la inteligencia artificial puede ser una herramienta valiosa para detectar patrones de riesgo temprano, siempre que se combine con supervisión humana.

Por otro lado, críticos de la industria tecnológica señalaron que las medidas llegan tarde y solo después de una tragedia. Recordaron que ya existían advertencias sobre la posibilidad de que modelos conversacionales fueran utilizados por adolescentes en momentos de fragilidad emocional. Además, subrayaron la falta de mecanismos regulatorios claros en Estados Unidos y Europa que obliguen a las compañías a cumplir estándares de seguridad en este terreno.
La polémica alcanzó también la esfera política. Legisladores demócratas y republicanos pidieron audiencias para revisar los protocolos de moderación de las principales empresas de inteligencia artificial, mientras que en la Unión Europea se aceleró el debate sobre la aplicación del AI Act, que establece parámetros éticos y de seguridad en el desarrollo de estas tecnologías.