InicioCiencia & TecnologíaChatGPT refuerza sus medidas de moderación tras el suicidio de un adolescente

ChatGPT refuerza sus medidas de moderación tras el suicidio de un adolescente

OpenAI innova en su sistema al utilizar una herramienta para identificar la edad del usuario y restringir la conversación si se trata de un menor. 

El suicidio de un adolescente en Estados Unidos, cuyo entorno vinculó en parte a sus interacciones con ChatGPT, desató un debate mundial sobre los límites, responsabilidades y riesgos del uso de la inteligencia artificial (IA) en la vida cotidiana. El caso generó conmoción no solo por la tragedia personal, sino porque expuso un escenario que hasta hace poco parecía hipotético: el de un modelo conversacional influyendo en la salud mental de un usuario vulnerable.

El caso de suicidio impulsado por ChatGPT

Según medios locales, el joven de 17 años había usado ChatGPT de manera frecuente durante meses. Su familia declaró que en varias ocasiones buscó apoyo emocional a través de la plataforma y que, si bien recibió respuestas aparentemente empÔticas, también se topó con consejos ambiguos e incluso con mensajes que podrían haber sido interpretados como desalentadores.

Aunque no se ha confirmado una relación directa de causalidad, los allegados sostienen que esa interacción fue un factor que contribuyó a su deterioro emocional.

Ante la repercusión, OpenAI anunció la implementación de un conjunto reforzado de medidas de moderación en ChatGPT. Estas medidas buscan, por un lado, evitar respuestas que puedan normalizar o trivializar situaciones de autolesión, y por otro, ofrecer a los usuarios en riesgo recursos de contención inmediata

OpenAI anunció la implementación de un conjunto reforzado de medidas de moderación en ChatGPT.

Entre las actualizaciones se incluyen filtros mÔs estrictos para detectar menciones de suicidio, depresión severa o pensamientos autodestructivos, redirigiendo a los usuarios hacia líneas de ayuda locales y organizaciones de salud mental.

AdemÔs, el modelo incorporarÔ nuevos protocolos de seguridad que bloquean ciertas conversaciones si se detecta riesgo inminente, reemplazando las respuestas habituales por mensajes diseñados en consulta con psicólogos y especialistas en prevención del suicidio. También se ampliarÔ la base de datos de contactos de emergencia disponibles por país, para que los usuarios reciban información concreta y localizada en lugar de mensajes genéricos.

Las repercusiones y la respuesta de ChatGPT

La recepción pública fue mixta. Por un lado, asociaciones de padres y organizaciones de salud mental aplaudieron la rapidez de la respuesta, subrayando la necesidad de que la tecnología no funcione en un vacío, sino con salvaguardas que consideren la vulnerabilidad de los usuarios mÔs jóvenes. También destacaron que la inteligencia artificial puede ser una herramienta valiosa para detectar patrones de riesgo temprano, siempre que se combine con supervisión humana.

El modelo incorporarĆ” nuevos protocolos de seguridad que bloquean ciertas conversaciones si se detecta riesgo inminente.

Por otro lado, críticos de la industria tecnológica señalaron que las medidas llegan tarde y solo después de una tragedia. Recordaron que ya existían advertencias sobre la posibilidad de que modelos conversacionales fueran utilizados por adolescentes en momentos de fragilidad emocional. AdemÔs, subrayaron la falta de mecanismos regulatorios claros en Estados Unidos y Europa que obliguen a las compañías a cumplir estÔndares de seguridad en este terreno.

La polémica alcanzó también la esfera política. Legisladores demócratas y republicanos pidieron audiencias para revisar los protocolos de moderación de las principales empresas de inteligencia artificial, mientras que en la Unión Europea se aceleró el debate sobre la aplicación del AI Act, que establece parÔmetros éticos y de seguridad en el desarrollo de estas tecnologías.

spot_img

Contenido mas reciente

Brigadier Isaac, jefe del Estado Mayor Conjunto de las Fuerzas Armadas: ā€œEl F-16 es la mejor incorporación que podemos haber tenidoā€

Desde Mendoza, en una pausa durante la presentación de los nuevos Bell 407 de la Fuerza Aérea Argentina, el titular del Estado Mayor Conjunto, evaluó la compra de los aviones caza F-16 y se refirió al presente de las Fuerzas Armadas.

La predicción de Elon Musk: un futuro sin trabajo y sin pobreza

La visión de Elon Musk proyecta un futuro dominado por la inteligencia artificial y la robótica, donde el trabajo podría volverse opcional y la pobreza material desaparecer gracias a la automatización total.

ā€œDescubriendo el cielo de Romaā€: el Planetario recibe una apasionante jornada cientĆ­fica Ć­talo-argentina

El martes 9 de diciembre, el Planetario de Buenos Aires serƔ sede de una jornada cientƭfica con expertos italianos y argentinos. TambiƩn se presentarƔ un libro sobre la arquitectura de Roma y su vƭnculo con la astronomƭa.

Contenido Relacionado

Brigadier Isaac, jefe del Estado Mayor Conjunto de las Fuerzas Armadas: ā€œEl F-16 es la mejor incorporación que podemos haber tenidoā€

Desde Mendoza, en una pausa durante la presentación de los nuevos Bell 407 de la Fuerza Aérea Argentina, el titular del Estado Mayor Conjunto, evaluó la compra de los aviones caza F-16 y se refirió al presente de las Fuerzas Armadas.

La predicción de Elon Musk: un futuro sin trabajo y sin pobreza

La visión de Elon Musk proyecta un futuro dominado por la inteligencia artificial y la robótica, donde el trabajo podría volverse opcional y la pobreza material desaparecer gracias a la automatización total.

ā€œDescubriendo el cielo de Romaā€: el Planetario recibe una apasionante jornada cientĆ­fica Ć­talo-argentina

El martes 9 de diciembre, el Planetario de Buenos Aires serƔ sede de una jornada cientƭfica con expertos italianos y argentinos. TambiƩn se presentarƔ un libro sobre la arquitectura de Roma y su vƭnculo con la astronomƭa.