En una reciente entrevista en el podcast This Past Weekend with Theo Von, Sam Altman, CEO de OpenAI, advirtiรณ que las conversaciones mantenidas con ChatGPT no estรกn protegidas por el mismo tipo de confidencialidad legal que rige, por ejemplo, las interacciones con un mรฉdico, un terapeuta o un abogado.ย
- Te puede interesar: Cรณmo Google planea cubrir la creciente demanda energรฉtica de la inteligencia artificial
La advertencia de Sam Altman sobre ChatGPT
Esta falta de โprivilegio legalโ significa que, en determinados contextos judiciales, los chats podrรญan ser solicitados como evidencia, algo que muchos usuarios desconocen. Asimismo, Altman seรฑalรณ que muchas personas, especialmente los mรกs jรณvenes, utilizan ChatGPT como si se tratara de un confidente personal o incluso de un terapeuta, compartiendo detalles รญntimos de su vida emocional, profesional o familiar.
Tambiรฉn calificรณ esta situaciรณn como โpreocupanteโ y pidiรณ que se avance hacia marcos legales que reconozcan este nuevo tipo de relaciรณn entre humanos y sistemas de inteligencia artificial.

Actualmente, OpenAI aclara que los chats pueden ser eliminados por el usuario, y que, si se elimina una conversaciรณn, esta se borra de sus servidores en un plazo de hasta 30 dรญas, salvo que por motivos de seguridad o requerimientos legales deban conservarla mรกs tiempo.
Sin embargo, en una situaciรณn que hoy se encuentra judicializada, se le estรก exigiendo a OpenAI conservar todos los registros de usuario, incluso aquellos que los usuarios hayan eliminado, como parte de un pedido de descubrimiento legal vinculado a demandas presentadas por empresas como The New York Times. OpenAI se opone a esta medida, a la que considera una extralimitaciรณn, y declarรณ pรบblicamente que la estรก apelando.
Inteligencia artificial: las preocupaciones de los usuarios frente a la falta de confidencialidad
Existe un riesgo real de que las conversaciones sensibles que los usuarios mantienen con ChatGPT puedan ser utilizadas en su contra en contextos legales, especialmente si contienen confesiones, opiniones comprometedoras o datos personales. Esto abre una grieta de confianza que podrรญa disuadir a muchas personas de utilizar la herramienta para abordar temas delicados, lo que afecta su potencial como asistente emocional o conversacional.

Ademรกs, hay una preocupaciรณn รฉtica sobre el uso de ChatGPT como sustituto de la terapia profesional. En ese sentido, Altman fue explรญcito en su advertencia: ChatGPT no es un terapeuta, y usarlo como tal puede ser perjudicial, ya que la IA no tiene conciencia, empatรญa genuina ni una formaciรณn clรญnica, y puede incurrir en errores o emitir respuestas daรฑinas que, lejos de ayudar, generen confusiรณn, ansiedad o malestar.
Por รบltimo, , el empresario tecnolรณgico subrayรณ que la falta de un marco legal que regule la privacidad en las conversaciones con inteligencias artificiales representa un vacรญo crรญtico. En su visiรณn, deberรญa existir algรบn tipo de legislaciรณn que garantice el mismo nivel de confidencialidad que existe en la medicina o la abogacรญa. Sin este tipo de protecciรณn, los usuarios quedan expuestos a que sus interacciones con la IA sean leรญdas, utilizadas o entregadas en instancias que escapan completamente a su control.