InicioCiencia & TecnologíaInteligencia artificial en finanzas: por qué no es confiable y cómo responden...

Inteligencia artificial en finanzas: por qué no es confiable y cómo responden las empresas

Modelos generativos de IA dan consejos con información errónea respecto a las finanzas. Cómo esta problemática afecta a las inversiones, seguros y otras cuestiones económicas. 

En las últimas semanas, un informe realizado por la organización británica Which? volvió a poner en evidencia un problema que crece a la par del uso masivo de la inteligencia artificial (IA): los chatbots más populares del mercado están dando consejos financieros incorrectos, incompletos o directamente peligrosos

La inteligencia artificial y su mala asesoría en finanzas

Modelos como ChatGPT, Copilot, Gemini y Meta AI ofrecieron información equivocada sobre inversiones, seguros, impuestos y reclamos legales en el Reino Unido. El hallazgo no solo encendió las alarmas entre los reguladores, sino que abrió un debate profundo sobre la responsabilidad de estas herramientas y los límites que todavía arrastran.

El estudio mostró fallas de todo tipo. ChatGPT y Copilot, por ejemplo, recomendaron a los usuarios invertir más dinero del permitido por las regulaciones en las cuentas de ahorro ISA, algo que es ilegal en el Reino Unido. También se detectaron respuestas incorrectas sobre seguros de viaje, como afirmar que es obligatorio contratar uno para la mayoría de los destinos de la Unión Europea, y consejos equivocados sobre cómo reclamar compensaciones por retrasos en vuelos. 

ChatGPT y Copilot, por ejemplo, recomendaron a los usuarios invertir más dinero del permitido por las regulaciones en las cuentas de ahorro ISA, algo que es ilegal en el Reino Unido.

Incluso se registraron orientaciones que podrían acarrear problemas legales, como sugerir retener pagos a contratistas sin explicar las consecuencias jurídicas. En temas fiscales, algunos modelos indicaron rutas pagas para solicitar devoluciones de impuestos, ignorando que los trámites oficiales de HMRC son gratuitos.

Estas fallas revelan una característica estructural de los modelos de lenguaje actuales: no comprenden la información que procesan. Funcionan a partir de patrones estadísticos extraídos del volumen de datos con los que fueron entrenados, y cuando se enfrentan a preguntas sensibles que exigen precisión regulatoria, contexto personal o interpretación legal, pueden mezclar datos, inventarlos o aplicar normas desactualizadas. 

Además, gran parte del contenido financiero disponible en internet, una de sus principales fuentes de entrenamiento, incluye consejos superficiales, mitos de inversión y desinformación, un caldo de cultivo perfecto para respuestas imprecisas.

Las soluciones que plantea el informe

El informe también planteó interrogantes regulatorios. La Financial Conduct Authority advirtió que, cuando un chatbot ofrece un consejo que perjudica a un usuario, este no está protegido por los mecanismos tradicionales del sector financiero, como el Financial Ombudsman o los esquemas de compensación. 

Estas fallas revelan una característica estructural de los modelos de lenguaje actuales: no comprenden la información que procesan.

Es decir, si alguien pierde dinero por seguir una recomendación de IA, difícilmente pueda reclamar. Esta falta de resguardo legal presiona a las tecnológicas a mejorar sus sistemas de seguridad, incorporar advertencias claras y evitar que los modelos simulen ofrecer asesoramiento profesional sin tener las capacidades necesarias.

A nivel global, el caso funciona como una señal de alerta. La confianza de los usuarios es un activo vital para la industria de la IA, y episodios como este muestran que el entusiasmo tecnológico debe ir acompañado de límites más rigurosos. También empuja la necesidad de desarrollar modelos especializados y entrenados con datos verificados, capaces de brindar información útil sin poner en riesgo el patrimonio o la situación legal de las personas. 

Y, al mismo tiempo, obliga a reforzar la educación digital: la IA puede ayudar a entender conceptos, comparar opciones o simplificar trámites, pero no reemplaza la mirada de un asesor certificado ni la interpretación precisa de una normativa vigente.

spot_img

Contenido mas reciente

Venezuela: Rusia afirmó que Maduro fue traicionado por su entorno y amenazó a los responsables

La diplomacia rusa abordó la captura de Nicolás Maduro tras el acercamiento del gobierno de Delcy Rodríguez a Estados Unidos.

Incendios en Chubut: la palabra de los militares del Ejército Argentino que, desde el frente, combaten las llamas 

Con más efectivos, medios terrestres y apoyo aéreo, el Ejército Argentino refuerza el combate contra los incendios forestales que amenazan Chubut. Soldados y pilotos trabajan sin descanso para respaldar a los brigadistas y proteger a la población.

Tensión en Irán: vuelve el acceso a Internet de forma parcial tras el apagón digital

Luego de semanas de aislamiento digital, el gobierno iraní habilitó el regreso parcial de Internet en medio de protestas, crisis económica y denuncias por control de información.

Contenido Relacionado

Venezuela: Rusia afirmó que Maduro fue traicionado por su entorno y amenazó a los responsables

La diplomacia rusa abordó la captura de Nicolás Maduro tras el acercamiento del gobierno de Delcy Rodríguez a Estados Unidos.

Incendios en Chubut: la palabra de los militares del Ejército Argentino que, desde el frente, combaten las llamas 

Con más efectivos, medios terrestres y apoyo aéreo, el Ejército Argentino refuerza el combate contra los incendios forestales que amenazan Chubut. Soldados y pilotos trabajan sin descanso para respaldar a los brigadistas y proteger a la población.

Tensión en Irán: vuelve el acceso a Internet de forma parcial tras el apagón digital

Luego de semanas de aislamiento digital, el gobierno iraní habilitó el regreso parcial de Internet en medio de protestas, crisis económica y denuncias por control de información.