En las últimas semanas, un informe realizado por la organización británica Which? volvió a poner en evidencia un problema que crece a la par del uso masivo de la inteligencia artificial (IA): los chatbots más populares del mercado están dando consejos financieros incorrectos, incompletos o directamente peligrosos.
- Te puede interesar: China le da energía a Silicon Valley y desafía a EE. UU. en la carrera por la inteligencia artificial
La inteligencia artificial y su mala asesoría en finanzas
Modelos como ChatGPT, Copilot, Gemini y Meta AI ofrecieron información equivocada sobre inversiones, seguros, impuestos y reclamos legales en el Reino Unido. El hallazgo no solo encendió las alarmas entre los reguladores, sino que abrió un debate profundo sobre la responsabilidad de estas herramientas y los límites que todavía arrastran.
El estudio mostró fallas de todo tipo. ChatGPT y Copilot, por ejemplo, recomendaron a los usuarios invertir más dinero del permitido por las regulaciones en las cuentas de ahorro ISA, algo que es ilegal en el Reino Unido. También se detectaron respuestas incorrectas sobre seguros de viaje, como afirmar que es obligatorio contratar uno para la mayoría de los destinos de la Unión Europea, y consejos equivocados sobre cómo reclamar compensaciones por retrasos en vuelos.

Incluso se registraron orientaciones que podrían acarrear problemas legales, como sugerir retener pagos a contratistas sin explicar las consecuencias jurídicas. En temas fiscales, algunos modelos indicaron rutas pagas para solicitar devoluciones de impuestos, ignorando que los trámites oficiales de HMRC son gratuitos.
Estas fallas revelan una característica estructural de los modelos de lenguaje actuales: no comprenden la información que procesan. Funcionan a partir de patrones estadísticos extraídos del volumen de datos con los que fueron entrenados, y cuando se enfrentan a preguntas sensibles que exigen precisión regulatoria, contexto personal o interpretación legal, pueden mezclar datos, inventarlos o aplicar normas desactualizadas.
- Te puede interesar: Unicornios argentinos: Bitfarms y el ascenso de las criptomonedas
Además, gran parte del contenido financiero disponible en internet, una de sus principales fuentes de entrenamiento, incluye consejos superficiales, mitos de inversión y desinformación, un caldo de cultivo perfecto para respuestas imprecisas.
Las soluciones que plantea el informe
El informe también planteó interrogantes regulatorios. La Financial Conduct Authority advirtió que, cuando un chatbot ofrece un consejo que perjudica a un usuario, este no está protegido por los mecanismos tradicionales del sector financiero, como el Financial Ombudsman o los esquemas de compensación.

Es decir, si alguien pierde dinero por seguir una recomendación de IA, difícilmente pueda reclamar. Esta falta de resguardo legal presiona a las tecnológicas a mejorar sus sistemas de seguridad, incorporar advertencias claras y evitar que los modelos simulen ofrecer asesoramiento profesional sin tener las capacidades necesarias.
A nivel global, el caso funciona como una señal de alerta. La confianza de los usuarios es un activo vital para la industria de la IA, y episodios como este muestran que el entusiasmo tecnológico debe ir acompañado de límites más rigurosos. También empuja la necesidad de desarrollar modelos especializados y entrenados con datos verificados, capaces de brindar información útil sin poner en riesgo el patrimonio o la situación legal de las personas.
Y, al mismo tiempo, obliga a reforzar la educación digital: la IA puede ayudar a entender conceptos, comparar opciones o simplificar trámites, pero no reemplaza la mirada de un asesor certificado ni la interpretación precisa de una normativa vigente.




