La Comisión Nacional del Mercado de Valores (CNMV) de España encendió las alertas sobre el uso de inteligencia artificial (IA) en los mercados financieros. A través de un estudio reciente, el regulador español concluyó que el uso de estos sistemas sin supervisión humana en la toma de decisiones de inversión puede generar errores significativos que, en última instancia, podrían traducirse en pérdidas económicas para los inversores.
El informe, titulado “Modelos de lenguaje de gran tamaño y la inversión en bolsa: ¿es necesario el factor humano?”, analizó el desempeño de modelos de lenguaje avanzados como ChatGPT, Gemini, DeepSeek y Perplexity en la generación de recomendaciones de inversión. A partir de un análisis empírico, los investigadores identificaron fallos recurrentes en el razonamiento de estos sistemas, lo que pone en duda su fiabilidad cuando se utilizan de forma autónoma.
Entre los principales problemas detectados se encuentran errores computacionales, interpretaciones incorrectas de información financiera y el uso de datos desactualizados o incluso inventados, fenómeno conocido como “alucinaciones”. Según el estudio, estos fallos tienden a ser más frecuentes cuando las consultas realizadas a los modelos son simples o carecen de contexto estructurado, lo que evidencia la importancia de formular instrucciones claras y detalladas.
En este contexto, la CNMV subrayó que la inteligencia artificial no debe sustituir el criterio humano, sino complementarlo. El regulador destacó que la integración de estas herramientas en los procesos de inversión requiere no sólo avances tecnológicos, sino también marcos organizativos adecuados que permitan validar y verificar los resultados generados por la IA.
“El uso de la IA sin intervención humana conlleva riesgos operativos significativos”, advirtió el informe, al señalar que los inversores minoristas podrían estar especialmente expuestos si confían ciegamente en estas herramientas sin comprender sus limitaciones.
Otro de los hallazgos clave del estudio es la relevancia de las fuentes de información utilizadas por los modelos. La CNMV señaló que aquellos sistemas que se alimentan de datos oficiales, regulados y estandarizados —como los proporcionados por supervisores financieros— ofrecen resultados más fiables y con menor margen de error. En contraste, el uso de información general disponible en internet puede introducir sesgos, inconsistencias y narrativas contradictorias.
En este sentido, el concepto de “anclaje” o grounding cobra especial importancia. Este proceso consiste en vincular las respuestas de la IA a fuentes verificadas, lo que permite reducir el ruido informativo y mejorar la coherencia del análisis financiero. Según el estudio, esta práctica es clave para avanzar hacia un uso más seguro de la inteligencia artificial en los mercados.
El informe de la CNMV se suma a un creciente debate global sobre el papel de la inteligencia artificial en las finanzas. Si bien estas herramientas ofrecen un potencial significativo para mejorar la eficiencia y el acceso a la información, el organismo regulador deja claro que su adopción debe ir acompañada de supervisión humana y marcos de gobernanza sólidos.
En un entorno donde cada vez más inversores recurren a soluciones tecnológicas para tomar decisiones, el mensaje es contundente: la inteligencia artificial puede ser una aliada, pero no un sustituto del juicio humano.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

