Si usamos la inteligencia artificial para invertir en bolsa… ¿qué lugar ocupa el factor humano? La CNMV recoge el guante y responde con algo mucho más valioso que una advertencia genérica: datos reales, diez meses de mercado en vivo y cuatro de los modelos de IA más avanzados del mundo puestos a prueba. Ni todo es blanco, ni tampoco negro.
El estudio, firmado por Ricardo Crisóstomo y Diana Mykhalyuk, técnicos de la Dirección General de Estrategia y Asuntos Internacionales del supervisor, se titula “Modelos de lenguaje a gran escala e inversión en bolsa: ¿es imprescindible el factor humano?” (Large Language Models and Stock Investing: Is the Human Factor Required?).
La pregunta no es retórica. Durante diez meses —de abril de 2025 a enero de 2026— los investigadores pidieron a ChatGPT, Gemini, DeepSeek y Perplexity que identificaran cada mes las cinco acciones del Ibex 35 con mejor rendimiento esperado y las cinco peores para posiciones cortas. El mercado real, sin atajos, fue el único árbitro.
El veredicto de la CNMV tiene matices, y eso es bueno
Las conclusiones de la CNMV no son las que esperaría quien busca un titular fácil. El organismo reconoce que la IA puede mejorar los rendimientos financieros, pero advierte que sin las instrucciones adecuadas se generan, en sus propias palabras, “un riesgo inestable y errores económicamente significativos”.
El quid está en cómo se usa la herramienta. Tras evaluar los cuatro modelos, el estudio concluye que “estas herramientas presentan fallos recurrentes de razonamiento, incluyendo errores computacionales, interpretaciones financieras incorrectas y uso de información desactualizada o inventada (alucinaciones)”.
Hasta aquí, la lectura habitual que encontramos. Pero el informe va más lejos: cuando los mismos modelos reciben instrucciones precisas, estructuradas y con revisión humana en cada paso, los resultados mejoran de forma sustancial. La diferencia entre uno y otro escenario no está en el modelo. Está en cómo se le habla.
El prompt como variable
Para el asesor financiero, esto tiene una traducción práctica inmediata: la IA no sustituye al criterio profesional, pero puede potenciarlo si se la alimenta con rigor. El problema es que el inversor minorista medio no dispone de esa capacidad técnica. Y la IA, como recuerda el informe, está diseñada para generar respuestas “fluidas y seguras, incluso cuando se basan en razonamientos defectuosos, información incompleta o inexactitudes computacionales”.
En consecuencia, advierte la CNMV, “los inversores sin experiencia financiera o sin criterio crítico pueden depositar una confianza excesiva en las recomendaciones de la IA, utilizando sus señales sin comprender adecuadamente sus riesgos y limitaciones”. Suena bien, aunque esté equivocada. Y ese es, precisamente, el riesgo.
La calidad de la fuente lo cambia todo
Hay otro hallazgo del estudio que merece atención particular. El informe destaca que los modelos obtienen mejores resultados cuando se apoyan en información procedente de organismos supervisores: “El anclaje de los sistemas con información procedente de estas fuentes oficiales contribuye a reducir el ruido informativo, favorece la comparabilidad de los datos y permite obtener un razonamiento financiero más coherente, preciso y fiable, frente al uso de la información general que se encuentra en internet”.
Lo que la CNMV dice
La CNMV no condena la IA como herramienta de análisis ni tampoco la ensalza. Lo que documenta —con evidencia empírica— es que su uso sin supervisión experta y sin fuentes verificadas equivale a tomar decisiones a ciegas con apariencia de fundamento. La conclusión del informe es nítida: “Es fundamental establecer procesos de validación y verificación en todas las etapas del análisis y la toma de decisiones”.
El estudio de la CNMV no cierra el debate sobre la IA en la inversión. Lo abre, con rigor, desde el único lugar donde merece abrirse: los datos reales. Algo que continuará en EFPA Congress 2026, donde la IA será uno de los desafíos que ocuparán buena parte de la agenda.



























