Investigación: Los ejecutivos que usaron Gen AI hicieron peores predicciones
Por José Parra-Moyano, Patrick Reinmoeller y Karl Schmedders
Sesgo cognitivo
Harvard Business Review
#Doxa #investigación #ejecutivo #GenAI #predicción #sesgo #cognitivo #experimento #gerente #precios #acciones #Nvidia #colegas #optimistas #confiados #IA #seguridad #social #emocional #escepticismo #discusión #conservador #beneficio #critico
Resumen. En un experimento reciente, a casi 300 ejecutivos y gerentes se les mostraron los precios recientes de las acciones del fabricante de chips Nvidia y se les pidió que predijeran el precio de las acciones dentro de un mes. Después, la mitad del grupo tuvo la oportunidad de hacer preguntas de ChatGPT, mientras que a la otra mitad se le permitió consultar con sus colegas sobre las acciones de Nvidia. Los ejecutivos que usaron ChatGPT se mostraron significativamente más optimistas y confiados, y elaboraron peores pronósticos que el grupo que discutió con sus colegas. Esto probablemente se deba a que la voz autoritaria de la IA —y el nivel de detalle de sus respuestas— generó una fuerte sensación de seguridad, sin la regulación social, la capacidad de respuesta emocional ni el escepticismo útil que llevaron al grupo de discusión a ser más conservador en sus predicciones. Para aprovechar los beneficios de la IA, los ejecutivos deben comprender cómo esta puede sesgar su propio pensamiento crítico.
Muchas organizaciones priorizan la integración de herramientas de IA en el entorno laboral. Y con razón: estudios preliminares han demostrado que pueden mejorar el rendimiento de los empleados en tareas sencillas o rutinarias, ayudar a los líderes a comunicarse mejor y a las organizaciones a ampliar su cartera de clientes. Pero ¿cómo se comporta la IA como aliada en la toma de decisiones de mayor importancia?
Para comprobarlo, realizamos un experimento sencillo. Pedimos a más de 300 gerentes y ejecutivos que hicieran predicciones bursátiles tras revisar las tendencias pasadas. La mitad tuvo la oportunidad de consultar con sus colegas, mientras que la otra mitad pudo consultar ChatGPT. Los participantes pudieron entonces revisar sus predicciones.
Los resultados fueron sorprendentes. Descubrimos que ChatGPT hizo que los ejecutivos fueran significativamente más optimistas en sus pronósticos, mientras que las conversaciones entre colegas tendían a fomentar la cautela. Además, descubrimos que los ejecutivos que usaron ChatGPT hicieron peores predicciones, basadas en cifras reales de acciones, que antes de consultar la herramienta. En este artículo, compartimos lo que hicimos, lo que descubrimos, qué lo explica y por qué es importante para cualquier líder que integre la IA en su proceso de toma de decisiones.
El experimento
Nuestro estudio se llevó a cabo durante una serie de sesiones de formación ejecutiva sobre IA, entre junio de 2024 y marzo de 2025. Los participantes eran gerentes y ejecutivos de diversas empresas que participaban en un ejercicio práctico. Comenzamos mostrando a todos el gráfico reciente del precio de las acciones de Nvidia (NVDA), el fabricante líder de chips, cuya fortuna se ha disparado gracias a su papel en el desarrollo de tecnologías de IA. El precio de las acciones de Nvidia había experimentado un aumento notable, lo que lo convertía en un caso práctico ideal para poner a prueba la capacidad de predicción. (Y sin duda captó la atención de los ejecutivos).
Primero, se pidió a cada participante que hiciera un pronóstico individual: ¿Cuál esperaban que fuera el precio de las acciones de Nvidia dentro de un mes? Presentaron esta estimación inicial de forma privada. A continuación, dividimos aleatoriamente a los participantes en dos grupos para un breve periodo de consulta:
- Discusión entre pares (grupo de control): Estos ejecutivos debatieron sus pronósticos en grupos pequeños durante unos minutos. No utilizaron herramientas de IA, solo conversación humana, compartiendo ideas o información. Esto imita un enfoque tradicional para la toma de decisiones: obtener la opinión de sus colegas.
- Consulta de ChatGPT (grupo de tratamiento): Estos ejecutivos podían preguntar a ChatGPT lo que quisieran sobre las acciones de Nvidia (por ejemplo, para analizar tendencias recientes o dar un pronóstico a un mes), pero se les indicó que no hablaran con sus colegas. Este escenario representa un proceso de decisión asistido por IA, donde un ejecutivo podría consultar a un asesor de IA en lugar de a sus colegas.
Después de esto, todos hicimos un pronóstico revisado del precio de Nvidia para el mes que viene y recopilamos esas respuestas.
Los resultados
La IA condujo a pronósticos más optimistas.
Los grupos comenzaron con expectativas base comparables: antes de cualquier discusión o consulta sobre IA, los dos grupos de ejecutivos tenían pronósticos estadísticamente indistinguibles para Nvidia.
Sin embargo, tras el periodo de consulta, observamos que los ejecutivos que usaron ChatGPT se mostraron más optimistas en sus previsiones. En promedio, el grupo de ChatGPT aumentó sus estimaciones de precios para un mes en aproximadamente $5.11.
La discusión entre pares hizo que los pronósticos fueran más conservadores.
A diferencia del grupo de IA, el grupo de discusión entre pares redujo sus estimaciones de precios, en promedio, en unos $2.20. Además, este grupo tuvo mayor probabilidad que el grupo de ChatGPT de mantener su estimación original. Si hicieron algún cambio, fue más probable que redujeran su pronóstico inicial.
Estos patrones se mantuvieron válidos incluso cuando controlamos los pronósticos más extremos (altos o bajos) en nuestro conjunto de datos.
La consulta sobre IA empeoró las predicciones.
Tras realizar nuestro estudio, esperamos un mes y comparamos las predicciones de los ejecutivos con los datos reales de Nvidia. Descubrimos que, en promedio, ambos grupos eran demasiado optimistas. Sin embargo, observamos que quienes usaron ChatGPT hicieron predicciones aún peores después de la consulta. Quienes consultaron con sus colegas hicieron predicciones significativamente mejores que antes de la consulta.
La IA provocó un exceso de confianza.
Entre todos nuestros participantes, aproximadamente un tercio ofreció predicciones precisas en sus estimaciones iniciales (es decir, cifras con uno o más decimales), lo que investigaciones previas han establecido como un indicador de exceso de confianza. Lo que nos sorprendió fue que, tras consultar con colegas o con ChatGPT, el exceso de confianza de los participantes en la precisión de sus pronósticos cambió sistemáticamente.
Conversar con ChatGPT aumentó significativamente la tendencia de los participantes a ofrecer predicciones precisas, mientras que los participantes del grupo de discusión entre pares mostraron una probabilidad significativamente menor de usarlas en sus estimaciones revisadas. En otras palabras, su exceso de confianza disminuyó.
Por qué la IA generó exceso de confianza y optimismo
¿Qué podría explicar estos resultados tan diferentes? ¿Por qué consultar una herramienta de IA generaría estimaciones infladas y un exceso de confianza, mientras que las discusiones entre pares generarían mayor humildad y conservadurismo? Hemos aislado cinco razones:
1. Extrapolación y “seguimiento de tendencias”
ChatGPT podría haber fomentado el sesgo de extrapolación. El conocimiento de la IA se basa en datos históricos, por lo que podría haber extendido la reciente tendencia alcista de Nvidia hacia el futuro. De hecho, las acciones de Nvidia habían estado subiendo considerablemente en los meses previos a nuestras sesiones. Al carecer de contexto actualizado o de cualquier indicio de un próximo punto de inflexión, el análisis de ChatGPT probablemente asumió que «lo que ha estado subiendo seguirá subiendo». La orientación de la IA, basada únicamente en patrones de datos históricos, podría haberse inclinado hacia el optimismo por defecto.
2. Sesgo de autoridad y sobrecarga de detalles
Muchos ejecutivos en la condición ChatGPT se mostraron impresionados por el detalle y la seguridad de la respuesta de la IA. En las conversaciones posteriores al experimento, algunos participantes señalaron que ChatGPT proporcionó una gran cantidad de datos y un razonamiento tan exhaustivo y seguro que, en comparación, sus propias estimaciones iniciales parecían insuficientes.
Esto es una forma de sesgo de autoridad de la IA: dado que la IA se expresaba con seguridad y análisis, los usuarios tendían a dar mucha importancia a sus sugerencias, a veces más que a su propio juicio. En esencia, la autoridad del medio (una IA avanzada, con un sonido similar al de un informe de expertos) aumentaba la credibilidad de un pronóstico optimista.
3. Emoción (o falta de ella)
Los humanos tenemos emociones e instintos que pueden actuar como freno ante pronósticos extremos. Un ejecutivo que observa un gráfico bursátil meteórico podría sentir cierta cautela y una voz interior que le dice: «Si está en su punto máximo, podría desplomarse». En nuestras sesiones, sospechamos que la cautela emocional influyó en las conversaciones entre colegas. Las personas podrían expresar dudas o temores («Esta acción parece efervescente; quizá deberíamos controlarla un poco»).
ChatGPT, por otro lado, carece de esa emoción o intuición. No siente miedo a las alturas como podría sentir una persona al ver un gráfico de precios al alza. La IA ofrece un análisis sin la influencia de la ansiedad, lo cual puede ser útil, pero también significa que podría no cuestionar una tendencia optimista. Los usuarios que confían únicamente en los resultados de la IA no se benefician de esa cautelosa intuición. En nuestro experimento, la ausencia de "miedo a equivocarse" por parte de la IA podría haber permitido que los pronósticos más audaces no se modificaran.
4. Calibración entre pares y dinámica social
El acto de discutir con compañeros introdujo un conjunto diferente de sesgos y comportamientos, que generalmente propiciaban la cautela y el consenso. En una discusión grupal, las personas escuchan diversos puntos de vista y a menudo descubren que las expectativas de los demás difieren de las suyas. En nuestros grupos de compañeros, esta dinámica a menudo condujo a moderar las opiniones extremas y a encontrar un punto medio.
Además, en entornos profesionales, nadie quiere ser la persona con un pronóstico absurdamente optimista. Existe cierta mentalidad de "no seas el tonto", porque los ejecutivos saben que el optimismo desmedido puede parecer ingenuo. En nuestra opinión, esto puede haber creado una espiral de escepticismo en el grupo: cada persona, consciente o inconscientemente, intentando no parecer demasiado optimista, resultó en pronósticos colectivos más bajos. Esto es casi lo opuesto al clásico "pensamiento de grupo": en lugar de animarse mutuamente para alcanzar la euforia, estos ejecutivos se controlaban mutuamente, quizás para evitar destacar. El resultado final fue un consenso más conservador.
5. Ilusión de conocimiento
Las investigaciones han demostrado que cuando las personas tienen acceso a grandes cantidades de información, como internet, o a herramientas para el procesamiento de información, como las computadoras, son más propensas a caer en la ilusión de saberlo todo. Un número considerable de participantes mostró el efecto de esta ilusión al acceder a ChatGPT, una de las tecnologías más inteligentes con acceso a vastos recursos.
Cómo usar la IA con inteligencia artificial en las decisiones ejecutivas
Nuestros hallazgos aportan algunas lecciones importantes para los líderes y las organizaciones a medida que integran herramientas de IA en la toma de decisiones:
1. Sea consciente de los sesgos de la IA y la ilusión del conocimiento.
Consultar ChatGPT (o modelos de IA de generación similar) puede influir sutil pero significativamente en sus expectativas y generar una confianza excesiva en ellas. Si utiliza IA para fundamentar pronósticos o decisiones estratégicas, recuerde que podría impresionarle con detalles, pero sin la perspectiva cautelosa que los humanos aportan naturalmente. Por lo tanto, al realizar predicciones, especifique los datos que desea que el sistema analice, solicite que le proporcione un intervalo de confianza estadístico y, lo más importante (para compensar cualquier sesgo), pídale al sistema que explique por qué o cómo la predicción podría ser errónea.
2. No descartes la discusión humana, más bien aprovéchala.
El contraste entre nuestros dos grupos subraya el valor del debate entre pares como contrapeso. Si bien la IA puede proporcionar análisis e información ultrarrápidos, aún hay sabiduría en juego. Los pares pueden aportar datos nuevos, contexto y una revisión de la realidad sobre ideas que parecen demasiado buenas para ser ciertas o simplemente demasiado precisas en sus pronósticos. En la práctica, el mejor enfoque podría ser combinar la aportación de la IA con el diálogo humano. Por ejemplo, un ejecutivo podría obtener una rápida opinión de ChatGPT y luego convocar una reunión de equipo para debatirla. Nuestra investigación sugiere que esta combinación aprovecharía las fortalezas de la IA y el juicio humano, ayudando a evitar los puntos ciegos de cualquiera de ellas por separado. Como líderes, fomentar una cultura donde se utilicen las nuevas tecnologías junto con un sano escepticismo y el debate probablemente conducirá a decisiones más equilibradas.
3. El pensamiento crítico es clave, sin importar la fuente.
Ya sea que el consejo provenga de una IA o de un colega, los ejecutivos deben aplicar su propio pensamiento crítico. Plantéense preguntas sobre la base de un pronóstico. En el caso de ChatGPT, se podría indagar: ¿En qué datos se basa este pronóstico? ¿Podría haber factores recientes que falten? Con colegas, se podría preguntar: ¿Estamos siendo demasiado conservadores porque todos estamos inseguros? Especialmente con la IA, que puede parecer autoritaria, es crucial no aceptar las recomendaciones al pie de la letra. Considere la IA como un punto de partida para la investigación, no como la última palabra.
Esto también aplica a nuestro propio estudio. Este estudio se realizó en un entorno controlado de formación ejecutiva con una muestra limitada de gestores y podría no captar plenamente la complejidad ni los riesgos emocionales de los entornos de trading reales. Además, nos centramos exclusivamente en una sola acción (Nvidia) y un horizonte de pronóstico de un mes, por lo que los resultados podrían diferir para otros valores o predicciones a largo plazo. Finalmente, el modelo ChatGPT que utilizamos carecía de acceso a datos de mercado actualizados al minuto, y herramientas de IA alternativas o versiones más actualizadas del modelo podrían producir efectos diferentes. Comprender las limitaciones o los posibles factores de confusión (tanto en nuestro estudio) como con la IA puede ayudarle a aplicar una perspectiva crítica a los resultados.
4. Capacitar y establecer pautas para el uso de IA en equipos.
Si su organización está implementando asesores o asistentes de IA, informe que la IA puede fomentar el exceso de confianza. Al igual que Ulises necesitaba cera y cuerda para resistir la tentación de las sirenas, su organización necesita directrices sobre cómo manejar la IA. Por ejemplo, antes de obtener un pronóstico generado por IA, exija una ronda de debate entre colegas o una revisión de los peores escenarios posibles antes de consultar con la IA. Al institucionalizar una combinación de IA y aportaciones humanas, se protege contra influencias desequilibradas.
...
La IA está cambiando la forma en que se toman las decisiones, pero el juicio humano sigue siendo crucial. Nuestro experimento ofrece una visión, basada en datos, de esta dinámica en evolución. Incluso los ejecutivos con experiencia pueden dejarse convencer por un argumento convincente de IA, e incluso los grupos entusiastas pueden volverse cautelosos con un poco de debate. Ningún enfoque es "mejor" en todos los casos. A veces, el optimismo está justificado, y a veces, la cautela. La lección para los líderes es ser conscientes de dónde proviene el consejo. Si proviene de IA, inyecten algo de sentido común; si proviene de humanos, incluso podrían usar IA para asegurarse de no pasar por alto una perspectiva externa.
Lea más sobre el sesgo cognitivo o temas relacionados: toma de decisiones y resolución de problemas, análisis estratégico, IA y aprendizaje automático e IA generativa.
José Parra-Moyano es profesor de Estrategia Digital en IMD Business School. Su investigación se centra en cómo las organizaciones pueden utilizar las tecnologías digitales para generar valor. Es un profesor apasionado y galardonado, fundador de su propia startup, miembro de la lista Thinkers50 Radar, de Forbes 30 under 30 y Global Shaper del Foro Económico Mundial.
Patrick Reinmoeller es profesor de Estrategia e Innovación en IMD, Suiza, donde ayuda a líderes a transformar sus organizaciones multinacionales. Es cofundador y miembro no ejecutivo de la junta directiva. Antes de IMD, impartió clases en la Universidad de Cranfield, la Escuela de Administración de Róterdam, JAIST en Japón y LIUC en Italia, y estudió en la Universidad Bocconi y la Universidad Hitotsubashi, además de obtener un doctorado en la Universidad de Colonia.
Karl Schmedders es profesor de Finanzas en el IMD y profesor visitante del programa de MBA Ejecutivo en la Kellogg School of Management. Es miembro de la Game Theory Society y de la Society for the Advancement of Economic Theory (SAET), reconocido por sus contribuciones a la modelización económica y las ciencias de la decisión. Obtuvo su doctorado en Investigación de Operaciones en la Universidad de Stanford.
No hay comentarios:
Publicar un comentario