Doxa 2370

¿Pueden los consejos de administración basados ​​en IA superar a los consejos humanos?

Por Valery Yakubovich, Stanislav Shekshnia, Elizabett Yashneva y Kyle Sullivan
Tableros
Harvard Business Review

#Doxa #IA #gobernanza #consejos #toma_decisiones #datos #analítica #sesgos #intuición #ética #automatización #liderazgo #futuro
Resumen. Una encuesta reciente realizada a 500 directores ejecutivos de todo el mundo reveló que el 94 % cree que la IA podría ofrecer mejor asesoramiento que al menos uno de los miembros de su junta directiva. Y en octubre de 2025, el fondo soberano de Kazajistán nombró a SKAI, una empresa de IAEl sistema, como director con derecho a voto, señala un cambio en el gobierno corporativo, ya que los grandes modelos de lenguaje (LLM) demuestran ser capaces de brindar asesoramiento informado y rico en datos, a menudo más allá de lo que pueden ofrecer los directores a tiempo parcial, sobrecargados de trabajo. Para explorar este potencial, investigadores del Instituto Mack de Wharton y del Centro de Gobierno Corporativo de INSEAD realizaron un experimento comparando juntas directivas humanas y de IA que deliberaban sobre el mismo caso de negocio. La junta de IA, construida como una simulación multiagente, procesó la información instantáneamente, siguió los protocolos estándar de las juntas e interactuó de forma autónoma mediante un sistema de memoria estructurada. Los evaluadores calificaron su desempeño según ocho criterios de gobierno. Los resultados fueron sorprendentes: la junta de IA superó significativamente a los grupos humanos en calidad de las decisiones, uso de evidencia, inclusión y planificación de la implementación. Las juntas humanas perdieron el enfoque, se estancaron en decisiones y pasaron por alto datos. Los expertos observaron que, si bien las juntas de IA carecían de matices interpersonales (generación de confianza y empatía), sobresalieron en estructura, participación y claridad. Los autores concluyen que los consejos de administración con IA no reemplazarán a los humanos, pero ya pueden servir como potentes herramientas de planificación: simulan debates, ponen a prueba las opciones y revelan puntos ciegos. A medida que los directores ejecutivos se ven presionados para demostrar avances en IA, y muchos cuestionan el valor estratégico de sus consejos, las empresas que integren la IA en la gobernanza superarán a las que no lo hagan.
Según una encuesta reciente realizada a 500 directores ejecutivos de todo el mundo, el 94 % cree que la IA podría ofrecer mejor asesoramiento que al menos uno de los miembros humanos de su junta directiva.  En octubre de 2025, Samruk-Kazyna, el Fondo Nacional de Bienestar de Kazajistán, anunció el nombramiento de SKAI (Samruk-Kazyna Artificial Intelligence) como miembro con derecho a voto de su junta directiva.

Estamos presenciando la creciente capacidad de los grandes modelos lingüísticos (GML) para generar resultados relevantes y bien fundamentados en diversos ámbitos. En contraste, la capacidad de los consejeros humanos independientes para ofrecer asesoramiento estratégico sólido es limitada. Como dos de nosotros señalamos en un artículo reciente de HBR, los consejeros no ejecutivos son profesionales a tiempo parcial extremadamente ocupados que suelen reunirse solo cuatro o cinco veces al año y, a menudo, forman parte de varios consejos. Inevitablemente, están alejados de las operaciones diarias. Incluso los directores ejecutivos, inmersos en sus áreas funcionales, a menudo tienen dificultades para conectar las ideas entre las distintas disciplinas, conciliar perspectivas contrapuestas y mantenerse al día con la enorme complejidad de los negocios modernos. El resultado puede ser la emisión de juicios parciales, puntos ciegos e incluso un estancamiento político en el seno del consejo.

Los másteres en Derecho (LLM) resultan atractivos en este contexto. Pueden asimilar grandes cantidades de información, generar informes con un alto grado de investigación, trabajar ininterrumpidamente sin cansarse y carecer de ambiciones personales. No sorprende que un número creciente de investigadores y profesionales abogue por la integración de la IA generativa en los consejos de administración, e incluso que se creen aplicaciones para respaldar esta visión. A medida que esta tendencia se consolida, surgen preguntas inevitables: ¿Quedarán obsoletas las deliberaciones de los consejos de administración? ¿Llegarán los chatbots a tomar decisiones tan buenas —o mejores— que las de los humanos?

Para ir más allá de la especulación, el Instituto Mack para la Gestión de la Innovación de Wharton y el Centro de Gobierno Corporativo de INSEAD diseñaron un experimento para comparar directamente la IA y los consejos de administración humanos.

El experimento
Los participantes del Programa Avanzado de Consejos de Administración de INSEAD realizaron una simulación de dos horas de una reunión del consejo de administración de la empresa ficticia Fotin, basada en un caso real. Se dividieron en seis grupos (o consejos) y se les pidió que se prepararan para la reunión. Cada grupo recibió con antelación un manual del consejo (orden del día y material de apoyo elaborado por la dirección) y la descripción de sus funciones. Posteriormente, celebraron la reunión y evaluaron su propio desempeño mediante un formulario de evaluación estandarizado con ocho criterios: calidad de las decisiones, viabilidad de la implementación, aprendizaje colectivo, participación de los consejeros, uso de datos objetivos, proceso justo e inclusivo, profundidad del análisis y desempeño del presidente. (Véase el anexo al final de este artículo).

Paralelamente, el equipo del Instituto Mack desarrolló una plataforma de simulación de juntas directivas multiagente, independiente del programa de maestría en derecho (LLM), diseñada para llevar a cabo deliberaciones idénticas y seguir las mismas buenas prácticas para reuniones de juntas directivas impartidas en el programa INSEAD. Antes de la reunión, los agentes de IA revisaron todos los documentos y elaboraron notas detalladas que abarcaban sus posturas sobre los puntos del orden del día, las inquietudes y los riesgos, las oportunidades y las fortalezas, los posibles acuerdos, las alianzas estratégicas y un plan de acción inicial. Una vez iniciada la reunión, el presidente virtual guió a la junta directiva a través del orden del día, se aseguró de que todos tuvieran la oportunidad de expresarse y resumió los puntos de vista de los miembros.

El experimento requería que los bots decidieran de forma autónoma cuándo hablar o escuchar, cómo ajustar sus objetivos y posturas, y qué decisiones tomar. Para ello, los equipamos con sistemas de memoria que almacenaban objetivos en constante evolución y opiniones de los demás miembros del consejo, las cuales se actualizaban continuamente. Inspirados en la cognición humana, estos sistemas operaban en tres periodos de tiempo: a corto plazo, los intercambios se almacenaban textualmente; a medio plazo, se convertían en resúmenes; y a largo plazo, se recordaban como ideas clave condensadas. Esta estructura permitía a los bots seguir las deliberaciones en curso y adaptarse dinámicamente.

Entre intervenciones, los agentes recurrían a su memoria para la autorreflexión, el análisis de reuniones, la planificación estratégica y la investigación externa. Secuencias de indicaciones específicas para cada etapa guiaban el análisis situacional y la verificación de datos, mientras que la recuperación de documentos complementaba la memoria con evidencia relevante de un amplio corpus de materiales proporcionados.

Si un bot parlante no llamaba explícitamente a un sucesor, su enunciado se dividía en unidades semánticas y un algoritmo de cola de prioridad de diálogo determinaba el siguiente hablante utilizando cuatro criterios:
  1. Similitud entre las unidades semánticas y la memoria de un bot
  2. Importancia y actualidad de los recuerdos más similares
  3. Importancia de la unidad semántica que coincide con la memoria más similar
  4. Frecuencia de habla del bot
El bot con la puntuación más alta era invitado a hablar, mientras que los demás mantenían sus puntuaciones, aunque con una ligera disminución tras cada ronda. En esencia, al igual que en los paneles con humanos, si el orador en ese momento mencionaba algo muy relevante para el historial o las ideas recientes de otro bot, era probable que este último hablara a continuación.

La transcripción del consejo de IA fue evaluada según ocho criterios de gobernanza por tres másteres en Derecho (LLM) y tres expertos independientes. Los mismos evaluadores también analizaron las transcripciones de los seis consejos integrados por personas, al igual que los participantes de dichos consejos. Todas las calificaciones utilizaron una escala de tres puntos: deficiente, satisfactorio y bueno.

Los resultados
El consejo de IA obtuvo la máxima puntuación (3 puntos) en cinco criterios, tanto por parte de expertos como de profesionales con amplia experiencia en gestión (LLM). Surgieron críticas menores: los LLM calificaron la viabilidad de las decisiones y la preparación de los directores con una puntuación ligeramente inferior (2,7 y 2,9, respectivamente), mientras que los expertos otorgaron 2,7 puntos a la profundidad del análisis. Los consejos humanos obtuvieron puntuaciones significativamente inferiores en los ocho criterios, según los tres grupos de evaluadores, como se muestra en la siguiente gráfica. En general, los evaluadores de IA y los expertos fueron más críticos con el desempeño de los consejos humanos que los propios participantes. Analicemos estas diferencias.

Desempeño de la Junta Directiva Humana. El gráfico muestra las calificaciones de ocho criterios de desempeño de la junta directiva, otorgadas por participantes humanos, evaluadores de IA y evaluadores expertos. Al evaluar el desempeño de la junta directiva humana, los participantes en una reunión simulada se autoevaluaron con calificaciones más altas en calidad de las decisiones, viabilidad de las decisiones, aprendizaje colectivo, proceso justo e inclusivo y desempeño de la presidencia, en comparación con los evaluadores expertos y de IA. En dos criterios (preparación de los directores y profundidad del análisis), los evaluadores de IA fueron más generosos que los participantes, lo que probablemente refleje una forma de adulación por la que son conocidos los expertos en derecho. En cuanto al uso de los hechos, los evaluadores expertos y de IA fueron más positivos que los miembros de la junta, pero las diferencias fueron mínimas. Fuente: Valery Yakubovich, Stanislav Shekshnia, Elizabett Yashneva y Kyle Sullivan.

Vea más gráficos de HBR en Datos y visualizaciones.

En cuanto a la calidad de las decisiones, tanto los evaluadores de IA como los expertos observaron que los comités humanos a menudo «dudaban y daban vueltas a las opciones sin llegar a una estrategia clara». Sus debates se describieron como «difíciles de seguir» y «no siempre bien articulados». En cambio, el comité del chatbot «alcanzó resoluciones claras y prácticas», y una evaluación destacó cómo «enmarcó las decisiones con contingencias explícitas y pasos a seguir».

En cuanto a la viabilidad de las decisiones, los evaluadores expertos observaron que los consejos humanos «rara vez traducían la estrategia en objetivos concretos» y ofrecían «un debate insuficiente basado en hechos». Se pasó por alto la mitigación de riesgos y los participantes admitieron incertidumbre sobre cómo implementar las estrategias elegidas. En cambio, el consejo del chatbot «ajustó su dirección a los recursos disponibles» y «tradujo las decisiones principales en acciones concretas». Los evaluadores destacaron sistemáticamente que estas decisiones eran «prácticas, realistas y se ajustaban a las limitaciones».

En cuanto a la preparación y las pruebas fácticas, los comités humanos mostraron una escasa interacción con la información previa y desaprovecharon oportunidades para fundamentar sus argumentos en datos. Los chatbots, en cambio, citaron activamente cifras de los documentos, resolvieron discrepancias en tiempo real e integraron pruebas cuantitativas en su razonamiento. Los expertos en derecho describieron las deliberaciones de los chatbots como bien fundamentadas y cuidadosamente sintetizadas, con planes de implementación que incluían pasos específicos y planes de contingencia, como objetivos de ahorro de costes y pruebas piloto por fases. Sus debates se caracterizaron por estar basados ​​en datos, con resolución de discrepancias y un uso exhaustivo de los documentos.

Los expertos señalaron las dificultades de los chatbots con los aspectos informales, interpersonales y culturales de la gobernanza, ofreciendo poca capacidad para romper el hielo, brindar apoyo o proporcionar una perspectiva general. El resultado, según sugirieron, fue un consejo directivo que sobresalía en estructura y detalle, pero carecía de la dinámica relacional que da forma a la interacción humana. Para la perspectiva general, esto tal vez no represente un problema, pero en lo que respecta a la dinámica relacional y afectiva de la gobernanza —el apoyo, la generación de confianza y el vínculo informal que sustenta el juicio colectivo— estas deficiencias merecen una reflexión más profunda.

Otras lecciones
Al preparar el experimento, aprendimos que lograr que los chatbots interactúen entre sí es una tarea cualitativamente diferente a lograr que interactúen con humanos. El diálogo humano se desarrolla mediante señales tácitas: cuándo hablar o ceder, a quién apoyar o cuestionar, y cómo equilibrar la convicción con la curiosidad. Estos comportamientos surgen de valores, personalidades, experiencia y conciencia social y contextual; cualidades que los chatbots actuales no poseen. Por lo tanto, su comportamiento debe ser moldeado por instrucciones explícitas que, por su propia naturaleza, son frágiles, incompletas e inflexibles.

Esto pone de manifiesto una diferencia fundamental: los consejos de administración basados ​​en IA pueden llegar a decisiones aparentemente acertadas, pero lo hacen de maneras que difieren de la práctica humana. Por lo tanto, la verdadera pregunta es: ¿Deberían hacerlo? ¿Queremos consejos que optimicen cada métrica explícita, pero que permanezcan ciegos a las corrientes subyacentes tácitas, emocionales y relacionales que dan forma al juicio y la confianza?

El panorama se complica al considerar la capacidad de los modelos de aprendizaje lógico (MLL) para aprender mediante el refuerzo a partir de la retroalimentación humana (RLHF). Al detectar patrones en las reacciones de los usuarios, los modelos pueden adquirir una forma limitada de conocimiento tácito, ajustando su respuesta a diferentes señales. Sin embargo, lo que internalizan exactamente —y si esos patrones se alinean realmente con la intención humana— sigue siendo un misterio. Para la gobernanza, esto plantea tanto promesas como riesgos: los consejos de IA podrían ir incorporando gradualmente elementos de juicio y matices, pero de maneras difíciles de rastrear o controlar.

Estas consideraciones no descartan la posibilidad de utilizar consejos con inteligencia artificial, sino que sugieren un camino prudente a seguir. Hoy en día, los presidentes y miembros de los consejos pueden usar estos sistemas como herramienta de planificación: para simular el desarrollo de una reunión, anticipar argumentos, poner a prueba las opciones o descubrir información valiosa que haya pasado desapercibida. Y si no les convence lo que revela la IA, tendrán que preguntarse por qué y reflexionar sobre cómo orientar la conversación hacia un resultado satisfactorio.

Dicho esto, es evidente que los consejos de administración humanos pueden aprender lecciones de sus homólogos de IA.
  • Disciplina estructural. Los bots demostraron ser mucho más eficaces que los humanos a la hora de guiar sus deliberaciones desde los hechos hasta las opciones, pasando por las ventajas e inconvenientes, hasta llegar a las decisiones. En cambio, los grupos humanos frecuentemente perdían el control del tiempo y la concentración, y expresaban frustración por la sensación de estar dando vueltas en círculo. Los evaluadores observaron que los participantes no mantenían un debate detallado, permitían que las discusiones se desviaran y dejaban que las voces dominantes dirigieran la conversación. Para los directores, la lección no consiste en comportarse como bots preprogramados, sino en adoptar técnicas de secuenciación sencillas y distinguir entre las diferentes etapas de las deliberaciones, como compartir información, explorar opciones, evaluarlas y seleccionar la decisión. Esto ayudará a mantener los debates complejos enfocados.
  • Inclusión en el diálogo.   Los moderadores con IA lograron involucrar a todos los participantes, verificar la coherencia de las posturas y dar la palabra a quienes disentían. En cambio, los moderadores humanos a menudo permitían que los participantes más expresivos monopolizaran la palabra, mientras que otros permanecían al margen. La lección para los moderadores es ser pacientes durante el desarrollo del debate, invitar a participar a los miembros más reservados, moderar a los más locuaces que repiten las mismas ideas, abstenerse de expresar sus propias opiniones prematuramente y resumir los puntos de vista divergentes antes de buscar el consenso.
  • Comodidad ante lo desconocido. Ante material nuevo o técnico, recurrieron a marcos conceptuales y preguntas estructuradas para reducir la incertidumbre. Mientras tanto, los grupos humanos a menudo se estancaban cuando las discusiones se centraban en detalles técnicos. La lección aquí es ralentizar el ritmo y replantear la complejidad con la ayuda de marcos conceptuales y modelos que, si bien pueden resultar desconocidos para los miembros del consejo, podrían encontrarse (con la ayuda de la IA), en lugar de seguir adelante con un conocimiento limitado. El consejo de IA experimentó una curva de aprendizaje muy pronunciada en nuestro experimento. Los miembros del consejo pueden adoptar la misma estrategia de aprendizaje para mejorar su desempeño: profundizar en su comprensión de los puntos específicos de la agenda, su empresa y su contexto, además de ampliar su comprensión del gobierno corporativo, las teorías sociales que lo sustentan y los marcos conceptuales que describen enfoques eficaces. (La IA puede ser útil en este sentido, como sugerimos en nuestro artículo de HBR, siempre que los directores tengan acceso al servicio LLM de la empresa).
Para concluir, retomemos la encuesta que citamos al principio. En otra sección, el 74 % de los directores ejecutivos encuestados afirmó temer perder su puesto si no demostraban avances en IA, y el 66 % indicó que sus consejos de administración presionaban para obtener mejoras tangibles en la productividad impulsadas por la IA. Si a estos hallazgos se le suma el escepticismo de los directores ejecutivos sobre el valor que aportan los consejos de administración a las decisiones estratégicas, resulta evidente que la gobernanza corporativa debe adoptar la IA. Las empresas que se resistan a integrarla en sus consejos de administración casi con seguridad serán superadas en competencia por aquellas que sí lo hagan.

Lea más sobre juntas directivas o temas relacionados: IA generativa, IA y aprendizaje automático y gobierno corporativo.

Valery Yakubovich es la directora ejecutiva del Instituto Mack para la Gestión de la Innovación y profesora adjunta en la Escuela de Negocios Wharton.

Stanislav Shekshnia es profesor asociado sénior en INSEAD, donde cofundó y codirige el programa Leading from the Chair. Es presidente del consejo de administración de Technoenergy AG.

Elizabett Yashneva es la directora del Talent Equity Institute de WH Advisors, una consultora líder en gestión de talento con sede en Dubái, Emiratos Árabes Unidos.

Kyle Sullivan Es becario del Instituto Mack y asistente docente en la Escuela de Ingeniería y Ciencias Aplicadas de la Universidad de Pensilvania en Filadelfia, Pensilvania.


No hay comentarios:

Publicar un comentario