¿Quién en la alta dirección debería ser responsable de la IA?
La lucha por el control acaba de comenzar. Así es como los líderes pueden resolverla
Por Toby E. Stuart
IA y aprendizaje automático
Harvard Business Review
#Doxa #LiderazgoIA #ResponsabilidadEjecutiva #GobernanzaIA #EstrategiaIAEmpresarial #ChiefAIOfficer #CEOyIA #SupervisiónDirectiva #ColaboraciónMultifuncional #TransformaciónDigitalIA #GestiónRiesgosIA #ÉticaIA #PropiedadEstratégicaIA #AlfabetizaciónEjecutivaIA #ModeloOperativoIA #RendiciónCuentasIA
Resumen. La cuestión de quién controla la IA es el tema crítico del organigrama en los albores de la era de la IA, e influirá en la estrategia de una empresa, los niveles de inversión y la distribución del poder y la influencia entre los líderes. ¿Cómo pueden decidir las organizaciones? El sociólogo Andrew Abbott desarrolló uno de los marcos más perspicaces para comprender este problema en su emblemático libro de 1988, The System of Professions. Abbott demostró que los grupos profesionales están enzarzados en una lucha perpetua por controlar determinados ámbitos de trabajo, y que los grandes cambios tecnológicos o sociales son los momentos en los que se redefinen esos límites. Aplicada a los altos directivos, su teoría revela por qué se recrudecerá la lucha actual por la IA y señala una forma práctica para que los líderes superen la guerra de territorios y avancen hacia una estructura organizativa que realmente funcione.
En enero de 2026, el CEO de una compañía de seguros incluida en la lista Fortune 500 convocó a su equipo directivo para debatir sobre la propiedad de las iniciativas de IA de la empresa. El CIO consideraba que la respuesta era obvia: los sistemas de IA agenciales dependían de ella. El COO replicó que una plantilla agencial era la definición misma de operaciones. El CFO señaló que un sistema de IA ya estaba tomando decisiones de suscripción con un impacto directo en las pérdidas y ganancias. El director de riesgos observó que los sistemas de toma de decisiones autónomos suponen una exposición al riesgo importante. El director de recursos humanos consideraba que los agentes de IA eran funcionalmente equivalentes a los trabajadores, lo que en parte entraba dentro de su ámbito de competencia. La directora de datos recordó a todos que todo el conjunto dependía de los permisos y el acceso a los datos adecuados, y que ese era su ámbito de competencia.
La reunión terminó sin resolución. Unos meses más tarde, la empresa redactó una solicitud de empleo para un puesto de tipo CAIO, uniéndose a otras empresas como Dell, Pfizer, PwC, UBS y Expedia.
Variaciones de esto se están produciendo en las altas esferas de todas partes. La IA agencial —sistemas autónomos, orientados a objetivos y sensibles al contexto, capaces de llamar a otras herramientas de software, tomar decisiones complejas y emprender acciones— está creando una lucha por el territorio en la cima. La cuestión de quién controla la IA es el tema crítico del organigrama en los albores de la era de la IA, e influirá en la estrategia de la empresa, los niveles de inversión y la distribución del poder y la influencia entre los líderes.
Esta lucha por la influencia no es un problema nuevo. Uno de los marcos más reveladores para comprenderlo fue desarrollado por el sociólogo Andrew Abbott en su emblemático libro de 1988, The System of Professions. Abbott demostró que los grupos profesionales están enzarzados en una lucha perpetua por controlar determinados ámbitos de trabajo, y que los grandes cambios tecnológicos o sociales son los momentos en los que se redefinen esos límites. Aplicada a los altos directivos, su teoría revela por qué la actual pugna por la IA se recrudecerá y apunta a una forma práctica para que los líderes superen la guerra territorial y avancen hacia una estructura organizativa que realmente funcione.
Competencia jurisdiccional
Abbott argumentó que las profesiones existen en un sistema interdependiente, compitiendo perpetuamente entre sí por el control de los ámbitos de trabajo. Una profesión reclamará ciertos tipos de trabajo que pasan a ser competencia de sus miembros. Piensen en ello como su territorio profesional. La cuestión es que estas competencias no son permanentes. Se ganan, se defienden y se pierden en disputas continuas entre las profesiones. Las enfermeras practicantes y los asistentes médicos ahora realizan tareas de atención primaria que antes estaban reservadas a los médicos generales. Los contadores públicos certificados y los abogados fiscalistas discuten sobre quién es el propietario de la planificación fiscal compleja, al igual que los abogados y los asesores financieros trabajan en la planificación patrimonial. Los trabajadores sociales compiten con los psicólogos, que compiten con los psiquiatras, que compiten con los neurólogos para tratar las afecciones de salud mental.
La competencia jurisdiccional también existe desde hace mucho tiempo dentro de las organizaciones. Las principales funciones corporativas —cadena de suministro, operaciones, I+D, sistemas de información, gestión de productos, recursos humanos, finanzas, marketing, ventas— son componentes de un sistema de trabajo interdependiente, al igual que las profesiones, y cada función reclama ciertos derechos de decisión como propios. En las organizaciones establecidas, en tiempos normales, la división del trabajo entre las funciones corporativas es estable.
Sin embargo, en períodos de cambios masivos, la estabilidad da paso a la agitación. Ahora hemos entrado en una época así. Es el equivalente organizativo a la caída de un imperio: los stakeholders intuyen que el mapa corporativo se va a rediseñar y cada función presenta razones por las que el territorio debería pertenecerle. Las fronteras entre los líderes funcionales que se habían endurecido a lo largo de los años se están volviendo de repente negociables. La IA agencial está creando áreas de trabajo completamente nuevas sin un propietario claro, pero también está cambiando decisiones que hace solo un año estaban ancladas a un territorio funcional específico.
La competencia jurisdiccional ha vuelto, y la contienda no ha hecho más que empezar.
Por qué la IA agencial es diferente
En cierto sentido, no hay nada nuevo aquí; los cambios tecnológicos anteriores provocaron debates limitados sobre el territorio.
La llegada de los sistemas ERP, por ejemplo, creó tensión entre los responsables de los procesos empresariales y el departamento de IT. Finalmente, el «plano de control» —el derecho a establecer las reglas, los permisos y la lógica de coordinación— recayó a menudo en el CIO, con una importante aportación del responsable del ámbito correspondiente. Inicialmente, parecía que la nube descentralizaría la informática, eliminando la necesidad de un control central. Al pasar de la elevada inversión inicial para comprar hardware al (inicialmente) bajo gasto operativo de alquilarlo, el responsable de una unidad de negocio podía pasar la tarjeta de crédito y poner en marcha algún software. Sin embargo, esa libertad resultó ser temporal. A medida que el gasto en la nube se disparaba y surgían riesgos de seguridad y problemas de compatibilidad, el CIO volvió a imponer un control central sobre las organizaciones IT paralelas que habían aparecido en las unidades de negocio.
La IA agencial provocará un cambio mucho más radical. Volviendo al ejemplo de la compañía de seguros, un agente de IA que procesa reclamaciones de forma autónoma es, en realidad, un sistema tecnológico (CIO), un flujo de trabajo operativo (COO), una preocupación en materia de gestión de riesgos (CRO), un responsable de la toma de decisiones financieras con impacto en las pérdidas y ganancias (CFO), una nueva forma de trabajo (Director de Recursos Humanos) y un usuario de datos (CDO). Las decisiones y acciones del agente abarcan jurisdicciones funcionales y son fundamentales en la mayoría o en todas ellas. A diferencia de las plataformas SaaS como Salesforce, Workday y NetSuite, la IA agencial elimina la distinción entre «la herramienta» y «el trabajo». Como suelen decir ahora los expertos de Silicon Valley, con la IA agencial, el software es el servicio. En resumen, los agentes son el equipo de suscripción, o al menos redactan el primer borrador de su dictamen. Por lo tanto, quienquiera que gobierne a los agentes —sus funciones, permisos, barreras de seguridad, evaluación, escalamiento y presupuestos— controlará cada vez más qué y cómo decide la empresa.
Los participantes y sus reivindicaciones
Abbott observó que las profesiones ganan las disputas jurisdiccionales al plantear los problemas en términos que hacen que su experiencia sea indispensable. Eso es lo que está sucediendo hoy en día en los altos cargos.
La afirmación del CIO se basa en la infraestructura. Los agentes de IA deben crearse, integrarse en los sistemas existentes, protegerse contra nuevas superficies de ataque y mantenerse a escala. La creación y el funcionamiento de estos sistemas requieren competencia técnica y administración.
El COO considera que la IA agencial es un componente de las operaciones centrales de la empresa. Los agentes vivirán dentro de los flujos de trabajo, y los flujos de trabajo son operaciones. La afirmación del COO es que los agentes existen para ejecutar procesos empresariales, y que la optimización de los procesos es la razón por la que se creó el cargo de COO.
La afirmación del Director de Recursos Humanos es conceptualmente provocativa. Los agentes son, funcionalmente, una nueva categoría de trabajadores. Necesitan recibir formación sobre conocimientos específicos de la empresa, ser socializados, supervisados durante su despliegue, evaluados en cuanto a su rendimiento y emparejados con compañeros humanos de manera que se preserve la moral, la cultura y el conocimiento institucional. Además, complicarán muchos aspectos de la gestión de la plantilla humana, creando obstáculos que los recursos humanos tendrán que sortear.
La afirmación del CFO se basa en la responsabilidad económica. Los agentes acabarán cambiando las aprobaciones, los precios, la utilización de los activos y el gasto de la empresa de formas que afectarán a las cifras. Los agentes que están autorizados a comprometer a la empresa a un pago, un contrato, una decisión de crédito o un reembolso requieren responsabilidad financiera.
Los responsables de riesgos y asuntos legales consideran que los sistemas autónomos son una nueva forma de exposición a fallos, responsabilidades y regulaciones. Como ya hemos visto, cuando los agentes de IA deniegan una solicitud de préstamo o de empleo, rechazan una reclamación de seguro o se ven involucrados en un accidente de tráfico, pueden producirse litigios y escrutinios regulatorios.
Por último, el CDO señala que todas las demás reclamaciones funcionales dependen de los datos. Dado que los agentes razonan a partir de la información, sus resultados son tan fiables como sus entradas. Quién tiene acceso a qué datos, bajo qué normas de gobernanza, determinará si un agente funciona o no, y mucho menos si funciona de forma segura.
De «¿Quién es el propietario de la IA?» a «¿Quién es el propietario de las decisiones?».
Cada una de estas afirmaciones es sensata.
Cuando varios líderes tienen reclamaciones legítimas sobre la misma jurisdicción, las organizaciones suelen recurrir a una de estas cuatro respuestas:
- Entregársela al líder más capaz.
- Dársela al más insistente.
- Enviarla a un comité
- Pasarla a quien tenga presupuesto disponible
Sin embargo, ninguna de estas opciones funcionará para la IA agencial. Hay demasiado en juego para la política, la tecnología avanza demasiado rápido como para que los comités de no expertos con intereses contrapuestos puedan seguirle el ritmo, y el alcance es demasiado amplio para los deseos o capacidades existentes de cualquier función individual.
Necesitamos un enfoque diferente. Ese enfoque debería comenzar por cambiar la pregunta de «¿quién es el propietario de la IA?» a «¿quién es el propietario de las decisiones relacionadas con la IA?». La primera pregunta plantea el problema como un juego de suma cero e invita a la apropiación de terrenos, mientras que la segunda descompone el problema en decisiones específicas y asigna cada una de ellas a la persona más indicada para tomarla.
Piense en todas las decisiones que debe tomar un agente de IA. Alguien decide qué es lo que el agente debe lograr y cómo se mide el éxito. Alguien debe asegurarse de que se construya de forma segura y se integre en los sistemas existentes. Alguien debe establecer las reglas sobre a qué datos puede acceder el agente y cómo razona sobre esos datos. Alguien debe determinar qué nivel de acción autónoma es aceptable y qué requiere la aprobación humana. Alguien tiene que averiguar cómo trabajan juntos los agentes y las personas, y cómo la introducción de agentes cambia el trabajo que realizan las personas. Y alguien tiene que controlar la inversión inicial y el presupuesto de inferencia, y medir el payoff de la inversión.
Se trata de decisiones diferentes que requieren conocimientos especializados diferentes. El COO o el responsable de pérdidas y ganancias es la autoridad natural en lo que respecta a lo que deben lograr los agentes; el CIO, en cómo crearlos y gestionarlos de forma segura; el director de datos, en el acceso a los datos y la gobernanza de los modelos; el director de riesgos y el consejero general, en los umbrales de riesgo y las puertas de escalamiento; el Director de Recursos Humanos, en cómo los seres humanos y los agentes comparten la responsabilidad; y el CFO, en el gasto y el retorno de la inversión. Nada de esto es sorprendente. Es simplemente lo que cada ejecutivo afirmó en la reunión de la compañía de seguros.
Lo que se consigue al reformular la pregunta es que el debate pasa de centrarse en la propiedad total a centrarse en la creación de derechos de decisión granulares y explícitos. Una cosa es que el CIO diga «Yo soy el propietario de la pila tecnológica» y otra muy distinta es especificar que el CIO es el propietario de la selección del modelo base, los estándares de integración de API que permiten a los agentes acceder a los sistemas de registro de la empresa, un «interruptor de apagado» si la inferencia de los agentes interfiere con la latencia del sistema, etc.
Para pasar de la propiedad a los derechos de decisión, las empresas deberán establecer un mapa de decisiones y responsabilidades. Esto implica identificar las decisiones críticas y asignarlas a un ejecutivo específico. Para reducir las fricciones jurisdiccionales, se necesitarán derechos de decisión claros y una asignación inequívoca de responsabilidades. Pero un mapa solo es tan bueno como el proceso que lo mantiene, lo que significa que alguien tiene que hacerse cargo de la coordinación.
Dónde encaja el director de IA
Esto nos lleva de vuelta al director de IA. Muchas empresas están creando este puesto debido a la confusión sobre cómo proceder, ya sea porque reconocen que la propiedad de la IA no puede pertenecer a una sola persona o porque nadie en el equipo ejecutivo actual tiene la experiencia o la capacidad necesaria para liderar el proceso de adopción de la IA agencial. Pero, una vez más, un nuevo puesto solo tendrá éxito si cuenta con una jurisdicción defendible. Un director de IA que «sea dueño de la IA» tendrá dificultades, porque la IA lo afecta todo.
Lo que un CAIO puede controlar es la capa de coordinación. En términos prácticos, esto significa controlar el mapa de derechos de decisión en sí mismo: crearlo, mantenerlo, identificar las lagunas y buscar la claridad cuando las asignaciones a los jefes funcionales no están claras. En resumen, significa delimitar las jurisdicciones adecuadas para otros líderes funcionales. Y significa convocar a los ejecutivos pertinentes cuando un nuevo caso de uso no encaja perfectamente en las asignaciones existentes, lo que preveo que ocurrirá con frecuencia en los primeros años de la IA agencial.
Se trata de una jurisdicción verdaderamente novedosa. Ningún ejecutivo en activo ha tenido nunca la responsabilidad de la coordinación interfuncional de los sistemas autónomos, pero se trata de factores críticos, ya que la IA agencial se está convirtiendo en el nuevo tejido conectivo de las organizaciones a escala empresarial.
La inevitabilidad de la inestabilidad
Ninguna de estas medidas eliminará la competencia jurisdiccional, pero sí la canalizará. Si la conversación se centra en «quién es responsable de qué decisiones», será un diálogo saludable, ya que pasará de ser abstracto a centrarse en la implementación; se ajustará mejor a las necesidades de la organización y dará lugar a un marco que podrá revisarse a medida que cambien las circunstancias.
Es importante subrayar que no hay una respuesta definitiva a la pregunta de quién debe tomar las decisiones relacionadas con la IA. La tecnología es demasiado amplia, demasiado significativa y evoluciona demasiado rápido como para que cualquier acuerdo sea válido. Al menos durante los próximos años, cabe esperar una competencia jurisdiccional sostenida, muchos cambios en los derechos de decisión y equilibrios que se desmoronan casi tan rápido como se forman, a medida que llegan nuevas oleadas de capacidades.
El CEO de la compañía de seguros que convocó esa reunión inconclusa tenía varias opciones. Podía esperar a que se aclarara el enfoque de la competencia o dejar que ganara la voz más fuerte. O podía reconocer que todos los ejecutivos presentes en la sala tenían razón y que su trabajo no consistía en elegir un ganador, sino en encabezar un sistema coordinado en el que cada uno de ellos fuera responsable de las decisiones que mejor pudiera tomar. Esa es la verdadera labor de liderar una transformación jurisdiccional de este alcance y magnitud. Se trata de diseñar el mapa que vincula la responsabilidad con la implementación y, a continuación, revisarlo cada vez que la tecnología supere a la versión actual del organigrama. Lo cual, en un futuro previsible, ocurrirá con frecuencia.
Leer sobre Inteligencia artificial y aprendizaje automático or related topics Toma de decisiones organizativas, IA generativa, Tecnología y análisis, Análisis y ciencia de datos and Automatización
Toby E. Stuart es el catedrático Helzel de Emprendimiento, Estrategia e Innovación; director del Programa de Emprendimiento Haas de Berkeley; decano adjunto de Asuntos Externos y director del Instituto de Innovación Empresarial de la Escuela de Negocios Haas de la Universidad de California en Berkeley.
No hay comentarios:
Publicar un comentario