No permita que la IA destruya las habilidades que hacen que su empresa sea competitiva
Aunque una empresa pueda parecer tecnológicamente sofisticada, puede estar perdiendo silenciosamente la experiencia necesaria para innovar, responder a las crisis y competir
Por Graham Kenny y Ganna Pogrebna
IA generativa
Harvard Business Review
#Doxa #PreservaciónDeTalento #HabilidadesHumanas #IAyCompetitividad #CapitalHumano #InnovaciónSostenible #ExpertiseEmpresarial #GestiónDelConocimiento #DesarrolloDeCompetencias #EquilibrioTecnológico #VentajaCompetitiva #ResilienciaOrganizacional #LiderazgoConsciente #AprendizajeContinuo #CulturaDeInnovación #TransformaciónResponsable
Resumen. La inteligencia artificial suele presentarse como un multiplicador de capacidades para las organizaciones, pero, si se utiliza de forma imprudente, puede socavar precisamente aquellas capacidades que hacen que las empresassean competitivos. A medida que las herramientas de IA se integran en los flujos de trabajo cotidianos, los empleados pueden llegar a depender de ellas en lugar de desarrollar su propio criterio, las organizaciones pueden ocultar decisiones importantes dentro de sistemas opacos y las interacciones sociales que fomentan la confianza y el entendimiento mutuo pueden debilitarse. Este artículo describe estos tres riesgos y muestra cómo las empresas pueden responder protegiendo las habilidades humanas fundamentales, preservando las estructuras de toma de decisiones y reconstruyendo deliberadamente los espacios de colaboración. La IA debería potenciar la inteligencia organizativa, no sustituir las capacidades humanas de las que depende el rendimiento a largo plazo.
A menudo se presenta la inteligencia artificial a los ejecutivos como un multiplicador de fuerzas, capaz de potenciar el rendimiento de los empleados. Sin embargo, existe un inconveniente importante, aunque mucho menos destacado: la IA puede acabar con el ADN propio de una organización al ceñirse a un estándar genérico, lo que socava a las mismas organizaciones que pretenden optimizar. En ese escenario, las organizaciones se vuelven más automatizadas, pero menos adaptables; más basado en datos, pero menos sensatas; más eficientes, pero menos legítimas a los ojos de los empleados y los clientes.
En este artículo, describimos tres formas en las que la IA puede erosionar las capacidades de una organización y mostramos cómo los CEOs y los altos ejecutivos pueden solucionar el problema.
Las personas dejan de pensar
Los sistemas de IA crean una poderosa ilusión. Sus resultados son fluidos, seguros y, a menudo, plausibles. Esa misma fluidez fomenta la externalización cognitiva; las personas dejan de pensar con la misma profundidad que antes porque la máquina parece competente.
La trampa para las empresas es que, cuando los empleados dependen en exceso de la IA para elaborar análisis, diagnosticar problemas o proponer soluciones, sus habilidades se ven mermadas. Las empresas pierden la capacidad de afinar su criterio a través de la experiencia, en particular el tipo de conocimiento tácito que se transmite cuando una persona aprende de otra en el trabajo.
El riesgo a largo plazo para las organizaciones es sutil, pero grave. Aunque una empresa pueda parecer tecnológicamente avanzada, puede estar perdiendo silenciosamente los conocimientos especializados que necesita para innovar, responder a las crisis y competir.
Lo que pueden hacer los líderes: Identificar las capacidades humanas fundamentales.
Antes de introducir la IA en cualquier flujo de trabajo fundamental, sea explícito sobre qué capacidades humanas no puede permitirse perder su organización para mantener su propia competitividad. Ciertas habilidades no se desarrollan automáticamente. Entre ellas se incluyen el juicio en situaciones de incertidumbre, el pensamiento sistémico, la escalada ética y el razonamiento interpretativo, es decir, la capacidad de ver las oportunidades y los retos a través del prisma de una estrategia elegida. Estas habilidades solo se desarrollan y mantienen mediante su uso.
Consideramos el caso de una empresa australiana de telecomunicaciones a la que llamaremos Creston Telecom, que se ha esforzado por desarrollar y mantener estas competencias al tiempo que aprovecha la IA para resolver las disyuntivas estratégicas entre la densidad urbana y la cobertura rural. El director de Planificación Estratégica, José, observó que los mandos intermedios recurrían cada vez más a los análisis de escenarios generados por la IA en lugar de elaborar sus propias recomendaciones estratégicas. «Nuestros equipos de planificación se estaban convirtiendo en meros ejecutores de las órdenes del algoritmo», nos comentó. «Presentabamos tres opciones generadas por la IA, pero no podía defender por qué una era superior a las demás».
Creston Telecom respondió instalando «sesiones estratégicas sin IA», en las que los equipos multifuncionales debían abordar primero las cuestiones estratégicas basadas únicamente en su criterio y experiencia. Solo tras documentar su razonamiento se les permitiría consultar herramientas de IA. La empresa también sometió a los directivos con mayor potencial a una «residencia estratégica» de seis meses, durante la cual trabajaron directamente con José en decisiones complejas.
Ambas medidas garantizaron que se mantuviera la capacidad estratégica de Creston Telecom. Se trataba de reconocer patrones en los distintos mercados, identificar las concesiones necesarias entre los stakeholders y realizar una planificación a largo plazo. Estas funciones críticas quedaron en manos de los seres humanos, incluso mientras la IA se encargaba del análisis rutinario.
Las reglas quedan ocultas en los sistemas.
En toda organización, existen decisiones éticas consagradas en forma de normas : quién obtiene qué recursos, a quién se considera que ha tenido éxito, y qué solicitudes se aceptan o se niegan. Tradicionalmente, estas normas han sido visibles, cuestionables y objeto de debate. Así es como las empresas mantienen su legitimidad y se adaptan a las circunstancias cambiantes.
El aspecto fundamental de estas decisiones es que se llevan a cabo a través de una estructura organizativa diseñada para sacar a la luz los conflictos, facilitar la deliberación y aclarar las responsabilidades. Los comités de crédito, por ejemplo, no se limitan a aprobar préstamos; debaten los criterios, cuestionan las hipótesis y desarrollan la filosofía crediticia. Los comités de promoción no se limitan a evaluar el rendimiento; negocian qué constituye el mérito y cómo deben sopesar las circunstancias. Y las funciones de cumplimiento normativo no se limitan a marcar casillas; Interpretan las normas ambiguas.
La IA transforma esta dinámica organizativa al integrar estas decisiones, a menudo subjetivas, en sistemas técnicos. Lo que antes requeriría una deliberación explícita ahora ocurre de forma automática, con frecuencia a gran escala y gran velocidad. El contenido moral de las decisiones queda oculto tras modelos, evaluación y funciones de optimización. La sustitución del juicio humano por los resultados algorítmicos conlleva el riesgo de que una organización pierda la capacidad de corregir el rumbo cuando los sistemas, las políticas o los incentivos se desvían del camino.
Lo que pueden hacer los líderes: Proteger las estructuras que generan conocimientos especializados.
Muchas de sus capacidades más valiosas se crean a través del conocimiento organizativo integrado en grados establecidos, no del rendimiento individual. Trazar un mapa explícito de estas dependencias y documentar cómo el conocimiento pasa de un nivel al siguiente es un paso fundamental para evaluar si las herramientas de IA están homogeneizando los procesos complejos de toma de decisiones.
Consideremos cómo un banco regional estadounidense de tamaño medio (con más de 40 años de antigüedad y 30 000 millones de dólares en activos), al que llamaremos Piedmont Regional, abordó esta cuestión cuando se percató de que su Comité de Crédito tomaba decisiones de forma automática. Este comité, integrado por prestamistas de alto rango, se reunió para revisar aproximadamente el 15% de las solicitudes, pero se basó en gran medida en las recomendaciones de la inteligencia artificial. Para contrarrestar esto, el banco ha añadido ahora «mesas redondas sobre criterios de crédito» trimestrales, en las que el comité debate y documenta explícitamente los criterios de concesión de préstamos en constante evolución. Mientras que antes el comité se preguntaba: «¿Cumple esta solicitud nuestros criterios?», las mesas redondas se preguntan: «¿Siguen siendo nuestros criterios los adecuados?», una función deliberativa que nunca antes había tenido un espacio específico.
Además, tal y como explicó Jane, directora de Recursos Humanos del banco: «Hemos creado una estructura de formación profesional totalmente nueva. Ahora se exige a los analistas junior que roten por programas de formación en comités trimestrales, aprendiendo no solo a interpretar las evaluaciones, sino también a cuestionarlas». Este proceso no tenía equivalente previo: se trata de una inversión institucional deliberada en el desarrollo de la capacidad de juicio de la próxima generación, no simplemente de un ajuste a la práctica existente. Jane continuó: «El banco también empareja a analistas junior con prestamistas sénior en casos complejos, que requieren una aprobación conjunta, invirtiendo así activamente en las habilidades organizativas necesarias para tomar estas decisiones».
Estos puntos de fricción, diseñados expresamente, ralentizarán ligeramente las transacciones individuales, pero reforzarán la capacidad estratégica y la responsabilidad mutua que se habían ido desvaneciendo silenciosamente. Piedmont considera ahora estos espacios colaborativos protegidos como una infraestructura indispensable, y no como un lujo opcional. Esto ha permitido preservar la estructura deliberativa que, a lo largo de la historia, ha generado la experiencia crediticia y la ventaja competitiva del banco.
Los lazos sociales se han debilitado
Las empresas no son solo sistemas de normas y flujos de trabajo; son también estructuras sociales basadas en la confianza, el entendimiento mutuo y un propósito común. Estas cualidades de la cultura de una organización surgen de las interacciones humanas, que en ocasiones son cooperativas y en otras, conflictivas. La IA pone en peligro este entramado de dos maneras.
En primer lugar, sustituye las interacciones que antes exigían que las personas resolvieran los problemas de forma conjunta. En lugar de debatir opciones, negociar concesiones o diagnosticar conjuntamente los fallos, las personas recurren cada vez más a herramientas personalizadas que ofrecen respuestas individuales.
En segundo lugar, cuando las decisiones parecen provenir de algoritmos opacos, las fuentes tradicionales de autoridad —CEOs, gerentes, profesionales— pierden credibilidad. A los empleados les cuesta entender quién es responsable y sobre qué base se toman las decisiones.
Lo que pueden hacer los líderes: reconstruir las comunidades que la IA va diluyendo.
Las capacidades de su organización perduran porque las personas desarrollan un entendimiento común a través de una interacción constante. La IA suele sustituir esas interacciones por flujos de trabajo individualizados y mediados por máquinas. No permita que eso ocurra por defecto.
Considere cómo una agencia de publicidad británica de tamaño medio, a la que llamaremos Brightview Creative, abordó esta situación cuando los clientes comenzaron a rescindir los contratos a pesar de que las campañas cumplían los objetivos de rendimiento. La agencia había adoptado herramientas de IA para la segmentación de la audiencia, la optimización creativa y la gestión de campañas. Las campañas se desarrollaban de manera eficiente, pero algo había dejado de funcionar.
El CEO, Lawrence, descubrió este problema durante las entrevistas de salida con los clientes: «Los clientes comentaban que tenían la sensación de estar trabajando con una máquina expendedora, no con un socio creativo. Nuestros equipos de cuentas presentaban planos generados por IA en las reuniones con los clientes, pero cuando estos preguntaban: “¿Por qué este enfoque para nuestra marca?”, los equipos no eran capaces de expresar un punto de vista claro. Habían aprendido a manejar las herramientas, pero no a desarrollar un criterio creativo».
La solución de Brightview se centra en reforzar la capacidad estratégica mediante la demostración de su experiencia. Estableció una política que prohíbe el uso de contenidos generados por IA en las presentaciones dirigidas a los clientes. Los equipos deben crear narrativas estratégicas originales que expliquen su razonamiento. La agencia también reestructuró las relaciones con los clientes de modo que cada cuenta cuente con un «responsable estratégico» designado: una persona con experiencia cuya función consiste en cuestionar los resultados de la IA y defender enfoques creativos que los algoritmos podrían pasar por alto. Estos responsables se convirtieron en el rostro humano de la experiencia de la organización, recuperando la confianza de los clientes en que su trabajo se guiaba por un juicio real, y no por la mera automatización.
...
La IA puede mejorar el rendimiento de su organización, pero solo si reconoce lo que no puede hacer. No puede desarrollar conocimientos especializados a través de la experiencia. No puede asumir responsabilidad moral. No puede generar confianza, valentía ni un propósito común. Esas siguen siendo funciones irremediablemente humanas. Si permite que la IA desplace estas capacidades, corre el riesgo de que su organización se convierta en una entidad técnicamente avanzada, pero frágil desde el punto de vista competitivo. Evitar esto implica aplicar la IA con una comprensión lúcida de lo que hace que su organización sea competitiva. Su futuro depende de utilizar las máquinas para potenciar el juicio humano, al tiempo que se protege con firmeza la aportación humana que ningún algoritmo puede sustituir.
Lea más sobre IA generativa o temas relacionados Inteligencia artificial y aprendizaje automático, Toma de decisiones y resolución de problemas y Liderazgo y gestión de personas
Graham Kenny es el CEO de Factores estratégicos y autor de Descubrimiento de estrategias. Es un experto reconocido en estrategia y medición del desempeño que ayuda a los gerentes, ejecutivos y juntas directivas a crear organizaciones exitosas en los sectores privado, público y sin fines de lucro. Ha sido profesor de administración en universidades de los Estados Unidos y Canadá.
Ganna Pogrebna es titular de la cátedra David Trimble en la Queens University de Belfast. Profesora y ejecutiva con experiencia en inteligencia artificial conductual y tecnologías emergentes, colabora con empresas para mejorar la experiencia del cliente, reforzar la toma de decisiones estratégicas y gestionar el riesgo tecnológico. Puede conectarse con ella en LinkedIn.
No hay comentarios:
Publicar un comentario