Los empleados no confiarán en la IA si no confían en sus líderes
Por David De Cremer
IA y Aprendizaje Automático
Harvard Business Review
#Doxa #empleado #confianza #IA #líder #aprendizaje #automático #laboral #cognitiva #fiable #precisa #transparente #auditorias #periódica #mitigar #sesgos #bienestar #herramienta #sustituto #alfabetización #debate #emocional
Resumen. La adopción de la IA en el entorno laboral está creciendo rápidamente, pero los empleados se muestran escépticos debido a la preocupación por la confianza y la benevolencia, tanto en la IA como en el liderazgo. El sentimiento en torno a la IA refleja una mayor confianza en el liderazgo, ya que los empleados cuestionan cómo se utilizarán herramientas y si estas servirán a sus intereses. Para abordar esto, las organizaciones deben generar confianza cognitiva garantizando que la IA sea fiable, precisa y transparente mediante auditorías periódicas y medidas para mitigar sesgos. Los líderes deben involucrar activamente a los empleados, demostrando una preocupación genuina por su bienestar y posicionando la IA como una herramienta de empoderamiento, no como un sustituto. El enfoque más eficaz es una "combinación IA-líder", donde el liderazgo fomenta la alfabetización en IA, facilita debates abiertos y la presenta como una herramienta de apoyo para el crecimiento profesional. Al alinear la transparencia tecnológica con un liderazgo empático, las empresas pueden cultivar la confianza tanto cognitiva como emocional, asegurando así una adopción exitosa de la IA.
Según las predicciones de IA de PwC para 2025, la inteligencia artificial (IA) es el factor principal que está transformando fundamentalmente la forma de hacer negocios y crear valor este año. La IA se está integrando rápidamente en la forma en que los empleados realizan tareas clave en organizaciones de todos los sectores, desde la optimización del servicio al cliente hasta el apoyo a la toma de decisiones y la mejora de la eficiencia. Esta tecnología también está preparada para cambiar la gestión de los trabajadores. Los sistemas y agentes de IA son cada vez más capaces de supervisar el flujo de trabajo y la colaboración entre los empleados y la IA en dichas tareas.
Sin embargo, si bien el porcentaje de organizaciones que adoptan IA ha aumentado del 55 % en 2023 al 78 % en 2024, según McKinsey, los empleados muestran un entusiasmo considerablemente menor por usar la IA en sus actividades diarias. Esto plantea una pregunta importante: ¿Confían los empleados en estas tecnologías? La confianza afecta directamente la adopción exitosa de la IA, influyendo en la productividad, el compromiso y la disposición de los empleados a adoptar los cambios y la supervisión impulsados por la IA.
La evidencia sugiere que la confianza es escasa. En una encuesta reciente de Pew Research, los encuestados informaron sentirse reticentes con respecto a la inteligencia artificial: el 52% informó sentirse "preocupado" por el impacto de la IA en el lugar de trabajo y el 33% dijo que se sentía "abrumado", en comparación con el 36% que se describió como "esperanzado". A nivel mundial, Edelman descubrió que el 35% de los encuestados dijo que rechazaba la IA en comparación con el 30% que la adoptó. Según otra encuesta de Pew Research, el 71% de los estadounidenses se opuso a que las empresas utilizaran la IA para tomar decisiones finales de contratación y el 61% se opuso a utilizarla para rastrear los movimientos de los trabajadores. Una encuesta reciente de BCG descubrió que, entre los encuestados que utilizaban regularmente la IA generativa, aproximadamente la mitad creía que su trabajo podría desaparecer en la próxima década. Al menos parte de esta desconfianza está razonablemente fundada: según la reciente encuesta de IA responsable de PwC, solo el 58% de las empresas han completado una evaluación preliminar de los riesgos de la IA en su organización.
Investigaciones recientes sobre gestión también han demostrado que una de las principales razones por las que los empleados no confían en la IA es que perciben estas herramientas como poco benevolentes en su forma de hacer recomendaciones y tomar decisiones, y les preocupa si la IA se preocupará y considerará los intereses de los empleados. La benevolencia —la disposición a adoptar una actitud positiva para servir a los intereses de un tercero interdependiente— es un concepto importante en este contexto, ya que representa la característica fundamental del depositario (en este caso, la IA) de beneficiar al depositante (en este caso, los empleados), como base para el surgimiento de la confianza.
Estas preocupaciones de los empleados también indican a los líderes de la organización que podrían estar perdiendo confianza en ellos. Al fin y al cabo, la percepción de la IA también refleja cómo los trabajadores perciben el liderazgo: cómo creen que los líderes usarán estas herramientas y su confianza en las motivaciones de los líderes para implementar la IA. Los empleados quieren saber si la adopción de la IA promoverá sus intereses o provocará su despido; si mejorará o reemplazará sus contribuciones.
A medida que las organizaciones consideran integrar sistemas de IA en su gestión y toma de decisiones, deben preguntarse cómo la IA influirá en la percepción de la benevolencia de los empleados. Al considerar esto, deben considerar cómo estos sistemas podrían afectar las experiencias de los empleados y su percepción de sus trabajos, y qué papel debe desempeñar la gerencia en la mediación de las recomendaciones de la IA para abordar las preocupaciones de los empleados.
La IA y la capacidad de ser benévola
Los sistemas de IA son cada vez más hábiles para reconocer patrones en las interacciones humanas. Esta capacidad es lo que los hace tan eficaces para funcionar de forma (semi)autónoma en áreas como la atención al cliente, las recomendaciones personalizadas y la gestión del flujo de trabajo. Al analizar vastos conjuntos de datos sobre el comportamiento humano —que abarcan texto, voz e incluso datos gestuales—, los sistemas de IA pueden extraer conclusiones matizadas sobre las preferencias, los estilos de comunicación y las respuestas humanas, y posteriormente tomar decisiones. Gracias a esto, estos sistemas también pueden comunicarse de forma similar a la humana: pueden adaptarse a las señales emocionales en las conversaciones y mostrarse empáticos, serios o alentadores, según sus instrucciones.
Dado que la IA refleja lo que ve en los datos y se inspira en quien le da instrucciones, puede reflejar tanto los valores vividos como los declarados de una empresa. Las organizaciones pueden entrenar a la IA para que ofrezca recomendaciones que parezcan benévolas (o no) mediante el uso de indicaciones y solicitudes específicas. Por ejemplo, se podría instruir a una IA para que identifique y priorice los intereses de las partes interesadas en una decisión empresarial.
Las empresas ya lo están haciendo. Por ejemplo, en 2017, Salesforce utilizó su sistema interno de IA para asesorar a los directivos en la toma de decisiones. En estos casos, la IA se empleó para reducir el sesgo en las reuniones y reducir la política interna o las agendas personales. Ayudó a defender los intereses de las partes interesadas, a los líderes a tomar decisiones benévolas y a demostrar que la IA puede ser una herramienta que promueve la benevolencia en la toma de decisiones.
¿Pueden este tipo de aplicaciones convencer a los empleados de la bondad de la IA? Al fin y al cabo, podrían promover enfoques más reflexivos de gestión y toma de decisiones. Aun así, es poco probable que los empleados perciban estas intervenciones como una prueba de la bondad de la IA —ni deberían hacerlo—, ya que generalmente la consideran una cualidad humana, fuera del alcance de estas herramientas.
Esto se debe, por supuesto, a que los sistemas de IA no son —ni pueden ser— benévolos. La IA no tiene la capacidad de estar dispuesta a participar en una orientación positiva para servir a los intereses de un otro interdependiente. De hecho, estos sistemas operan mediante algoritmos que siguen patrones estadísticos y objetivos predefinidos sin ningún propósito propio; y, como tal, no hay intención en la lógica interna del motor de IA. Sin la capacidad de tener una opinión y emitir un juicio, los sistemas de IA están limitados en su comprensión del mundo y de lo que impulsa a los humanos en ese mundo. Y, por esa razón, los sistemas de IA no poseen la voluntad de cuidar genuinamente los intereses de las personas.
Esto es importante por varias razones: 1) los humanos son más capaces que el azar de detectar la autenticidad de las señales emocionales, y 2) las investigaciones revelan que es difícil generar confianza benévola si se duda de las intenciones de la otra parte. Reconocer que a los sistemas de IA no les importa —y que solo fingen benevolencia—, lamentablemente, perturbará negativamente el proceso de construcción de la confianza.
Recomendaciones
Para fomentar la confianza en la IA, es importante que las organizaciones comprendan que no se trata solo de un ejercicio de ingeniería que requiere intervenciones a nivel de la propia tecnología, como el código abierto y la promoción de una IA explicable. Para garantizar que los empleados acepten la IA, es necesario que la comprendan y comprendan su funcionamiento. Lograr este tipo de confianza requiere intervenciones tanto a nivel de la IA como del liderazgo. A continuación, se explica cómo lograrlo:
En primer lugar, para crear un entorno donde los empleados puedan adoptar la IA con confianza, las organizaciones deben promover los factores de confianza cognitiva de la IA: fiabilidad, precisión y transparencia. Las investigaciones demuestran que los sistemas percibidos como fiables y comprensibles promueven una mayor aceptación entre los usuarios. Este tipo de confianza se puede lograr interviniendo en la propia tecnología. Por ejemplo, realizar auditorías periódicas de la precisión de la IA, las medidas de mitigación de sesgos y el seguimiento del rendimiento pueden tranquilizar a los empleados sobre la fiabilidad de la IA, animándolos a involucrarse plenamente con la tecnología.
En segundo lugar, los líderes deben demostrar una preocupación genuina por el bienestar y la equidad de los empleados, ya que la IA no puede hacerlo. En última instancia, el liderazgo decidirá cómo se utiliza y potencia la IA, y dónde no. Al involucrar a los empleados en debates sobre el papel de la IA en su trabajo y abordar sus inquietudes con transparencia, los líderes pueden contribuir a crear una cultura laboral donde los empleados se sientan valorados y perciban la IA como una solución adoptada con el objetivo de empoderar y desarrollar a los empleados, en lugar de reemplazarlos.
En tercer lugar, la solución óptima para la falta de confianza en la IA requiere una "combinación IA-líder" que garantice que los empleados no solo se sientan técnicamente seguros con la IA, sino también seguros de que servirá a sus intereses de manera respetuosa y justa. Para promover la aceptación de esta combinación IA-líder y mejorar la confianza en la IA en todos los ámbitos (tanto en las dimensiones cognitivas como emocionales de la confianza), las organizaciones deben desarrollar e implementar programas de capacitación. Estos programas existen para ayudar a los empleados a sentirse menos amenazados por la adopción de la IA y, al mismo tiempo, sentirse empoderados por sus supervisores. Esto se puede lograr promoviendo la alfabetización digital y la comprensión del funcionamiento de la IA. Una mejor comprensión de la IA, junto con debates dirigidos por el liderazgo que la enmarquen como una herramienta de apoyo para contribuir al propósito de la empresa y a los intereses de todos los involucrados, empoderará aún más a los empleados para que vean cómo la IA puede contribuir a sus funciones y al crecimiento profesional.
• • •
Crear un entorno laboral donde la IA sea fiable y emocionalmente confiable requiere una alineación deliberada de las intervenciones tecnológicas para fomentar la confianza cognitiva con un liderazgo benévolo y transparente. Al combinar un liderazgo benévolo con prácticas de IA transparentes y participativas, las organizaciones pueden ayudar a los empleados a comprender mejor el rol de la IA, de modo que sea más probable que la adopten como aliada en su trayectoria profesional.
Lea más sobre IA y aprendizaje automático o temas relacionados: tecnología y análisis, derecho empresarial y ética, e IA generativa.
David De Cremer es profesor de administración y tecnología en la Universidad Northeastern y decano de la Escuela de Negocios D'Amore-McKim de la familia Dunton. Su sitio web es daviddecremer.com.
No hay comentarios:
Publicar un comentario