Doxa 2419

Los costos psicológicos de la adopción de la IA

Por Guy Champniss
Inteligencia artificial y aprendizaje automático
Harvard Business Review

#Doxa #AnsiedadTecnológica #EstrésDigital #MiedoAlReemplazo #SobrecargaCognitiva #FatigaPorIA #IncertidumbreLaboral #ResistenciaAlCambio #PérdidaDeControl #DesconfianzaTecnológica #AgotamientoMental #PresiónAdaptativa #CrisisDeIdentidadProfesional #DependenciaTecnológica #ParálisisPorDecisión #BienestarDigital
Resumen. Las estrategias de adopción de IA se centran mayoritariamente en la productividad y la eficiencia. Pero este enfoque pasa por alto una limitación crucial: el coste psicológico de trabajar con IA. Nuevas investigaciones demuestran que “el coste psicológicoLa “deuda” —un conjunto de seis efectos negativos que incluyen la descarga cognitiva, la reducción de la autonomía, la disminución de la competencia, el debilitamiento de la conexión social, la pérdida de credibilidad y la amenaza a la identidad— puede frenar significativamente la adopción de la IA y erosionar el retorno de la inversión. En una encuesta realizada a 1200 empleados de diversos sectores, una mayor deuda psicológica se asoció fuertemente con un menor uso de la IA, una aplicación menos sofisticada y una mayor evitación, incluso cuando los empleados reconocían su valor. Los trabajadores al inicio de su carrera profesional se vieron especialmente afectados, lo que sugiere que la IA podría estar socavando el desarrollo de habilidades precisamente en la etapa más crucial. La implicación es clara: la adopción de la IA no es solo un desafío tecnológico, sino también humano. Las empresas que ignoran la motivación corren el riesgo de invertir en herramientas que los empleados no utilizarán plenamente. La solución consiste en diseñar deliberadamente las interacciones entre humanos e IA, introduciendo fricción para preservar el pensamiento, garantizando la explicabilidad y la autonomía, reforzando la experiencia humana y normalizando el uso de la IA a nivel social y cultural.
A medida que las empresas adoptan la IA, muchas se centran en  mejorar la eficiencia y la productividad, beneficios que las propias empresas de IA promocionan. Sin embargo, este enfoque podría ser un error. Existe una creciente evidencia de que la IA puede tener  consecuencias psicológicas negativas  para la motivación de los empleados, lo que incluso podría anular sus beneficios y someter a un escrutinio aún mayor los modelos de retorno de la inversión, que ya se encuentran en entredicho.

Los líderes deben comprender cómo el uso de la IA puede mermar la motivación de los empleados, perjudicar la colaboración y la innovación, y generar mayores niveles de estrés y agotamiento. Todo esto puede representar serios obstáculos para la adopción exitosa de la IA en las organizaciones. Sin embargo, los efectos negativos pueden mitigarse significativamente si las empresas consideran la carga psicológica que impone la IA en sus estrategias de adopción. Varias empresas líderes en la adopción de IA lo han logrado.

Para analizar cómo la deuda psicológica puede afectar la adopción de la IA, encuesté a más de 1200 empleados a tiempo completo en Estados Unidos y Reino Unido. Esto es lo que los líderes deben saber.

La deuda psicológica y sus causas
El uso no estructurado de la IA en el trabajo conlleva una serie de posibles efectos psicológicos negativos que pueden afectar la motivación o el comportamiento, aspectos valiosos para las organizaciones. Estos efectos se han identificado en investigaciones académicas recientes sobre la adopción de la IA o son anteriores a su implementación en el ámbito laboral y se centran en los factores que impulsan la motivación en el lugar de trabajo. Existen seis formas que parecen especialmente relevantes, las cuales, en conjunto, crean lo que a veces se denomina deuda psicológica :
  • Deuda cognitiva.  Quizás la consecuencia psicológica negativa más comentada del uso no estructurado de la IA sea  la posible pérdida de capacidad de procesamiento cognitivo y de toma de decisiones. Por ejemplo, las investigaciones sugieren que la creciente tendencia a delegar tareas difíciles a la IA (conocida como « descarga cognitiva ») socava la comprensión del problema por parte de las personas y reduce su sentido de pertenencia a la solución. Con el tiempo, esta pérdida se acumula y la deuda cognitiva aumenta.
  • Deuda de autonomía. Este concepto describe la sensación de que la IA está eliminando nuestra capacidad de controlar nuestra forma de trabajar. La autonomía se reconoce como una  fuente clave de motivación. Sin embargo, la mayoría de las conversaciones sobre la optimización de la IA se centran en el rediseño de los flujos de trabajo, sin tener en cuenta las implicaciones para los empleados. Investigaciones recientes han demostrado que, si bien los líderes empresariales fomentan con entusiasmo el uso de la IA en los equipos, cuando el liderazgo en IA se centra en la productividad y la experiencia técnica, los empleados asocian la IA con la pérdida y la sustitución de la autonomía, lo que conlleva una renuncia silenciosa y agotamiento emocional.
  • Deuda de competencias. La competencia describe nuestra inclinación hacia tareas que nos brindan la oportunidad de demostrar o aumentar nuestra experiencia. En el contexto de la IA, la deuda de competencias se refiere a la sensación de que, cuanto más utilizamos la IA en el trabajo,  menos competentes nos volvemos. Tareas complejas que normalmente nos llevarían horas o incluso días ahora se completan en segundos y nos confieren una claridad y confianza que a menudo no tenemos en nuestros propios resultados. Cuanto menos competentes y seguros nos sintamos de nuestras capacidades, más probabilidades tendremos de depender de la IA, lo que agrava el problema.
  • Deuda de pertenencia. La pertenencia se refiere a nuestro instinto social de ser parte integral de grupos sociales.  Sin embargo, investigaciones recientes indican que el mayor uso de la IA disminuye la interacción social; la IA proporciona respuestas claras y de apoyo, nunca discute, nunca se cansa y tiene una paciencia aparentemente infinita. Los directivos de una importante universidad del Reino Unido me comentaron que esto ha llevado a que los estudiantes dependan cada vez más de la IA para estudiar y aprender, y los ha hecho menos dispuestos o capaces de participar en la formulación de argumentos constructivos y el debate entre pares. Para mitigar este efecto, me informaron, la universidad está invirtiendo más de 200 millones de libras esterlinas para estimular el trabajo en equipo, el debate y la colaboración fuera del aula.
  • Deuda de credibilidad.  Un creciente número de estudios ha documentado cómo  el uso de la IA genera la sensación de que los empleados pierden credibilidad ante sus compañeros, incluso cuando estos también la utilizan en sus funciones. Esto sugiere que las personas justifican su propio uso, pero critican a quienes hacen lo mismo. Dado que los empleados sénior han dedicado potencialmente décadas a construir su credibilidad en sus entornos profesionales, esta posible pérdida de credibilidad podría ser muy perjudicial.
  • Deuda de identidad.  La teoría de la identidad social postula que pertenecemos a diversos grupos sociales y que, en cada momento, nos identificamos con el grupo que nos ofrece la guía más clara sobre cómo comportarnos. Cuando se esperan o se exigen usos específicos de la IA dentro de ciertos flujos de trabajo, puede surgir una deuda de identidad social profesional si estos usos se  perciben como violaciones directas de la pertenencia  al grupo, lo que perjudica al mismo. Por ejemplo, los creativos que trabajan en cine, televisión y marketing se enorgullecen de su capacidad no solo para generar ideas atractivas, sino también para hacerlo prácticamente a la carta; esta es una cualidad definitoria de lo que significa pertenecer a un grupo social distintivo. Si se les pide que utilicen la IA para generar ideas o soluciones creativas, esto casi con seguridad se considerará un comportamiento que daña la identidad, erosionando uno de los principales factores de distinción para el grupo y sus miembros.
Las seis formas de deuda psicológica pueden perjudicar a las organizaciones que implementan estrategias de integración de IA de diversas maneras: disminuyendo la motivación de los empleados, obstaculizando la colaboración y la innovación, y generando mayores niveles de estrés y agotamiento. Además, a medida que los empleados intentan  evitar contraer estas deudas psicológicas, pueden recurrir a  diversas estrategias de afrontamiento, lo que reduce aún más la productividad y la eficiencia, y exige un aumento en los presupuestos de capacitación.

¿Cómo afecta la deuda psicológica a la adopción de la IA?
Para comprender cómo la deuda psicológica puede afectar la adopción de la IA, encuesté a más de 1200 empleados a tiempo completo en organizaciones de 10 sectores diferentes en EE. UU. y el Reino Unido como parte de un informe de investigación sobre la adopción de la IA  que elaboré para Meltwater Consulting (de la cual soy director). En primer lugar, medimos los niveles reportados por los empleados de tres comportamientos importantes relacionados con la IA: la frecuencia de su uso de la IA dentro de sus funciones; la complejidad de las tareas para las que usaban la IA (desde simples ejercicios de redacción hasta casos de uso estratégicos); y su nivel de comportamiento de evitación de la IA (cuando eligen no usar la IA en una tarea específica, incluso cuando reconocen que mejoraría los resultados).

A continuación, medimos los niveles de deuda psicológica mediante una serie de afirmaciones y grados de acuerdo, y convertimos estas puntuaciones en una escala de 0 a 100 (cuanto mayor sea la puntuación, mayor será el nivel de deuda psicológica percibida). Esto nos permitió analizar tanto los niveles generales de deuda psicológica como sus dimensiones específicas, cómo parecen influir en los comportamientos de adopción y cómo varían según el sector, la función y la antigüedad en el puesto.

Descubrimos que los altos niveles de deuda psicológica estaban fuertemente relacionados con:

Cómo las personas usan la IA
La deuda psicológica fue casi el doble de alta (60) entre quienes informaron usar IA rara vez en comparación con las personas que la usaban varias veces al día (36). Además, las personas que solo usaban IA para tareas simples tenían una puntuación de deuda psicológica de 46, mientras que las personas que la usaban para tareas complejas y estratégicas en sus roles tenían una puntuación de 35. A un nivel más específico, encontramos que la deuda de identidad social profesional estaba fuertemente asociada con la variación en la complejidad de las tareas para las que se usa la IA (cuanto menor es la deuda de identidad, más complejas son las tareas) y en la evitación de la IA (cuanto mayor es la deuda, más personas evitan la IA). Surgió un patrón similar con la deuda de relaciones: las variaciones en la deuda están asociadas con variaciones significativas en los tres comportamientos de adopción objetivo: cuando la deuda es mayor, la frecuencia de uso de la IA es menor, la complejidad de la tarea es menor y el comportamiento de evitación de la IA es mayor.

En qué etapa de su carrera se encuentran
Las personas al inicio de su carrera (hasta cinco años de empleo a tiempo completo) reportaron una deuda psicológica significativamente mayor (54) que aquellas con más de 20 años de experiencia (40) y los empleados con entre 10 y 20 años de trayectoria (44). En particular, los empleados con mayor antigüedad reportaron una menor deuda cognitiva y una menor deuda de identidad social profesional. Este hallazgo refleja que las personas al comienzo de su carrera sienten una mayor necesidad de demostrar sus conocimientos técnicos (amenazados por la IA), mientras que quienes ocupan puestos de responsabilidad ya han demostrado habilidades de liderazgo (más allá del alcance de la IA). Curiosamente, la deuda de relaciones —el riesgo de ser marginado o menos valioso para los compañeros y los grupos de trabajo como resultado del uso de la IA— no varió mucho entre los puestos de nivel inicial y superior. Esto podría reflejar la preocupación de los altos directivos de que la IA pueda disminuir su papel en la creación y el liderazgo de equipos eficaces.

También medimos la percepción de los empleados sobre la relevancia de la IA para su trabajo. Más de dos tercios de los empleados consideraron que la IA era relevante para su trabajo (70 %) y casi la misma proporción reportó bajos niveles de deuda psicológica. Sin embargo, solo el 41 % de los encuestados indicó que la IA era relevante y que tenía baja deuda psicológica. Esto sugiere que más de la mitad de los encuestados podrían beneficiarse de programas de capacitación que combinen la elaboración de argumentos comerciales más sólidos para el uso de la IA con la reducción o eliminación sistemática del riesgo de deuda psicológica.

¿Cómo podrían las empresas lograrlo?

Cómo reducir el coste psicológico de la adopción de la IA
Para reducir la deuda psicológica, las empresas deberán diseñar relaciones entre humanos e IA que reconozcan las fuentes y los obstáculos de la motivación y el comportamiento humanos. Afortunadamente, existe una gran cantidad de investigaciones sobre el comportamiento humano que señalan enfoques útiles que pueden adaptarse para mitigar los efectos negativos documentados.

Deuda cognitiva
La deuda cognitiva puede evitarse o reducirse asegurándose de que los empleados no recurran inmediatamente a la IA como un acto reflejo ( rendición cognitiva ). Esto puede ser una tentación importante para los empleados, ya que ofrece lo que parece ser un atajo fantástico (y fantásticamente fácil) para obtener un resultado sólido en una fracción del tiempo. Una forma de preservar el pensamiento crítico consiste en incorporar  fricción cognitiva  al proceso de IA, dificultando su uso. Por ejemplo, insistir en que los empleados desarrollen hipótesis o generen argumentos antes de recurrir a la IA garantiza que esas funciones cognitivas de orden superior se mantengan activas. Por ejemplo, la firma global de servicios financieros JP Morgan posiciona a la IA como un  proveedor de información, no como un tomador de decisiones. Estas ideas y sugerencias son inútiles a menos que puedan considerarse que encajan y respaldan argumentos o hipótesis más amplios generados por los empleados.

Deuda de autonomía
En lugar de presentar los beneficios de la IA como un hecho consumado, se recomienda trabajar con los empleados para brindarles la información necesaria para que descubran por sí mismos cuándo y cómo la IA puede ayudarlos. Como parte de su  programa Principios de IA en la Práctica, el grupo bancario ING, con sede en los Países Bajos, garantiza que los equipos de producto documenten cómo se preserva el juicio humano antes de implementar cualquier modelo, mediante el diálogo y la colaboración con quienes lo utilizarán. ING también se esfuerza por garantizar la "explicabilidad" para los empleados, describiendo los modelos en un lenguaje sencillo, explicando cómo funcionarán en condiciones específicas y proporcionando información detallada sobre el origen de los datos, las limitaciones del modelo y los riesgos conocidos. Esto asegura que los empleados puedan desarrollar sus propios argumentos y puntos de vista sobre el valor de la IA en su trabajo.

Deuda de competencia
Una forma de eliminar o reducir la sensación de disminución de competencias ante la IA es garantizar que los empleados la perciban como un apoyo para su función, en lugar de una prueba de su capacidad para continuar en ella. Para que esto suceda, un enfoque único para todos no funcionará, y la formación en IA debe reconocer los contextos específicos en los que los empleados pueden recurrir a ella en busca de apoyo. Microsoft se posicionó como la primera gran empresa en adoptar Microsoft 365 Copilot y, para protegerse contra el riesgo de la pérdida de competencias, creó su  iniciativa de base y entre pares, la Comunidad Copilot Champs. Esto permitió a los empleados explorar y comprender la relevancia de la IA en su trabajo, en un entorno dinámico y de confianza, y al hacerlo, ayudó a todos a mantener presentes sus propias habilidades y competencias en sus funciones.

Deuda relacionada
Proteger la colaboración entre personas en los flujos de trabajo habilitados por IA es un aspecto clave de la infraestructura humana necesaria para la integración de la IA. Esto podría implicar el diseño de procesos donde los equipos interpreten conjuntamente los resultados de la IA, con debates interfuncionales, revisiones y foros de decisión. Estas prácticas mejoran la dinámica de grupo y aumentan la confianza entre sus miembros, ya que permiten a las personas demostrar sus habilidades y experiencia. Por ejemplo,  un estudio ha demostrado  que cuando P&G, empresa de bienes de consumo envasados, coordina equipos interfuncionales para revisar colectivamente los resultados de innovación de los chatbots de IA, no solo aumenta el rendimiento, sino que los roles que normalmente operan de forma aislada se vuelven más colaborativos en el proceso.

Credibilidad Deuda
El uso encubierto de la IA puede interpretarse como  un intento de evitar generar desconfianza : si nadie sabe que se utiliza IA, no existe riesgo alguno para la credibilidad. Una solución consiste en visibilizar el uso de la IA, haciéndolo compartido e institucionalizado. Esto tiene el potencial de redefinir la cultura corporativa en torno a comportamientos que apoyen la IA. Por ejemplo, la empresa de tecnología financiera Klarna se esforzó por convertir a su asistente de IA, Kiki, no solo en una herramienta, sino en un elemento cultural dentro de la empresa. Presentado en junio de 2023, la  empresa anunció que  el 90 % de los empleados utilizaban Kiki en el plazo de un año, y que Kiki había respondido a más de 250 000 preguntas de los empleados.

Comunicar la magnitud y la frecuencia de uso puede reducir la pérdida de credibilidad, ya que representa una norma social dentro de la cultura empresarial. Curiosamente, el CEO de Klarna explicó que la experimentación es la norma en la compañía, afirmando: «Impulsamos a todos a probar, probar y explorar». Comunicar esta norma refuerza aún más el uso de Kiki (como herramienta clave para probar y explorar), lo que a su vez elimina el riesgo de que los empleados pierdan credibilidad.

Deuda de identidad profesional
Este tipo de deuda puede reducirse estableciendo normas explícitas y coherentes con la identidad para el uso de la IA; a veces, basta con modificar el momento en que se utiliza la IA dentro de un proceso. Por ejemplo, se ha documentado ampliamente  que los médicos se han resistido a la introducción de la IA en sus funciones, específicamente por la posible pérdida de identidad en términos de experiencia, precisión y atención al paciente. Para mitigar este problema, el fabricante de equipos médicos  Philips ha buscado posicionar  el uso de la IA como un comportamiento que reafirma la identidad, destacando cómo el uso de la IA aumenta la precisión (reforzando los diagnósticos y pronósticos de los especialistas), elimina los cuellos de botella logísticos (y, por lo tanto, permite que los especialistas se centren en ejercer su experiencia) y apoya la colaboración multidisciplinaria en la atención oncológica (donde la experiencia se vuelve más visible y valiosa). Philips ha trabajado para identificar acciones o momentos específicos en los que la IA puede ser valiosa y, al hacerlo, mejorar aún más la identidad social del médico.
. . .
En este momento, es imposible predecir cómo la IA transformará el entorno laboral. Sin embargo, una cosa es segura: comprender y desarrollar la infraestructura humana adecuada será tan importante como elegir las herramientas de IA correctas. El ex Cirujano General de los Estados Unidos, C. Everett Koop,  señaló célebremente  que «los medicamentos no funcionan en pacientes que no los toman». Lo mismo puede decirse de la IA general, una idea obvia y profunda; incluso las mejores herramientas no funcionarán en organizaciones cuyos empleados no las utilicen. Las organizaciones que obtengan los mayores beneficios de la IA serán aquellas que reconozcan que su adopción no es solo un desafío tecnológico, sino también psicológico.

Lea más sobre IA y aprendizaje automático o temas relacionados: IA generativa, psicología, salud mental y ciencias del comportamiento.

Guy Champniss es profesor visitante en la escuela de negocios IE en Madrid, España, y fundador y director de Meltwater Consulting, una consultora con sede en el Reino Unido centrada en soluciones de ciencias del comportamiento.


No hay comentarios:

Publicar un comentario