Investigación: La penalización oculta del uso de IA en el trabajo
Por Oguz A. Acar, Phyliss Jia Gai, Yanping Tu y Jiayi Hou
IA generativa
Harvard Business Review
#Doxa #investigación #penalización #IA #trabajo #generativa #fragmento #código #Python #método #mujer #mayor #edad #competencia #discrepancia #organización #empresa #acceso #capacitación #infraestructura #técnica #dinámica #técnica #empleado #herramienta
Resumen. Los investigadores realizaron un experimento con 1.026 ingenieros en el que los participantes evaluaron un fragmento de código Python que supuestamente fue escrito por otro ingeniero, con o sin IA Condiciones: solo difirió el método de creación descrito. Los resultados fueron sorprendentes. Cuando los evaluadores creían que un ingeniero había usado IA, calificaban su competencia un 9 % inferior en promedio, a pesar de revisar trabajos idénticos, y la penalización era más severa para las mujeres y los trabajadores de mayor edad. Esta penalización por competencia indica una discrepancia fundamental en la forma en que las organizaciones abordan la adopción de la IA. Si bien las empresas se centran en el acceso, la capacitación y la infraestructura técnica, pasan por alto la dinámica social que determina si los empleados realmente usan estas herramientas.
El vicepresidente de ingeniería de una empresa tecnológica líder observaba las métricas trimestrales de adopción con creciente frustración. Doce meses después de implementar un asistente de programación de IA de vanguardia —una herramienta que prometía aumentar significativamente la productividad de los desarrolladores—, solo el 41 % de los ingenieros lo había probado. Aún más preocupante: las ingenieras lo adoptaban solo el 31 %, y los ingenieros de 40 años o más, el 39 %. Este hallazgo surgió de nuestra investigación con 28 698 ingenieros de software de la empresa.
El equipo directivo se sorprendió. Habían invertido mucho dinero y habían reflexionado mucho. Habían invertido en herramientas de vanguardia. Habían abordado con esmero el acceso, la infraestructura y el desarrollo de habilidades. Habían asignado un equipo dedicado a la implementación y los ascensos. Estaban listos para ver cómo la productividad se disparaba.
La empresa no está sola: en el ámbito empresarial estadounidense, el patrón se repite. Según una encuesta del Pew Research Center, dos años después del lanzamiento de ChatGPT, solo el 16 % de los trabajadores estadounidenses utiliza IA en el trabajo, a pesar de que al 91 % se le permite hacerlo. La explicación convencional apunta a la falta de habilidades o a la fricción en la formación. Algunos empleados podrían no reconocer cómo la IA podría ayudarles o carecer de confianza en sus capacidades técnicas. De hecho, los trabajadores tecnológicos de primera línea, como los ingenieros de software y los científicos de datos, son más propensos a utilizar IA que los trabajadores de otros sectores. Sin embargo, incluso entre estos primeros usuarios, su uso sigue siendo sorprendentemente bajo y desigual. ¿Qué explica esto?
La pena de competencia
Para comprender el motivo, realizamos un experimento preinscrito con 1026 ingenieros de la misma empresa. El diseño fue sencillo: los participantes evaluaron un fragmento de código Python supuestamente escrito por otro ingeniero, con o sin asistencia de IA. El código en sí era idéntico en todas las condiciones; solo variaba el método de creación descrito.
Los resultados fueron sorprendentes. Cuando los revisores creían que un ingeniero había usado IA, calificaban su competencia un 9 % inferior en promedio, a pesar de revisar trabajos idénticos. No se trataba de la calidad del código: las calificaciones del código en sí se mantuvieron similares con o sin IA. La penalización se centró en la capacidad percibida de quien lo escribió.
La penalización por competencia fue más del doble de severa para las ingenieras, quienes enfrentaron una reducción del 13% en comparación con el 6% para los ingenieros. Cuando los revisores creían que una mujer había usado IA para escribir código, cuestionaban sus habilidades fundamentales mucho más que al revisar el mismo código asistido por IA de un hombre.
Lo más revelador fue quién impuso estas sanciones. Los ingenieros que no habían adoptado la IA fueron los críticos más duros. Los hombres que no la habían adoptado fueron especialmente severos al evaluar a las ingenieras que sí la usaban, penalizándolas un 26 % más severamente que a los hombres por un uso idéntico de la IA.
Las encuestas de seguimiento realizadas a 919 ingenieros revelaron un panorama más completo. Muchos ingenieros anticiparon activamente esta penalización de competencia y evitaron estratégicamente el uso de la IA para proteger su reputación profesional. Quienes más temían las penalizaciones de competencia en la industria tecnológica —sobre todo mujeres e ingenieros de mayor edad— fueron precisamente quienes menos adoptaron la IA. Precisamente los grupos que más podrían beneficiarse de las herramientas que mejoran la productividad sintieron que no podían permitirse usarlas.
El coste de la sanción por competencia
Estos hallazgos revelan un coste oculto para la adopción de la IA. Lo que parece una simple reticencia a usar nuevas herramientas, en realidad, refleja un instinto de supervivencia racional. El verdadero coste va mucho más allá de la pérdida de productividad, aunque esta por sí sola también puede ser considerable.
Consideremos la empresa tecnológica de nuestra investigación. Invirtieron fuertemente en el desarrollo y la implementación de su asistente de programación con IA. Con tan solo un 41% de adopción, y tasas más bajas entre los grupos demográficos clave, obtuvieron menos de la mitad de los beneficios esperados. El resultado fue una pérdida neta de al menos el 2,5% de las ganancias anuales, que podría llegar hasta el 14%, dependiendo del método de cálculo (basado en la pérdida de valor salarial frente a las ganancias proyectadas por la adopción). Para una empresa de esa envergadura, incluso la estimación más conservadora representa cientos de millones en valor perdido.
Otra consecuencia de la penalización por competencia es el posible uso de IA en la sombra. Cuando los empleados temen usar herramientas oficiales de IA, no necesariamente la evitan por completo. En cambio, algunos podrían usar otras herramientas de IA no autorizadas, con mayor frecuencia de la que sus empleadores anticiparían. Estas actividades son difíciles, si no imposibles, de rastrear y exponen a la organización a numerosos riesgos, que van desde la seguridad de los datos hasta el cumplimiento normativo. Pueden socavar el uso responsable de la IA mediante prácticas inconsistentes.
La penalización de la competencia también exacerba las desigualdades existentes en el lugar de trabajo. Es razonable, y quizás tentador, asumir que las herramientas de IA deberían nivelar el campo de juego al aumentar las capacidades de todos. Nuestros resultados sugieren que esto no está garantizado y, de hecho, podría ocurrir lo contrario. En nuestro contexto, dominado por hombres jóvenes, la disponibilidad equitativa de la IA aumentó el sesgo contra las ingenieras.
Esto probablemente ocurre mediante un proceso denominado amenaza a la identidad social. Cuando miembros de grupos estereotipados —por ejemplo, mujeres en el sector tecnológico o trabajadores de mayor edad en sectores dominados por jóvenes— utilizan IA, se refuerzan las dudas existentes sobre su competencia. La asistencia de la IA se presenta como una "prueba" de su incompetencia, más que como una prueba de su uso estratégico de las herramientas. Cualquier industria con predominio de un segmento sobre otro es propensa a sufrir mayores penalizaciones por competencia de los trabajadores pertenecientes a minorías.
La sanción a los usuarios de IA también plantea interrogantes incómodas sobre las políticas de divulgación en el lugar de trabajo. Si bien la transparencia es un componente fundamental del uso responsable de la IA, en lo que respecta a la dinámica interna del trabajo, puede ser más perjudicial que beneficiosa. Nuestros hallazgos sugieren que exigir a los empleados que revelen el uso de la IA a sus compañeros podría generar riesgos profesionales injustos. Encontrar el equilibrio adecuado es clave. En entornos donde es probable que se impongan sanciones por incompetencia, puede ser más responsable no exigir la divulgación.
Rompiendo la pena
La empresa tecnológica de nuestro estudio ya había hecho más que la mayoría. Formaron equipos dedicados a la IA, crearon incentivos y ofrecieron capacitación. Sin embargo, estas inversiones resultaron insuficientes porque no abordaron la amenaza subyacente a la competencia. Nuestros hallazgos sugieren la necesidad de un enfoque más refinado.
1. Mapee los puntos críticos de penalizaciones de su organización.
La penalización de la competencia crea una dinámica preocupante. Quienes más podrían beneficiarse de las herramientas que mejoran la productividad son precisamente quienes creen que no pueden arriesgarse a usarlas. En nuestra investigación, las mujeres jóvenes en el sector tecnológico tienen más posibilidades de obtener tiempo productivo, pero actualmente son las que adoptan las tecnologías con menor frecuencia. Abordar esta brecha representa un objetivo fácil para las organizaciones que buscan maximizar sus inversiones en IA.
Para localizar los equipos con mayor penalización por competencia, busque vulnerabilidad demográfica y desequilibrios de poder. Los equipos con pocas mujeres o ingenieras de edad madura en puestos junior, pero con muchos revisores masculinos que no adoptan IA en puestos senior, crean las condiciones perfectas para las penalizaciones por competencia. Examine las métricas de tiempo de ascenso por grupo demográfico y uso de IA para determinar si los efectos de las penalizaciones ya están afectando las carreras profesionales y medir la urgencia del problema. Compruebe si los grupos vulnerables se enfrentan a políticas de divulgación obligatorias o voluntarias de IA y evalúe el impacto de dicha divulgación en sus resultados profesionales.
Convertir a los escépticos influyentes.
Quienes no adoptan la IA imponen las penalizaciones más severas por competencia, y en la mayoría de las organizaciones, siguen siendo mayoría. En nuestro estudio, los ingenieros que no habían adoptado la IA calificaron a sus colegas usuarios de forma especialmente severa, siendo los hombres que no la adoptaban quienes penalizaron con mayor severidad a las ingenieras.
Romper este ciclo requiere una influencia social estratégica. Cuando los empleados ven a colegas respetados utilizando la IA con éxito sin consecuencias profesionales, el riesgo percibido disminuye. El enfoque más eficaz se basa en modelos a seguir visibles que demuestran que el uso de la IA y la excelencia profesional pueden coexistir.
Los líderes más influyentes son aquellos que reflejan la demografía que enfrenta las mayores penalizaciones. Nuestra investigación reveló que las mujeres en puestos directivos temían menos la penalización por competencia que sus contrapartes junior. Cuando estos líderes usan IA abiertamente, brindan una protección crucial a colegas vulnerables. Un estudio de BCG también ilustra esta dinámica: cuando las mujeres directivas senior lideran a sus contrapartes masculinas en la adopción de IA, la brecha de adopción entre mujeres y hombres junior se reduce significativamente.
Los ejemplos individuales inspiran, pero los programas estructurados generan impulso. Considere el reto " 30 Días de GPT" lanzado por Hilary Gridley, directora de producto de Whoop. El programa evolucionó desde tareas sencillas como agendas de reuniones hasta flujos de trabajo complejos con GPT personalizados. Las demostraciones diarias y las celebraciones públicas de los logros generaron seguridad psicológica ; los miembros del equipo vieron a compañeros de todos los niveles de habilidad tener éxito con la IA. Cuando los escépticos ven a colegas a los que respetan —no solo a los líderes sénior— utilizando la IA con éxito en el trabajo real, su resistencia se debilita.
El Makeathon anual de Pinterest demuestra cómo escalar este enfoque a toda la organización. El hackathon, que abarcó a toda la empresa, estuvo abierto a todos los empleados, con o sin experiencia técnica. Los equipos presentaron ideas basadas en IA, crearon prototipos y presentaron proyectos. Los líderes internos actuaron como "doctores de la IA" y líderes de equipo, aportando credibilidad a la experimentación con IA. Los resultados hablan por sí solos: el 96 % de los participantes reportó un uso continuo mensual de la IA, y el 78 % de los ingenieros atribuyó a la IA el ahorro de tiempo.
Rediseñar las evaluaciones para eliminar la señal
Cuando los ingenieros deben etiquetar su código como "asistido por IA", se vuelven vulnerables a evaluaciones sesgadas. A menos que la cultura organizacional cambie, esta etiqueta conlleva prejuicios. La solución es sencilla: dejar de señalar el uso de IA en las evaluaciones de rendimiento hasta que su cultura esté preparada.
Nuestro experimento no mostró diferencias de calidad en el trabajo asistido por IA, a pesar de la penalización de la competencia. Esta discrepancia revela el camino a seguir: pasar de evaluar cómo se realiza el trabajo a evaluar lo que se logra. Sustituir las calificaciones subjetivas de competencia por métricas objetivas como el tiempo de ciclo, la precisión y la tasa de defectos.
Las organizaciones deberían eliminar gradualmente las etiquetas públicas de "IA utilizada" una vez que existan registros de cumplimiento, conservándolos solo para auditorías internas. Las revisiones a ciegas que ocultan información personal pueden ayudar a reducir el sesgo contra las minorías que ya están sujetas a escrutinio. Cuando los evaluadores no pueden ver quién escribió el código o si la IA estuvo involucrada, es probable que juzguen únicamente por méritos.
Algunas empresas líderes están yendo más allá de la neutralidad: están recompensando activamente el uso de la IA para convertir la penalización por competencia en una bonificación por competencia. Julia Liuson, presidenta de la división de herramientas para desarrolladores de Microsoft, instruyó recientemente a los gerentes que incluyan el uso de la IA como parte de sus reflexiones holísticas sobre el rendimiento y el impacto de un individuo. Algunos equipos están considerando métricas formales de IA para las evaluaciones del próximo año.
Tobias Lütke, CEO de Shopify, ha establecido el uso reflexivo de la IA como una expectativa básica, anunciando planes para incorporar preguntas sobre su uso en las evaluaciones de rendimiento y entre pares. Define el dominio de la IA como una habilidad no obvia que requiere retroalimentación y desarrollo, lo que posiciona a quienes la dominan como más valiosos que quienes no.
El camino a seguir
La penalización por competencias indica una discordancia fundamental en la forma en que las organizaciones abordan la adopción de la IA. Si bien las empresas se centran en el acceso, la capacitación y la infraestructura técnica, ignoran las dinámicas sociales que determinan si los empleados realmente utilizan estas herramientas.
Este análisis arroja luz sobre varios patrones desconcertantes que afectan a las transformaciones de la IA. ¿Por qué los empleados usan ChatGPT en secreto e ignoran las herramientas aprobadas? ¿Por qué los grupos que más se beneficiarían de la mejora de la IA adoptan las herramientas con menor frecuencia? ¿Por qué las empresas obtienen un retorno de la inversión limitado a pesar de las enormes inversiones en IA?
La penalización es más dura donde la competencia ya está en duda. Nuestra investigación muestra que las mujeres que usan IA enfrentan casi el doble de daño a su reputación que los hombres. Los trabajadores de mayor edad en sectores dominados por jóvenes enfrentan un sesgo similar. Lo irónico es que quienes más necesitan el poder igualador de la IA son quienes menos pueden permitírselo.
Pero la penalización no es inevitable. Las organizaciones pueden eliminarla mediante tres intervenciones específicas: identificar dónde se concentran las penalizaciones, movilizar a líderes respetados como defensores visibles de la IA y rediseñar las evaluaciones para premiar los resultados por encima de los métodos.
En definitiva, las organizaciones que lideren la transformación de la IA no necesariamente contarán con las mejores herramientas ni los mayores presupuestos. Serán aquellas que creen entornos donde todos los empleados puedan usar la IA de forma segura. Hasta entonces, las empresas no solo están desperdiciando licencias, sino que, aún más importante, están preparadas para desperdiciar el potencial humano.
Lea más sobre IA generativa o temas relacionados IA y aprendizaje automático, Algoritmos, Análisis y ciencia de datos, Gestión de datos y Tecnología y análisis.
Oguz A. Acar es catedrático de Marketing en la King's Business School del King's College de Londres.
Phyliss Jia Gai es profesora adjunta de marketing en la Escuela de Administración Guanghua de la Universidad de Pekín. Sus intereses actuales incluyen la tecnología, la identidad y las redes sociales.
Yanping Tu es candidato a doctorado en marketing en la Escuela de Negocios Booth de la Universidad de Chicago.
Jiayi Hou es investigador postdoctoral en la Facultad de Negocios y Economía de la Universidad de Hong Kong. Su investigación se centra en la economía digital, la economía organizacional y la economía del desarrollo.
No hay comentarios:
Publicar un comentario