Por qué se estanca la adopción de IA, según datos del sector
Por Erin Eatough , Keith Ferrazzi , Wendy Smith y Shonna Waters
IA generativa
Harvard Business Review
#Doxa #IA #Adopción #Estancamiento #Datos #Sector #Barreras #Costos #Talento #Privacidad #Ética #Integración #ROI #Estrategia #Tecnología #Futuro
Resumen. Muchas empresas informan de un uso generalizado de la IA, pero resultados decepcionantes, asumiendo que el problema radica en la ejecución, no en la adopción. Un nuevo estudio muestra que las iniciativas de IA suelen estancarse debido a la ansiedad de los empleados, condicionada por el sector, respecto a la relevancia, la identidadY la seguridad laboral impulsa un uso superficial sin un compromiso real. Los líderes que abordan la adopción de la IA como un desafío psicológico y contextual, no solo como una implementación técnica, tienen muchas más probabilidades de convertir la experimentación en un impacto sostenido.
Las empresas de la mayoría de los sectores están invirtiendo fuertemente en inteligencia artificial: el 88 % de las empresas reportan un uso regular de la IA . Sin embargo, muchos líderes reportan frustraciones comunes. La adopción de la IA se estanca. Las mejoras de rendimiento se estancan. Los empleados experimentan con nuevas herramientas, pero no las integran a fondo en su trabajo, lo que genera en los ejecutivos una creciente preocupación por el retorno de la inversión (ROI).
Nuestra investigación sugiere que esto no se trata de un fallo de ejecución aleatorio. Se trata de un patrón psicológico predecible, impulsado por la ansiedad propia del sector sobre lo que la IA significa para el empleo, la identidad y el futuro de las personas.
Para comprender por qué se estanca la adopción de la IA, Fractional Insights y Ferrazzi Greenlight colaboraron en dos encuestas realizadas a empleados de Estados Unidos y Europa. Una fue un estudio transnacional con más de 2000 participantes, realizado en otoño de 2025 en colaboración con QuestionPro; la otra fue una encuesta solo en EE. UU. con 1000 participantes, realizada en primavera de 2025. Los participantes en ambas encuestas pertenecían a sectores como la salud, la tecnología, las finanzas, la manufactura, el comercio minorista, la educación, la hostelería y más.
En el estudio transnacional, solicitamos a los participantes que nos contaran sobre sus comportamientos de adopción de IA en el trabajo y sus sentimientos al respecto, incluyendo si la IA les genera temor a la estabilidad laboral o a ser reemplazados, si reduce su valor como empleados, si limita la conexión humana con sus colegas o si perjudica su intelecto. Combinamos estos resultados en una medida denominada angustia ante la IA, una medida de las amenazas percibidas a la estabilidad laboral, el valor profesional y el crecimiento, mediante 10 ítems en una escala de cinco puntos.
Aproximadamente ocho de cada diez empleados expresaron una gran preocupación por al menos un elemento de ansiedad relacionada con la IA. Por ejemplo, el 65 % coincidió en que les preocupa ser reemplazados por alguien que sabe usar la IA mejor que yo; al 61 % le preocupa que la IA pueda hacer que otros piensen que no aporto un valor único; al 60 % le preocupa que usar la IA para facilitar mi trabajo haga que mis compañeros cuestionen mi competencia personal; el 54 % considera que la IA está afectando su forma de conectar con los demás en el trabajo; y el 44 % considera que los está volviendo más ingenuos. Uno de cada tres empleados obtuvo una puntuación media de cuatro o más en la puntuación compuesta de ansiedad relacionada con la IA.
En general, descubrimos que aproximadamente el 86% de las personas sentían que la IA haría que el trabajo fuera al menos un poco mejor, y el 14% sentía que la IA tendría un impacto neutral o negativo en la experiencia laboral.
La paradoja creencia-ansiedad
Pero aquí está la conclusión clave: creer en el valor empresarial de la IA no significa que los empleados se sientan seguros respecto a su futuro. Aproximadamente 4 de cada 10 empleados creen firmemente en el valor empresarial de la IA, pero al mismo tiempo temen lo que esto significa para su propia seguridad y relevancia.
Las creencias centrales positivas sobre la IA y la angustia ante la IA tienden a ser predecibles dependiendo de la industria en la que se encuentre una persona. Los puntajes más altos de creencias centrales positivas provinieron de personas de finanzas, tecnología y atención médica, mientras que las personas de educación, manufactura, comercio minorista y gobierno tendían a tener opiniones más pesimistas sobre la IA.
Las puntuaciones más altas de ansiedad ante la IA también se obtuvieron en profesionales del sector tecnológico y de los servicios financieros, quienes presentaron puntuaciones de ansiedad ante la IA un promedio un 48 % más altas que las de los profesionales de la manufactura y la educación. Este patrón también se repitió en nuestro estudio transnacional, donde los profesionales del sector financiero y tecnológico mostraron las puntuaciones más altas de ansiedad ante la IA. Factores como el historial de automatización de una industria o sus principales fuentes de valor pueden dar pistas sobre el porqué.
La tecnología y los servicios financieros se encuentran en el centro de la tensión entre optimismo y miedo. Estas industrias han experimentado repetidas oleadas de disrupción, reestructuración y obsolescencia de habilidades. Como resultado, la IA puede interpretarse simultáneamente como un motor de crecimiento y una amenaza para las carreras profesionales.
Los empleados de estos sectores pueden tener fuertes convicciones sobre el valor de la IA para la empresa. Parecen comprender mejor que la mayoría su potencia, escalabilidad e implicaciones competitivas. Pero esa misma proximidad a la IA también hace que sus riesgos se perciban como algo más personal.
En nuestros datos, esto se refleja en una alta creencia, acompañada de una alta percepción de riesgo personal. Si la adopción se estanca, es menos probable que se deba a que las personas duden del potencial de la IA, sino a que están gestionando activamente el riesgo personal que conlleva.
La atención médica presenta un punto de partida psicológico diferente. En este contexto, la IA se presenta con mayor frecuencia como una herramienta que mejora la misión, apoya la atención al paciente, reduce la carga administrativa y mejora los resultados, en lugar de reemplazar por completo el criterio profesional. Esta alineación con la misión y el propósito podría explicar por qué encontramos puntuaciones más bajas de ansiedad ante la IA en los empleados del sector salud.
Sin embargo, ese mismo optimismo puede crear una trampa de fracaso diferente. Cuando la convicción supera a la gobernanza, los riesgos de adopción pasan de la resistencia a la tensión en la ejecución o al mal uso. Sin unas normas claras en materia de seguridad, sesgo, responsabilidad e integración del flujo de trabajo, el entusiasmo por sí solo no basta para sostener una adopción escalable y responsable.
Los servicios profesionales se enfrentan quizás a la forma de adopción de IA más disruptiva para la identidad. En campos como el derecho, la consultoría y la contabilidad, el valor reside en la experiencia, el criterio y la diferenciación, precisamente los ámbitos que la IA abarca cada vez más. Como resultado, la IA a menudo puede interpretarse menos como una herramienta y más como un desafío a la legitimidad profesional.
Observamos que los empleados de estos sectores pueden mostrar mayor escepticismo sobre si la IA puede contribuir a un mejor trabajo, lo que reduce la confianza en su valor comercial. Al mismo tiempo, manifiestan una mayor preocupación sobre lo que la IA significa para su propia relevancia y trayectoria profesional. El riesgo de adopción en este caso es doble: el escepticismo puede limitar la experimentación, mientras que la amenaza profesional puede fomentar comportamientos de autoprotección.
Finalmente, en la educación, la manufactura, el comercio minorista y la administración pública , la IA suele permanecer psicológicamente distante del trabajo diario. En estos sectores, los empleados tienden a no manifestar una creencia firme ni un temor intenso hacia la IA. La IA parece percibirse como algo más abstracto, orientado al futuro o tangencial a las expectativas de rendimiento. La barrera dominante no es la resistencia, sino la indiferencia.
Cuando la IA aún no se siente conectada con el trabajo, los empleados tienen pocos incentivos para invertir energía en su adopción. En estos entornos, la adopción puede estancarse no porque las personas se resistan, sino simplemente porque no se sienten motivadas para participar.
En todos los sectores, el patrón es constante: la adopción de la IA se estanca cuando la tecnología choca con la forma en que las personas entienden su valor, su riesgo y su futuro. El contexto del sector determina cuál de estas fuerzas domina primero y por qué los líderes que lo ignoran malinterpretan tanto el entusiasmo como la resistencia.
Por qué la ansiedad puede aumentar el uso de IA y aun así estancar los resultados
La mayoría de las estrategias de IA se centran en el beneficio empresarial (p. ej., "¡Agilizará el trabajo!"). Muchas menos abordan la amenaza personal que la IA representa para la seguridad laboral, la relevancia y el significado del trabajo. Cuando ese riesgo no se analiza, la adopción puede parecer atractiva, pero el retorno de la inversión (ROI) no.
Uno de los hallazgos más contraintuitivos de nuestra investigación es que la angustia ante la IA a menudo aumenta el uso y al mismo tiempo aumenta la resistencia.
En nuestro estudio transnacional, solicitamos a los encuestados que estimaran el porcentaje de su trabajo en el que utilizan la IA como apoyo. También medimos la angustia ante la IA utilizando 10 ítems que reflejan preocupación y miedo sobre la IA. La angustia alta ante la IA se definió como una puntuación de 4 o más en una escala compuesta de 5 puntos, y la angustia baja se definió como una puntuación promedio de 2 o menos. Aquellos con alta angustia ante la IA informaron que, en promedio, el 65% de su trabajo estaba actualmente asistido por IA, en comparación con el 42% del trabajo para aquellos con baja angustia ante la IA. También hicimos una pregunta muy directa: ¿Hasta qué punto se siente "resistente a adoptar la IA en el trabajo"? La angustia alta ante la IA significó más del doble de resistencia (una puntuación de resistencia de 4.6 para los grupos de angustia alta frente a 2.1 para los grupos de angustia baja en una escala de cinco puntos). La conclusión: El miedo a perder el trabajo o a quedarse obsoleto puede impulsar el cumplimiento y el uso, pero no necesariamente produce una verdadera aceptación y compromiso.
Esto ayuda a explicar por qué las implementaciones de IA pueden parecer exitosas a primera vista (licencias activadas, herramientas utilizadas) pero no logran un impacto duradero. En estos casos, su uso refleja autoprotección más que confianza genuina o innovación.
Como ocurre con cualquier investigación por encuesta, estos resultados reflejan las percepciones de los empleados, pero esas percepciones predicen fuertemente el comportamiento de adopción.
Nuestras investigaciones anteriores sobre la angustia en el lugar de trabajo descubrieron que los empleados que experimentan amenazas personales pueden desempeñarse bien en el corto plazo, pero son mucho más propensos a desvincularse o irse.
La ansiedad específica relacionada con la IA muestra el mismo patrón. Incluso cuando las métricas de uso de la IA parecen sólidas, el comportamiento subyacente suele ser performativo en lugar de participativo, lo que erosiona el impacto real.
Los cuatro tipos de empleados
Analizando estos datos con más detalle, identificamos cuatro grupos distintos de empleados según sus creencias sobre la IA y sus niveles de ansiedad. Comprender qué perfil predomina en su organización es fundamental para diseñar la estrategia de adopción adecuada.
Los visionarios (con gran convicción de su valor y baja percepción de riesgo personal) ven las ventajas de la IA y experimentan con facilidad en su trabajo. Alrededor del 40 % de los empleados se encuentran en este grupo.
- Imperativos de gestión: Implementar a los Visionarios como mentores y pioneros, pero animarlos a evaluar los riesgos en lugar de simplemente vender beneficios. Mantenerlos enfocados en la ejecución rigurosa, no en la publicidad exagerada. Permítales liderar equipos piloto y sprints de innovación, pero acompáñelos con escépticos capaces de identificar los puntos ciegos. Su entusiasmo es una ventaja; su exceso de confianza puede ser una desventaja.
Los disruptores (alta creencia, alto riesgo percibido) comprenden el poder de la IA, pero se preocupan profundamente por su propia relevancia, lo que probablemente lleve a un uso impulsado por el miedo. Aproximadamente el 30% de los empleados se ajustan a este perfil.
- Imperativos de gestión: Proporcionar transparencia radical en torno a la estrategia de IA y sus implicaciones para los roles. Invertir visiblemente en programas de reciclaje profesional y difundir los avances. Crear espacios psicológicamente seguros para el aprendizaje y la experimentación donde el fracaso no implique riesgos profesionales. Cocrear planes de transición en lugar de imponerlos, otorgando a los disruptores la responsabilidad del cambio, lo que reduce la ansiedad y aprovecha su comprensión cognitiva.
Los empleados en riesgo (baja creencia, alto riesgo percibido) sienten que la IA amenaza la identidad profesional y cuestionan su valor. Aproximadamente el 20% de los empleados se encuentran en esta categoría.
- Imperativos de gestión: Liderar con empatía y reconocer el miedo primero, antes de presentar argumentos racionales. Crear victorias de bajo riesgo que generen confianza emocional y confianza cognitiva en la tecnología. Asociar a los empleados en peligro con visionarios para generar confianza y modelarla. Reforzar constantemente los elementos humanos de sus funciones que no se automatizarán, ayudándolos a ver la IA como un complemento en lugar de un sustituto.
Los empleados complacientes (baja confianza y baja percepción de riesgo) no se sienten amenazados por la IA, pero tampoco aprecian su valor. Aproximadamente el 10 % de los empleados se encuentran en esta situación.
- Imperativos de gestión: Impactar al sistema con historias disruptivas externas de la competencia o de sectores adyacentes. Personalizar profundamente la relevancia mostrando lo que está en juego para sus roles específicos. Utilizar el aprendizaje gamificado para fomentar la participación donde la formación tradicional falla. Destacar a las personas que se mueven con rapidez dentro de la organización para generar miedo a perderse algo (FOMO) e impulsar la urgencia mediante la presión de grupo en lugar de mandatos de arriba hacia abajo.
Si bien estos perfiles reflejan patrones de adopción familiares, la IA introduce una amenaza personal mucho antes y de manera más amplia que la mayoría de las tecnologías anteriores.
Lo que los líderes deben hacer de manera diferente
Cuando la adopción de IA no produce resultados, los líderes suelen responder intensificando las estrategias habituales: mayor capacitación, mandatos más claros y una gobernanza más estricta. Sin embargo, estos enfoques pasan por alto el problema central. Nuestra investigación sugiere que la adopción de IA no genera impacto no porque las personas no la utilicen, sino porque a menudo la utilizan al mismo tiempo que temen lo que significa para ellas personalmente.
Tres turnos son los más importantes
En primer lugar, hay que reconocer los riesgos específicos de la industria antes de implementar la IA.
El contexto industrial determina el punto de partida psicológico para la adopción mucho antes de la introducción de cualquier herramienta. En algunos sectores, la IA se presenta más como una oportunidad. En otros, como una amenaza. Las estrategias eficaces de IA comienzan no solo con planes tecnológicos, sino también con una visión clara de cómo las personas interpretan la angustia y el riesgo personal relacionados con la IA.
En segundo lugar, hay que dejar de tratar el uso como un indicador de aceptación.
A menudo se asume que un alto uso implica una alta adopción. En realidad, el uso puede reflejar fácilmente un cumplimiento autoprotector en lugar de un compromiso genuino. Nuestros datos muestran que los empleados que experimentan mayor ansiedad ante la IA suelen usarla de forma más amplia, pero también pueden sentir una mayor resistencia interna que puede obstaculizar la innovación real. Sin comprender el contexto emocional detrás del uso, los líderes corren el riesgo de optimizar la actividad en lugar del impacto. Las métricas de adopción deben combinarse con señales de ansiedad, seguridad psicológica y apertura a la experimentación para distinguir el compromiso genuino de la participación calculada.
En tercer lugar, diseñar para el aprendizaje antes de diseñar para escalar.
Los líderes no pueden mejorar ni gestionar la adopción de la IA si no distinguen entre la aceptación genuina y el cumplimiento motivado por la ansiedad. Cuando los empleados perciben un riesgo personal, pueden usar la IA de maneras que parecen activas, pero son cautelosas o estratégicamente limitadas para proteger su rol. Escalar la IA antes de que las personas se sientan seguras para aprender simplemente amplifica la adopción superficial en lugar de un impacto duradero.
En conjunto, estos cambios requieren que los líderes dejen de tratar la adopción de IA como un problema de implementación y comiencen a tratarla como un problema de percepción de riesgos, que está determinado por el contexto de la industria y se expresa a través del comportamiento humano.
. . .
Lo que diferencia a las organizaciones que tienen éxito con la IA no son mejores herramientas, sino una comprensión más realista de cómo las personas experimentan la IA, especialmente dentro de su contexto industrial específico.
El impacto de la IA, en última instancia, depende de si los empleados pueden percibir un lugar creíble en el futuro que los líderes están construyendo. Cuando los líderes parten de las realidades del sector, reconocen el riesgo real que perciben las personas con la IA y restauran la visibilidad de cómo está cambiando realmente el trabajo, la adopción deja de ser algo que ellos impulsan y puede convertirse en algo que los empleados ayudan a moldear.
Lea más sobre IA generativa o temas relacionados Gestión del cambio y Tecnología y análisis
Erin Eatough es cofundadora y directora científica de Fractional Insights y profesora de psicología organizacional en la Universidad Estatal de Michigan.
Keith Ferrazzi es el presidente y fundador de Ferrazzi Greenlight, una empresa global de consultoría y coaching de equipos con sede en Los Ángeles, y coautor de Competing in the New
World of Work: How Radical Adaptability Separates the Best from the Rest (Harvard Business Review Press, 2022).
Wendy Smith es jefa de investigación y liderazgo intelectual en Ferrazzi Greenlight.
Shonna Waters es cofundadora y directora ejecutiva de Fractional Insights y profesora en la Universidad de Georgetown.
No hay comentarios:
Publicar un comentario