Si desea que su equipo utilice Gen AI, concéntrese en la confianza
Por Ashley Reichheld, Aniket Bandekar, Ian Thompson, y Lauren Teegarden
Transparencia
Harvard Business Review
#Doxa #equipo #GenAI #concéntrese #confianza #herramienta #IA #empelado #Deloitte #hipótesis #trabajador #empresa #inversión #tecnología #consultor #fiabilidad #creencia #transparencia #usuario #visitas
Resumen. Muchas empresas se han apresurado a proporcionar herramientas de inteligencia artificial de nueva generación a su personal, pero la aceptación entre los empleados ha sido variable. Los investigadores de Deloitte plantearon la hipótesis de que una de las razones principales por las que los trabajadores no utilizaban estas herramientas (y las empresas no obtenían un buen retorno de la inversión) era que los empleados no confiaban en la tecnología. Los investigadores decidieron poner a prueba un nuevo programa destinado a abordar lo que ellos llaman "los cuatro factores de la confianza": fiabilidad, capacidad, transparencia y humanidad. Después de lanzar la iniciativa con un grupo de prueba de 750 consultores de Deloitte, los investigadores observaron un aumento del 49% en las percepciones sobre la fiabilidad de la herramienta, un aumento del 52% en las creencias sobre su transparencia, un aumento del 14% en los nuevos usuarios y un aumento del 65% en el número medio de visitas por usuario.
Entre titulares llamativos que anuncian billones de dólares en valor potencial y miles de millones de dólares gastados por las organizaciones para materializar ese valor, se podría suponer que las herramientas de inteligencia artificial se han convertido en una parte vital del lugar de trabajo. Los datos cuentan una historia diferente.
Según el reciente informe State of Generative AI de Deloitte, solo el 11 % de las organizaciones que han proporcionado herramientas de IA a los empleados informan que la IA de generación se ha integrado con éxito en las rutinas diarias de sus empleados (éxito en este contexto significa que más del 60 % de la organización utiliza IA de generación a diario). De aquellas organizaciones con un uso menor (menos del 20 % de los empleados informan que lo utilizan a diario), aproximadamente la mitad informa que los retornos están por debajo de las expectativas para su iniciativa de IA de generación más avanzada. Por el contrario, de aquellas organizaciones que han tenido más éxito en impulsar la adopción, el 86 % informa que cumple o supera las expectativas de ROI.
Entonces, ¿por qué los empleados de algunas organizaciones no adoptan la inteligencia artificial de última generación? Creemos que la respuesta se reduce a la falta de confianza.
Medimos la confianza utilizando una plataforma sobre la que ya hemos escrito en HBR, que mide la confianza de las personas midiendo su percepción de la fiabilidad, capacidad, transparencia y humanidad de una organización o tecnología, lo que llamamos los "cuatro factores de la confianza". Piénselo de esta manera: si va a un restaurante y descubre que no es fiable (perdió su reserva), carece de capacidad (su comida está mal preparada), no es transparente (incluye recargos ocultos en la cuenta) y el personal no expresa humanidad (ignoran las necesidades de discapacidad de su acompañante), no confiará en él y no volverá. Lo mismo se aplica a una tecnología como gen AI. Si no cumple con estas medidas, la gente no confiará en ella. Y cuando los usuarios no confían en una tecnología, no se sentirán cómodos usándola, o incluso pueden rechazarla por completo, sin ser conscientes de su verdadero potencial.
¿Qué está causando esta desconfianza? Si bien las herramientas de inteligencia artificial ya están demostrando ser útiles para colaborar con el personal en investigaciones, redactar propuestas, diseñar presentaciones, evaluar candidatos y más, los empleados suelen ser escépticos y estar preocupados por la tendencia de la tecnología a inventar cosas o “alucinar”. A muchos también les preocupa que, a medida que la inteligencia artificial asuma más tareas y roles más amplios, el personal humano perderá su valor o incluso se volverá redundante. No debería sorprender, entonces, que muchos empleados se acerquen a la inteligencia artificial con cierta desconfianza e incluso ansiedad.
La buena noticia es que es posible generar confianza en la IA de última generación y, si se hace bien, puede acelerar la adopción por parte de los empleados y aumentar su comodidad con la tecnología. Ofrecemos algunas formas de generar confianza basadas en un proyecto piloto para estimular la adopción que llevamos a cabo recientemente en nuestra empresa.
Presentamos a nuestro asistente de inteligencia artificial de última generación
Al igual que muchas otras empresas, nuestra organización, Deloitte, vio el potencial de un asistente de inteligencia artificial de última generación para mejorar el rendimiento de los empleados de muchas maneras, desde quitarles de encima tareas rutinarias como escribir notas de reuniones hasta colaborar activamente en trabajos analíticos y creativos, como la investigación de mercados y la generación de ideas. Nuestro equipo de Transformación lanzó un asistente de inteligencia artificial de última generación diseñado a medida para abordar algunas de estas tareas en el otoño de 2023.
Deloitte llevó a cabo una serie de actividades educativas y de capacitación para familiarizar a la organización con gen AI y promover el uso del nuevo asistente. Durante los meses siguientes, vimos una adopción alentadora en toda la organización. Sin embargo, nuestro objetivo es que nuestro asistente gen AI sea adoptado por completo e integrado en el trabajo de todos. Sabiendo que la falta de confianza suele ser un impedimento para la adopción de gen AI, decidimos poner en práctica nuestra investigación científica sobre la confianza como parte de un proyecto piloto para aumentar el uso de la herramienta por parte de las personas.
Nueve meses después del lanzamiento inicial, seleccionamos un grupo de prueba de 750 consultores, desde analistas junior hasta directivos, y realizamos una medición de referencia de los cuatro factores de confianza en la herramienta antes de comenzar nuestros esfuerzos enfocados en generar confianza. También formulamos una serie de preguntas diseñadas para descubrir las razones por las que los empleados calificaron la herramienta gen AI como lo hicieron en cada uno de los factores de confianza. De esta manera, si observábamos puntuaciones notablemente bajas en uno u otro factor, sabríamos dónde debíamos enfocar nuestros esfuerzos para generar confianza.
De hecho, la encuesta de referencia reveló que los usuarios no comprendían la amplia gama de formas en que la herramienta podía ayudarlos. Como usuarios nuevos, nuestros consultores todavía estaban aprendiendo cuál era la mejor manera de interactuar y estimular a gen AI en una variedad de casos de uso, por lo que le dieron puntuaciones bajas en el aspecto de confiabilidad. También descubrimos que los usuarios no tenían claro qué fuentes de datos usaba la herramienta y cómo protegía los datos. Por lo tanto, el asistente de gen AI también obtuvo puntuaciones bajas en el elemento de transparencia.
Conscientes de dónde se encontraban las brechas de confianza, modificamos los materiales y las actividades educativas que se habían implementado al principio. Diseñamos estos cambios específicamente para mejorar la percepción de los consultores sobre la confiabilidad y transparencia de la herramienta y, esperábamos, aumentar su uso y alentar a los no usuarios a probarla. A continuación, se presentan cuatro de las intervenciones que ideamos:
- Perfiles de usuarios expertos: breves descripciones de superusuarios que destacan la variedad de formas en que utilizan la herramienta en su trabajo diario y los beneficios que obtienen de ella. Proporcionamos ejemplos reales de consultores de Deloitte que la utilizan para abordar el amplio conjunto de aplicaciones para las que está diseñada.
- Pregúntele al equipo de Gen AI: sesiones públicas de preguntas y respuestas sobre los aspectos técnicos de la herramienta, incluidas explicaciones claras sobre cómo se entrena y cómo se utilizan los datos. Usamos estos foros para abordar específicamente los conceptos erróneos que surgieron a partir de la encuesta de referencia.
- Prompt-A-Thons: eventos interactivos en vivo donde los participantes aprenden a estimular al chatbot para que genere ideas que puedan usar para resolver desafíos específicos, demostrando su aplicación práctica y las distintas formas en que pueden usarlo. En estos ejercicios, adoptamos un enfoque de capacitación de capacitadores, centrándonos en cómo generar confianza en la herramienta en lugar de simplemente en cómo usarla.
- Foros comunitarios: Además, organizamos llamadas comunitarias de IA y análisis para fomentar el intercambio de conocimientos y la participación de la comunidad, complementadas con actualizaciones periódicas a través de nuestro boletín de prácticas y canales. En estos foros, compartimos nuestros conocimientos y soluciones de confianza, promoviendo el aprendizaje y la mejora continuos y demostrando nuestro enfoque en la transparencia y la confiabilidad. Estas comunicaciones repetidas y consistentes ayudaron a que las intervenciones anteriores perduraran.
Cuando medimos nuevamente los niveles de confianza al final de nuestra prueba piloto, vimos que los puntajes de confianza aumentaron un 16 % en general para los usuarios de la herramienta. Y, cuando analizamos los puntajes en un conjunto más detallado de afirmaciones que usamos para analizar en profundidad la transparencia y la confiabilidad, vimos mejoras particularmente dramáticas en dos que apuntamos específicamente con nuestras intervenciones: un aumento del 49 % en las percepciones de la calidad y la consistencia de los resultados de la herramienta (una medida de confiabilidad) y un aumento del 52 % en la comprensión de la protección de la privacidad de la herramienta y las barreras de seguridad en su uso de datos personales y de clientes (un indicador de transparencia). También vimos mejoras prometedoras en la adopción, incluido un aumento del 14 % en nuevos usuarios, un aumento del 13 % en usuarios habituales y un enorme aumento del 65 % en el número promedio de visitas por usuario.
A medida que repitamos las encuestas y aprendamos más sobre qué elementos de nuestra inteligencia artificial gen son más poderosos para generar confianza, perfeccionaremos aún más las interacciones con nuestros consultores y la inteligencia artificial gen en sí. Por ejemplo, la próxima iteración del asistente virtual se alimentará con nuestros datos de índice de confianza, por lo que los consultores podrán pedirle al chatbot que proporcione puntajes de confianza de los clientes y la fuerza laboral para nuestros clientes más importantes, con el objetivo de aumentar los puntajes de capacidad de la herramienta. A través de este proceso iterativo, esperamos que nuestras intervenciones mejoren continuamente y que veamos crecer la confianza en la herramienta. En última instancia, nuestra esperanza es que cada vez más miembros de nuestra organización vean la herramienta como un colaborador de confianza, trabajando con ella de maneras que simplifiquen sus vidas y los ayuden a hacer su mejor trabajo.
Generando confianza desde el principio
Las empresas se están apresurando a aprovechar la inteligencia artificial de última generación, y los empleados son, en cierto sentido, los sujetos de prueba: los usuarios de primera línea. Estas empresas pueden aprender de nuestra experiencia e incorporar la generación de confianza en sus programas de inteligencia artificial de última generación orientados a los empleados. Para ello:
En primer lugar, no espere a implementar la inteligencia artificial en el lugar de trabajo para comenzar a pensar en la confianza. Coloque las necesidades humanas en el centro e incorpore consideraciones de confianza de los empleados en el diseño desde el principio. Comience con los problemas humanos que la inteligencia artificial debe abordar. ¿El objetivo es ayudar a los empleados a trabajar de manera más eficiente? ¿Eliminar tareas que consumen mucho tiempo? ¿Impulsar la creatividad? ¿Las herramientas que ofrece realmente ayudan a abordar estas necesidades?
En segundo lugar, priorice los elementos de diseño que generen confianza en los empleados, centrándose en los cuatro factores. Los empleados deben sentir que la inteligencia artificial es capaz, confiable, transparente y tiene “humanidad”, en el sentido de que satisface sus necesidades individuales y los ayuda a hacer su mejor trabajo. Pruebe estos elementos que mejoran la confianza durante la capacitación preguntando a los usuarios, por ejemplo, “¿La herramienta se comunica con usted en un lenguaje sencillo y directo? ¿Siente que sus resultados son precisos e imparciales?”. Si los usuarios le dan una mala calificación en cualquiera de estas preguntas básicas sobre la confianza, averigüe por qué y trabaje para solucionar el problema.
Proponemos evaluar la confianza a partir del entrenamiento de la IA gen. A través de nuestra investigación, hemos modificado las afirmaciones principales de la herramienta de encuesta de confianza que utilizamos para que sean relevantes para juzgar a un no humano, pidiéndoles que califiquen el nivel de acuerdo con las siguientes afirmaciones:
- "[La herramienta de inteligencia artificial gen] respalda directamente mis necesidades específicas y mejora mi desempeño laboral” (un indicador de humanidad)
- “Los resultados de [la herramienta gen AI] son explicables y utilizan un lenguaje sencillo y directo para compartir información clave, su propósito, el uso de los datos y las políticas de uso” (transparencia)
- “[La herramienta gen AI] produce materiales/resultados precisos e imparciales alineados con su propósito declarado (capacidad)
- “[La herramienta de inteligencia artificial gen] cumple su propósito de manera constante y confiable” (confiabilidad)
En tercer lugar, anticipe y aborde las posibles inquietudes de los empleados sobre la confiabilidad de la IA general como parte de sus esfuerzos de cambio y adopción, creando materiales y capacitación que aborden los cuatro factores, por ejemplo, cómo la IA usa y protege sus datos.
En cuarto lugar, es necesario realizar encuestas periódicas de seguimiento sobre la confianza de los empleados en la Gen AI, identificar áreas en las que la confianza sigue siendo débil y modificar o desarrollar nuevos materiales de capacitación y otras intervenciones para abordar el problema. Las encuestas periódicas son esenciales para saber qué funciona y qué no y garantizar una mejora continua.
Y, por último, mida la confianza general de los empleados en su organización y trabaje diligentemente para mejorarla también. Las empresas líderes en confianza superan significativamente a las rezagadas en términos de valor total de mercado ( hasta 4 veces ) y ven una mayor adopción de nuevas tecnologías. Anteriormente, describimos cómo medir la confianza de los empleados y las innumerables formas en que las organizaciones con un alto nivel de confianza se benefician. Nuestra última investigación muestra que los empleados están mucho más dispuestos a utilizar la inteligencia artificial y la inteligencia artificial si confían en su organización: los empleados de estas empresas de "alta confianza"tienen 2,6 veces más probabilidades de sentirse cómodos utilizando las herramientas de inteligencia artificial que ofrece su empleador que el personal de empresas con bajos niveles de confianza.
Quizás lo más importante es que generar confianza es lo correcto. Ganar confianza crea el tipo de relaciones que queremos construir, el tipo de organizaciones a las que queremos pertenecer y el tipo de mundo en el que queremos vivir.
Lea más sobre Transparencia o temas relacionados Estrategia, IA y aprendizaje automático e IA generativa
Ashley Reichheld, directora de Deloitte Consulting LLP, trabaja con clientes de distintas industrias para ayudarlos a reinventar sus marcas y experiencias. Creó TrustID, un sistema innovador para ayudar a las empresas a medir, predecir y generar confianza con sus clientes, fuerza laboral y socios. Ashley es la autora principal de The Four Factors of Trust.
Aniket Bandekar es director ejecutivo de Deloitte Consulting LLP y codirector de la Academia de IA de Deloitte. Cuenta con 20 años de experiencia en la creación de puentes entre la tecnología y las personas en algunas de las organizaciones más grandes y complejas del planeta.
Ian Thompson es director de Deloitte Consulting LLP, donde lidera los esfuerzos de innovación en inteligencia artificial y prestación de servicios y ayuda a los clientes a desarrollar estrategias transformadoras para impulsar el crecimiento y la ventaja competitiva a través de la tecnología, los datos y la inteligencia artificial.
Lauren Teegarden, gerente sénior de Deloitte Consulting LLP, asesora a empresas líderes sobre cómo diseñar, probar e integrar IA en sus organizaciones para impulsar el crecimiento de los ingresos y aumentar la eficiencia, al mismo tiempo que se garantiza la confianza de los trabajadores.
No hay comentarios:
Publicar un comentario