Doxa 1910

Cómo las funciones de IA pueden cambiar la dinámica del equipo

Los comentarios basados ​​en IA están apareciendo en Zoom, Teams y otras herramientas comunes. Confiar en él puede resultar conveniente, pero existen algunos inconvenientes graves.

Por Megan Reitz y John Higgins
Tecnología y análisis
Harvard Business Review

#Doxa #IA #dinámica #equipo #Zoom #Teams #tecnología #analítica #Copilot #productividad #subcontratación #trabajo #reunión #líder #tiempo
Resumen. Recientemente, las empresas están viendo nuevas funciones que añaden retroalimentación impulsada por IA a herramientas familiares. En Zoom hay un "compañero de IA" que le ayuda a ponerse al día cuando llega tarde a una reunión, y en Teams, "Copilot" le ayudará a resumir los puntos clave de discusión. Estas aplicaciones se pueden integrar en el trabajo de manera que los usuarios comiencen a utilizarlas sin problemas, casi sin darse cuenta. Si bien ofrecen beneficios de productividad y retroalimentación, también existen desventajas al incorporar estas herramientas a nuestras conversaciones. Si las personas subcontratan su escucha a la tecnología, saltándose el trabajo de pensar por sí mismas los mensajes clave, entonces las reuniones pueden ser eficientes, pero es posible que falten comprensión y compromiso para actuar. Los líderes deben considerar el impacto en el poder y el estatus, lo que consideramos conocimiento, y asegurarse de tomarse el tiempo para aprender cómo funcionan estas características antes de usarlas.
La IA generativa tiene la adopción más rápida de cualquier tecnología hasta la fecha. Ahora, a medida que las aplicaciones de IA se sumergen en la cultura y el poder del lugar de trabajo, comenzamos a ver cómo las herramientas GenAI afectarán nuestros hábitos conversacionales, que dirigen lo que decimos y a quién escuchamos.

Ya estamos viendo características que agregan retroalimentación impulsada por IA a herramientas familiares. En Zoom hay un "compañero de IA" que le ayuda a ponerse al día cuando llega tarde a una reunión, y en Teams, "Copilot" le ayudará a resumir los puntos clave de discusión. Read AI (una herramienta de inteligencia artificial inteligente que registra, transcribe y analiza interacciones e incorpora resúmenes) va más allá y mide el compromiso, el sentimiento y el tiempo aire de los participantes en la reunión. Estas aplicaciones se pueden integrar en el trabajo de manera que los usuarios comiencen a utilizarlas sin problemas, casi sin darse cuenta.

Estas herramientas ofrecen beneficios de productividad y retroalimentación, pero también existen desventajas al unirse a nuestras conversaciones. Si las personas subcontratan su escucha a la tecnología, saltándose el trabajo de pensar por sí mismas los mensajes clave, entonces las reuniones pueden ser eficientes, pero es posible que falten comprensión y compromiso para actuar.

Por lo que vemos, en muchas organizaciones no hay conversaciones sobre cómo deberíamos tener conversaciones habilitadas para la IA, junto con discusiones sobre cómo mitigar los riesgos y maximizar los beneficios. La aceptación indiferente de la tecnología y su implementación acrítica significa que los pasos en falso (cuando se silencian temas o personas) no son “ fracasos inteligentes ”, para usar la frase de Amy Edmondson, profesora de la Escuela de Negocios de Harvard. Los fracasos conversacionales son inevitables cuando nos aventuramos en un territorio nuevo; sin embargo, solo son inteligentes si hacemos nuestra tarea antes de experimentar, reflexionamos cuidadosamente mientras tomamos decisiones y anticipamos los resultados.

Aprovechando nuestra década de investigación sobre cómo decir la verdad al poder, este artículo defiende la necesidad de prestar atención a cómo hablamos cuando usamos la IA y cómo hablamos sobre la IA. Destaca cinco áreas de oportunidad altamente entrelazadas y problemas potenciales que surgen de cómo se utiliza la tecnología en el contexto específico de una cultura organizacional con sus hábitos, arraigados a través de percepciones de diferencias de poder, de quién tiene derecho a hablar y ser escuchado.

Quién habla y es escuchado
Todos tenemos sospechas sobre quién obtiene tiempo aire, quién es interrumpido y quién interrumpe las reuniones. La IA nos permite pasar de la sospecha a los hechos, al proporcionar datos concretos sobre el porcentaje de voz.

Con curiosidad y una intención positiva, aquellos que toman tiempo aire pueden sentirse motivados a reducirlo, creando espacio para los demás. En una conversación que Megan tuvo con David Shim, director ejecutivo de Read AI, este contó la historia de un ejecutivo de capital de riesgo al que se le mostraron datos a través de la aplicación que revelaban que había hablado durante el 80% de una presentación, demasiado, dado que el objetivo de la reunión era para conocer en detalle la posible inversión. Su mayor conciencia significó que hablara menos y escuchara más en conversaciones posteriores.

Pero las razones para hablar mucho o poco son complicadas. Si simplemente se concentra en la cantidad de contribución como objetivo de la conversación, las personas que no quieren hablar o que contribuyen siendo oyentes activos podrían verse atrapadas en hablar cuando no tienen nada que decir.

Los más callados también podrían ser los que menos confían en que se les registre y que sus palabras se vuelvan permanentes. La herramienta de inteligencia artificial podría aumentar los riesgos para hablar, arraigando patrones donde dominan las voces más seguras y poderosas.

Lo que se dice y se escucha
En las reuniones virtuales, muchos están ocupados tomando notas, creando su registro de lo que se ha dicho, por lo que pierden señales visuales y dependen de sesgos de escucha. Sólo después se dan cuenta de que hay múltiples perspectivas sobre lo que se dijo y se acordó que no se alinean con lo que está en su cuaderno. Ahora un robot de IA puede tomar notas, producir el resumen y enumerar los puntos de acción y las responsabilidades, y podemos centrar toda nuestra atención en las personas en la pantalla, con solo una versión compartida de lo que se dijo disponible para todos.

Sin embargo, temas como los fracasos, la salud mental o la crítica de la estrategia podrían pasar a la clandestinidad a medida que la gente se silencia por miedo a que su perspectiva quede registrada públicamente de forma permanente. Este puede ser especialmente el caso si la IA asigna etiquetas subjetivas, como “bajo sentimiento”, que podría traducirse como una abreviatura de crítico o poco entusiasta, cuando alguien plantea un tema en particular. Si bien la positividad procesable es importante, también lo es la incertidumbre tentativa, y nuestro trabajo frecuentemente resalta situaciones en las que más dudas y humildad habrían contribuido positivamente a la calidad de la conversación.

Para solucionar este problema, Read AI se anuncia en la reunión y permite a los participantes optar por no grabar y eliminar datos antes de que se generen los informes. En un mundo sin jerarquía social esto estaría bien, pero en lugares de trabajo llenos de ella, la pregunta es si los empleados se sentirían capacitados para tomar esa decisión cuando su jefe dirige la reunión.

Cuando hablamos y escuchamos
Como seres humanos, nuestra energía varía a lo largo del día y de un día a otro. La IA puede tener en cuenta estas consideraciones y programar reuniones para cuando es probable que los participantes estén más comprometidos.

Read AI, por ejemplo, puede realizar un seguimiento de su participación a lo largo de la semana y recomendar cuándo los organizadores deben programar reuniones para sacar lo mejor de usted. Es posible que les digan que su compromiso es mayor antes de las 10 a. m. de la mañana y luego desciende.

El seguimiento de la participación puede ayudar a romper el patrón de “Domino Zooms”, cuando una reunión se programa inmediatamente después de la otra. La IA puede exigir descansos que sabemos que necesitamos pero que no tomamos entre reuniones, porque colectivamente sobreestimamos nuestra capacidad de atención.

La IA también puede permitir identificar qué reuniones son innecesarias (mediante la medición del compromiso o el análisis de los pasos a seguir), ayudando a crear espacios en el trabajo donde las personas pueden hacer una pausa y pensar, en lugar de permanecer patológicamente ocupadas.

Sin embargo, esto depende de que las métricas de "compromiso" sean creíbles. Un problema al confiar en GenAI es la mala aplicación de suposiciones extraídas de una gama limitada de conjuntos de datos. El seguimiento del compromiso y el sentimiento sigue siendo difícil y genera conclusiones incorrectas debido a la atención limitada a las diferencias culturales, la neurodiversidad y la introversión.

Mirar hacia otro lado, hacer una pausa, fruncir el ceño o usar el humor (especialmente el sarcasmo) puede llevar a la IA a concluir que usted no está comprometido o tiene poco sentimiento cuando en realidad puede estar pensando, imaginando o intentando aligerar el estado de ánimo.

Dónde hablamos y escuchamos
En nuestra investigación global sobre cómo decir la verdad al poder, la mayoría de los 20.000 empleados que hemos encuestado coinciden en que son más cautelosos en las reuniones de trabajo formales, es decir, aquellas en las que se utilizará más la IA. Esto se compara con las conversaciones individuales con jefes y las conversaciones informales con colegas. Es posible que estén aún menos dispuestos a hablar en entornos formales si las palabras se registran y comparten de maneras desconocidas.

Como informa nuestra investigación, los líderes suelen ser los que se sienten más cómodos en las reuniones formales y es probable que se encuentren en una “burbuja de optimismo”, sobreestimando lo accesibles que son, lo transparentes que son los demás y ajenos a que las personas más jóvenes sólo les están diciendo lo que creen que pueden soportar escuchar.

Las reuniones habilitadas por IA pueden exacerbar esto, llevando las conversaciones fuera de línea, socavando el sentido colectivo y aumentando la carga de trabajo conversacional.

Cómo hablamos y escuchamos
Muchas organizaciones adoptan una cultura de retroalimentación, sin reconocer las dinámicas de poder. Dar y recibir comentarios suele ser incómodo, si no limitante en su carrera: pocos criticarán a su jefe por revisar los correos electrónicos mientras otros hablan o admitirán haber salido de una reunión porque es aburrido.

Un robot de IA no tiene miedo de hablar y no se avergüenza. Muchos de nosotros pronto recibiremos retroalimentación (incluso si no la obtenemos) sobre nuestra presencia virtual y cómo hablar y escuchar: si seguimos interrumpiendo (y a quién); utilizar un lenguaje corporal que silencie a los demás; hablar demasiado rápido o utilizar un lenguaje excluyente.

Esto podría ser inmensamente valioso. Sin embargo, si los empleados sienten que están bajo vigilancia y que están siendo etiquetados por la forma en que se comunican, los comportamientos de “realización” pueden tomar el control a medida que los participantes de la reunión juegan con el sistema (es decir, usan las palabras y el lenguaje corporal que saben que la IA califica altamente). Según David Shim, “la gente no puede seguir así” durante demasiado tiempo; sin embargo, nuestra investigación sugiere que los empleados aprenden fácilmente las reglas culturales de las reuniones, lo que sustenta una persistente falta de sinceridad en las comunicaciones.

Un beneficio que podría aportar la IA es la forma en que prestamos atención. Cuando alguien está completamente presente con nosotros, escuchando sin juzgar, entonces podemos estar más dispuestos a hablar, reflexionar y cambiar, y el desempeño mejora. Las reuniones virtuales se utilizan a menudo como oportunidades para realizar múltiples tareas, lo que socava el potencial productivo de reunir a las personas. Lea La IA mide los movimientos oculares y las expresiones faciales para evaluar si estamos prestando atención y si estamos comprometidos. Esto podría significar que hacer otro trabajo será más complicado o, si lo hacemos, será visible. La IA podría ayudarnos a eliminar nuestro hábito de realizar múltiples tareas al ayudarnos a eliminar aquellas reuniones que no son productivas y alentarnos a escuchar mejor en las que sí lo son.

La pregunta es si los participantes aprenden a hablar y escuchar con habilidad o a parecer hablar y escuchar con habilidad.

¿Qué determina si la IA será para bien o para mal en nuestras conversaciones?
Muchos de los resultados positivos descritos anteriormente suponen que la IA tiene autoridad (es decir, es confiable y precisa), será utilizada de manera generativa por quienes están en el poder y se implementará en un lugar de trabajo psicológicamente seguro. Hay razones claras para dudar de que estos criterios se apliquen habitualmente.

El equilibrio de los pros y los contras de la IA en la forma en que hablamos y escuchamos se reduce a tres cosas:
  • El impacto del poder y el estatus: Cómo la sensación de poder relativo de las personas afectará su confianza en las herramientas de IA, su capacidad para optar por no participar en el seguimiento de la IA e influir en cómo se utilizan los datos. La clave es reconocer qué cultura de poder existe. La principal división cultural, según Joyce Fletcher, es si la IA se utiliza para controlar a otros para que se desempeñen según las expectativas o para apoyar a otros a tomar sus propias decisiones.
  • Lo que contamos como conocimiento: si entregamos la responsabilidad de escucharnos y comprendernos unos a otros a la IA o si utilizamos la IA para aumentar nuestra capacidad de encontrarnos unos con otros de forma generativa. Si hacemos lo primero, confiando demasiado en la IA para obtener nuestro conocimiento, podríamos perder los músculos que necesitamos para aprender y entrenar, escuchar y hablar, por lo que nos dejaremos gobernar por las intenciones de los proveedores de tecnología y los conjuntos de datos de los que la IA está aprendiendo y luego creando (incluso alucinando).
  • Hacer una pausa para aprender: si creamos espacios para aprender a medida que implementamos nuevas tecnologías y tomamos decisiones acertadas sobre su adopción. Las “ganancias de productividad” de la IA, dentro de nuestra filosofía empresarial actual, podrían generar más ocupación, más tareas e incluso menos respiro: el ahorro de tiempo dentro de una filosofía que privilegia la atención y las relaciones hace posible vínculos más profundos de confianza y pensamiento reflexivo. Hay implicaciones para lo que se dice y quién es escuchado en ambos escenarios.
La aplicación inteligente de la IA invita a una lente filosófica que nos obliga a afrontar nuestra búsqueda interminable para realizar más tareas y más rápido. Requiere moderación y capacidad para levantar nuestra mirada instrumental, que está hipnotizada por la racionalidad y los objetivos, y comprometer nuestra mirada relacional, que nos impulsa a ver cuán profundamente conectados estamos unos con otros, con el mundo que nos rodea y cómo nuestras elecciones actuales, enmarcar el mundo que nosotros y nuestros hijos ocuparemos. De esta manera, tal vez la IA podría ayudarnos a tener conversaciones importantes.

Lea más sobre Tecnología y análisis o temas relacionados IA y aprendizaje automático y Liderazgo y gestión de personas

Megan Reitz es miembro asociado de Saïd Business School de la Universidad de Oxford y profesor adjunto de liderazgo y diálogo en Hult International Business School. Habla, investiga y consulta para ayudar a las organizaciones a desarrollar un diálogo más abierto, mutuo y creativo. Es autora de Dialogue in Organizations (2015) y coautora de Mind Time (2018), Speak Up (2019) y la segunda edición de Speak Out, Listen Up (2024). Síguela en LinkedIn o meganreitz.com.

John Higgins es investigador, autor y entrenador. Es investigador de GameShift y director de investigación de The Right Conversation. John ha trabajado en estrecha colaboración con Megan Reitz durante más de una década y su último libro, Speak Out, Listen Up, saldrá a la venta en la primavera de 2024.


No hay comentarios:

Publicar un comentario