Doxa 1444

Por qué los viajes de los clientes de IA necesitan más fricción.

Introducido en los puntos correctos, la "buena fricción" puede crear una experiencia ética más transparente.

Por Renée Richardson Gosline
IA y aprendizaje automático
Harvard Business Review

#doxa #IA #aprendizaje #automático #viaje #tecnología #ética #empresa #cliente #decisión
Resumen. La fricción no siempre es algo malo, especialmente cuando las empresas buscan formas responsables de usar la IA. El truco es aprender a diferenciar las buenas fricciones de las malas, y comprender cuándo y dónde agregar buenas fricciones a su recorrido del cliente puede brindarles la agencia y la autonomía para mejorar la elección, en lugar de automatizar a los humanos fuera de la toma de decisiones. Las empresas deben hacer tres cosas: 1) cuando se trata de la implementación de IA, practicar actos inconvenientes; 2) experimentar (y fallar) mucho para evitar aplicaciones de aprendizaje automático con piloto automático; y 3) estar atento a los "patrones oscuros".
En los círculos de marketing, la fricción se ha convertido en sinónimo de "punto de dolor". Erradicarlo, dice la sabiduría convencional, es crucial para construir una estrategia centrada en el cliente que produzca una ventaja competitiva. Siguiendo el ejemplo de las aplicaciones de políticas de la economía del comportamiento, los especialistas en marketing buscan “ empujar ” a las personas a lo largo del viaje del cliente y eliminar la fricción en la batalla contra el “ lodo ”. En muchas empresas, la "inteligencia artificial" se ha convertido en la herramienta de referencia para crear experiencias fluidas y eliminar los impedimentos que ralentizan los viajes eficientes de los clientes. Si bien esto era cierto antes de la pandemia, Covid-19 solo ha acelerado esta transformación digital.tendencia al crear demanda de más experiencias de clientes sin contacto que reduzcan los puntos de posible fricción, como las interacciones humanas en persona.

Considere el reciente lanzamiento de Amazon One, que utiliza "algoritmos personalizados" para convertir la palma de la mano en una forma de pago, identificación y acceso sin contacto. “Comenzamos con la experiencia del cliente y […] resolvimos las cosas que son duraderas y han resistido la prueba del tiempo, pero que a menudo causan fricción o pérdida de tiempo para los clientes”, anunció la compañía. Esto elimina pasos como buscar la billetera o interactuar con un ser humano (aunque no está claro si los clientes reciben beneficios proporcionales a cambio de sus datos biométricos). En la misma línea, Hudson y AldiLas tiendas han lanzado recientemente una venta minorista sin fricciones que permite a los clientes "simplemente salir" con sus compras, omitiendo el proceso de pago tradicional. Esta aceptación de las experiencias del cliente sin fricciones no se limita al comercio minorista: Facebook introdujo recientemente "gafas inteligentes" con IA que permiten a los usuarios estar en línea constantemente y sin esfuerzo, un enfoque que la compañía llama "entrada de fricción ultra baja". Incluso las escuelas del Reino Unido han adoptado tecnología de reconocimiento facial en las cafeterías que elimina la fricción de las señales y acelera el tiempo de transacción de pago.

Sin duda, eliminar los puntos débiles de la fricción puede ser beneficioso, como en el caso de la simplificación de los sistemas de atención médica, el registro de votantes y los códigos tributarios. Pero, cuando se trata de la adopción de IA y aprendizaje automático, las estrategias "sin fricciones" también pueden generar daños, desde preocupaciones de privacidad y vigilancia, hasta la capacidad de los algoritmos para reflejar y amplificar sesgos, hasta preguntas éticas sobre cómo y cuándo usar IA..

Los sesgos cognitivos pueden socavar la toma de decisiones óptima, y ​​las decisiones sobre la aplicación de la IA no son diferentes. Los humanos pueden tener sesgos en contra o a favor de los algoritmos, pero en este último caso, presumen una mayor neutralidad y precisión de la IA a pesar de ser conscientes de los errores algorítmicos. Incluso cuando existe una aversión al uso algorítmico en dominios consecuentes (como atención médica, admisiones universitarias y juicios legales), la responsabilidad percibida de un tomador de decisiones sesgado puede reducirse si incorpora información de IA. Sin embargo, el ritmo de la inversión no hace más que aumentar: el Índice de IA de Stanford de 2021 informa que la inversión global total en IA aumentó un 40 % en 2020 en relación con 2019, por un total de 67 900 millones de dólares.

Sin embargo, el 65% de los ejecutivos no pueden explicar cómo sus modelos de IA toman decisiones. Por lo tanto, los ejecutivos que buscan mejorar las experiencias de los clientes deben adoptar la “buena fricción” para interrumpir la automaticidad en la aplicación de los sistemas de IA de “caja negra”. La promesa de la IA es tremenda, pero si vamos a estar realmente centrados en el cliente, su aplicación requiere medidas de seguridad, incluida la eliminación sistémica de la mala fricción y la adición de una buena fricción.La fricción no siempre es negativa: el truco consiste en diferenciar la buena fricción de la mala y auditar los sistemas para determinar cuál es más beneficioso. Las empresas deben analizar dónde interactúan los humanos con la IA e investigar las áreas en las que podría ocurrir daño, sopesar cómo cambiaría el proceso al agregar o eliminar la fricción, y probar estos sistemas modificados a través de la experimentación y análisis de métodos múltiples.

Encontrar una buena fricción

¿Qué es una buena fricción y cómo puede diferenciarla de una mala fricción en las experiencias de los clientes? La buena fricción es un punto de contacto a lo largo del viaje hacia una meta que les da a los humanos la agencia y la autonomía para mejorar la elección, en lugar de automatizar a los humanos fuera de la toma de decisiones. Este enfoque es decididamente humano primero. Permite una consideración razonable de las opciones para el consumidor y la prueba de opciones por parte del equipo de gestión de acuerdo con las necesidades del usuario, y una comprensión clara de las implicaciones de las opciones. Y también puede mejorar el viaje del cliente al involucrar a los usuarios en una mayor deliberación o una mejor creación conjunta de experiencias.

Significativamente, una buena fricción no necesariamente disminuye la experiencia del cliente; de ​​hecho, puede conducir a la promoción de la marca. Por ejemplo, puede que no sea automático o sin fricciones ofrecer más autoridad sobre los datos propios, hacer transparente cómo se utilizan los datos personales o colocar el bienestar humano por encima del compromiso, pero es mejor para los humanos detrás de los puntos de datos y la sociedad en largo. El reciente “desafío de recompensas algorítmicas” de colaboración colectiva de Twitter, en el que la empresa pidió a los clientes que identificaran posibles sesgos algorítmicos, agregó una buena fricción a la experiencia del cliente de una manera diseñada para aumentar la participación y mitigar el daño. Y la fricción puede ser buena cuando necesitamos tomarnos un tiempo con los clientes para comprender mejor sus necesidades y experiencias únicas, un proceso que puede ser ineficiente (pero deliciosamente). Las comunidades en las que los clientes se conectan y se informan entre sí pueden mejorar las experiencias de los clientes más allá del punto de contacto de la transacción, al igual que las interacciones de servicio al cliente que capturan información de datos más allá de las puntuaciones NPS tradicionales (como en la base de Booking.com). Estas son oportunidades para crear, no solo extraer, valor.

La mala fricción, por otro lado, quita poder al cliente e introduce un daño potencial, especialmente a las poblaciones vulnerables. Es la colocación de obstáculos para la transformación digital centrada en el ser humano lo que crea incentivos para socavar la agencia del cliente u obstáculos para la transparencia algorítmica, las pruebas y las perspectivas inclusivas. Por ejemplo, cuando WhatsApp cambió sus términos de servicio, los usuarios que no estaban de acuerdo con los nuevos términos vieron un aumento en la fricción y una menor utilidad de la aplicación. Esta asimetría de fricción a lo largo del viaje del usuario (entrada fácil e incentivada a la adopción, seguida de barreras para salir) crea una dinámica similar a una trampa para langostas: una entrada atractiva pero falta de agencia para salir.

Las empresas pueden revisar los recorridos de sus clientes y realizar "auditorías de fricción" para identificar puntos de contacto donde la buena fricción podría emplearse deliberadamente para beneficiar al usuario, o donde la mala fricción ha empujado a los clientes a " patrones oscuros ". Ya hay empresas y organizaciones que buscan ofrecer esta experiencia con respecto a la lucha contra el sesgo algorítmico. Cass Sunstein ha propuesto " auditorías de lodo" para erradicar "fricciones excesivas e injustificadas" para consumidores, empleados e inversores. De manera similar, las auditorías de fricción podrían realizar una revisión deliberada de los puntos de fricción a lo largo del viaje del cliente y en la experiencia del empleado (EX).

Qué pueden hacer las empresas

Al evaluar el papel de la fricción en la transformación digital, positiva o negativa, tenga en cuenta las tendencias de comportamiento y el bienestar de los clientes. Empujar es una herramienta poderosa, pero los ejecutivos deben manejarla con cuidado, ya que puede volverse manipuladora rápidamente. La buena fricción destinada a reducir dicho riesgo es un precio relativamente pequeño a pagar en comparación con la pérdida de clientes debido a la destrucción de la confianza y la reputación. Aquí hay tres sugerencias:

1. Cuando se trata del despliegue de IA, practica actos de inconveniencia. Sí, ofrecer a los clientes más opciones puede hacer que sus viajes de cliente parezcan menos convenientes (como en el caso de la aceptación predeterminada de cookies), pero se debe preservar el consentimiento afirmativo. También es conveniente (y cómodo) en las organizaciones estar en grupos homogéneos, pero la diversidad finalmente combate el sesgo cognitivo y da como resultado una mayor innovación. Tómese el tiempo para incluir codificadores y conjuntos de datos más representativos, interdisciplinarios y diversos.

Pero quizás el primer acto inconveniente y el más crítico es que su equipo se tome un tiempo y pregunte: “¿Debería la IA estar haciendo esto? ¿Y puede hacer lo que se promete?” Cuestionar si es apropiado usar IA en absoluto en el contexto (p. ej., no puede predecir el comportamiento delictivo y no debe usarse para la " vigilancia predictiva " para arrestar a los ciudadanos antes de la comisión de delitos, estilo "Minority Report"). Coloque deliberadamente problemas en los procesos que hemos hecho automáticos en nuestra búsqueda sin aliento de una estrategia sin fricción e incorpore puntos de contacto de "buena fricción" que muestren las limitaciones, suposiciones y tasas de error para los algoritmos (por ejemplo, tarjetas modelo de IAque enumeran estos detalles para aumentar la transparencia). Considere socios externos de auditoría de IA que pueden estar menos integrados en las rutinas organizacionales y es más probable que identifiquen áreas donde la falta de fricción genera una falta de pensamiento crítico centrado en el ser humano y donde una buena fricción podría mejorar la experiencia del cliente y reducir el riesgo.

2. Experimente (y falle) mucho para evitar aplicaciones de aprendizaje automático con piloto automático. Esto requiere un cambio de mentalidad hacia una cultura de experimentación en toda la organización, pero con demasiada frecuencia, solo los científicos de datos están encargados de adoptar la experimentación. Los ejecutivos deben fomentar oportunidades regulares para probar la buena fricción (y eliminar la mala fricción) a lo largo del recorrido del cliente. Por ejemplo, en IBM todos los especialistas en marketing están capacitados en experimentación, las herramientas para experimentos son fáciles de usar y accesibles, y los concursos de 30 experimentos en 30 días ocurren regularmente. Esto requiere que la gerencia tenga la confianza suficiente para probar las ideas y dejar que las lecciones sobre el cliente impulsen el producto.

Vuelva a familiarizarse a usted y a su equipo con el método científico y anime a todos los miembros a generar hipótesis comprobables en los puntos de contacto del viaje del cliente, realizando pruebas pequeñas y siendo precisos sobre las variables. Por ejemplo, Fairlearn de Microsoft ayuda con la prueba de algoritmos y la identificación de problemas como errores en un grupo de muestra donde se podría experimentar un daño real antes del lanzamiento. Capacítese ampliamente y haga de esto parte de sus KPI para crear una cultura de experimentación. Planifique muchos fracasos experimentales: el aprendizaje es fricción. Pero no se trata solo de fallar rápido, se trata de incorporar las lecciones, así que haga que la difusión de estos aprendizajes sea lo más fluida posible.

3. Esté atento a los "patrones oscuros". Reúna a su equipo, mapee el viaje de su cliente digital y pregúntese: ¿Es fácil para los clientes entrar en un contrato o experiencia, pero es desproporcionadamente difícil o inescrutable salir? Si la respuesta es sí, es probable que estén en una versión digital de una trampa para langostas. Esta asimetría de entrada/salida socava la capacidad de un cliente para actuar con agencia, y empujar a lo largo de este tipo de viaje del cliente puede comenzar a parecerse a una manipulación. Los ejemplos incluyen suscripciones que se renuevan automáticamente sin fricciones con letra pequeña que las hacen parecer imposibles de cancelar y "acuerdos" de intercambio de datos que enmascaran violaciones de la privacidad. Una mayor transparencia en las opciones a lo largo del viaje del cliente, aunque no sin fricciones, preserva la agencia del cliente y, eventualmente, la confianza. Esto es fundamental para la lealtad del cliente.

Estos tres principios se centran en la transformación digital centrada en el ser humano: respete y confíe en sus clientes lo suficiente como para empoderarlos, incluso si crea fricción en un punto de contacto. Una marca segura y responsable no debería tener que involucrarse en juegos de manos o manipulaciones para impulsar el compromiso. Es probable que una legislación como una Declaración de derechos de IA esté en nuestro futuro, por lo que es un momento oportuno para desarrollar prácticas centradas en el cliente. Y con la desaparición de las cookies de terceros de Google, ahora es el momento de cambiar de rumbo, para crear una ventaja competitiva. Apple ya se está posicionando como un refugio para la privacidad, y Duck Duck Go se está posicionando contra Google al priorizar la agencia de usuarios sobre el acceso a los datos.El equipo de Ética de IA de Salesforce no solo ha creado un código de ética para fines internos, sino que también ayuda a sus clientes empresariales a adoptar puntos de fricción de IA como recordatorios para los clientes de que están interactuando con bots, no con humanos.

Salman Rushdie señaló: “Las sociedades libres son sociedades en movimiento, y con el movimiento viene la fricción”. De esta manera, la buena fricción en medio de la transformación digital puede verse como una característica, no como un error. En lugar de explotar sin fricciones las asimetrías de información en los algoritmos, busque co-crear experiencias con los clientes para compartir valor y servir al ser humano primero. Las empresas que adoptan la agencia del cliente en su aplicación de aprendizaje automático estarán más cerca de lograr la tan comentada "IA responsable". Es hora de que veamos la fricción no como algo para erradicar, sino como una herramienta que, cuando se aprovecha de manera efectiva, puede encender el fuego del empoderamiento y la agencia, así como la conveniencia. Esto llevará a su empresa a convertirse no solo en "centrada en el cliente", sino en el ser humano primero.

Renée Richardson Gosline es profesora titular y científica investigadora en la Sloan School of Management del MIT. Su investigación se encuentra en la intersección de la ciencia del comportamiento y la tecnología, con un enfoque en la (des)confianza humana en la IA y las implicaciones del sesgo cognitivo en la toma de decisiones humanas.


No hay comentarios:

Publicar un comentario