¿Puede la IA animarnos a tomar mejores decisiones?
Por Bob Suh
Conducta económica
Harvard Business Review
La revolución del comportamiento en la economía fue provocada por una pregunta simple e inquietante: ¿qué pasa si las personas no actúan racionalmente? Esta misma pregunta ahora desconcierta al campo de la tecnología. En el mundo en línea, una vez que se espera que sea un lugar de información lista y fácil colaboración, las mentiras y el odio pueden propagarse más rápido que la verdad y la bondad. Los sistemas corporativos también provocan un comportamiento irracional. Por ejemplo, al predecir ventas, los empleados a menudo ocultan tratos malos e informan de forma selectiva de los buenos. AI se encuentra en la encrucijada de la cuestión del comportamiento, con el potencial de empeorar las cosas o de obtener mejores resultados de nosotros. La clave para obtener mejores resultados es aumentar el cociente emocional de AI: su EQ. ¿Cómo? Entrenando algoritmos para imitar la forma en que las personas se comportan en relaciones constructivas.
Ya sea que nos guste o no admitirlo, construimos relaciones con las aplicaciones. Y las aplicaciones, como las personas, pueden provocarnos comportamientos tanto positivos como negativos. Cuando las personas con EQ alto interactúan con nosotros, aprenden nuestros patrones, se identifican con nuestras motivaciones y evalúan cuidadosamente sus respuestas. Deciden ignorar, desafiar o alentarnos según cómo anticipen que reaccionaremos.
La AI puede ser entrenada para hacer lo mismo. ¿Por qué? Porque los comportamientos son más predecibles de lo que nos gusta pensar. La industria de pérdida de peso de $ 70 mil millones prospera porque las compañías de dietas saben que la mayoría de las personas recuperan el peso perdido. La industria de los casinos de $ 40 mil millones se beneficia de la ilógica esperanza de los jugadores de regresar. Las compañías de tarjetas de crédito saben que es difícil para las personas romper sus hábitos de gasto.
Si bien aún es muy temprano, los campos de la ciencia del comportamiento y el aprendizaje automático ya ofrecen algunas técnicas prometedoras para crear una IA de mayor ecualización que las organizaciones están poniendo en práctica para producir mejores resultados. Esas técnicas incluyen:
Observando roturas de patrón y empujando. Las personas que te conocen pueden decir fácilmente cuándo estás rompiendo un patrón y reaccionar en consecuencia. Por ejemplo, un amigo puede notar que repentinamente cambió su rutina y preguntarle por qué. El sistema de pago de facturas en línea de Bank of America también toma nota de los saltos de patrón para evitar errores de clave de usuario. El sistema recuerda el patrón de pagos que realizó en el pasado y publica una alerta si aumenta sustancialmente su pago a un proveedor.
Fomentando la autoconciencia con puntos de referencia. Decir sin rodeos a las personas que se están desempeñando mal a menudo es contraproducente, provocando una actitud defensiva en lugar de un mayor esfuerzo. Un método más diplomático simplemente permite que las personas vean cómo se comparan con los demás. Por ejemplo, una importante empresa de tecnología utilizó AI para generar pronósticos de ventas más precisos que el equipo de ventas. Para inducir al equipo a corregir el rumbo, el sistema proporciona a cada miembro del equipo visualizaciones personalizadas que muestran cómo difieren sus pronósticos del pronóstico de AI. Un simple empujón luego pregunta por qué este podría ser el caso. El miembro del equipo puede proporcionar una explicación racional, evitar proporcionar comentarios o afirmar que la IA es incorrecta. La IA aprende sobre la sustancia y el momento de la reacción del individuo, la compara con la brecha en los dos pronósticos y puede elegir un empujón apropiado de segundo orden.
Usando la teoría de juegos para aceptar o desafiar conclusiones. Imagine estar en un equipo que debe encontrar errores en más de 100,000 transacciones de fondos mutuos al día. Un fondo que administra un billón de dólares en activos está abordando este problema abrumador con AI. La primera versión de la AI calificó errores potenciales (llamados "anomalías") por riesgo y costo potencial, y luego colocó en la cola las anomalías más peligrosas primero. El sistema luego siguió el tiempo que el analista dedicó a cada anomalía. Se suponía que los analistas dedicarían más tiempo a las anomalías de riesgo y menos tiempo a los "obvios". De hecho, algunos analistas volaban a través de las anomalías de mayor riesgo, llegando a conclusiones sospechosamente rápidas.
En la mayoría de los sistemas de detección masiva, la tasa de falsos positivos a menudo es extremadamente alta. Por ejemplo, los equipos secretos del Departamento de Seguridad Nacional descubrieron que la TSA no pudo detener el 95% de los intentos de los inspectores de contrabandear armas o materiales explosivos a través de la detección. Los analistas de fondos mutuos que rastrean innumerables transacciones, como los evaluadores de la TSA que tratan con miles de pasajeros, con los ojos fijos, simplemente se deslizan sobre las anomalías.
El fondo está abordando este comportamiento peligroso, aunque altamente predecible, con un algoritmo empleado por los programas de ajedrez. Esta versión modificada de la teoría de juegos secuenciales primero monitorea si el analista concluye que una anomalía es un falso positivo o decide dedicarle más tiempo. La IA, que desempeña el papel de un oponente de ajedrez, puede decidir contrarrestar aceptando la decisión del analista o desafiándola.
Elegir el momento adecuado para la visión y la acción. Por cualquier estándar, Jeff Bezos es un tomador de decisiones maestro. En una entrevista reciente con David Rubenstein de Bloomberg TV, describió su marco para tomar decisiones. Cuando se le preguntó acerca de una decisión compleja a última hora de la tarde, a menudo responde: "Eso no suena como una decisión de las 4 en punto; eso suena como una decisión de las 9 de la mañana ".
El equipo de ventas A/B de mi empresa probó el momento adecuado del día para maximizar las respuestas a los correos electrónicos de prospección y encontró una diferencia dramática en las tasas de respuesta entre los mensajes enviados el martes por la mañana y el viernes por la tarde. Muchos sistemas de mensajería para el consumidor están optimizados para maximizar el rendimiento. El algoritmo de sintonización puede mejorarse para determinar el tipo de decisión que se debe tomar y la tendencia de los usuarios a responder y tomar mejores decisiones. Por ejemplo, las decisiones que requieren mayor reflexión podrían presentarse en un momento en que el responsable de la toma de decisiones tenga más tiempo para pensar, ya sea a través de la predicción o mediante la programación del usuario.
¿Podría la IA de mayor EQ ayudar a traer más civilidad a Internet? Las compañías de medios sociales pueden considerar una distinción que los empresarios occidentales aprenden pronto cuando negocian con sus homólogos japoneses: "honne" (lo que uno siente por dentro) frente a "tatemae" (lo que uno expresa públicamente). Una comprensión compartida de la distinción entre lo que uno siente y lo que se espera que diga conduce a menos errores de cálculo. Se podría desarrollar un algoritmo basado en esa distinción para abordar las tendencias predecibles de las personas a decir y hacer cosas bajo la influencia de las multitudes (incluso si son virtuales) que de otro modo dudarían hacer. Alguien que esté preparando una publicación inflamatoria, engañosa o cruel puede ser empujado para reconsiderar su lenguaje o para advertir el tenor de un tema de "tendencia". Los desafíos de desarrollar una IA de alto ecualización emocionalmente cargada son desalentadores, pero en lugar de simplemente eliminar las publicaciones individuales, en última instancia, podría ser más beneficioso cambiar el comportamiento en línea para mejor.
Bob Suh es el fundador y CEO de OnCorps, una empresa de aprendizaje automático que mejora la ciencia de la decisión. Antes de OnCorps, fue Jefe de Estrategias de Tecnología en Accenture y Director de Estrategia para el negocio de tecnología global de la empresa.
Conducta económica
Harvard Business Review
La revolución del comportamiento en la economía fue provocada por una pregunta simple e inquietante: ¿qué pasa si las personas no actúan racionalmente? Esta misma pregunta ahora desconcierta al campo de la tecnología. En el mundo en línea, una vez que se espera que sea un lugar de información lista y fácil colaboración, las mentiras y el odio pueden propagarse más rápido que la verdad y la bondad. Los sistemas corporativos también provocan un comportamiento irracional. Por ejemplo, al predecir ventas, los empleados a menudo ocultan tratos malos e informan de forma selectiva de los buenos. AI se encuentra en la encrucijada de la cuestión del comportamiento, con el potencial de empeorar las cosas o de obtener mejores resultados de nosotros. La clave para obtener mejores resultados es aumentar el cociente emocional de AI: su EQ. ¿Cómo? Entrenando algoritmos para imitar la forma en que las personas se comportan en relaciones constructivas.
Ya sea que nos guste o no admitirlo, construimos relaciones con las aplicaciones. Y las aplicaciones, como las personas, pueden provocarnos comportamientos tanto positivos como negativos. Cuando las personas con EQ alto interactúan con nosotros, aprenden nuestros patrones, se identifican con nuestras motivaciones y evalúan cuidadosamente sus respuestas. Deciden ignorar, desafiar o alentarnos según cómo anticipen que reaccionaremos.
La AI puede ser entrenada para hacer lo mismo. ¿Por qué? Porque los comportamientos son más predecibles de lo que nos gusta pensar. La industria de pérdida de peso de $ 70 mil millones prospera porque las compañías de dietas saben que la mayoría de las personas recuperan el peso perdido. La industria de los casinos de $ 40 mil millones se beneficia de la ilógica esperanza de los jugadores de regresar. Las compañías de tarjetas de crédito saben que es difícil para las personas romper sus hábitos de gasto.
Si bien aún es muy temprano, los campos de la ciencia del comportamiento y el aprendizaje automático ya ofrecen algunas técnicas prometedoras para crear una IA de mayor ecualización que las organizaciones están poniendo en práctica para producir mejores resultados. Esas técnicas incluyen:
Observando roturas de patrón y empujando. Las personas que te conocen pueden decir fácilmente cuándo estás rompiendo un patrón y reaccionar en consecuencia. Por ejemplo, un amigo puede notar que repentinamente cambió su rutina y preguntarle por qué. El sistema de pago de facturas en línea de Bank of America también toma nota de los saltos de patrón para evitar errores de clave de usuario. El sistema recuerda el patrón de pagos que realizó en el pasado y publica una alerta si aumenta sustancialmente su pago a un proveedor.
Fomentando la autoconciencia con puntos de referencia. Decir sin rodeos a las personas que se están desempeñando mal a menudo es contraproducente, provocando una actitud defensiva en lugar de un mayor esfuerzo. Un método más diplomático simplemente permite que las personas vean cómo se comparan con los demás. Por ejemplo, una importante empresa de tecnología utilizó AI para generar pronósticos de ventas más precisos que el equipo de ventas. Para inducir al equipo a corregir el rumbo, el sistema proporciona a cada miembro del equipo visualizaciones personalizadas que muestran cómo difieren sus pronósticos del pronóstico de AI. Un simple empujón luego pregunta por qué este podría ser el caso. El miembro del equipo puede proporcionar una explicación racional, evitar proporcionar comentarios o afirmar que la IA es incorrecta. La IA aprende sobre la sustancia y el momento de la reacción del individuo, la compara con la brecha en los dos pronósticos y puede elegir un empujón apropiado de segundo orden.
Usando la teoría de juegos para aceptar o desafiar conclusiones. Imagine estar en un equipo que debe encontrar errores en más de 100,000 transacciones de fondos mutuos al día. Un fondo que administra un billón de dólares en activos está abordando este problema abrumador con AI. La primera versión de la AI calificó errores potenciales (llamados "anomalías") por riesgo y costo potencial, y luego colocó en la cola las anomalías más peligrosas primero. El sistema luego siguió el tiempo que el analista dedicó a cada anomalía. Se suponía que los analistas dedicarían más tiempo a las anomalías de riesgo y menos tiempo a los "obvios". De hecho, algunos analistas volaban a través de las anomalías de mayor riesgo, llegando a conclusiones sospechosamente rápidas.
En la mayoría de los sistemas de detección masiva, la tasa de falsos positivos a menudo es extremadamente alta. Por ejemplo, los equipos secretos del Departamento de Seguridad Nacional descubrieron que la TSA no pudo detener el 95% de los intentos de los inspectores de contrabandear armas o materiales explosivos a través de la detección. Los analistas de fondos mutuos que rastrean innumerables transacciones, como los evaluadores de la TSA que tratan con miles de pasajeros, con los ojos fijos, simplemente se deslizan sobre las anomalías.
El fondo está abordando este comportamiento peligroso, aunque altamente predecible, con un algoritmo empleado por los programas de ajedrez. Esta versión modificada de la teoría de juegos secuenciales primero monitorea si el analista concluye que una anomalía es un falso positivo o decide dedicarle más tiempo. La IA, que desempeña el papel de un oponente de ajedrez, puede decidir contrarrestar aceptando la decisión del analista o desafiándola.
Elegir el momento adecuado para la visión y la acción. Por cualquier estándar, Jeff Bezos es un tomador de decisiones maestro. En una entrevista reciente con David Rubenstein de Bloomberg TV, describió su marco para tomar decisiones. Cuando se le preguntó acerca de una decisión compleja a última hora de la tarde, a menudo responde: "Eso no suena como una decisión de las 4 en punto; eso suena como una decisión de las 9 de la mañana ".
El equipo de ventas A/B de mi empresa probó el momento adecuado del día para maximizar las respuestas a los correos electrónicos de prospección y encontró una diferencia dramática en las tasas de respuesta entre los mensajes enviados el martes por la mañana y el viernes por la tarde. Muchos sistemas de mensajería para el consumidor están optimizados para maximizar el rendimiento. El algoritmo de sintonización puede mejorarse para determinar el tipo de decisión que se debe tomar y la tendencia de los usuarios a responder y tomar mejores decisiones. Por ejemplo, las decisiones que requieren mayor reflexión podrían presentarse en un momento en que el responsable de la toma de decisiones tenga más tiempo para pensar, ya sea a través de la predicción o mediante la programación del usuario.
¿Podría la IA de mayor EQ ayudar a traer más civilidad a Internet? Las compañías de medios sociales pueden considerar una distinción que los empresarios occidentales aprenden pronto cuando negocian con sus homólogos japoneses: "honne" (lo que uno siente por dentro) frente a "tatemae" (lo que uno expresa públicamente). Una comprensión compartida de la distinción entre lo que uno siente y lo que se espera que diga conduce a menos errores de cálculo. Se podría desarrollar un algoritmo basado en esa distinción para abordar las tendencias predecibles de las personas a decir y hacer cosas bajo la influencia de las multitudes (incluso si son virtuales) que de otro modo dudarían hacer. Alguien que esté preparando una publicación inflamatoria, engañosa o cruel puede ser empujado para reconsiderar su lenguaje o para advertir el tenor de un tema de "tendencia". Los desafíos de desarrollar una IA de alto ecualización emocionalmente cargada son desalentadores, pero en lugar de simplemente eliminar las publicaciones individuales, en última instancia, podría ser más beneficioso cambiar el comportamiento en línea para mejor.
Bob Suh es el fundador y CEO de OnCorps, una empresa de aprendizaje automático que mejora la ciencia de la decisión. Antes de OnCorps, fue Jefe de Estrategias de Tecnología en Accenture y Director de Estrategia para el negocio de tecnología global de la empresa.
No hay comentarios:
Publicar un comentario