Doxa 519

¿La gente confía en los algoritmos más de lo que se dan cuenta las empresas?

Por Jennifer M. Logg, Julia A. Minson y Don A. Moore
Harvard Business Review
Tecnología

Muchas empresas se han subido al carro de los "grandes datos". Están contratando científicos de datos, empleados de minería y datos de clientes para obtener información, y están creando algoritmos para optimizar sus recomendaciones. Sin embargo, estas mismas empresas a menudo asumen que los clientes desconfían de sus algoritmos, y hacen todo lo posible para ocultarlos o humanizarlos.

Por ejemplo, Stitch Fix, el servicio de suscripción de compras en línea que combina el juicio humano y algorítmico, resalta el toque humano de su servicio en su comercialización. El sitio web explica que para cada cliente, un "estilista curará 5 prendas [de ropa]". Se refiere a su servicio como "su socio en estilo personal" y "su nuevo estilista personal" y describe sus recomendaciones como "personalizadas" y "Seleccionado a mano". Para colmo, una nota de su estilista acompaña cada envío de ropa. En ninguna parte del sitio web puede encontrar el término "impulsado por datos", aunque Stitch Fix es conocido por su enfoque de ciencia de datos y a menudo se lo denomina "Netflix de la moda".

Parece que cuanto más compañías esperan que los usuarios se involucren con su producto o servicio, más antropomorfizan sus algoritmos. Considere cómo las compañías nombran a sus asistentes virtuales como Siri y Alexa. Y cómo los creadores de Jibo, "el primer robot social del mundo", diseñaron una pieza de plástico descaradamente adorable que ríe, canta, tiene un lindo ojo parpadeante y se mueve de una manera que imita el baile.

Pero, ¿es una buena práctica para las empresas enmascarar sus algoritmos de esta manera? ¿Están bien gastados los dólares de marketing creando nombres para Alexa y características faciales para Jibo? ¿Por qué estamos tan seguros de que los algoritmos y sus consejos desaniman a las personas? Nuestra investigación reciente cuestionó este supuesto.
 

El poder de los algoritmos.
Primero, un poco de fondo. Desde la década de 1950, los investigadores han documentado los muchos tipos de predicciones en las que los algoritmos superan a los humanos. Los algoritmos vencieron a los médicos y patólogos en la predicción de la supervivencia de los pacientes con cáncer, la aparición de ataques cardíacos y la gravedad de las enfermedades. Los algoritmos predicen la reincidencia de las parolees mejor que las juntas de libertad condicional. Y predicen si un negocio irá a la quiebra mejor que los oficiales de crédito.

De acuerdo con las anécdotas de un libro clásico sobre la precisión de los algoritmos, muchos de estos primeros hallazgos se encontraron con escepticismo. Los expertos en la década de 1950 se mostraron reacios a creer que un simple cálculo matemático podría superar su propio juicio profesional. Este escepticismo persistió y se transformó en la sabiduría recibida de que las personas no confiarán y utilizarán los consejos de un algoritmo. Esa es una de las razones por las que tantos artículos hoy en día todavía asesoran a los líderes empresariales sobre cómo superar la aversión a los algoritmos.
 

¿Todavía vemos desconfianza de los algoritmos hoy?
En nuestra investigación reciente, descubrimos que a las personas no les disgustan los algoritmos, ya que las becas anteriores nos pueden hacer creer. De hecho, las personas muestran una "apreciación del algoritmo" y confían más en el mismo consejo cuando piensan que proviene de una persona algorítmica. A lo largo de seis estudios, solicitamos muestras representativas de 1,260 participantes en línea en los EE. UU. Para realizar una variedad de predicciones. Por ejemplo, pedimos a algunas personas que pronostiquen la ocurrencia de eventos comerciales y geopolíticos (por ejemplo, la probabilidad de que Norteamérica o la UE impongan sanciones a un país en respuesta a ataques cibernéticos); les pedimos a otros que predijeran el rango de las canciones en el Billboard Hot 100; y tuvimos un grupo de participantes que jugaban casamentero en línea (leyeron el perfil de citas de una persona, vieron una fotografía de su fecha potencial y predijeron cuánto disfrutaría una cita con él).

En todos nuestros estudios, se pidió a los participantes que hicieran una predicción numérica, basándose en su mejor estimación. Después de su conjetura inicial, recibieron consejos y tuvieron la oportunidad de revisar su predicción. Por ejemplo, los participantes respondieron: “¿Cuál es la probabilidad de que Tesla Motors entregue más de 80,000 vehículos eléctricos con batería (BEV) a los clientes en el año calendario 2016?” Escribiendo un porcentaje del 0 al 100%.

Cuando los participantes recibieron consejos, llegó en forma de otra predicción, que fue etiquetada como de otra persona o de un algoritmo. Produjimos el consejo numérico utilizando matemáticas simples que combinaban múltiples juicios humanos. Al hacerlo, nos permitió presentar con sinceridad los mismos consejos que “humanos” o “algorítmicos”. Incentivamos a los participantes a revisar sus predicciones: cuanto más cerca estaban de la respuesta real, mayores eran las posibilidades de recibir un bono monetario.

Luego, medimos la cantidad de personas que cambiaron su estimación, después de recibir el consejo. Para cada participante, capturamos un porcentaje del 0% al 100% para reflejar cuánto cambiaron su estimación desde su estimación inicial. Específicamente, 0% significa que ignoraron completamente el consejo y se apegaron a su estimación original, 50% significa que cambiaron su estimación a la mitad del consejo, y 100% significa que coincidieron completamente con el consejo.

Para nuestra sorpresa, encontramos que las personas confiaban más en el mismo consejo cuando pensaban que provenía de un algoritmo que de otras personas. Estos resultados fueron consistentes en todos nuestros estudios, independientemente de los diferentes tipos de predicciones numéricas. Encontramos esta apreciación del algoritmo especialmente interesante ya que no proporcionamos mucha información sobre el algoritmo. Presentamos el consejo algorítmico de esta manera porque los algoritmos aparecen regularmente en la vida diaria sin una descripción (llamados algoritmos de "caja negra"); la mayoría de las personas no tienen conocimiento del funcionamiento interno de los algoritmos que predicen cosas que los afectan (como el clima o la economía).

Nos preguntamos si nuestros resultados se debieron a la mayor familiaridad de las personas con los algoritmos actuales. Si es así, la edad podría explicar la apertura de la gente al consejo algorítmico. En su lugar, encontramos que la edad de nuestros participantes no influyó en su disposición a confiar en el algoritmo. En nuestros estudios, las personas mayores utilizaron los consejos algorítmicos tanto como las personas más jóvenes. Lo que importaba era cuán cómodos se sentían los participantes con los números, lo cual medimos al pedirles que tomen una prueba de cálculo de 11 preguntas. Cuanto más numerados estén nuestros participantes (es decir, cuantas más preguntas de matemáticas hayan respondido correctamente en la prueba de 11 ítems), más escucharon los consejos algorítmicos.

A continuación, queríamos probar si la idea de que la gente no confía en los algoritmos sigue siendo relevante hoy en día, y si los investigadores contemporáneos todavía predecirían que a las personas no les gustarían los algoritmos. En un estudio adicional, invitamos a 119 investigadores que estudian el juicio humano para predecir cuánto escucharían los participantes a los consejos cuando se trataba de una persona frente a un algoritmo. Les dimos a los investigadores los mismos materiales de la encuesta que habían visto nuestros participantes para el estudio de Matchmaker. Estos investigadores, en consonancia con lo que muchas empresas han asumido, predijeron que las personas mostrarían aversión a los algoritmos y confiarían más en el asesoramiento humano, lo contrario de nuestros hallazgos reales.

También teníamos curiosidad acerca de si la experiencia del tomador de decisiones podría influir en la apreciación algorítmica. Reclutamos una muestra separada de 70 profesionales de seguridad nacional que trabajan para el gobierno de los Estados Unidos. Estos profesionales son expertos en la predicción, ya que hacen predicciones de forma regular. Les pedimos que predijeran diferentes eventos geopolíticos y de negocios y tuvimos una muestra adicional de no expertos (301 participantes en línea) que hicieran lo mismo. Al igual que en nuestros otros estudios, ambos grupos hicieron una predicción, recibieron consejos etiquetados como humanos o algorítmicos, y luego se les dio la oportunidad de revisar su predicción para hacer una estimación final. Se les informó que cuanto más precisas sean sus respuestas, mayores serán sus posibilidades de ganar un premio.

Los no expertos actuaron como nuestros participantes anteriores: confiaban más en el mismo consejo cuando pensaban que provenía de un algoritmo que de una persona para cada uno de los pronósticos. Los expertos, sin embargo, descontaron tanto los consejos del algoritmo como los consejos de las personas. Parecían confiar más en su propia experiencia e hicieron revisiones mínimas a sus predicciones originales.

Necesitábamos esperar aproximadamente un año para calificar la precisión de las predicciones, en función de si el evento había ocurrido realmente o no. Encontramos que los expertos y los no expertos hicieron predicciones igualmente precisas cuando recibieron consejos de las personas, ya que igualmente descartaron ese consejo. Pero cuando recibieron el consejo de un algoritmo, los expertos hicieron predicciones menos precisas que los no expertos, porque los expertos no estaban dispuestos a escuchar el consejo algorítmico. En otras palabras, mientras que nuestros participantes no expertos confiaban en el asesoramiento algorítmico, los expertos en seguridad nacional no lo hicieron, y les costó en términos de precisión. Parecía que su experiencia los hizo especialmente confiados en su pronóstico, lo que los llevó a ignorar más o menos el juicio del algoritmo.

Otro estudio que corrimos corrobora esta explicación potencial. Probamos si la fe en el propio conocimiento puede impedir que las personas aprecien los algoritmos. Cuando los participantes tenían que elegir entre confiar en un algoritmo o confiar en el consejo de otra persona, nuevamente encontramos que las personas preferían el algoritmo. Sin embargo, cuando tuvieron que elegir si confiar en su propio juicio o en el consejo de un algoritmo, la popularidad del algoritmo disminuyó. Aunque las personas se sienten cómodas al reconocer las fortalezas del algoritmo algorítmico sobre el juicio humano, su confianza en los algoritmos parece disminuir cuando lo comparan directamente con su propio juicio. En otras palabras, las personas parecen apreciar los algoritmos más cuando eligen entre el criterio de un algoritmo y el de alguien más que cuando eligen entre el criterio de un algoritmo y el suyo.

Otros investigadores han descubierto que el contexto de la toma de decisiones es importante para la forma en que las personas responden a los algoritmos. Por ejemplo, un documento encontró que cuando las personas ven que un algoritmo comete un error, es menos probable que confíen en él, lo que perjudica su precisión. Otros investigadores descubrieron que las personas prefieren obtener recomendaciones de bromas de un amigo cercano sobre un algoritmo, aunque el algoritmo hace un mejor trabajo. Otro documento encontró que las personas tienen menos probabilidades de confiar en los consejos de un algoritmo cuando se trata de decisiones morales sobre autos y medicamentos que conducen por sí mismos.

Nuestros estudios sugieren que las personas a menudo se sienten cómodas aceptando la guía de los algoritmos, y en ocasiones incluso confían en ellos más que en otras personas. Eso no quiere decir que los clientes a veces no aprecian el "toque humano" detrás de los productos y servicios; pero sí sugiere que puede no ser necesario invertir en enfatizar el elemento humano de un proceso conducido total o parcialmente por algoritmos. De hecho, cuanto más elaborado es el artificio, más clientes pueden sentirse engañados cuando aprenden que en realidad fueron guiados por un algoritmo. Google Duplex, que llama a las empresas a programar citas y hacer reservaciones, generó una reacción instantánea porque sonaba "demasiado" humano y la gente se sintió engañada.

La transparencia puede dar sus frutos. Tal vez las empresas que se presentan como impulsadas principalmente por algoritmos, como Netflix y Pandora, tengan la idea correcta.

Jennifer M. Logg es becaria postdoctoral en la Universidad de Harvard. Ella recibió su Ph.D. de la Escuela de Negocios Haas de la Universidad de California en Berkeley. Su investigación principal examina cómo las personas esperan que el criterio algorítmico y humano difieran (investigación que ella llama Teoría de la máquina, un giro en la clásica "teoría de la mente"). Su trabajo prueba cómo las personas responden a la creciente prevalencia de la información producida por los algoritmos.

Julia A. Minson es profesora asistente de políticas públicas en la Escuela de Gobierno de Harvard Kennedy. Es una psicóloga social con intereses de investigación en juicios de grupo y toma de decisiones, negociaciones e influencia social.

Don A. Moore ocupa la Cátedra Lorraine Tyson Mitchell de Liderazgo en la Escuela de Negocios Haas de la Universidad de California en Berkeley.

No hay comentarios:

Publicar un comentario