Doxa 2287

No permita que un fallo de la IA dañe su marca

Así es como los profesionales del marketing deben prepararse para lo inevitable.

Por Julian De Freitas
Gestión de Riesgos
Harvard Business Review

#Doxa #IA #fallo #daño #marca #profesional #marketing #inevitable #gestión #riesgo #producto #fracaso #comunicación #consumidor #trampa #actitud #consumidor #fe #empresa #capacidad #blanco #empres #preferencia
Resumen. La IA se está adoptando en todo, desde automóviles hasta chatbots, pero los productos de IA, como todos los productos, eventualmente fracasarán. Y la forma en que una empresa comercializa sus sistemas de IA afecta las repercusiones que enfrentará cuando ocurra un fallo ocurre. Julian De Freitas, profesor asistente en la Escuela de Negocios de Harvard, ha realizado múltiples estudios sobre los peligros de los fallos de la IA desde una perspectiva de marketing. Sostiene que para promover con éxito sus productos de IA, los profesionales del marketing primero deben comprender las actitudes únicas de los consumidores hacia la IA. Específicamente, deben tener en cuenta cinco trampas relacionadas con las actitudes del consumidor: (1) Las personas tienden a culpar primero a la IA. (2) Cuando una IA falla, las personas pierden la fe en las demás. (3) Las personas culpan más a las empresas que exageran las capacidades de la IA. (4) Las personas juzgan la IA humanizada con mayor dureza. Y (5) las personas se indignan con las preferencias programadas. Este artículo examina cómo las empresas deben prepararse para los fracasos y qué hacer después del hecho cuando la IA no da en el blanco. Explora las formas en que las empresas comercializan su propia IA y si sus tácticas presentan riesgos. Y ofrece consejos prácticos a los gerentes que desean promover sus sistemas de IA mientras protegen sus marcas y fortalecen la confianza del consumidor.
En octubre de 2023, un vehículo autónomo (VA) operado por Cruise, filial de robotaxi de General Motors, sufrió un grave accidente en San Francisco. Un Nissan, conducido por una persona, atropelló a una peatona, quien fue lanzada hacia la trayectoria del VA. Según la investigación del accidente realizada por una consultora de ingeniería independiente, ningún conductor humano prudente en esas circunstancias habría podido dirigir el VA para evitar el choque. Sin embargo, el informe inicial de Cruise a los reguladores omitió el hecho de que la peatona fue arrastrada bajo el VA durante seis metros. Sufrió lesiones graves, pero sobrevivió.

Aunque Cruise no tuvo la culpa de la colisión, el accidente desencadenó una crisis en la empresa. Su falta de transparencia resultó en una multa de 1,5 millones de dólares por parte de la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA). También desencadenó una investigación penal por parte del Departamento de Justicia; la empresa finalmente llegó a un acuerdo en la demanda y pagó una multa de 500.000 dólares. Pero eso no es todo. Su permiso para operar en San Francisco fue revocado. La mitad de la plantilla de Cruise perdió su puesto, el director ejecutivo dimitió y la valoración de la empresa se desplomó más del 50 %. El sector de los vehículos autónomos (VA) en general también se vio afectado. En cuestión de meses, un taxi sin conductor de Waymo (propiedad de Alphabet) fue atacado e incendiado en San Francisco por una multitud, y la NHTSA abrió investigaciones a varios desarrolladores de VA, entre ellos Waymo y Zoox (propiedad de Amazon). Para finales de 2024, GM anunció que pondría fin por completo al desarrollo de su negocio de robotaxi.

La IA se está adoptando rápidamente en todo, desde automóviles hasta chatbots, pero el ejemplo de Cruise pone de manifiesto una cruda realidad: con el tiempo, la IA fracasa. Cuando esto ocurre, muchas organizaciones, ya sea que desarrollen sus propios sistemas de IA o integren los de otras, se encuentran en el punto de mira del escrutinio público. Si bien se ha escrito mucho sobre cómo comercializar la IA para impulsar su adopción, se ha prestado menos atención a cómo hacerlo de forma que se prepare para sus inevitables fracasos.

Durante los últimos siete años, he realizado siete estudios sobre los peligros de los fallos de la IA desde una perspectiva de marketing. A partir de mi investigación, he extraído información sobre cómo los consumidores perciben y reaccionan ante ellos. Los profesionales del marketing expertos deben tener en cuenta cinco obstáculos relacionados con la actitud del consumidor, tanto antes como después de que algo salga mal. En este artículo, examinaré cómo las empresas deben prepararse para los fallos y qué hacer después cuando la IA no cumple con sus objetivos. Exploraré las formas en que las empresas comercializan su propia IA y si sus tácticas presentan riesgos. Detallaré cómo algunas organizaciones han respondido a los fallos de la IA y ofreceré consejos prácticos a los directivos que desean promocionar sus sistemas de IA a la vez que protegen sus marcas y fortalecen la confianza del consumidor. Analicemos cada uno de los obstáculos por separado.

La gente tiende a culpar primero a la IA
Para comprender mejor por qué la reacción pública y regulatoria ante el incidente de Cruise fue tan severa, mis colegas y yo realizamos un estudio con más de 5000 participantes. Compartimos con ellos un escenario de accidente similar al del incidente de Cruise: un conductor humano chocó con un peatón, quien fue lanzado hacia un segundo vehículo no culpable. Un grupo de participantes descubrió que el vehículo no culpable era de conducción autónoma; el otro, que era conducido por un humano. Luego, les pedimos a los participantes que evaluaran la responsabilidad del fabricante del vehículo.

Los participantes atribuyeron mayor responsabilidad al fabricante del vehículo no culpable cuando este era de conducción autónoma que cuando era operado por humanos, a pesar de que en ambos casos el vehículo no pudo haber hecho nada para evitar el accidente. También consideraron que la empresa de vehículos autónomos era más responsable que el conductor humano del vehículo no culpable (cuando era operado por humanos). Este resultado ha sido replicado por un grupo de investigación independiente en China, lo que demuestra que el sesgo persiste en distintos contextos culturales.

En estos casos, la culpa se atribuye erróneamente porque los encuestados, distraídos por la novedad del vehículo autónomo, imaginan qué podría haber sucedido si este no hubiera estado presente. Cabe destacar que, en estos casos, tienden a imaginar lo que haría un conductor perfecto, lo que les lleva a exigir a la IA un estándar más alto de lo razonable. Concluyen, por ejemplo, que el vehículo autónomo podría haber evitado la colisión desviándose de alguna manera antes del impacto, incluso si esto hubiera sido imposible. Estos contrafácticos imaginarios los sesgan a considerar al vehículo autónomo como más responsable del accidente que a un humano en la misma situación.

En pruebas posteriores, descubrimos que centrar la atención en el conductor humano culpable (quien inicialmente causó el accidente) reducía la responsabilidad sobre la IA. Al desviar la atención de los usuarios de la novedad del VA hacia otros factores relevantes, se mostraron menos propensos a imaginar escenarios irrealistas. Sin embargo, desviar la atención de la novedad no debe confundirse con engañar deliberadamente a las partes interesadas: los ejecutivos no deben ocultar detalles sobre el papel de la IA en los incidentes de fallo. Si bien los líderes de Cruise enfatizaron la culpa del conductor humano, no revelaron el daño adicional que su vehículo causó al arrastrar al peatón. Cuando se descubrió esto, Cruise perdió el control de la narrativa mediática y dañó la confianza de los reguladores.

Cuando una IA falla, la gente pierde la fe en las demás
Las repercusiones del incidente de Cruise en otras empresas como Waymo y Zoox sugieren otro riesgo asociado con los fallos de la IA: cuando la IA de una empresa falla, la gente tiende a pensar que los sistemas de IA de otras empresas son igualmente defectuosos. Este efecto de contaminación podría afectar negativamente la percepción pública de diversas formas de IA.

Un estudio realizado por los profesores Chiara Longoni, Luca Cian y Ellie Kyung ofrece un excelente ejemplo de cómo se produce la contaminación por fallos. Informaron a 3724 personas sobre un problema: el estado de Arkansas no asignó correctamente las prestaciones por discapacidad a una persona con discapacidad. A algunos participantes les explicaron que la culpa era de un empleado humano y a otros, de un algoritmo. Luego, preguntaron qué tan probable era que un empleado o un algoritmo de otro estado (Kentucky) también cometiera un error al asignar las prestaciones por discapacidad. Los participantes tenían mayor probabilidad de predecir que el algoritmo fallaría que el humano de Kentucky. Los investigadores replicaron este efecto para otros fallos de la IA, como la asignación incorrecta de los pagos de la Seguridad Social.

Los encuestados reaccionaron así porque, según los investigadores, muchas personas no comprenden cómo funciona la IA. Tienden a pensar que las soluciones de IA forman parte de un grupo homogéneo y comparten las mismas características subyacentes; no las consideran sistemas distintos con distintas capacidades y deficiencias.

Para evitar contaminarse con fallas causadas por otras compañías, debe destacar cómo sus sistemas de IA se diferencian de los de sus competidores. Enfatice los diferenciadores, como algoritmos propietarios, medidas de seguridad y supervisión humana. Considere cómo la compañía de IA Anthropic construyó y comercializa Claude, su modelo de IA generativa. Lo llama "un asistente de IA de próxima generación... entrenado para ser seguro, preciso y protegido para ayudarlo a hacer su mejor trabajo". Anthropic dice que entrena a Claude utilizando un enfoque "constitucional" que es más transparente, interpretable y alineado con los valores humanos. Esto ayuda a Anthropic a disociar a Claude de los modelos populares de la competencia como ChatGPT y Bard, que se entrenan de manera diferente y han sido acusados de ser sesgados y generar información inexacta. Si alguno de los competidores falla, Anthropic ya habrá sentado las bases para limitar los posibles efectos de contaminación por fallas.

Otra medida preventiva es comunicar cuándo un humano supervisa la IA y decide si implementar su recomendación. Cuando falla este sistema de "intervención humana", es menos probable que las personas asuman que otras IA tienen fallas similares, probablemente porque es menos probable que interpreten el fallo como una crítica a la IA en general.

La gente culpa más a las empresas que exageran las capacidades de la IA
Tesla se refiere a su sistema de asistencia al conductor como Autopilot, aunque su funcionamiento requiere supervisión humana activa en la carretera. Tras varios accidentes mortales con vehículos Tesla que tenían activado el Autopilot, el fabricante se ha visto envuelto en demandas, incluyendo una investigación del Departamento de Justicia sobre si esta etiqueta constituye publicidad engañosa. La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) también le ha solicitado que se asegure de que sus comunicaciones públicas reflejen con mayor precisión las capacidades y limitaciones del sistema. Elon Musk, director ejecutivo de Tesla, ha defendido históricamente el uso de la etiqueta Autopilot, señalando que se tomó prestada de la aviación, donde se utiliza como ayuda a los pilotos en lugar de como un sistema totalmente autónomo. Pero ¿lo interpretan así los consumidores?

Mis colegas y yo investigamos la cuestión de la tergiversación en un estudio con 9492 participantes, utilizando simulaciones de conducción y accidentes hipotéticos. Les informamos a los participantes que un fabricante de automóviles planeaba lanzar un nuevo vehículo automatizado. A un grupo se le indicó que se denominaba Piloto Automático (lo que sugería una alta capacidad de IA); al otro grupo, se le indicó que se denominaba Copiloto (lo que sugería una capacidad de IA de nivel medio). A continuación, se colocó a los participantes en una situación de conducción simulada con el vehículo y se les pidió que tomaran el volante cuando sintieran la necesidad de intervenir. En la simulación, el vehículo se acercó a una intersección concurrida y procedió a colisionar con peatones imprudentes a menos que el participante interviniera.

Descubrimos que los participantes tomaron el control del vehículo más tarde cuando este llevaba la etiqueta "Autopilot" que cuando llevaba la etiqueta "Copilot". Esto sugiere que la propia etiqueta los hacía más complacientes. Cuanto más capaces creían que era el vehículo, según indicaba la etiqueta, más tarde tomaban el control. En otros estudios, hemos observado que las personas son más propensas a considerar a las empresas responsables de los accidentes cuando utilizan etiquetas que sugieren una mayor capacidad, lo que sugiere que estas etiquetas conducen a un comportamiento más arriesgado del consumidor y a una mayor culpabilidad en caso de fallo.

Basándonos en estos resultados, mis colegas y yo planteamos la hipótesis de que un enfoque de marketing común podría ser contraproducente en caso de fallos de IA: promocionar un producto como superior a las alternativas. Nuestros estudios posteriores confirmaron esta hipótesis: al hacerlo, las empresas aumentaron la capacidad percibida de sus sistemas, aumentando inadvertidamente la percepción de responsabilidad de los participantes ante un fallo. Este hallazgo sugiere que campañas publicitarias como " Los humanos son pésimos conductores " de GM podrían haber inducido a los consumidores a atribuir mayor responsabilidad a Cruise en los accidentes en los que posteriormente se vio involucrado.

Estos efectos se producen porque los sistemas de IA pueden abarcar desde la autonomía parcial (en la que el ser humano es el principal responsable de operar el sistema) hasta la autonomía total (en la que la IA tiene el control). Sin embargo, la mayoría de los consumidores desconocen en qué punto del espectro se encuentra cada IA. Esto plantea un dilema para los profesionales del marketing. Si bien las etiquetas honestas reflejan las capacidades reales de un sistema, las empresas suelen verse tentadas a usar etiquetas que exageran las capacidades para impulsar las ventas.

Si utiliza una etiqueta engañosa para promocionar su IA, debe explicar con precisión y claridad sus verdaderas capacidades en otros lugares, como su sitio web o incluso en la letra pequeña del propio producto. Mi investigación revela que las empresas que divulgan las capacidades reales de la IA junto con etiquetas engañosas se enfrentan a menos sanciones cuando la IA falla, en comparación con las empresas que solo utilizan etiquetas engañosas. La otra opción, por supuesto, es simplemente usar una etiqueta menos engañosa desde el principio. Si bien este enfoque tiene la desventaja obvia de no amplificar la percepción de las capacidades de su IA, al menos no presenta riesgos.

La gente juzga con más dureza a la IA humanizada
Las empresas implementan cada vez más sistemas de IA que presentan características humanas. Wysa, una aplicación de salud mental, utiliza un avatar de dibujos animados que ayuda a las personas a realizar ejercicios, y aplicaciones complementarias de IA como Replika utilizan imágenes humanas realistas que expresan sentimientos y reflexiones.

Estas señales pueden crear la impresión de que el bot posee sentimientos, objetivos, deseos y otras cualidades personales que en realidad no posee. Los bots humanizados ofrecen varias ventajas a las empresas en comparación con los bots neutrales: aumentan la intención de compra de los consumidores, su nivel de confianza, su lealtad a la marca, el cumplimiento de las solicitudes de los proveedores y la disposición a revelar información personal. Estos efectos persisten incluso cuando las personas saben que están conversando con una máquina.

En un estudio realizado por los profesores Raji Srinivasan y Gülen Sarial-Abi, se informó a los participantes sobre una empresa de inversión financiera que cometió un error que resultó en pérdidas para sus clientes. Los investigadores dijeron a un grupo de participantes que el error fue cometido por un "programa de algoritmo"; le dijeron al otro grupo que una IA humanizada llamada "Charles" era la responsable. Descubrieron que las actitudes hacia la marca eran más negativas cuando el algoritmo estaba humanizado que cuando no lo estaba. Estudios de seguimiento sugieren que es más probable que a los bots humanizados se les atribuyan capacidades mentales como recordar, comprender, planificar y pensar, lo que lleva a los participantes a atribuir una mayor responsabilidad a los bots por cualquier falla. En otro estudio, un equipo de investigadores dirigido por Cammy Crolic descubrió que los participantes evaluaron a un chatbot fallido de forma más negativa cuando empleaba señales humanas tanto verbales como visuales (usando lenguaje en primera persona, presentándose como "Jamie" y teniendo un avatar femenino) que cuando empleaba solo señales humanas verbales. Esto sugiere que los rasgos humanizados tienen un efecto aditivo en las reacciones negativas al fracaso.

Debes ser especialmente cauteloso al usar chatbots en dominios donde los clientes puedan estar enojados. En otro estudio dirigido por Crolic, los investigadores analizaron aproximadamente 500,000 sesiones de chatbot de clientes en una compañía internacional de telecomunicaciones. Encontraron que cuanto más trataban los clientes a los bots como a un humano (al usar el nombre del bot en las conversaciones, por ejemplo), más se resentía la satisfacción cuando los clientes estaban enojados. Una forma de mitigar este efecto es usar selectivamente bots humanizados en dominios neutrales, como búsquedas de productos, y con menos frecuencia en roles que tienden a involucrar a clientes enojados, como centros de servicio al cliente. Otra forma es moderar las expectativas tan pronto como un cliente inicia una sesión de chat. El chatbot de Slack, por ejemplo, dice: "Hola, soy Slackbot. Intento ser útil. (¡Pero sigo siendo solo un bot. Lo siento!)". Los bots que hacen tales revelaciones tienen menos probabilidades de enfurecer a los clientes cuando fallan.

La gente está indignada por las preferencias programadas
En 2016, un alto directivo de Mercedes-Benz declaró que, al desarrollar sus vehículos autónomos, la empresa priorizaría la seguridad de sus pasajeros por encima de la de los peatones y otros usuarios de la vía. Su lógica era sencilla: si solo se pudiera salvar una vida, debería ser la de la persona dentro del coche. Su declaración desató una polémica mediática. Un titular sensacionalista acusó al fabricante de automóviles de, en esencia, optar por "atropellar a un niño en lugar de desviarse" para proteger a los que estaban dentro. En cuestión de semanas, Mercedes-Benz aclaró públicamente que ni los ingenieros ni los sistemas autónomos deberían juzgar el valor relativo de las vidas humanas. Las emociones suscitadas por este incidente sugieren que a la gente le parece poco ético que las empresas codifiquen deliberadamente preferencias grupales (por ejemplo, en función de la edad, el sexo o la condición de cliente) en los sistemas de IA.

Para probar esa hipótesis, realicé un estudio con la profesora de Harvard Mina Cikara en el que pedimos a 826 participantes en Estados Unidos que imaginaran que un vehículo totalmente automatizado se enfrentaba a varios dilemas difíciles (por ejemplo, si debía desviarse hacia una persona mayor o un niño pequeño) y luego chocaba contra una persona de uno de esos dos grupos. Es importante destacar que manipulamos si el vehículo decidió esto al azar o con base en una preferencia programada para favorecer a un grupo sobre otro. Descubrimos que los participantes se indignaban más cuando el vehículo tenía algún tipo de preferencia programada que cuando la elegía al azar. Esto sugiere que las empresas podrían no querer comunicar cuándo sus sistemas toman decisiones basadas en preferencias grupales. En algunos casos, incluso podrían querer evitar recopilar datos sobre características como la raza, el género y la edad para informar el comportamiento de los sistemas de IA. Otro enfoque es utilizar características más estructurales de la situación, como priorizar salvar a más personas en lugar de salvar a menos. Un estudio de Yochanan Bigman y Kurt Gray descubrió que las personas apoyan más los sistemas de IA que utilizan preferencias estructurales que los basados en grupos, presumiblemente porque hay una razón utilitaria clara para las preferencias estructurales con la que la mayoría de las personas pueden estar de acuerdo.
...
Los fallos de la IA son inevitables. Los profesionales del marketing deben reconocer que las mismas acciones que impulsan la adopción hoy en día pueden generar problemas cuando se produce un fallo de la IA, especialmente cuando dichas acciones promocionan los beneficios y la superioridad de la IA. Por lo tanto, antes de implementar una estrategia de marketing, asegúrese de comprender los cinco riesgos relacionados con la IA. Evaluar estos riesgos puede ayudar a su empresa a implementar una estrategia de marketing que venda su IA ahora y, al mismo tiempo, reduzca su responsabilidad y el riesgo de marca ante un futuro fallo.

Lea más sobre Gestión de riesgos o temas relacionados Marketing, IA y aprendizaje automático, Comportamiento del consumidor y automatización
Una versión de este artículo apareció en la  edición de julio-agosto de 2025  de Harvard Business Review.

Julian De Freitas es profesor asistente en la unidad de marketing de la Harvard Business School.


No hay comentarios:

Publicar un comentario