Doxa 976

Los componentes básicos de una estrategia de IA

MITSloan Management Review

El imperativo de la IA y el aprendizaje automático

Las organizaciones deben pasar de la toma de decisiones de IA oportunista y táctica a una orientación más estratégica.

A medida que la popularidad de la inteligencia artificial aumenta y disminuye, parece que estamos en un pico. Casi no pasa un día sin que una organización anuncie "un giro hacia la IA" o la aspiración de "convertirse en una IA impulsada". Los bancos y las fintechs están utilizando el reconocimiento facial para respaldar las pautas de "conozca a su cliente"; las empresas de marketing están implementando el aprendizaje no supervisado para captar nuevos conocimientos de los consumidores; y los minoristas están experimentando con análisis de sentimientos impulsados ​​por IA, procesamiento de lenguaje natural y gamificación.

Un examen detenido de las actividades realizadas por estas organizaciones revela que la IA se utiliza principalmente con fines tácticos más que estratégicos; de hecho, es raro encontrar una visión estratégica de IA coherente a largo plazo. Incluso en empresas bien financiadas, las capacidades de IA están en su mayoría aisladas o distribuidas de manera desigual.

Las organizaciones deben pasar de la toma de decisiones de IA oportunista y táctica a una orientación más estratégica. Proponemos una estrategia de IA construida sobre tres pilares.

1. La IA necesita una infraestructura tecnológica sólida y confiable. Dada la popularidad de la IA, es fácil olvidar que no es una tecnología autónoma. Sin el apoyo de una infraestructura y datos que funcionen bien, es inútil. Despojada del bombo publicitario, la inteligencia artificial es poco más que una amalgama de técnicas matemáticas, estadísticas e informáticas que dependen en gran medida de una infraestructura estable y datos utilizables.

Esta infraestructura debe incluir soporte para toda la cadena de valor de los datos, desde la captura de datos hasta la limpieza, el almacenamiento, la gobernanza, la seguridad, el análisis y la difusión de resultados, todo casi en tiempo real. No es sorprendente, entonces, que se espere que el mercado de infraestructura de IA crezca de $ 14.6 mil millones en 2019 a $ 50.6 mil millones en 2025.

Una buena infraestructura permite el establecimiento de circuitos de retroalimentación, mediante los cuales los éxitos y los fracasos se pueden marcar, analizar y actuar rápidamente. Por ejemplo, cuando Ticketmaster quiso abordar el creciente problema de los oportunistas, personas que compran entradas para eventos antes que los clientes genuinos, solo para revenderlas a un precio superior, recurrió a los algoritmos de aprendizaje automático. La empresa creó un sistema que incorporó datos de venta de entradas en tiempo real junto con una visión holística de la actividad del comprador para recompensar a los clientes legítimos con un proceso más fluido y bloquear a los revendedores. Como la empresa pronto se dio cuenta, los revendedores adaptaron sus estrategias y herramientas en respuesta al nuevo sistema. Ticketmaster luego modificó su infraestructura para incluir ciclos de retroalimentación, lo que permitió que sus algoritmos se mantuvieran al día con las técnicas en evolución de los revendedores.

2. Los nuevos modelos comerciales traerán los mayores beneficios de la IA. La IA tiene el potencial de ofrecer nuevas fuentes de ingresos y ganancias, ya sea mediante mejoras masivas sobre la forma actual de hacer las cosas o habilitando nuevos procesos que antes no eran posibles. Pero el pensamiento incremental sobre cómo se puede usar la IA probablemente conducirá a resultados modestos. Es poco probable que se obtengan beneficios significativos sin una nueva mentalidad de modelo de negocio o la llamada transformación de inteligencia.

La IA permite mejoras que superan con creces las capacidades humanas. Por ejemplo, OrangeShark, una startup de marketing digital con sede en Singapur, utiliza el aprendizaje automático para la publicidad programática, automatizando así el proceso de selección de medios, colocación de anuncios, seguimiento de clics y conversiones, e incluso cambios menores en el texto del anuncio. Debido a la eficiencia que ofrece su sistema, OrangeShark puede ofrecer un modelo comercial de pago por desempeño, en el que los clientes solo pagan un porcentaje de la diferencia entre los costos de adquisición de clientes de un modelo de publicidad estándar y el modelo de OrangeShark. Al automatizar completamente una tarea previamente semiautomatizada, la empresa ha creado un nuevo modelo de negocio que hace posible la monetización de enormes ganancias de eficiencia.

En el otro extremo del espectro, Affectiva, que se autodenomina una empresa de "medición de emociones", alberga la base de datos de imágenes de rostros humanos analizados por sentimientos más grande del mundo. La compañía analiza y clasifica una variedad de emociones humanas utilizando modelos de aprendizaje profundo que luego pueden ponerse a disposición de los clientes. Algunas aplicaciones estudian las respuestas emocionales a las campañas publicitarias, mientras que otras ayudan a las personas a volver a aprender las respuestas emocionales después de un accidente cerebrovascular. Affectiva ha construido un modelo de negocio basado en brindar inteligencia como servicio en un área donde la intervención no humana antes era poco práctica.

Estos ejemplos simplemente arañan la superficie de posibles modelos de negocios habilitados para IA. Pronto tendremos cámaras inteligentes que faciliten los contratos de franquicia y los esquemas de compensación de empleados. El aprendizaje automático sobre datos granulares permitirá la personalización de productos y servicios a lo largo del tiempo. Dado que estos y otros desarrollos similares abren nuevas fuentes de ingresos y ganancias, los nuevos modelos comerciales deben considerarse como la base de cualquier estrategia de inteligencia artificial.

3. La IA sin ética es una receta para el desastre. El último pilar de la estrategia de IA es la ética, que no es necesariamente un componente común de la estrategia tecnológica. Sin embargo, el uso de la inteligencia artificial plantea muchos problemas éticos potencialmente espinosos, como conocimientos incorrectos y sesgos inherentes debido a algoritmos mal construidos, y un aumento en el desempleo debido a la sustitución del trabajo humano por la producción de máquinas.

Tomemos, por ejemplo, el reconocimiento facial, uno de los casos de uso de IA más comunes en la actualidad. Si bien la tecnología ha demostrado ser eficaz en varias áreas, como la captura de delincuentes, la búsqueda de personas desaparecidas e incluso el control de la presión arterial, también plantea una serie de preocupaciones éticas, como el derecho a evitar la vigilancia y la precisión de la algoritmos utilizados para identificar individuos y grupos. Por ejemplo, la mayoría de los sistemas de IA son mejores para identificar con precisión a las personas blancas que las personas de otras etnias, y para identificar los rostros de los hombres en lugar de los de las mujeres; de hecho, algunos sistemas identifican erróneamente el género hasta en un 35% de las mujeres de piel más oscura.

En diciembre de 2018, Google anunció que suspendería las ventas de su software de reconocimiento facial, citando preocupaciones sobre la ética y la confiabilidad. Los competidores de Google, en cambio, tardaron 18 meses más en tomar la misma decisión. Solo a principios de junio de 2020, en respuesta al movimiento Black Lives Matter, IBM detuvo la venta de software de reconocimiento facial a las fuerzas policiales de Estados Unidos. Dos días después, Amazon anunció una moratoria de un año en las ventas de su software de reconocimiento facial a la policía, seguida por Microsoft al día siguiente. Para estas organizaciones, el daño a la reputación de producir sistemas que sistemáticamente identificaban erróneamente a las minorías y vender la tecnología a las fuerzas policiales para identificar a los delincuentes ya estaba hecho. Google fue proactivo, mientras que IBM, Amazon y Microsoft fueron reactivos, demostrando que el cumplimiento de los estándares éticos actuales es insuficiente; en cambio, las organizaciones también deben anticipar los problemas éticos futuros.
"La tentación de extraer un valor adicional de los datos que han recopilado o comprado puede empujar a las organizaciones a traspasar los límites éticos, por ejemplo, reenvasando y vendiendo datos sin consentimiento."
Es probable que la necesidad de un enfoque responsable de la IA aumente aún más, por tres razones. En primer lugar, a medida que las organizaciones aumenten su uso de la inteligencia artificial, aumentará la facilidad para capturar datos personales sensibles sobre las personas. Ya nos enfrentamos a la perspectiva de que las redes sociales y los gigantes de Internet sepan mucho más sobre nuestros hábitos cotidianos de lo que nuestros seres queridos (y quizás incluso nosotros mismos) sabemos.

En segundo lugar, a medida que las organizaciones hagan la transición hacia modelos comerciales más nuevos, aumentará el valor marginal de recopilar y usar datos. Las organizaciones podrán asignar un valor en dólares a cada bit de datos recopilados y calcular con precisión la relación riesgo-recompensa asociada con cada punto de datos. En estas circunstancias, la tentación de extraer un valor adicional de los datos que han recopilado o comprado puede empujar a las organizaciones a traspasar los límites éticos, por ejemplo, reenvasando y vendiendo datos sin consentimiento.

En tercer lugar, a pesar de la importancia de la ética, existe una falta generalizada de pautas generales o puntos de referencia para las prácticas responsables de la IA. Sin un único árbitro ético establecido, cada organización e industria tendrá que determinar sus propios estándares y límites.

Desafortunadamente, el enfoque fragmentado de la IA solo agravará este problema. A menos que las organizaciones adopten un enfoque coordinado de la ética de la IA, será demasiado fácil para un equipo deshonesto violar las pautas éticas. Es posible que sea necesario crear una oficina de ética de IA dentro de las organizaciones para supervisar las actividades de IA, establecer e implementar pautas éticas de IA y responsabilizar a la organización por sus prácticas éticas. Las empresas que consideren la función de la ética como un mecanismo de creación de marca y de confianza saldrán por delante de aquellas que la consideren meramente una cuestión regulatoria. Además de los esfuerzos dentro de las organizaciones para gestionar las prácticas éticas de la IA, las asociaciones de la industria, los gobiernos y las organizaciones no gubernamentales multinacionales también pueden desempeñar un papel al establecer pautas claras que rijan el uso responsable de las tecnologías de la IA.

Dado que la IA no es una tecnología habitual, la estrategia de IA debe abordarse de forma diferente a la estrategia tecnológica habitual. El poder de la inteligencia artificial para alimentar los extremos del desempeño corporativo, tanto positivos como negativos, requiere un enfoque decidido construido sobre tres pilares: una infraestructura tecnológica sólida y confiable, un enfoque específico en nuevos modelos comerciales y un enfoque reflexivo de la ética. Una estrategia de IA debe construirse sobre una base sólida para sobrevivir a los fuertes vientos del cambio.

Sobre los autores
  • Amit Joshi es profesor de inteligencia artificial, análisis y estrategia de marketing en IMD Business School en Suiza. Un investigador galardonado y escritor de casos, trabaja extensamente con empresas de telecomunicaciones, servicios financieros, farmacéutica y manufactura. Michael Wade es profesor de innovación y estrategia en IMD Business School en Suiza, donde ocupa la Cátedra Cisco en Transformación de Negocios Digitales. Sus libros más recientes son Digital Vortex (DBT Center Press, 2016) y Orchestrating Transformation (DBT Center Press, 2019).


No hay comentarios:

Publicar un comentario