Doxa 324

¿Es "Asesinato por aprendizaje automático" la nueva "Muerte por PowerPoint"?

Por Michael Schrage
Harvard Business Review
Productividad

El software no siempre termina siendo la panacea de la productividad que promete ser. Como sus víctimas saben muy bien, "la muerte por PowerPoint", el uso deficiente del software de presentación, absorbe la vida y la energía de demasiadas reuniones. Y la auditoría después de la auditoría empresarial revela hojas de cálculo con errores y errores de cálculo macro. El correo electrónico y el chat facilitan una disfunción similar; La sobrecarga de la bandeja de entrada demuestra que perjudica el desempeño y la moral de los directivos. No hay sorpresas aquí; esta es tristemente una realidad global con la que todos estamos familiarizados.

Entonces, ¿qué hace que los campeones de inteligencia artificial / aprendizaje automático (AI/ML) confíen en que sus tecnologías serán inmunes a los resultados comparativamente contraproducentes? No deberían estar tan seguros. El empoderamiento digital con demasiada frecuencia conduce a una mala gestión y abuso de la organización. El historial empresarial de las herramientas de productividad personal ofrece infinidad de letanías desafortunadas de consecuencias imprevistas. Para muchos gerentes, los costos de la tecnología a menudo rivalizan con sus beneficios.

Precisamente porque se supone que las plataformas de aprendizaje automático y de inteligencia artificial son "inteligentes", plantean riesgos organizacionales desafiantes. Son más propensos a inspirar confianza falsa y / o errónea en sus hallazgos; para amplificar o consolidar más los sesgos basados ​​en datos; y para reforzar, o incluso exacerbar, los defectos humanos de las personas que los despliegan.

El problema no es que estas tecnologías innovadoras no funcionen; es que los usuarios tomarán decisiones inadvertidamente y se arriesgarán para socavar a colegas y clientes. Un software aparentemente más inteligente podría convertir perversamente la "muerte por Powerpoint" de ayer en el "asesinato por aprendizaje automático" de mañana. Nadie quiere producir presentaciones aburridas que pierdan el tiempo de todos, pero lo hacen; nadie quiere entrenar algoritmos de aprendizaje automático que produzcan predicciones engañosas, pero lo harán. Las redes inteligentes para contrarrestar el infierno están conectadas con buenas intenciones.

Por ejemplo, como observaron astutamente Gideon Mann y Cathy O'Neil en "Los algoritmos de contratación no son neutrales", su artículo de HBR, "Los algoritmos hechos por el hombre son falibles y pueden inadvertidamente reforzar la discriminación en las prácticas de contratación. Cualquier gerente de Recursos Humanos que use dicho sistema debe conocer sus limitaciones y tener un plan para manejarlas ... Los algoritmos son, en parte, nuestras opiniones integradas en el código. Reflejan prejuicios y prejuicios humanos que conducen a errores de aprendizaje automático y malas interpretaciones".

Estos sesgos intrínsecos, tanto en los conjuntos de datos como en los algoritmos, se pueden encontrar siempre que sea necesario tomar decisiones importantes basadas en datos, como los esfuerzos de segmentación de clientes, los diseños de características del producto y las evaluaciones de riesgos del proyecto. Incluso puede haber sesgos en la detección de sesgos. En otras palabras, no se puede escapar a la realidad de que las fortalezas computacionales del aprendizaje automático coexisten intrínsecamente con las debilidades cognitivas de los seres humanos, y viceversa. Pero eso es más un desafío de liderazgo que un problema técnico. La pregunta más difícil es: ¿quién va a "poseer" esta coevolución digital del talento y la tecnología, y dirigirla de manera sostenible hacia el éxito?
Para responder a esta pregunta, considere los dos modos de AI / ML que tienen más probabilidades de dominar las iniciativas empresariales:
  • AI/ML activo significa que las personas determinan directamente el rol de la inteligencia artificial o el aprendizaje automático para hacer el trabajo. Los humanos están a cargo; le dicen a las máquinas qué hacer. La gente gobierna
  • Pasivo AI/ML, por el contrario, significa que los algoritmos determinan en gran medida los parámetros y procesos de las personas para realizar el trabajo. El software está a cargo; las máquinas le dicen a los humanos qué hacer. Las máquinas gobiernan.
En pocas palabras, donde el aprendizaje activo de máquinas tiene máquinas de entrenamiento de personas, el aprendizaje pasivo con máquinas tiene máquinas que entrenan a las personas. Con el aumento de los grandes datos y el surgimiento de software más inteligente, esta dualidad se convertirá en una de las mayores oportunidades estratégicas y riesgos que enfrenta el liderazgo en todo el mundo.

Los sistemas AI / ML activos tienen el potencial de reencarnar digitalmente y proliferar las patologías de productividad asociadas con la presentación existente, la hoja de cálculo y el software de comunicaciones. A las personas con capacitación relativamente limitada y conocimiento de sus herramientas se les dice que las utilicen para realizar su trabajo. Pero la mayoría de las empresas tienen muy pocos mecanismos de revisión confiables para asegurar o mejorar la calidad. Por lo tanto, a pesar de la tecnología avanzada, las presentaciones continúan perdiendo el tiempo, las conciliaciones de hojas de cálculo consumen los fines de semana y los ejecutivos se atrasan aún más en la respuesta a correos electrónicos y chats.

Del mismo modo que estas herramientas convirtieron a los trabajadores del conocimiento en presentadores aficionados y analistas financieros, la democratización continua del aprendizaje automático los invita a convertirse en científicos de datos aficionados. Pero a medida que los datos y los algoritmos más inteligentes proliferan en toda la empresa, ¿qué tan sostenible será?

Sin duda, surgirán usuarios poderosos con talento, pero en general, las ineficiencias, las oportunidades perdidas y los errores que podrían resultar tienen el potencial de ser asombrosamente organizativos. Pensar que la mayoría de los administradores obtendrán un valor real de las plataformas de AI / ML con un entrenamiento mínimo es creer que la mayoría de los adultos podrían, en su tiempo libre, convertir con éxito a las camadas de cachorros en perros de exposición. Esto es ilusorio Lo más probable es que las organizaciones obtengan software mal entrenado que exige cantidades desmesuradas de atención, deja un caos inesperado y ocasionalmente picaduras.

Por ejemplo, el sobreajuste es un error común de aprendizaje automático hecho incluso por científicos de datos con experiencia. En el caso de sobreajuste, la IA es, literalmente, demasiado precisa para ser cierta; el modelo incorpora demasiado ruido, en lugar de centrarse en los datos esenciales. Encaja muy bien con los conjuntos de datos existentes y, a su vez, se vuelve extremadamente impreciso y poco fiable cuando se procesan datos nuevos. Para las empresas, los resultados previstos podrían ser totalmente absurdos, lo que generaría resultados negativos, como malas contrataciones, diseños deficientes o previsiones de ventas fallidas. El sobreajuste, al igual que los errores de la hoja de cálculo, puede ser capturado y corregido. Pero, ¿qué sucede cuando docenas de aficionados al aprendizaje automático están haciendo inversiones o proyecciones defectuosas basadas en lo que ellos pensaban que eran modelos precisos? Ese es un algoritmo para el desastre.

Cuantos más recursos de datos posean las organizaciones, más disciplinada será la supervisión y supervisión que necesitará la IA / ML activa. Los algoritmos más inteligentes requieren una gestión de riesgos más inteligente.

Pasivo AI/ML, por otro lado, presenta una sensibilidad de diseño diferente y plantea diferentes riesgos. Para todos los efectos, este software actúa como gerente y coach, estableciendo objetivos y directrices incluso cuando ofrece asesoramiento basado en datos para hacer el trabajo. La promesa de productividad personal es convincente: textos y correos electrónicos que escriben sus propias respuestas; horarios diarios que se vuelven a priorizar cuando llega tarde; análisis que destacan sus propios hallazgos más importantes; y presentaciones que se animan más. Los innovadores de software empresarial de Microsoft a Google a Salesforce a Slack buscan smarten su software con algoritmos que aprendan de manera confiable de los usuarios. ¿Entonces, cuál es el problema?

El riesgo más obvio, por supuesto, es si el "software más inteligente" verdaderamente le da a su gente los comandos correctos. Pero la alta dirección debería tener eso firmemente bajo revisión. El riesgo más sutil y más subversivo es que la IA / ML pasiva está demasiado arraigada en el cumplimiento humano, la adherencia y la obediencia. Es decir, se requiere que los trabajadores estén subordinados a la IA para que tenga éxito. Este tipo de desempoderamiento por diseño puede invitar a la resistencia de los empleados, el cumplimiento superficial y el sabotaje sutil. Por ejemplo, un representante de servicio al cliente podría decirle a un cliente descontento: "Me encantaría ayudarte, pero el software me prohíbe darte ningún tipo de reembolso".

En otras palabras, el valor del toque humano es deliberadamente descontado por decisiones basadas en datos. Se espera que los trabajadores subordinen su juicio a sus jefes algorítmicos, y el sistema los disciplinará si se salen de la línea.

Si bien no hay una solución para los desafíos enumerados, existen enfoques que logran un equilibrio saludable entre los riesgos y las oportunidades. Sin duda, las organizaciones más exitosas adoptarán la "gobernanza de datos" y contratarán a los mejores científicos de datos que puedan. Pero cultural y operacionalmente, deberán promulgar públicamente tres iniciativas interrelacionadas para mitigar los riesgos:

1. Escribe una declaración de inteligencia (máquina). Al igual que el Sentido común de Thomas Paine o la Declaración de Independencia, una Declaración de Inteligencia (Máquina) definiría y articularía principios relacionados con la forma en que la organización espera usar algoritmos inteligentes para impulsar el rendimiento y la productividad. El documento generalmente describe casos de uso y escenarios para ilustrar sus puntos. Su objetivo es brindar a los gerentes y trabajadores una idea más clara de dónde IA/ML aumentará sus tareas y dónde puede reemplazarlas o automatizarlas. La declaración es mucho sobre la gestión de las expectativas, y debería ser una lectura obligatoria para cualquier persona de la empresa.

2. Emplear transparencia de repositorio radical. La revisión, verificación y validación son principios esenciales en entornos empresariales AI / ML ricos en datos. Compartir ideas, datos y modelos entre comunidades de práctica debería ser una mejor práctica. Las grandes corporaciones usan cada vez más repositorios que alientan a personas y equipos a publicar sus conjuntos de datos y modelos para su revisión. En ocasiones, estos repositorios surgen de las iniciativas de gobierno de datos. En otros, son subproductos de los equipos de ciencia de datos que tratan de obtener una mayor visibilidad de lo que los diversos grupos están haciendo digitalmente. La clara aspiración es expandir la conciencia de toda la empresa sin restringir la iniciativa ascendente.

3. Crea una hoja de ruta de compromiso. La ciencia de datos, la inteligencia artificial y el aprendizaje automático son campos dinámicamente innovadores que evolucionan de forma rápida y oportunista. La implementación activa de aprendizaje automático de ayer puede convertirse en el proceso de negocio pasivo AI / ML pasivo. A medida que las organizaciones heredadas recurren a los datos, el aprendizaje automático y las plataformas digitales para transformarse, sus mapas de ruta sugerirán que la administración cree que las inversiones activas en AI / ML serán más valiosas que las pasivas. Por ejemplo, los sistemas AI / ML orientados al cliente pueden merecer diferentes talentos y compensaciones que se centren en la eficiencia del proceso interno.

La gestión de abandono es un excelente caso de estudio: en un gigante de las telecomunicaciones, un equipo de análisis exploró el uso de técnicas de aprendizaje automático para identificar a los clientes que probablemente se irían y cambiarse a otro proveedor de servicios. Probar con éxito las ofertas de retención sería una gran ganancia para la empresa, y si ML redujera la pérdida de clientes mejoraría drásticamente las eficiencias internas del proceso. Pero varios de los analistas más centrados en el cliente creían que simplemente mantener un cliente no era suficiente; pensaban que una parte de posibles churners podría ser transferida a servicios nuevos y adicionales si las ofertas se enmarcaban correctamente. Querían que los algoritmos de aprendizaje automático y de datos se entrenaran para identificar a los clientes que podían ser reubicados, no solo salvados. Resultó que esta era una muy buena idea basada en los datos y centrada en el cliente.

Al igual que la Declaración de Inteligencia (máquina), la hoja de ruta de las compensaciones está destinada a gestionar las expectativas. Pero busca y recurre a la transparencia radical del repositorio para ver qué capacidades internas de AI / ML existen y qué nuevas necesitan ser cultivadas o adquiridas.

En pocas palabras, los líderes que toman en serio las principales transformaciones AI / ML están invirtiendo no solo en conocimientos técnicos innovadores sino también en nuevas capacidades organizativas. Mientras lo hacen, deberán tener mucho cuidado de no recrear los errores de productividad del pasado.

Michael Schrage, investigador del Centro de Negocios Digitales de MIT Sloan School, es el autor de los libros Serious Play (HBR Press), ¿A quién quiere que hagan llegar sus clientes? (HBR Press) y The Innovator's Hypothesis (MIT Press).

No hay comentarios:

Publicar un comentario