El ciclo de exageración de la IA está distrayendo a las empresas
Al centrarse en objetivos de ciencia ficción, se están perdiendo proyectos que crean valor real en este momento.
Por Eric Siegel
IA y aprendizaje automático
Harvard Business Review
#Doxa #IA #empresa #ciclo #objetivo #proyecto #valor #aprendizaje #ML
Resumen. El aprendizaje automático tiene un problema de "IA". Con nuevas capacidades asombrosas de la IA generativa lanzadas cada varios meses, y la publicidad de la IA aumentando a un ritmo aún mayor, ya es hora de que diferenciemos la mayoría de los proyectos prácticos de ML de la actualidad de esos avances de investigación. Esto comienza por nombrar correctamente dichos proyectos: llámelos "ML", no "IA". Incluir todas las iniciativas de ML bajo el paraguas de "IA" exagera y engaña, lo que contribuye a una alta tasa de fallas para las implementaciones comerciales de ML. Para la mayoría de los proyectos de ML, el término "IA" va demasiado lejos: alude a capacidades a nivel humano. De hecho, cuando analizas el significado de "IA", descubres cuán exagerada es una palabra de moda: si no significa inteligencia general artificial, un objetivo grandioso para la tecnología, entonces simplemente no significa nada en absoluto.
Podrías pensar que las noticias de "grandes avances en IA" no harían más que ayudar a la adopción del aprendizaje automático (ML). Si solo. Incluso antes de las últimas novedades, sobre todo ChatGPT de OpenAI y otras herramientas de IA generativa, la rica narrativa sobre una IA emergente y todopoderosa ya era un problema creciente para el aprendizaje automático aplicado. Eso es porque para la mayoría de los proyectos de ML, la palabra de moda "IA" va demasiado lejos. Infla demasiado las expectativas y distrae de la forma precisa en que ML mejorará las operaciones comerciales.
La mayoría de los casos prácticos de uso de ML, diseñados para mejorar la eficiencia de las operaciones comerciales existentes, innovan de manera bastante sencilla. No permita que el resplandor que emana de esta deslumbrante tecnología oscurezca la simplicidad de su deber fundamental: el propósito de ML es emitir predicciones procesables, razón por la cual a veces también se le llama análisis predictivo . Esto significa valor real, siempre y cuando evite la falsa exageración de que es "altamente preciso", como una bola de cristal digital.
Esta capacidad se traduce en valor tangible de una manera sencilla. Las predicciones impulsan millones de decisiones operativas. Por ejemplo, al predecir qué clientes tienen más probabilidades de cancelar, una empresa puede ofrecer a esos clientes incentivos para quedarse. Y al predecir qué transacciones con tarjeta de crédito son fraudulentas, un procesador de tarjetas puede rechazarlas. Son los casos prácticos de uso de ML como los que generan el mayor impacto en las operaciones comerciales existentes, y los métodos avanzados de ciencia de datos que aplican dichos proyectos se reducen a ML y solo ML.
Aquí está el problema: la mayoría de las personas conciben ML como "IA". Este es un malentendido razonable. Pero "IA" sufre de un caso de vaguedad incurable e implacable : es un término artístico general que no se refiere consistentemente a ningún método o propuesta de valor en particular. Llamar a las herramientas de ML "IA" exagera lo que la mayoría de las implementaciones comerciales de ML realmente hacen. De hecho, no podrías prometer más de lo que haces cuando llamas a algo "IA". El apodo invoca la noción de inteligencia general artificial (AGI), software capaz de cualquier tarea intelectual que los humanos puedan hacer.
Esto exacerba un problema importante con los proyectos de ML: a menudo carecen de un enfoque agudo en su valor: exactamente cómo ML hará que los procesos comerciales sean más efectivos. Como resultado, la mayoría de los proyectos de ML no logran generar valor . Por el contrario, los proyectos de ML que mantienen su objetivo operativo concreto al frente y al centro tienen una buena oportunidad de lograr ese objetivo.
¿Qué significa realmente la IA?
"'Alimentado por IA' es el equivalente tecnológico sin sentido de 'totalmente natural'".
–Devin Coldewey, TechCrunch
AI no puede alejarse de AGI por dos razones. En primer lugar, el término "IA" generalmente se usa sin aclarar si estamos hablando de AGI o AI estrecha, un término que esencialmente significa implementaciones de ML prácticas y enfocadas. A pesar de las tremendas diferencias, el límite entre ellos se difumina en la retórica común y en los materiales de venta de software.
En segundo lugar, no existe una forma satisfactoria de definir AI además de AGI. Definir "IA" como algo más que AGI se ha convertido en un desafío de investigación en sí mismo, aunque quijotesco. Si no significa AGI, no significa nada: otras definiciones sugeridas no logran calificar como "inteligente" en el espíritu ambicioso que implica "IA" o no logran establecer una meta objetiva. Nos enfrentamos a este dilema, ya sea tratando de identificar 1) una definición de "IA", 2) los criterios por los cuales una computadora calificaría como "inteligente" o 3) un punto de referencia de rendimiento que certificaría la verdadera IA. Estos tres son uno y lo mismo.
El problema está en la palabra "inteligencia" en sí misma. Cuando se usa para describir una máquina, es implacablemente nebuloso. Esas son malas noticias si la IA está destinada a ser un campo legítimo. La ingeniería no puede perseguir un objetivo impreciso. Si no puedes definirlo, no puedes construirlo. Para desarrollar un aparato, debe ser capaz de medir qué tan bueno es, qué tan bien se desempeña y qué tan cerca está de la meta, para que sepa que está progresando y, en última instancia, sepa cuándo lo logró. desarrollándolo.
En un vano intento de esquivar este dilema, la industria realiza continuamente una danza incómoda de definiciones de IA que yo llamo AI shuffle . AI significa computadoras que hacen algo inteligente (una definición circular). No, es inteligencia demostrada por máquinas (aún más circular, si cabe). Más bien, es un sistema que emplea ciertas metodologías avanzadas, como ML, procesamiento de lenguaje natural, sistemas basados en reglas, reconocimiento de voz, visión por computadora u otras técnicas que operan de forma probabilística (claramente, el empleo de uno o más de estos métodos no automáticamente calificar un sistema como inteligente).
Pero seguramente una máquina calificaría como inteligente si se pareciera lo suficiente a un humano, si no pudieras distinguirla de un humano, por ejemplo, interrogándola en una sala de chat: la famosa prueba de Turing . Pero la capacidad de engañar a la gente es un objetivo móvil arbitrario, ya que los sujetos humanos se vuelven más sabios con el engaño con el tiempo. Cualquier sistema dado solo pasará la prueba como máximo una vez: engáñenos dos veces, vergüenza para la humanidad. Otra razón por la que pasar la prueba de Turing no da en el blanco es porque hay un valor o una utilidad limitados al hacerlo. Si la IA pudiera existir, ciertamente se supone que sería útil.
¿Qué pasa si definimos la IA por lo que es capaz de hacer? Por ejemplo, si definimos la IA como un software que puede realizar una tarea tan difícil que tradicionalmente requiere un ser humano, como conducir un automóvil, dominar el ajedrez o reconocer rostros humanos. Resulta que esta definición tampoco funciona porque, una vez que una computadora puede hacer algo, tendemos a banalizarlo. Después de todo, las computadoras solo pueden manejar tareas mecánicas que están bien entendidas y bien especificadas. Una vez superado, el logro pierde repentinamente su encanto y la computadora que puede hacerlo no parece "inteligente" después de todo, al menos no en la medida sincera que pretende el término "IA". Una vez que las computadoras dominaron el ajedrez, hubo poco sentimiento de que habíamos "resolvido" la IA.
Esta paradoja, conocida como El Efecto AI, nos dice que, si es posible, no es inteligente. Al sufrir un objetivo siempre elusivo, la IA equivale inadvertidamente a "hacer que las computadoras hagan cosas demasiado difíciles de hacer para las computadoras": imposibilidad artificial. Ningún destino te satisfará una vez que llegues; AI desafía categóricamente la definición. Con la debida ironía, el pionero de la informática Larry Tesler sugirió que bien podríamos definir la IA como "cualquier cosa que las máquinas aún no hayan hecho".
Irónicamente, fue el éxito medible de ML lo que promocionó la IA en primer lugar. Después de todo, mejorar el rendimiento medible es, en pocas palabras, aprendizaje automático supervisado . Los comentarios de la evaluación del sistema frente a un punto de referencia, como una muestra de datos etiquetados, guían su próxima mejora. Al hacerlo, ML ofrece un valor sin precedentes de innumerables formas. Se ha ganado el título de "la tecnología de propósito general más importante de nuestra era", como lo expresó Harvard Business Review . Más que cualquier otra cosa, los pasos agigantados probados de ML han alimentado la exageración de la IA.
Todo con Inteligencia Artificial General
“Predigo que veremos el tercer AI Winter dentro de los próximos cinco años… Cuando me gradué con mi Ph.D. en AI y ML en el '91, AI era literalmente una mala palabra. Ninguna empresa consideraría contratar a alguien que estuviera en IA”.
–Usama Fayyad, 23 de junio de 2022, hablando en Machine Learning Week
Hay una manera de superar este dilema de definición: ir con todo y definir AI como AGI, software capaz de cualquier tarea intelectual que los humanos puedan hacer. Si se lograra este objetivo que suena a ciencia ficción, afirmo que habría un fuerte argumento de que calificaría como "inteligente". Y es un objetivo medible, al menos en principio, si no en la práctica. Por ejemplo, sus desarrolladores podrían comparar el sistema con un conjunto de 1.000.000 de tareas, incluidas decenas de miles de solicitudes de correo electrónico complicadas que podría enviar a un asistente virtual, varias instrucciones para un empleado del almacén que también le daría a un robot y incluso resúmenes breves de un párrafo sobre cómo la máquina debería, en el papel de director general, dirigir una empresa Fortune 500 hacia la rentabilidad.
AGI puede establecer un objetivo claro, pero está fuera de este mundo, es una ambición tan difícil de manejar como puede haber. Nadie sabe si se podría lograr y cuándo.
Ahí radica el problema de los proyectos típicos de ML. Al llamarlos "IA", transmitimos que se ubican en el mismo espectro que AGI, que se basan en tecnología que avanza lentamente en esa dirección. "IA" persigue a ML. Invoca una narrativa grandiosa y aumenta las expectativas, vendiendo tecnología real en términos poco realistas. Esto confunde a los tomadores de decisiones y los proyectos sin salida de izquierda y derecha.
Es comprensible que tantos quieran reclamar una parte del pastel de IA, si está hecho de los mismos ingredientes que AGI. El cumplimiento de los deseos que promete AGI, una especie de poder supremo, es tan seductor que es casi irresistible.
Pero hay una mejor manera de avanzar, una que es realista y que, en mi opinión, ya es lo suficientemente emocionante: ejecutar operaciones importantes, las cosas principales que hacemos como organizaciones, ¡de manera más efectiva! La mayoría de los proyectos comerciales de ML tienen como objetivo hacer precisamente eso. Para que tengan éxito a un ritmo mayor, tenemos que bajar a la tierra. Si su objetivo es ofrecer valor operativo, no compre "IA" y no venda "IA". Di lo que quieres decir y piensa lo que dices. Si una tecnología consiste en ML, llamémosla así.
Los informes sobre la inminente obsolescencia de la mente humana han sido muy exagerados, lo que significa que se acerca otra era de desilusión de la IA. Y, a la larga, continuaremos experimentando inviernos de IA mientras sigamos aplicando hiperbólicamente el término "IA". Pero si atenuamos la retórica de la "IA", o diferenciamos el ML de la IA, aislaremos adecuadamente al ML como industria del próximo invierno de la IA. Esto incluye resistir la tentación de montar olas exageradas y abstenerse de afirmar pasivamente a los tomadores de decisiones con los ojos llenos de estrellas que parecen estar inclinándose ante el altar de una IA con todas las capacidades. De lo contrario, el peligro es claro y presente: cuando se desvanezca la exageración, se desacredite la sobreventa y llegue el invierno, gran parte de la verdadera propuesta de valor de ML se eliminará innecesariamente junto con los mitos, como el bebé con el agua del baño.
Este artículo es producto del trabajo de la autora como profesora de Analítica del Bicentenario Corporal en la Escuela de Negocios Darden de la UVA.
Lea más sobre inteligencia artificial y aprendizaje automático o temas relacionados Automatización, tecnología y análisis, algoritmos y análisis y ciencia de datos
Eric Siegel, Ph.D. es un consultor líder y ex profesor de la Universidad de Columbia que ayuda a las empresas a implementar el aprendizaje automático. Es el fundador de la serie de conferencias Machine Learning Week de larga duración, un orador principal frecuente y editor ejecutivo de The Machine Learning Times . Eric es autor del próximo libro The AI Playbook: Mastering the Rare Art of Machine Learning Deployment y del bestseller Predictive Analytics: The Power to Predict Who Will Click, Buy, Lie, or Die, que se ha utilizado en cursos en cientos de universidades. Ganó el premio Facultad Distinguida cuando era profesor en la Universidad de Columbia, donde impartía los cursos de posgrado en aprendizaje automático e IA. Más tarde, se desempeñó como profesor de la escuela de negocios en UVA Darden. Eric también publica artículos de opinión sobre análisis y justicia social .
No hay comentarios:
Publicar un comentario