El futuro de la IA será sobre menos datos, no más
Por H. James Wilson, Paul R. Daugherty y Chase Davenport
Innovación
Harvard Business Review
Las empresas que estén considerando cómo invertir en capacidades de inteligencia artificial deben comprender primero que en los próximos cinco años las aplicaciones y las máquinas se volverán menos artificiales y más inteligentes. Dependerán menos del big data de abajo hacia arriba y más del razonamiento de arriba hacia abajo que se asemeja más a la forma en que los humanos abordan los problemas y las tareas. Esta capacidad de razonamiento general permitirá que la inteligencia artificial se aplique más ampliamente que nunca, lo que creará oportunidades para los primeros usuarios, incluso en negocios y actividades a las que anteriormente no parecía adecuado.
En el pasado reciente, la IA avanzó a través del aprendizaje profundo y el aprendizaje automático, construyendo sistemas desde la base al capacitarlos en montañas de datos. Por ejemplo, los vehículos sin conductor están entrenados en tantas situaciones de tráfico como sea posible. Pero estas redes neuronales hambrientas de datos, como se las llama, tienen serias limitaciones. Especialmente tienen problemas para manejar los casos "de borde", situaciones donde existen pocos datos. Un automóvil sin conductor que puede manejar cruces peatonales, peatones y el tráfico tiene problemas para procesar anomalías, como los niños vestidos con disfraces de Halloween inusuales, que cruzan la calle al anochecer.
Muchos sistemas también son fácilmente perplejos. El sistema de reconocimiento facial del iPhone X no reconoce las "caras de la mañana", un aspecto hinchado y demacrado del usuario en el primer despertar. Las redes neuronales han vencido a los campeones de ajedrez y han triunfado en el antiguo juego japonés de Go, pero dan vuelta una imagen o la modifican ligeramente y la red puede identificarla erróneamente. O puede proporcionar identificaciones de "alta confianza" de objetos irreconocibles.
Los sistemas hambrientos de datos también enfrentan restricciones comerciales y éticas. No todas las empresas tienen el volumen de datos necesario para crear capacidades únicas utilizando redes neuronales. El uso de enormes cantidades de datos de los ciudadanos también plantea problemas de privacidad que pueden llevar a más acciones gubernamentales como el Reglamento de protección de datos general (GDPR) de la Unión Europea, que impone estrictos requisitos sobre el uso de datos personales de los individuos. Además, estos sistemas son cajas negras, no está claro cómo usan los datos de entrada para llegar a resultados como acciones o decisiones. Esto los deja abiertos a la manipulación por parte de los actores malos (como los rusos en las elecciones presidenciales de los EE. UU. De 2016), y cuando algo anda vergonzosamente es difícil para las organizaciones explicar por qué.
Sin embargo, en el futuro, tendremos sistemas de arriba hacia abajo que no requieren tanta información y son más rápidos, más flexibles y, como los humanos, más inteligentes de forma innata. Varias empresas y organizaciones ya están poniendo en marcha estos sistemas más naturales. Para elaborar una visión de hacia dónde se dirige AI en los próximos años, y luego planificar las inversiones y las pruebas en consecuencia, las empresas deben buscar desarrollos en cuatro áreas:
Razonamiento de robots más eficiente. Cuando los robots tienen una comprensión conceptual del mundo, como lo hacen los humanos, es más fácil enseñarles cosas, usando mucho menos datos. Vicarious, una startup de Union City, California, cuyos inversionistas incluyen a Mark Zuckerberg, Jeff Bezos y Marc Benioff, está trabajando para desarrollar inteligencia artificial general para robots, lo que les permite generalizarse a partir de algunos ejemplos.
Tenga en cuenta los números de letras y números que usan los sitios web para determinar si usted es un humano o un robot. Llamados CAPTCHAs (Pruebas de Turing públicas completamente automatizadas para informar a Computadoras y Humanos Aparte), son fáciles de resolver para los humanos y difíciles para las computadoras. Basándose en la neurociencia computacional, los investigadores de Vicarious han desarrollado un modelo que puede atravesar los CAPTCHA a una tasa mucho mayor que las redes neuronales profundas y con una eficiencia de datos 300 veces mayor. Para analizar los CAPTCHA con una precisión de casi el 67%, el modelo Vicarious solo requirió cinco ejemplos de entrenamiento por personaje, mientras que una red neuronal profunda de vanguardia requirió un conjunto de entrenamiento de 50,000 veces más de cuerdas CAPTCHA reales. Dichos modelos, con su capacidad de entrenar más rápido y generalizar más ampliamente que los enfoques de la IA que se usan comúnmente en la actualidad, nos están colocando en un camino hacia los robots que tienen una comprensión conceptual del mundo similar a la humana.
Experiencia lista. Al modelar lo que haría un experto humano ante la alta incertidumbre y la poca información, la inteligencia artificial de arriba hacia abajo puede vencer los enfoques hambrientos de datos para diseñar y controlar muchas variedades de equipos de fábrica. Siemens está utilizando AI de arriba hacia abajo para controlar el proceso de combustión altamente complejo en las turbinas de gas, donde el aire y el gas fluyen hacia una cámara, se encienden y se queman a temperaturas tan altas como 1.600 grados Celsius. El volumen de emisiones creado y, en última instancia, la duración de la operación de la turbina depende de la interacción de numerosos factores, desde la calidad del gas hasta el flujo de aire y la temperatura interna y externa.
Usando métodos de aprendizaje de máquina de abajo hacia arriba, la turbina de gas tendría que funcionar durante un siglo antes de producir suficientes datos para comenzar el entrenamiento. En cambio, los investigadores de Siemens, Volar Sterzing y Steffen Udluft, utilizaron métodos que requerían poca información en la fase de aprendizaje de las máquinas. El sistema de monitoreo resultante hizo ajustes finos que optimizan la forma en que funcionan las turbinas en términos de emisiones y desgaste, buscando continuamente la mejor solución en tiempo real, como un experto que hace girar varias perillas en un concierto.
Sentido común. Una variedad de organizaciones están trabajando para enseñar a las máquinas a navegar por el mundo utilizando el sentido común: para comprender los objetos y las acciones cotidianas, comunicarse de manera natural, manejar situaciones imprevistas y aprender de las experiencias. Pero lo que es natural para los humanos, sin entrenamiento o datos explícitos, es extremadamente difícil para las máquinas. Dice Oren Etzioni, director ejecutivo del Instituto Allen de Inteligencia Artificial (AI2): "Ningún sistema de AI desplegado actualmente puede responder de manera confiable a una amplia gama de preguntas simples, tales como: 'Si guardo mis calcetines en un cajón, todavía estarán ¿allí mañana? 'o' ¿Cómo puede saber si un envase de leche está lleno? '"
Para ayudar a definir lo que significa que las máquinas tengan sentido común, AI2 está desarrollando una cartera de tareas en las que se puede medir el progreso. DARPA está invirtiendo $ 2 mil millones en investigación de IA. En su programa Machine Common Sense (MCS), los investigadores crearán modelos que imitan los dominios centrales de la cognición humana, incluidos "los dominios de los objetos (física intuitiva), los lugares (navegación espacial) y los agentes (actores intencionales)". Investigadores de Microsoft y la Universidad McGill ha desarrollado conjuntamente un sistema que ha mostrado una gran promesa para desenmarañar las ambigüedades en el lenguaje natural, un problema que requiere diversas formas de inferencia y conocimiento.
Haciendo mejores apuestas. Los seres humanos rutinariamente, ya menudo sin esfuerzo, clasifican las probabilidades y actúan según lo más probable, incluso con relativamente poca experiencia previa. Ahora se enseña a las máquinas a imitar este razonamiento a través de la aplicación de procesos gaussianos: modelos probabilísticos que pueden lidiar con una gran incertidumbre, actuar en base a datos dispersos y aprender de la experiencia. Alphabet, la empresa matriz de Google, lanzó el Proyecto Loon, diseñado para proporcionar servicios de internet a regiones del mundo que carecen de servicios a través de un sistema de globos gigantes que se ciernen sobre la estratosfera. Sus sistemas de navegación emplean procesos gaussianos para predecir a dónde deben ir los globos en los vientos estratificados y altamente variables. Cada globo luego se mueve en una capa de viento que sopla en la dirección correcta, organizándose para formar una gran red de comunicación. Los globos no solo pueden hacer predicciones razonablemente precisas al analizar datos de vuelos anteriores, sino que también pueden analizar datos durante un vuelo y ajustar sus predicciones en consecuencia.
Tales procesos gaussianos son muy prometedores. No requieren grandes cantidades de datos para reconocer patrones; Los cálculos requeridos para la inferencia y el aprendizaje son relativamente fáciles, y si algo sale mal, se puede rastrear su causa, a diferencia de las cajas negras de las redes neuronales.
Aunque todos estos avances son relativamente recientes, se remontan a los inicios de la IA en la década de 1950, cuando varios investigadores comenzaron a buscar modelos de arriba hacia abajo para imitar la inteligencia humana. Pero cuando el progreso resultó difícil de alcanzar y el gran potencial de los métodos de aprendizaje de abajo hacia arriba se hizo evidente, el enfoque de arriba hacia abajo se abandonó en gran medida. Hoy, sin embargo, a través de nuevas y poderosas técnicas de investigación y computación, la inteligencia artificial descendente ha renacido. A medida que su gran promesa comienza a cumplirse, las compañías inteligentes pondrán su dinero donde está la mente.
H. James Wilson es director gerente de Tecnología de la Información e Investigación de Negocios en Accenture Research. Síguelo en Twitter @hjameswilson. Es coautor, junto con Paul Daugherty, de Human + Machine: Reimaginar el trabajo en la era de la IA (Harvard Business Review Press, marzo de 2018).
Paul R. Daugherty es el director de tecnología e innovación de Accenture. Es coautor, junto con H. James Wilson, de Human + Machine: Reimaginar el trabajo en la era de la IA (Harvard Business Review Press, 2018).
Chase Davenport es un investigador de tecnología con sede en San Francisco.
Innovación
Harvard Business Review
Las empresas que estén considerando cómo invertir en capacidades de inteligencia artificial deben comprender primero que en los próximos cinco años las aplicaciones y las máquinas se volverán menos artificiales y más inteligentes. Dependerán menos del big data de abajo hacia arriba y más del razonamiento de arriba hacia abajo que se asemeja más a la forma en que los humanos abordan los problemas y las tareas. Esta capacidad de razonamiento general permitirá que la inteligencia artificial se aplique más ampliamente que nunca, lo que creará oportunidades para los primeros usuarios, incluso en negocios y actividades a las que anteriormente no parecía adecuado.
En el pasado reciente, la IA avanzó a través del aprendizaje profundo y el aprendizaje automático, construyendo sistemas desde la base al capacitarlos en montañas de datos. Por ejemplo, los vehículos sin conductor están entrenados en tantas situaciones de tráfico como sea posible. Pero estas redes neuronales hambrientas de datos, como se las llama, tienen serias limitaciones. Especialmente tienen problemas para manejar los casos "de borde", situaciones donde existen pocos datos. Un automóvil sin conductor que puede manejar cruces peatonales, peatones y el tráfico tiene problemas para procesar anomalías, como los niños vestidos con disfraces de Halloween inusuales, que cruzan la calle al anochecer.
Muchos sistemas también son fácilmente perplejos. El sistema de reconocimiento facial del iPhone X no reconoce las "caras de la mañana", un aspecto hinchado y demacrado del usuario en el primer despertar. Las redes neuronales han vencido a los campeones de ajedrez y han triunfado en el antiguo juego japonés de Go, pero dan vuelta una imagen o la modifican ligeramente y la red puede identificarla erróneamente. O puede proporcionar identificaciones de "alta confianza" de objetos irreconocibles.
Los sistemas hambrientos de datos también enfrentan restricciones comerciales y éticas. No todas las empresas tienen el volumen de datos necesario para crear capacidades únicas utilizando redes neuronales. El uso de enormes cantidades de datos de los ciudadanos también plantea problemas de privacidad que pueden llevar a más acciones gubernamentales como el Reglamento de protección de datos general (GDPR) de la Unión Europea, que impone estrictos requisitos sobre el uso de datos personales de los individuos. Además, estos sistemas son cajas negras, no está claro cómo usan los datos de entrada para llegar a resultados como acciones o decisiones. Esto los deja abiertos a la manipulación por parte de los actores malos (como los rusos en las elecciones presidenciales de los EE. UU. De 2016), y cuando algo anda vergonzosamente es difícil para las organizaciones explicar por qué.
Sin embargo, en el futuro, tendremos sistemas de arriba hacia abajo que no requieren tanta información y son más rápidos, más flexibles y, como los humanos, más inteligentes de forma innata. Varias empresas y organizaciones ya están poniendo en marcha estos sistemas más naturales. Para elaborar una visión de hacia dónde se dirige AI en los próximos años, y luego planificar las inversiones y las pruebas en consecuencia, las empresas deben buscar desarrollos en cuatro áreas:
Razonamiento de robots más eficiente. Cuando los robots tienen una comprensión conceptual del mundo, como lo hacen los humanos, es más fácil enseñarles cosas, usando mucho menos datos. Vicarious, una startup de Union City, California, cuyos inversionistas incluyen a Mark Zuckerberg, Jeff Bezos y Marc Benioff, está trabajando para desarrollar inteligencia artificial general para robots, lo que les permite generalizarse a partir de algunos ejemplos.
Tenga en cuenta los números de letras y números que usan los sitios web para determinar si usted es un humano o un robot. Llamados CAPTCHAs (Pruebas de Turing públicas completamente automatizadas para informar a Computadoras y Humanos Aparte), son fáciles de resolver para los humanos y difíciles para las computadoras. Basándose en la neurociencia computacional, los investigadores de Vicarious han desarrollado un modelo que puede atravesar los CAPTCHA a una tasa mucho mayor que las redes neuronales profundas y con una eficiencia de datos 300 veces mayor. Para analizar los CAPTCHA con una precisión de casi el 67%, el modelo Vicarious solo requirió cinco ejemplos de entrenamiento por personaje, mientras que una red neuronal profunda de vanguardia requirió un conjunto de entrenamiento de 50,000 veces más de cuerdas CAPTCHA reales. Dichos modelos, con su capacidad de entrenar más rápido y generalizar más ampliamente que los enfoques de la IA que se usan comúnmente en la actualidad, nos están colocando en un camino hacia los robots que tienen una comprensión conceptual del mundo similar a la humana.
Experiencia lista. Al modelar lo que haría un experto humano ante la alta incertidumbre y la poca información, la inteligencia artificial de arriba hacia abajo puede vencer los enfoques hambrientos de datos para diseñar y controlar muchas variedades de equipos de fábrica. Siemens está utilizando AI de arriba hacia abajo para controlar el proceso de combustión altamente complejo en las turbinas de gas, donde el aire y el gas fluyen hacia una cámara, se encienden y se queman a temperaturas tan altas como 1.600 grados Celsius. El volumen de emisiones creado y, en última instancia, la duración de la operación de la turbina depende de la interacción de numerosos factores, desde la calidad del gas hasta el flujo de aire y la temperatura interna y externa.
Usando métodos de aprendizaje de máquina de abajo hacia arriba, la turbina de gas tendría que funcionar durante un siglo antes de producir suficientes datos para comenzar el entrenamiento. En cambio, los investigadores de Siemens, Volar Sterzing y Steffen Udluft, utilizaron métodos que requerían poca información en la fase de aprendizaje de las máquinas. El sistema de monitoreo resultante hizo ajustes finos que optimizan la forma en que funcionan las turbinas en términos de emisiones y desgaste, buscando continuamente la mejor solución en tiempo real, como un experto que hace girar varias perillas en un concierto.
Sentido común. Una variedad de organizaciones están trabajando para enseñar a las máquinas a navegar por el mundo utilizando el sentido común: para comprender los objetos y las acciones cotidianas, comunicarse de manera natural, manejar situaciones imprevistas y aprender de las experiencias. Pero lo que es natural para los humanos, sin entrenamiento o datos explícitos, es extremadamente difícil para las máquinas. Dice Oren Etzioni, director ejecutivo del Instituto Allen de Inteligencia Artificial (AI2): "Ningún sistema de AI desplegado actualmente puede responder de manera confiable a una amplia gama de preguntas simples, tales como: 'Si guardo mis calcetines en un cajón, todavía estarán ¿allí mañana? 'o' ¿Cómo puede saber si un envase de leche está lleno? '"
Para ayudar a definir lo que significa que las máquinas tengan sentido común, AI2 está desarrollando una cartera de tareas en las que se puede medir el progreso. DARPA está invirtiendo $ 2 mil millones en investigación de IA. En su programa Machine Common Sense (MCS), los investigadores crearán modelos que imitan los dominios centrales de la cognición humana, incluidos "los dominios de los objetos (física intuitiva), los lugares (navegación espacial) y los agentes (actores intencionales)". Investigadores de Microsoft y la Universidad McGill ha desarrollado conjuntamente un sistema que ha mostrado una gran promesa para desenmarañar las ambigüedades en el lenguaje natural, un problema que requiere diversas formas de inferencia y conocimiento.
Haciendo mejores apuestas. Los seres humanos rutinariamente, ya menudo sin esfuerzo, clasifican las probabilidades y actúan según lo más probable, incluso con relativamente poca experiencia previa. Ahora se enseña a las máquinas a imitar este razonamiento a través de la aplicación de procesos gaussianos: modelos probabilísticos que pueden lidiar con una gran incertidumbre, actuar en base a datos dispersos y aprender de la experiencia. Alphabet, la empresa matriz de Google, lanzó el Proyecto Loon, diseñado para proporcionar servicios de internet a regiones del mundo que carecen de servicios a través de un sistema de globos gigantes que se ciernen sobre la estratosfera. Sus sistemas de navegación emplean procesos gaussianos para predecir a dónde deben ir los globos en los vientos estratificados y altamente variables. Cada globo luego se mueve en una capa de viento que sopla en la dirección correcta, organizándose para formar una gran red de comunicación. Los globos no solo pueden hacer predicciones razonablemente precisas al analizar datos de vuelos anteriores, sino que también pueden analizar datos durante un vuelo y ajustar sus predicciones en consecuencia.
Tales procesos gaussianos son muy prometedores. No requieren grandes cantidades de datos para reconocer patrones; Los cálculos requeridos para la inferencia y el aprendizaje son relativamente fáciles, y si algo sale mal, se puede rastrear su causa, a diferencia de las cajas negras de las redes neuronales.
Aunque todos estos avances son relativamente recientes, se remontan a los inicios de la IA en la década de 1950, cuando varios investigadores comenzaron a buscar modelos de arriba hacia abajo para imitar la inteligencia humana. Pero cuando el progreso resultó difícil de alcanzar y el gran potencial de los métodos de aprendizaje de abajo hacia arriba se hizo evidente, el enfoque de arriba hacia abajo se abandonó en gran medida. Hoy, sin embargo, a través de nuevas y poderosas técnicas de investigación y computación, la inteligencia artificial descendente ha renacido. A medida que su gran promesa comienza a cumplirse, las compañías inteligentes pondrán su dinero donde está la mente.
H. James Wilson es director gerente de Tecnología de la Información e Investigación de Negocios en Accenture Research. Síguelo en Twitter @hjameswilson. Es coautor, junto con Paul Daugherty, de Human + Machine: Reimaginar el trabajo en la era de la IA (Harvard Business Review Press, marzo de 2018).
Paul R. Daugherty es el director de tecnología e innovación de Accenture. Es coautor, junto con H. James Wilson, de Human + Machine: Reimaginar el trabajo en la era de la IA (Harvard Business Review Press, 2018).
Chase Davenport es un investigador de tecnología con sede en San Francisco.
No hay comentarios:
Publicar un comentario