¿Es la IA la herramienta adecuada para resolver ese problema?
A pesar del revuelo reciente, la IA sólo logra resolver problemas con características muy específicas.
Por Paolo Cervini, Chiara Farronato, Pushmeet Kohli y Marshall W. Van Alstyne
Inteligencia Artificial y Aprendizaje Automático
Harvard Business Review
#Doxa #IA #herramienta #problema #aprendizaje #automático #organización #proyecto #obstáculo #escasez #datos #calidad #solución #objetivo #medible #Google #DeepMind #Alphabet #difícil #beneficio #oportunidad
Resumen. Si bien la IA tiene el potencial de resolver problemas importantes, las organizaciones que se embarcan en este tipo de proyectos suelen encontrarse con obstáculos, como la escasez de datos de alta calidad, demasiadas soluciones posibles, la falta de un objetivo claro y medible y la dificultad para identificar si una solución propuesta es “buena”. Para abordar estos problemas, Google DeepMind, el laboratorio de IA de Alphabet que se esfuerza por resolver problemas del mundo real extremadamente difíciles, ha ideado soluciones que pueden beneficiar a otros. Y también ofrece orientación para elegir qué oportunidades aprovechar después de que los proyectos potenciales hayan superado esos obstáculos.
La inteligencia artificial ha experimentado un auge notable, cautivando a investigadores, equipos de productos y usuarios finales por igual con su potencial transformador. Pero a pesar de su reciente popularidad, la IA solo tiene éxito en la solución de problemas con características muy específicas. En este artículo, ofrecemos orientación para ayudar a las organizaciones a identificar los problemas adecuados para abordar con IA, a encontrar soluciones cuando el contexto no se alinea perfectamente con lo que la IA resuelve mejor y, una vez que los proyectos potenciales hayan superado esos obstáculos, a elegir aquellos que puedan ofrecer los mayores beneficios para la empresa o para la sociedad en general.
Utilizamos ejemplos de Google DeepMind, el laboratorio de inteligencia artificial de Alphabet que se esfuerza por resolver problemas del mundo real extremadamente complejos. Tres de nosotros (Paolo Cervini, Chiara Farronato y Marshall Van Alstyne) nos basamos en nuestra investigación académica sobre el crecimiento de las plataformas tecnológicas, así como en nuestra experiencia práctica con la innovación en inteligencia artificial en varios sectores. Uno de nosotros (Pushmeet Kohli) trabaja en Google DeepMind y tiene experiencia de primera mano con los proyectos que se analizan en este artículo.
Lo que sigue no pretende ser una lista exhaustiva de todos los criterios, especialmente considerando que pueden variar según la aplicación; es más bien un esfuerzo por destacar los más importantes.
¿Puede la IA resolver este problema?
La capacidad de la IA para resolver problemas complejos depende de varios factores que pueden mejorar o dificultar su eficacia. Entre los factores más importantes se encuentran la disponibilidad de datos de alta calidad, el alcance de las posibles soluciones al problema, la claridad del objetivo que se desea alcanzar y la necesidad de adaptarse a sistemas en constante cambio. Cuando estos elementos faltan o están mal definidos, presentan desafíos que requieren enfoques innovadores para superarlos. A continuación, se presentan soluciones que se pueden aplicar cuando se presentan estos cuatro desafíos.
1. Escasez de datos de alta calidad
Los datos son el insumo más importante para cualquier modelo de IA, pero con demasiada frecuencia se presta mucha más atención al tamaño de los datos que a su calidad. Si bien las tendencias actuales con los modelos de lenguaje de gran tamaño (LLM) sugieren que cantidades cada vez mayores de datos son la clave para obtener modelos y resultados de mejor calidad, aún queda por investigar si esto seguirá siendo así.
Lo que se ha demostrado es que los datos de alta calidad son igual o más importantes que grandes cantidades de datos. En ciertos casos, si se tiene como punto de partida un conjunto de datos relativamente pequeño pero de muy alta calidad, se puede aumentar cuidadosamente el número de puntos de datos generando datos sintéticos.
Esta era la situación a la que se enfrentó inicialmente el equipo que trabajaba en AlphaFold. AlphaFold es la tecnología revolucionaria de Google DeepMind que puede predecir con precisión las formas 3D de las estructuras de las proteínas y está acelerando la investigación en casi todos los aspectos de la biología.
Durante la fase inicial de desarrollo de AlphaFold en 2017, el equipo solo tenía a su disposición alrededor de 150.000 estructuras de proteínas en 3D como puntos de datos. Esas estructuras se habían identificado experimentalmente durante varias décadas mediante técnicas costosas y que consumían mucho tiempo, como la cristalografía de rayos X o la criomicroscopía electrónica (se necesita aproximadamente un doctorado para explorar empíricamente una sola estructura de proteína ). Eso constituía un conjunto de datos minúsculo para los sistemas de aprendizaje automático.
Sin embargo, el equipo de investigación logró ampliar esos datos reales prediciendo estructuras para secuencias de proteínas cuyas estructuras eran desconocidas. Lo hicieron construyendo una protoversión de AlphaFold, que fue lo suficientemente buena como para generar un millón de predicciones de nuevas proteínas plegadas.
Luego, el equipo utilizó esta versión de AlphaFold para evaluar su propio desempeño y evaluar su nivel de confianza en la precisión de esas predicciones. Mediante este cuidadoso proceso de autodestilación, el equipo volvió a colocar el 30 % de las predicciones con mayor puntuación en el conjunto de entrenamiento junto con los datos reales. Esto escaló el conjunto de datos a aproximadamente medio millón de proteínas plegadas, lo que fue suficiente para entrenar la versión final de AlphaFold.
Tenga en cuenta que, si bien este enfoque funcionó de manera efectiva en el contexto del plegamiento de proteínas, la generación de datos sintéticos para entrenar modelos debe gestionarse con sumo cuidado porque corre el riesgo de que el aprendizaje recursivo (es decir, una secuencia de modelos de aprendizaje automático que utilizan predicciones de iteraciones de modelos anteriores como entradas para iteraciones posteriores) degrade el rendimiento al amplificar los errores e imprecisiones transmitidos de iteraciones de modelos anteriores.
A la inversa, si se parte de un conjunto de datos muy grande pero de baja calidad, aumentar sintéticamente su calidad sería muy difícil. Los conjuntos de datos extraídos de Internet (que pueden incluir todo tipo de información, formatos, idiomas, temas y modalidades) son un ejemplo de un conjunto de datos grande pero de baja calidad para muchas aplicaciones. En la mayoría de los casos, no valdría la pena intentar mejorar su calidad, ya que el esfuerzo y el tiempo necesarios para hacerlo serían inmensos. Y, a menudo, puede que ni siquiera haya una "respuesta correcta"; por ejemplo, al decidir qué receta es mejor para crear la pizza perfecta, la respuesta más probable es que "depende". Este matiz y la necesidad de contexto hacen que el lenguaje y el conocimiento humano general sean mucho más difíciles de estructurar objetivamente para crear un conjunto de datos de alta calidad.
2. Demasiadas soluciones potenciales
Cuando un problema tiene demasiadas soluciones posibles, resolverlo mediante métodos de fuerza bruta (probando exhaustivamente todas las combinaciones) resulta poco práctico. Históricamente, estos problemas se han abordado mediante heurísticas: reglas simples diseñadas para proporcionar soluciones que sean “suficientemente buenas” para la mayoría de los escenarios, aunque rara vez sean óptimas.
La IA ofrece una alternativa prometedora para manejar la complejidad de problemas con innumerables soluciones potenciales. Sin embargo, a medida que aumenta el número de soluciones posibles, también lo hace el desafío de verificar su calidad. Por ejemplo, los grandes modelos de lenguaje (LLM) se destacan por generar resultados creativos y diversos, pero también enfrentan el problema crítico de “alucinar” información factualmente incorrecta. Esto disminuye la confianza en su fiabilidad. Como resultado, el desarrollo de métodos para garantizar que los LLM produzcan soluciones verificablemente correctas se ha convertido en un objetivo clave para avanzar en sus capacidades.
Una prueba útil es si el LLM puede desarrollar nuevas heurísticas que funcionen mejor que las heurísticas conocidas. En un caso, los investigadores de Google DeepMind han desarrollado un nuevo método llamado Function Search (FunSearch) que utiliza LLM para encontrar soluciones novedosas a problemas de matemáticas e informática. La innovación clave radica en combinar un LLM con un evaluador automatizado. El LLM genera soluciones creativas (algunas de las cuales pueden constituir “alucinaciones”), mientras que el evaluador verifica la precisión y viabilidad de las soluciones. Este proceso iterativo ayuda a refinar las ideas iniciales para convertirlas en soluciones viables.
FunSearch ya ha hecho contribuciones significativas al realizar nuevos descubrimientos matemáticos. Uno de ellos es encontrar nuevas soluciones al “problema del conjunto de capacidades”, un rompecabezas matemático de larga data que trata de encontrar patrones en tipos especiales de cuadrículas. Otro es desarrollar mejores algoritmos, como algoritmos de “embalaje en contenedores” más eficientes, que encuentran soluciones para embalar eficientemente artículos de diferentes tamaños en un número limitado de contenedores de capacidad fija y tienen numerosas aplicaciones prácticas, como la optimización del envío de contenedores, la programación de trabajos y la asignación de recursos del centro de datos. En tales casos, FunSearch alterna iterativamente entre el LLM y el evaluador: el LLM presenta una posible solución para asignar artículos a los contenedores, mientras que el evaluador verifica que la solución no utilice más de la capacidad disponible y mejora otras alternativas comúnmente disponibles.
3. La falta de un objetivo claro y medible
Un objetivo, o función de recompensa, es la meta o resultado que el modelo de IA intenta lograr. En otras palabras, se trata de hacerle al sistema la pregunta correcta. Formular lo que se quiere que haga el modelo es una de las partes más difíciles de cualquier sistema de aprendizaje automático. Tomemos como ejemplo juegos como el ajedrez o el Go. Los juegos tienen un objetivo claro y medible, como una puntuación o un conjunto de reglas para determinar el ganador, y las iteraciones sin costo hacen que la IA aprenda rápido.
Pero en el mundo real, que suele ser complejo y caótico, no existe una métrica sencilla que podamos utilizar para medir el progreso. Sin un objetivo claro y medible, puede resultar difícil definir qué es “bueno” para el modelo. Cuanto más ambiguo sea el objetivo, peor será el rendimiento del modelo.
Volviendo al ejemplo de AlphaFold, los plegamientos de proteínas en biología tienen objetivos claros y mensurables. El objetivo de AlphaFold era minimizar la diferencia entre la estructura de proteína plegada en 3D determinada experimentalmente y la predicción computacional en 3D. Una excelente manera de medir el éxito fue la competencia bianual de Evaluación Crítica de la Predicción de Estructuras (CASP). Este evento es similar a las Olimpiadas del plegamiento de proteínas porque reúne a los mejores equipos de todo el mundo para comparar los métodos computacionales para predecir las estructuras de las proteínas. La participación en esta competencia permitió al equipo de investigación obtener una "puntuación" objetiva del rendimiento de su modelo en términos absolutos y en relación con los equipos competidores.
Definir el objetivo correcto para los sistemas de IA puede ser un desafío, especialmente en contextos como las redes sociales, donde las métricas como la interacción se usan a menudo como indicadores del éxito. Si bien la optimización para la interacción (medida a través de los "me gusta", las publicaciones compartidas, los comentarios o el tiempo que se pasa en la plataforma) puede impulsar la actividad y los ingresos de los usuarios, también puede generar consecuencias no deseadas. Por ejemplo, puede amplificar contenido polarizador o sensacionalista, difundir información errónea, alentar conductas adictivas o no estar alineada con el bienestar a largo plazo de los usuarios.
Estos obstáculos ponen de relieve la importancia de diseñar marcos de optimización multiobjetivo que equilibren la interacción con otras métricas fundamentales, como la precisión del contenido, la diversidad de puntos de vista y la satisfacción del usuario. La incorporación de comentarios humanos, barreras éticas y criterios de evaluación más amplios que vayan más allá de las simples métricas de interacción puede ayudar a garantizar que los sistemas de IA logren resultados significativos y sostenibles, evitando al mismo tiempo daños.
4. Cuando lo “bueno” no se puede codificar
Los problemas que enfrentan las organizaciones rara vez son estáticos. Si a esto le sumamos la dificultad que ya hemos comentado de identificar fácilmente si una solución propuesta es buena, la IA corre el riesgo de ofrecer soluciones que se desvíen progresivamente de la respuesta óptima. Una técnica para superar este desafío que se está adoptando cada vez más es el aprendizaje por refuerzo con retroalimentación humana (RLHF, por sus siglas en inglés).
Esta técnica de intervención humana permite que el modelo aprenda de las observaciones humanas fuera de los datos e incorpore estas. La RLHF es particularmente útil en situaciones en las que es difícil codificar una solución algorítmica clara, pero en las que los humanos pueden juzgar intuitivamente la calidad de los resultados del modelo.
La reciente colaboración de Google DeepMind con el equipo de YouTube Shorts es un buen ejemplo de cómo RLHF ayuda a mejorar el resultado. Por su naturaleza, los cortos suelen producirse rápidamente y los creadores suelen añadir solo información mínima al título o la descripción del vídeo. Esto puede dificultar que los espectadores encuentren los cortos que están buscando. (Aquí hay un breve vídeo que explica cómo funciona esto).
Generar descripciones precisas de los vídeos era un problema perfecto para que la IA generativa lo resolviera: cada vídeo es único y las descripciones genéricas generadas mediante heurística solo se podían utilizar para categorizar los vídeos de forma amplia (por ejemplo, es un vídeo de deportes o de jardinería), pero no eran suficientes para permitir que se descubrieran los vídeos de forma individual. Para ello, las descripciones detalladas adaptadas individualmente a cada vídeo específico son el requisito previo para que los espectadores encuentren lo que buscan.
Los humanos son muy buenos para determinar instintivamente qué es una buena descripción de un video de YouTube, mientras que las computadoras históricamente han tenido dificultades para hacerlo, ya que es difícil codificar qué es lo que es “bueno” para cada video. Al proporcionar retroalimentación humana directa a la salida de la última generación de un modelo como entrada para la próxima generación, el modelo aprende intuitivamente, a través de prueba y error, los marcadores de una buena descripción y cómo optimizarla. La capacidad del modelo para aprender y adaptarse a la nueva información le permite seguir mejorando y cambiando a medida que los hábitos y las normas evolucionan a lo largo de las iteraciones.
Google DeepMind y el equipo de productos de YouTube trabajaron juntos para implementar un modelo de IA generativa capaz de generar descripciones de texto de cada video, que se almacenan en los sistemas de YouTube para ofrecer mejores resultados de búsqueda a los usuarios. Esta solución ya está disponible para todos los Shorts nuevos subidos a YouTube.
¿Qué oportunidades debemos aprovechar?
Las empresas pueden utilizar los criterios descritos anteriormente para identificar problemas que la IA puede resolver. Luego, el desafío consiste en elegir entre las enormes oportunidades potenciales de aplicación que cumplan con estos criterios. Priorizar las implementaciones de IA en función del impacto y la amplitud de la solución es útil no solo para Google, sino también para la sociedad en general.
El equipo de Google DeepMind llama a esto el enfoque del “problema del nodo raíz”. Imaginemos que todo el conocimiento del mundo es un árbol inmenso, con ramas que representan diferentes campos. En este árbol, cada “nodo” es un punto de conexión, como un trampolín que conduce a otras ramas. El nodo raíz es el punto de partida del árbol, el origen a partir del cual crece todo lo demás. Si se resuelve un problema de nodo raíz, se ramifican áreas de estudio y comprensión completamente nuevas, que luego abren nuevas vías de exploración y aplicaciones aún no descubiertas.
El proyecto AlphaFold se ajusta bien a este criterio, ya que resolver el gran desafío del plegamiento de proteínas no sólo puede desbloquear avances en el descubrimiento de mejores medicamentos, como vacunas contra la malaria y tratamientos contra el cáncer, sino que también puede facilitar avances en otros campos, como el desarrollo de enzimas que devoren plástico para combatir la contaminación.
Tras la publicación de AlphaFold, Andrei Lupas, biólogo evolutivo del Instituto Max Planck de Biología del Desarrollo, escribió en la revista Nature : “Esto cambiará la medicina. Cambiará la investigación. Cambiará la bioingeniería. Cambiará todo”. En 2024, el Comité del Premio Nobel reconoció la inmensa contribución otorgando el Premio Nobel de Química a Demis Hassabis y John Jumper por su desarrollo de AlphaFold.
Para identificar este tipo de problemas de nodo raíz, las empresas deben organizar debates entre expertos en IA y expertos de otros campos. Desde sus inicios, Google DeepMind se propuso implementar este enfoque. Ha contratado deliberadamente talentos de una gran cantidad de disciplinas además del aprendizaje automático; sus campos incluyen bioquímica, física, filosofía y ética. Esta diversidad de conocimientos puede alentar a que las ideas de diferentes disciplinas reboten entre sí y encuentren nuevas formas de ver los problemas.
Más allá de los recursos internos de Google DeepMind, la polinización cruzada de ideas se produce a través de interacciones constantes con otros equipos de investigación, equipos de productos de Google, a veces de otras empresas de Alphabet y la comunidad de investigación en general. El equipo de Google DeepMind intenta crear oportunidades para facilitar dichas interacciones, por ejemplo, organizando eventos en los que equipos diversos se reúnen para presentar y compartir su trabajo y debatir desafíos y oportunidades en un entorno que fomenta nuevas conexiones y genera conversaciones reflexivas. También apoya y participa en eventos externos, como conferencias de investigación y conferencias universitarias.
Iterando en la innovación
Una vez que una organización ha identificado los problemas del nodo raíz, los equipos de productos seleccionan estratégicamente qué implementaciones de IA implementar y luego se embarcan en un viaje hacia la producción.
Al hacerlo, la productización debe evitar dos riesgos. El primero es centrarse solo en los problemas de raíz para los que la empresa ya tiene una línea de visión clara hacia las áreas de productos que está lista para abordar. Este enfoque desaprovecharía oportunidades importantes, como ilustra la propia AlphaFold. Cuando se lanzó por primera vez en 2020, AlphaFold no tenía un equipo de producto adecuado dentro de Google que pudiera utilizar de forma productiva sus resultados de investigación, como nuevos compuestos farmacológicos. En respuesta, Alphabet creó una "apuesta", llamada Isomorphic Labs, cuyo enfoque exclusivo era el uso de la IA para el descubrimiento de fármacos. Los nuevos proyectos de productización podrían ser de propiedad absoluta o asociaciones estratégicas. La cuestión es que la fundación de Isomorphic Labs consolidó las unidades de investigación y producto en una nueva empresa capaz de facilitar iteraciones rápidas entre las dos.
El segundo riesgo es asumir que podemos predecir cómo evolucionará una tecnología y prever los casos de uso. En lugar de seguir un camino determinista, las empresas que utilizan IA deberían permitir la opcionalidad. Deberían aceptar la incertidumbre y permitir que las soluciones de IA evolucionen continuamente y respondan al progreso tecnológico y a las aplicaciones de los usuarios, asegurándose de recopilar retroalimentación a lo largo del camino.
Un buen ejemplo es Ithaca, una herramienta de inteligencia artificial que Google DeepMind desarrolló para restaurar y comprender textos griegos antiguos, a menudo incompletos. Inicialmente, el equipo la había desarrollado pensando en epigrafistas, arqueólogos e historiadores como principales usuarios. Sin embargo, un par de meses después del lanzamiento de Ithaca, el equipo de Google DeepMind se enteró de un sorprendente nuevo caso de uso educativo: los profesores estaban usando Ithaca para diseñar un plan de estudios completamente nuevo que sirviera para salvar la brecha entre dos campos de estudio dispares, los estudios clásicos y la informática. Este nuevo plan de estudios enseña a los alumnos a poner en práctica las herramientas de inteligencia artificial y les muestra cuál es el impacto real de dichas tecnologías.
Un camino equilibrado hacia adelante
A medida que la IA continúa evolucionando, es fundamental que las organizaciones aborden su implementación de manera reflexiva. Los criterios que se describen aquí ofrecen un marco estratégico para identificar los problemas correctos que se deben abordar con la IA: problemas que se alinean con las fortalezas de la IA y que, si se resuelven, pueden abrir nuevos y sorprendentes caminos para la innovación y el impacto. Al centrarse en los problemas del nodo raíz y fomentar las colaboraciones interdisciplinarias, las organizaciones pueden aprovechar eficazmente todo el potencial de la IA para impulsar no solo el crecimiento empresarial sino también el progreso social.
Lea más sobre IA y aprendizaje automático o temas relacionados Gestión de productos
Paolo Cervini es asesor estratégico en materia de inteligencia artificial, sostenibilidad e innovación empresarial. Anteriormente fue coordinador de contenidos en HBR Italia.
Chiara Farronato es profesora asociada de Administración de Empresas en la Escuela de Negocios de Harvard y coinvestigadora principal del Laboratorio de Plataformas del Instituto de Diseño Digital (D^3) de Harvard. También es miembro de la Oficina Nacional de Investigación Económica y del Centro de Investigación de Política Económica.
Pushmeet Kohli es vicepresidente de ciencia y esfuerzos estratégicos en Google DeepMind, donde lidera los esfuerzos de investigación de IA para la ciencia como AlphaFold, un innovador sistema de IA para predecir las estructuras 3D de las proteínas, y SynthID, un método de última generación para marcar con agua y detectar contenido generado por IA.
Marshall W. Van Alstyne es profesor Allen & Kelli Questrom en la Universidad de Boston, investigador digital en la Iniciativa del MIT sobre la Economía Digital y académico visitante en el Centro Berkman-Klein de Harvard. @InfoEcon
No hay comentarios:
Publicar un comentario