Doxa 1622

La IA generativa no revolucionará la búsqueda, todavía

Hay importantes desafíos prácticos, técnicos y legales que superar antes de que herramientas como ChatGPT alcancen la escala, la solidez y la confiabilidad de Google.

Por Ege Gurdeniz y Kartik Hosanagar 
IA y aprendizaje automático
Harvard Business Review

#Doxa #IA #revolución #búsqueda #desafíos #prácticos #legales #técnico #ChatGPT #herramientas #escala #confiabilidad #solidez #Google #Microsoft #aprendizaje
Resumen. La IA generativa tiene el potencial de cambiar drásticamente lo que los usuarios esperan de la búsqueda, y compañías como Microsoft y Google están apostando fuerte por lo que podría generar. Pero a pesar de la exageración en torno a ChatGPT, y la IA generativa en general, existen importantes desafíos prácticos, técnicos y legales que superar antes de que estas herramientas puedan alcanzar la escala, la solidez y la confiabilidad de un motor de búsqueda establecido como Google. Estos incluyen problemas para mantener actualizados los modelos de lenguaje grandes, problemas relacionados con el abastecimiento y fabricaciones convincentes por parte de las IA. Dicho esto, estas herramientas podrían encajar perfectamente en formas de búsqueda más limitadas y especializadas.
ChatGPT ha creado un frenesí. Desde el lanzamiento del modelo de lenguaje grande (LLM) de OpenAI a fines de noviembre, ha habido una gran especulación sobre cómo las IA generativas, de las cuales ChatGPT es solo una, podrían cambiar todo lo que sabemos sobre el conocimiento, la investigación y la creación de contenido. O remodelar la fuerza laboral y las habilidades que los empleados necesitan para prosperar. ¡O incluso trastornar industrias enteras!

Un área se destaca como premio principal de la carrera generativa de IA: la búsqueda. La IA generativa tiene el potencial de cambiar drásticamente lo que los usuarios esperan de la búsqueda.

Google, el ganador desde hace mucho tiempo de la búsqueda en línea, parece tener repentinamente un retador en Microsoft, que recientemente invirtió $ 10 mil millones en el desarrollador de ChatGPT, OpenAI, y anunció planes para incorporar la herramienta en una gama de productos de Microsoft, incluido su motor de búsqueda, Bing. Mientras tanto, Google está lanzando su propia herramienta de inteligencia artificial, Bard, y el gigante tecnológico chino Baidu se está preparando para lanzar un competidor ChatGPT. También se están invirtiendo millones de dólares en nuevas empresas de IA generativa.

Pero a pesar de la exageración en torno a ChatGPT, y la IA generativa en general, existen importantes desafíos prácticos, técnicos y legales que superar antes de que estas herramientas puedan alcanzar la escala, la solidez y la confiabilidad de un motor de búsqueda establecido como Google.

Noticias de ayer

Los motores de búsqueda ingresaron a la corriente principal a principios de la década de 1990, pero su enfoque central no ha cambiado desde entonces: clasificar los sitios web indexados de la manera más relevante para un usuario. La era de la Búsqueda 1.0 requería que los usuarios ingresaran una palabra clave o una combinación de palabras clave para consultar el motor. La búsqueda 2.0 llegó a fines de la década de 2000 con la introducción de la búsqueda semántica, que permitía a los usuarios escribir frases naturales como si estuvieran interactuando con un ser humano.

Google dominó la búsqueda desde su lanzamiento gracias a tres factores clave: su interfaz de usuario simple y ordenada; el algoritmo revolucionario PageRank, que entregó resultados relevantes; y la capacidad de Google para escalar sin problemas con un volumen explosivo. La Búsqueda de Google ha sido la herramienta perfecta para abordar un caso de uso bien definido: encontrar sitios web que tengan la información que está buscando.

Pero parece haber un nuevo caso de uso en aumento ahora. Como también reconoció Google en su anuncio de Bard, los usuarios ahora buscan más que solo una lista de sitios web relevantes para una consulta: quieren "perspectivas y comprensión más profundas".

Y eso es exactamente lo que hace Search 3.0: ofrece respuestas en lugar de sitios web. Si bien Google ha sido el colega que nos indica un libro en una biblioteca que puede responder a nuestra pregunta, ChatGPT es el colega que ya ha leído todos los libros de la biblioteca y puede responder a nuestra pregunta. En teoría, de todos modos.

Pero aquí también radica el primer problema de ChatGPT: en su forma actual, ChatGPT no es un motor de búsqueda, principalmente porque no tiene acceso a información en tiempo real como lo hace un motor de búsqueda de rastreo web. ChatGPT se entrenó en un conjunto de datos masivo con un corte de octubre de 2021. Este proceso de capacitación le dio a ChatGPT una cantidad impresionante de conocimiento estático, así como la capacidad de comprender y producir lenguaje humano. Sin embargo, no “sabe” nada más allá de eso. En lo que respecta a ChatGPT, Rusia no ha invadido Ucrania, FTX es un intercambio de cifrado exitoso, la reina Isabel está viva y Covid no ha llegado a la etapa de Omicron. Esta es probablemente la razón por la que, en diciembre de 2022, el director ejecutivo de OpenAI, Sam Altman, dijo : "Es un error confiar en [ChatGPT] para algo importante en este momento".

¿Cambiará esto en un futuro cercano? Eso plantea el segundo gran problema: por ahora, volver a capacitar continuamente a un LLM a medida que evoluciona la información en Internet es extremadamente difícil.

El desafío más obvio es la enorme cantidad de potencia de procesamiento necesaria para capacitar continuamente a un LLM y el costo financiero asociado con estos recursos. Google cubre el costo de la búsqueda mediante la venta de anuncios, lo que le permite brindar el servicio de forma gratuita. El mayor costo de energía de los LLM hace que sea más difícil de lograr, particularmente si el objetivo es procesar consultas a la velocidad que lo hace Google, que se estima en decenas de miles por segundo (o unos pocos miles de millones por día). Una posible solución puede ser entrenar el modelo con menos frecuencia y evitar aplicarlo a consultas de búsqueda que cubran temas que evolucionan rápidamente.

Pero incluso si las empresas logran superar este desafío técnico y financiero, aún existe el problema de la información real que entregarán: ¿Qué van a aprender exactamente las herramientas como ChatGPT y de quién?

Considere la fuente

Los chatbots como ChatGPT son como espejos que se muestran a la sociedad: reflejan lo que ven. Si los deja sueltos para que los capaciten con datos sin filtrar de Internet, podrían escupir vitriolo. (¿Recuerda lo que sucedió con Tay ?) Es por eso que los LLM se capacitan en conjuntos de datos cuidadosamente seleccionados que el desarrollador considera apropiados.

Pero este nivel de curación no garantiza que todo el contenido de estos conjuntos de datos masivos en línea sea correcto y esté libre de sesgos. De hecho, un estudio realizado por Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell (acreditada como "Shmargaret Shmitchell" ) encontró que "grandes conjuntos de datos basados ​​en textos de Internet sobrerepresentan los puntos de vista hegemónicos y codifican sesgos potencialmente perjudiciales para las poblaciones marginadas"..” Como ejemplo, una fuente clave para los datos de capacitación de ChatGPT es Reddit, y los autores citan un estudio de Pew Research que muestra que el 67 % de los usuarios de Reddit en los Estados Unidos son hombres y el 64 % tienen entre 18 y 29 años.

Estas disparidades en el compromiso en línea a través de factores demográficos como el género, la edad, la raza, la nacionalidad, el estado socioeconómico y la afiliación política significan que la IA reflejará las opiniones del grupo más dominante en el contenido curado. ChatGPT ya ha sido acusado de estar " despertado " y tener un " sesgo liberal ". Al mismo tiempo, el chatbot también entregó recomendaciones de perfiles raciales, y un profesor de UC Berkley consiguió que la IA escribiera un código que dice que solo los hombres blancos o asiáticos serían buenos científicos. Desde entonces, OpenAI ha puesto medidas de seguridad para evitar estos incidentes, pero el problema subyacente aún persiste.

El sesgo también es un problema con los motores de búsqueda tradicionales, ya que pueden llevar a los usuarios a sitios web que contienen contenido sesgado, racista, incorrecto o inapropiado. Pero como Google es simplemente una guía que apunta a los usuarios hacia las fuentes, tiene menos responsabilidad por sus contenidos. Presentados con el contenido y la información contextual (p. ej., sesgos políticos conocidos de la fuente), los usuarios aplican su juicio para distinguir la realidad de la ficción, la opinión de la verdad objetiva y deciden qué información quieren usar. Este paso basado en el juicio se elimina con ChatGPT, lo que lo hace directamente responsable de los resultados sesgados y racistas que pueda generar.

Esto plantea el problema de la transparencia: los usuarios no tienen idea de qué fuentes hay detrás de una respuesta con una herramienta como ChatGPT, y las IA no las proporcionarán cuando se les pregunte. Esto crea una situación peligrosa en la que el usuario puede tomar una máquina sesgada como una herramienta objetiva que debe ser correcta. OpenAI está trabajando para abordar este desafío con WebGPT, una versión de la herramienta de IA que está capacitada para citar sus fuentes, pero aún está por verse su eficacia.

La opacidad en torno al abastecimiento puede generar otro problema: los estudios académicos y la evidencia anecdótica han demostrado que las aplicaciones de IA generativa pueden plagiar el contenido de sus datos de capacitación; en otras palabras, el trabajo de otra persona, que no dio su consentimiento para que su trabajo protegido por derechos de autor se incluyera en el datos de capacitación, no recibió compensación por el uso del trabajo y no recibió ningún crédito. (The New Yorker recientemente describió esto como las "tres C" en un artículo que analiza una demanda colectiva contra las empresas de IA generativa Midjourney, Stable Diffusion y Dream Up). También están surgiendo demandas contra Microsoft, OpenAI, GitHub y otras. y esto parece ser el comienzo de una nueva ola de batallas legales y éticas.

El plagio es un problema, pero también hay momentos en que los LLM simplemente inventan cosas. En un error muy público, Bard de Google, por ejemplo, entregó información objetivamente incorrecta sobre el telescopio James Webb durante una demostración. De manera similar, cuando se le preguntó a ChatGPT sobre el artículo de investigación más citado en economía, respondió con una cita de investigación completamente inventada.

Debido a estos problemas, ChatGPT y los LLM genéricos tienen que superar grandes desafíos para ser útiles en cualquier esfuerzo serio para encontrar información o producir contenido, particularmente en aplicaciones académicas y corporativas donde incluso el más pequeño paso en falso podría tener implicaciones profesionales catastróficas. 

Ir vertical

Es probable que los LLM mejoren ciertos aspectos de los motores de búsqueda tradicionales, pero actualmente no parecen capaces de destronar a la búsqueda de Google. Sin embargo, podrían desempeñar un papel más disruptivo y revolucionario para cambiar otros tipos de búsqueda.

Lo que es más probable en la era de la Búsqueda 3.0 es el surgimiento de LLM seleccionados de forma deliberada y transparente y deliberadamente capacitados para la búsqueda vertical, que son motores de búsqueda especializados en temas específicos.

La búsqueda vertical es un caso de uso sólido para los LLM por varias razones. Primero, se enfocan en campos específicos y casos de uso: conocimiento limitado pero profundo. Eso facilita la capacitación de LLM en conjuntos de datos altamente seleccionados, que podrían venir con documentación completa que describa las fuentes y los detalles técnicos sobre el modelo. También facilita que estos conjuntos de datos se rijan por las leyes, reglas y regulaciones apropiadas de derechos de autor, propiedad intelectual y privacidad. Los modelos de lenguaje más pequeños y más específicos también significan un menor costo computacional, lo que facilita que se vuelvan a capacitar con más frecuencia. Finalmente, estos LLM estarían sujetos a pruebas y auditorías regulares por parte de expertos externos, de manera similar a cómo los modelos analíticos utilizados en instituciones financieras reguladas están sujetos a rigurosos requisitos de prueba.

En campos donde el conocimiento experto arraigado en hechos y datos históricos es una parte importante del trabajo, los LLM verticales pueden proporcionar una nueva generación de herramientas de productividad que mejoran a los humanos de formas completamente nuevas. Imagine una versión de ChatGPT capacitada en libros de texto y revistas médicas publicadas y revisadas por pares e integrada en Microsoft Office como asistente de investigación para profesionales médicos. O una versión entrenada en décadas de datos financieros y artículos de las principales bases de datos financieras y revistas que los analistas bancarios utilizan para la investigación. Otro ejemplo es capacitar a LLM para escribir o depurar código y responder preguntas de los desarrolladores.

Las empresas y los emprendedores pueden hacer cinco preguntas al evaluar si existe un caso de uso sólido para aplicar LLM a una aplicación de búsqueda vertical:
  • ¿La tarea o proceso requiere tradicionalmente una investigación extensa o una gran experiencia en la materia?
  • ¿El resultado de la tarea es información, perspicacia o conocimiento sintetizados que permiten al usuario actuar o tomar una decisión?
  • ¿Existen suficientes datos técnicos o fácticos históricos para capacitar a la IA para que se convierta en un experto en el área de búsqueda vertical?
  • ¿Se puede capacitar al LLM con nueva información con una frecuencia adecuada para que proporcione información actualizada?
  • ¿Es legal y ético que la IA aprenda, replique y perpetúe los puntos de vista, las suposiciones y la información incluida en los datos de entrenamiento?
Responder con confianza a las preguntas anteriores requerirá una lente multidisciplinaria que reúna perspectivas comerciales, técnicas, legales, financieras y éticas. Pero si la respuesta es "sí" a las cinco preguntas, es probable que exista un caso de uso sólido para un LLM vertical. 

Dejar que el polvo se asiente

La tecnología detrás de ChatGPT es impresionante, pero no exclusiva, y pronto será fácil de replicar y comercializar. Con el tiempo, la fascinación del público con las deliciosas respuestas producidas por ChatGPT se desvanecerá, mientras que las realidades prácticas y las limitaciones de la tecnología comenzarán a establecerse. Como resultado, los inversores y usuarios deben prestar atención a las empresas que se enfocan en abordar los aspectos técnicos, desafíos legales y éticos discutidos anteriormente, ya que esos son los frentes donde tendrá lugar la diferenciación del producto y, en última instancia, se ganarán las batallas de la IA

Lea más sobre IA y aprendizaje automático o temas relacionados Tecnología y análisis y tecnologías basadas en la web

Ege Gurdeniz es asesor de estrategia y líder en innovación. Impulsa transformaciones digitales a gran escala y ayuda a las instituciones a adoptar de manera responsable la IA y otras nuevas tecnologías para generar valor para el cliente.

Kartik Hosanagar (@khosanagar) es profesor de tecnología y negocios digitales en Wharton School de la Universidad de Pensilvania y codirector del cuerpo docente de su centro de IA. Su investigación actual se centra en la colaboración humana-IA y la IA y la creatividad. Es el autor de "Una guía humana para la inteligencia artificial".


No hay comentarios:

Publicar un comentario