Doxa 1833

Para trabajar bien con GenAI, tiene que aprender a hablar con él

Por Jaime Teevan
Tecnología y Analítica
Harvard Business Review

#Doxa #trabajo #GenAI #aprender #tecnología #ordenador #LLM #datos #ingeniería #algoritmos
Resumen. Las conversaciones en lenguaje natural son la base de la forma en que trabajan las personas. Históricamente, eso ha sido así en la forma en que trabajamos juntos y ahora también en la forma en que trabajamos con nuestros ordenadores. Estas conversaciones contienen muchos conocimientos que los LLM desbloquearán. Su conversación con PowerPoint, por ejemplo, ahora puede convertirse en una presentación increíble. Pero las conversaciones no giran solo en torno a hechos y datos, sino que la base y la estructura también son importantes, eso es lo que significa la ingeniería rápida. Y a medida que empecemos a descubrir las nuevas formas de trabajo que ofrecen los LLM, esta estructura también evolucionará.
Como científico jefe de Microsoft, mi trabajo consiste en investigar para mejorar el trabajo. Y es un momento increíblemente emocionante para tener ese trabajo. Estudio tras estudio muestran que los avances recientes en la IA permitirán a las personas trabajar de formas sustancialmente nuevas y más productivas, y acabamos de empezar a rascar la superficie de lo que es posible con la IA. En los 17 años que llevo en Microsoft, nunca he sido más optimista en cuanto a la oportunidad de que la informática cambie el trabajo para mejor.

Una de las razones por las que esta última generación de herramientas de IA es tan prometedora es porque permiten que las personas puedan interactuar con nuestros ordenadores de la misma manera que nosotros hemos interactuado con otros humanos durante milenios: con el lenguaje natural. Es un cambio enorme. Antes, la única forma de comunicar ideas complejas a los ordenadores era utilizar lenguajes diseñados para ordenadores: escribir una fórmula de hoja de cálculo exactamente correcta, recordar las palabras clave exactas para buscar correos electrónicos o aprender un lenguaje de programación. Gran parte de esa restricción ya no existe; ahora puede decirle a la IA lo que tiene que hacer simplemente escribiendo un prompt en lenguaje natural.

Si bien, en general, esta capacidad de comunicarse con los sistemas de IA mediante indicaciones supone un avance enorme, las investigaciones muestran que también introduce una curva de aprendizaje comprensible. Incluso para mí, es algo nuevo y extraño poder hablar con un ordenador en inglés sencillo. Los científicos de todo el mundo están trabajando arduamente para aplanar esta curva de aprendizaje y están progresando mucho (por ejemplo, trabajando en “optimización rápida”). Sin embargo, las investigaciones son claras en cuanto a que puede sacar mucho más provecho de la IA ahora mismo si se entrena un poco sobre cómo escribir buenas indicaciones. UN estudio reciente con consultores de gestión de BCG, por ejemplo, descubrió que los consultores que reciben una formación rápida aprovechan mejor el poder de la IA que los que no la reciben.

Afortunadamente, las investigaciones realizadas por Microsoft y la comunidad académica han arrojado resultados preliminares que pueden ayudar a las personas a acelerar su proceso de búsqueda de información. La mayoría de estos hallazgos se basan en una idea clave: aunque utilice el lenguaje natural, debe recordar que un sistema de IA necesita saber cosas diferentes a las de un humano.

Dominar el lenguaje de la IA
¿Qué necesita saber un ordenador en un prompt que un humano podría no saber? ¿Cómo podemos utilizar esa información para mejorar las indicaciones? A continuación se muestran algunas de las teorías y resultados de la literatura científica que pueden ayudar a responder a esa pregunta.

Proporcione más contexto que con una persona
La psicolingüística, que estudia los aspectos psicológicos del lenguaje, nos ha enseñado durante mucho tiempo sobre la papel central de la conexión a tierra en cualquier comunicación. En términos generales, la base es el proceso de llegar a un significado que se entiende mutuamente a través de una conversación; en pocas palabras, asegurarse de que está en la misma página. Por ejemplo, si las personas que asisten a una reunión tienen una comprensión compartida de las medidas que deben tomar al final de esa reunión (y saben que tienen ese entendimiento compartido), probablemente se deba a que han dedicado gran parte de ese tiempo puesta a tierra sobre cuáles son los próximos pasos.

El proceso de basarse en un modelo lingüístico grande es diferente al que se basa con otra persona, ya que el modelo normalmente tiene menos contexto compartido. Hacer que el contexto sea explícito en el prompt le ayuda a obtener mejores resultados. Por ejemplo, cuando hablo con un investigador de mi equipo, ambos conocemos todas las sesiones de lluvia de ideas que hemos tenido sobre el tema en el pasado, las habilidades que tiene esa persona, etc., pero los LLM no, al menos no todavía. Así que, si utilizo la IA como ayuda para escribir un correo electrónico a esa persona, puede ser útil para proporcionarme el contexto más importante sobre todas las demás cosas que sé y que el LLM podría no tener. Una persona podría considerar grosero decirle exactamente qué formación necesita, pero el LLM, por supuesto, no lo hará.

Gracias a técnicas como» generación aumentada de recuperación» y otros avances tecnológicos recientes, la cantidad de contexto que tendrá que ofrecer se reducirá bastante. La IA puede buscar en sus correos electrónicos y documentos anteriores para obtener un contexto útil, por ejemplo. Su contexto actual también proporciona material de base. Algunos sistemas, por ejemplo, basan las preguntas que hace sobre una reunión en la transcripción de la reunión. Dicho esto, dado lo importante que es una base para una cooperación eficaz, seguirá siendo crucial dar al LLM el contexto adecuado.

Utilice la «sabiduría de la multitud»
Las investigaciones sugieren que las personas pueden captar la «sabiduría de la multitud» abordando un problema desde diferentes perspectivas; ahora podemos hacerlo con la IA. A menudo me resulta útil pedir al menos tres respuestas (por ejemplo, «genere al menos tres títulos» o «dígame tres formas en las que reescribiría este párrafo») y, a veces, incluso dar estructura a las ideas («haga al menos uno divertido y otro formal»). Y cuando tenga una idea clara de lo que busca exactamente del modelo, ponga algunos ejemplos. Ese proceso, denominado «aprendizaje de pocos intentos», ayudará al LLM a modelar su respuesta a lo que quiere.

Confíe en el reconocimiento, no en la memoria
Un principio fundamental de la interacción con el ordenador es que es mucho más fácil para que la gente reconozca los comandos que quieren emitir en lugar de recordarlos. Piense en lo fácil que es elegir algo de una lista que encontrar algo desde cero. Por eso casi todos utilizamos interfaces gráficas en lugar de «líneas de comando», como DOS; es mucho más fácil, por ejemplo, hacer doble clic para abrir el logotipo de una aplicación que recordar el comando específico para abrir una aplicación y, a continuación, recordar el nombre formal de la aplicación.

Ayudar a las personas a reconocer el prompt que desean en lugar de tener que desarrollarlo desde cero es un factor motivador detrás de muchas nuevas funciones de IA. En algunos sistemas de IA avanzados, puede acceder a una enorme biblioteca de mensajes preescritos, puede guardar los mensajes que desee para no tener que recordarlos, etc. Aparecen en la experiencia del usuario y, con el tiempo, también empezarán a incluirse las mejores indicaciones que utilice usted y su organización. Mientras tanto, guardo un archivo con algunas de mis instrucciones personales favoritas que aún no están incluidas en la biblioteca. Por ejemplo, este es uno que uso mucho:

Soy investigador y envío este correo electrónico a un grupo de equipos con los que colaboro. Dígame qué señales de alerta podría levantar cuando envíe esto.

Haga que sea una conversación, no una sola solicitud
Una conclusión clave de la literatura es que dividir las solicitudes complejas en varios pasos puede ayudar a las personas a conseguir lo que quieren de los LLM con más éxito. Hay formas más formales de hacerlo (p. ej., incitación a la «cadena de pensamiento»), pero es probable que las estrategias informales también tengan éxito. Por ejemplo, he descubierto que es mejor pedir primero un resumen de un artículo que quiera entender y, después, pedir información por separado. Por ejemplo:
  • Describa el artículo con viñetas, centrándose en lo que podría interesarle a un ejecutivo de Microsoft (con un interés especial por la investigación).
  • ¿Qué preguntas debe hacer ese ejecutivo sobre el artículo? Incluya las respuestas a las preguntas, con citas del artículo con la mayor frecuencia posible. Y si la respuesta a la pregunta no figura en el artículo, responda con: «La respuesta no está incluida en el artículo». (O «La pregunta es solo respuestas parciales», con una descripción de la respuesta parcial y qué más hay que saber para dar una respuesta completa).
Si al principio no lo consigue, inténtelo de nuevo (de otra forma)
Los LLM son tecnologías relativamente nuevas y hay muchas no entendemos sobre ellos. Esto significa que a veces no podemos explicar por qué un prompt redactado de una forma funciona bien y otro redactado de otra manera no, y esto puede variar según las diferentes versiones y aplicaciones del mismo modelo de IA. Así que, si prueba con un prompt y no funciona, experimente con la reformulación para averiguar qué es lo que funciona bien. Incluso puede preguntar cómo debe hacer su pregunta a un LLM. No es fácil hacer borrón y cuenta nueva y probar algo nuevo con una persona, pero puede hacerlo fácilmente con la IA. Diviértase viendo hacia dónde pueden llevarlo las diferentes estrategias.

El soporte rápido será la «cinta» del LLM
Si las LLM representan un nuevo paradigma para interactuar con los ordenadores, un buen soporte de prompt puede ser como la «cinta» de comandos comunes que aparecen en aplicaciones como Word y Excel y que permite a los usuarios desbloquear más funciones de la aplicación. Estamos investigando, por ejemplo, cómo recomendar automáticamente indicaciones personalizadas que puedan ayudarlo a dar el siguiente paso en su flujo de trabajo o a abordar un elemento de su lista de tareas pendientes. Y nos quedan muchas más investigaciones interesantes por hacer. Las mejores estrategias de prompt cambiarán con el tiempo a medida que haya nuevas funciones disponibles y empecemos a descubrir lo realmente excepcional de integrar los LLM en nuestro trabajo. El aumento de la personalización, por ejemplo, hará que la necesidad de especificar el contexto sea menos importante, mientras que la capacidad de los LLM de tomar medidas hará que las indicaciones que ayuden a la planificación sean más importantes.

Hasta ahora, los investigadores han desarrollado muchas de las mejores estrategias de prompt. Han demostrado que un buen prompt a menudo puede ofrecer incluso más beneficios que mejorar el modelo subyacente. Por ejemplo, un artículo muy reciente de Microsoft demostró que se pueden obtener enormes aumentos de rendimiento con los LLM en el ámbito de la medicina con solo cambiar la estrategia de incitación, desafiando las suposiciones sobre la necesidad de nuevos modelos de procesos de formación. Pero por muy inteligentes que sean estos investigadores, el espacio que pueden explorar es relativamente limitado. Cada vez más, podremos aprender las mejores estrategias de los millones de personas que utilizan los LLM. A medida que más personas utilicen estas herramientas y las herramientas evolucionen, seguiremos aprendiendo más.

Las conversaciones en lenguaje natural son la base de la forma en que trabajan las personas. Históricamente, eso ha sido así en la forma en que trabajamos juntos y ahora también en la forma en que trabajamos con nuestros ordenadores. Estas conversaciones contienen mucho conocimiento que los LLM desbloquearán. Su conversación con PowerPoint, por ejemplo, ahora puede convertirse en una presentación increíble. Pero las conversaciones no giran solo en torno a hechos y datos, sino que la base y la estructura también son importantes. Eso es lo que es la ingeniería rápida. Y a medida que empecemos a descubrir las nuevas formas de trabajo que ofrecen los LLM, esta estructura también evolucionará. Tengo ganas de seguir practicando y aprendiendo, y espero que usted también lo esté.

Lea más sobre Tecnología y análisis o temas relacionados IA y aprendizaje automático, Algoritmos, Análisis y ciencia de datos, Gestión de datos, Automatización, Computación empresarial y Gestión de la información

Jaime Teevan es científica jefe de Microsoft, donde es responsable de impulsar la innovación respaldada por la investigación en los productos de Microsoft. Sus primeros trabajos en Microsoft se centraron en el uso de la IA para ayudar a las personas a lograr sus objetivos, desarrollando el primer algoritmo de búsqueda personalizado utilizado por Bing e introduciendo la microproductividad en Microsoft Office. Jaime se ha desempeñado como asesor técnico del director ejecutivo de Microsoft y actualmente lidera el esfuerzo de Microsoft para comprender las prácticas laborales posteriores a Covid.


No hay comentarios:

Publicar un comentario