Doxa 1921

Por qué los ingenieros deberían estudiar filosofía

Por Marco Argenti
Análisis y Ciencia De Datos.
Harvard Business Review

#Doxa #ingenieros #filosofía #ciencia #datos #modelos #problemas #trabajar #habilidad #IA #codificación #laborales
Resumen. La capacidad de desarrollar modelos mentales nítidos en torno a los problemas que desea resolver y comprender el por qué antes de comenzar a trabajar en el cómo es una habilidad cada vez más crítica, especialmente en la era de la IA. La codificación es una de las cosas que la IA hace mejor y sus capacidades están mejorando rápidamente. Sin embargo, hay un problema: el código creado por una IA puede ser sintáctica y semánticamente correcto, pero no funcionalmente correcto. En otras palabras, puede funcionar bien, pero no hacer lo que usted quiere que haga. Tener un modelo mental nítido sobre un problema, ser capaz de dividirlo en pasos que sean manejables, pensar perfectamente en el primer principio y, a veces, estar preparado (y ser capaz de) debatir con una IA obstinada: estas son las habilidades que harán de un gran ingeniero en el futuro, y probablemente la misma consideración se aplique a muchas categorías laborales.
Recientemente le dije a mi hija, una estudiante universitaria: si quieres seguir una carrera en ingeniería, debes concentrarte en aprender filosofía además de los cursos tradicionales de ingeniería. ¿Por qué? Porque mejorará tu código.

Viniendo de un ingeniero, esto puede parecer contradictorio, pero la capacidad de desarrollar modelos mentales nítidos en torno a los problemas que desea resolver y comprender el por qué antes de comenzar a trabajar en el cómo es una habilidad cada vez más crítica, especialmente en la era de la IA.

La codificación es una de las cosas que la IA hace mejor. A menudo, la IA puede escribir código de mayor calidad que los humanos y sus capacidades están mejorando rápidamente. Los lenguajes informáticos, como ve, utilizan un vocabulario mucho más limitado que los lenguajes humanos. Y debido a que la complejidad de un modelo de IA aumenta cuadráticamente con el universo de símbolos que representan el lenguaje que entiende la IA, un vocabulario más pequeño significa resultados mejores y más rápidos.

Sin embargo, aquí hay un problema: el código creado por una IA puede ser sintáctica y semánticamente correcto, pero no funcionalmente correcto. En otras palabras, puede funcionar bien, pero no hacer lo que usted quiere que haga. La salida de un modelo es muy sensible a la forma en que se escribe un mensaje. Si no aciertas en el mensaje, tu IA producirá un código que es plausible en el mejor de los casos, incorrecto y peligroso en el peor.

En la disciplina emergente llamada “ ingeniería rápida ” (en esta etapa más un arte que una ciencia), los usuarios aprenden a crear indicaciones que sean compactas, expresivas y efectivas para lograr que la IA haga lo que quieren. Existen varias técnicas, como las indicaciones de algunos disparos, en las que se antepone una serie de ejemplos a la indicación para guiar a la IA hacia el camino correcto, a veces con preguntas y respuestas. Por ejemplo, para el análisis de sentimiento utilizando indicaciones breves, un usuario podría ingresar un mensaje como "Analizar el sentimiento de las oraciones en una llamada de ganancias" seguido de ejemplos específicos como "Perspectiva mejorada: Positiva" o "Desaceleración de la demanda: Negativa" para Ayude a la IA a comprender el patrón y el contexto para generar análisis de sentimiento precisos basados ​​en ejemplos.

Una de las habilidades más importantes que he aprendido en décadas de gestión de equipos de ingeniería es hacer las preguntas correctas. No es diferente de la IA: la calidad del resultado de un modelo de lenguaje grande (LLM) es muy sensible a la calidad del mensaje. Las preguntas ambiguas o mal formuladas harán que la IA intente adivinar la pregunta que realmente estás haciendo, lo que a su vez aumenta la probabilidad de obtener una respuesta imprecisa o incluso totalmente inventada (un fenómeno que a menudo se denomina "alucinación").. Por eso, primero y ante todo habría que dominar el razonamiento, la lógica y el pensamiento de primeros principios para aprovechar al máximo la IA, todas habilidades fundamentales desarrolladas a través de la formación filosófica. La pregunta "¿Sabes codificar?" se convertirá en "¿Puedes obtener el mejor código de tu IA haciendo la pregunta correcta?"

Alejándonos un poco, la dependencia del desempeño de la IA de la calidad de los modelos mentales expresados ​​por el usuario que impulsa a la IA sugiere un cambio fundamental en la relación entre autores y lectores y, en general, en nuestra relación con el conocimiento. En cierto modo, ofrece un paralelo con la invención de la imprenta, que democratizó la información mediante la producción masiva de libros y la creación de bibliotecas y universidades. Antes de la imprenta, si querías aprender matemáticas, por ejemplo, probablemente tenías que tener acceso físico a un matemático o acceso a un texto copiado a mano, probablemente comprado con un gran costo. Los libros impresos hicieron que esa barrera fuera mucho más baja, e Internet la redujo prácticamente a cero. Aún así, persiste una barrera que es la brecha de conocimiento entre el autor y el lector. Puedes tener acceso a cualquier artículo o libro del mundo, pero de poco sirven si no puedes entenderlos.

Al trabajar con IA, esa relación cambia, al igual que la noción de autoría. Un LLM adapta su contenido al nivel de conocimiento y comprensión del lector, siguiendo las indicaciones de sus indicaciones. El mensaje del lector es la semilla que hace que una IA produzca contenido, aprovechando las obras de sus datos de entrenamiento para crear un nuevo texto específicamente para ese usuario; el lector es, en cierto sentido, tanto consumidor como autor. Usando el ejemplo de las matemáticas, si desea comprender el concepto de límites en cálculo, puede buscar un libro de texto dirigido a estudiantes de secundaria o universitarios o intentar encontrar una fuente en Internet que coincida con su nivel actual de comprensión. Un modelo de IA, por otro lado, puede proporcionar instrucción personalizada y adaptable adaptada a su nivel de comprensión y estilo de aprendizaje. Puede haber un futuro en el que el estándar de oro del aprendizaje (la tutoría personalizada) esté disponible para todos. Las consecuencias de eso son inimaginables.

La IA generativa cambia nuestra relación con el conocimiento, eliminando barreras que no solo brindan acceso a él, sino que también lo explican con un enfoque personalizado. Crea una suave pendiente entre su nivel de conocimiento y el nivel de conocimiento requerido para abordar un tema en particular. Pero la capacidad de acceder a conocimientos que estén adecuadamente adaptados y, lo que es más importante, precisos, comienza (y termina) con el usuario. A medida que el conocimiento se vuelve más fácil de obtener, el razonamiento se vuelve cada vez más importante. Pero el uso de esas habilidades de pensamiento filosófico no termina una vez que obtienes el resultado que crees que estabas buscando: el trabajo aún no está terminado. Como sabemos, las IA pueden cometer errores y son particularmente buenas para hacer que los resultados incorrectos parezcan plausibles, lo que hace que la capacidad de discernir la verdad sea otra habilidad enormemente importante. Para involucrarnos con la tecnología de una manera responsable que nos brinde la información adecuada y precisa que queremos, debemos liderar con una mentalidad filosófica y una buena dosis de escepticismo y sentido común durante todo el viaje.

Hubo un momento en el que, para crear un programa de computadora, tenía que accionar físicamente interruptores o perforar agujeros en una tarjeta de papel. Ese proceso de creación fue a nivel básico con las complejidades de cuántos bits de memoria o registros poseía la computadora. Con miles de millones de transistores y billones de celdas de memoria, nuestro proceso creativo de software tuvo que elevarse a niveles cada vez más altos con la creación de lenguajes informáticos que abstraerían la complejidad del hardware subyacente, permitiendo a los desarrolladores centrarse casi por completo en la calidad del algoritmo. frente a los unos y los ceros.

Hoy estamos en un punto en el que las computadoras (es decir, la IA) no necesitan este nivel intermedio de traducción entre el idioma que hablamos y el que entienden. Podemos dejar de lado la Piedra Rosetta y simplemente hablar inglés con una computadora. Probablemente lo entenderán tan bien como cuando les hablen en Python. Esto presenta inmediatamente dos opciones: podemos volvernos perezosos o podemos elevar nuestro pensamiento.

Cuando el lenguaje ya no sea la barrera, podremos emplear toda la expresividad del lenguaje humano para transmitir a la IA conceptos y lógica superiores, que capturarían nuestra solicitud de la manera más compacta y efectiva, de una manera declarativa (centrada en el resultado). queremos obtener) versus imperativo (centrado en los pasos para llegar allí). Imperativo: Girar a la izquierda, luego seguir recto, luego nuevamente a la izquierda, luego (1.000 veces). Declarativo: Llévame a casa. He visto a personas en las redes sociales crear juegos completos con solo unas pocas indicaciones hábilmente escritas que en el pasado muy reciente habrían tardado meses en desarrollarse.

Volviendo a mi punto original: tener un modelo mental nítido en torno a un problema, ser capaz de dividirlo en pasos que sean manejables, un pensamiento perfecto sobre el primer principio y, a veces, estar preparado (y ser capaz de) debatir con una IA obstinada: estos son las habilidades que harán a un gran ingeniero en el futuro, y probablemente la misma consideración se aplique a muchas categorías laborales.

No queremos perder la capacidad de abrir el capó cuando sea necesario y arreglar cosas que una IA puede haber pasado por alto o estar en condiciones (lo más importante) de auditar lo que una IA ha creado. Eso sería un problema real para los humanos, y probablemente no permitiremos que eso suceda: al menos todavía tenemos que construir las IA. Sin embargo, eso sólo nos llevaría parcialmente a ese punto. Automatizar la mecánica de creación de código y centrarnos en nuestras habilidades de pensamiento crítico es lo que nos permitirá crear más, más rápido y tener un impacto desproporcionado en el mundo. Ayudar a la IA a ayudarnos a ser más humanos, menos ordenadores.

Lea más sobre Análisis y ciencia de datos o temas relacionados Tecnología y análisis, IA y aprendizaje automático y Automatización

Marco Argenti es el director de información de Goldman Sachs.

 

No hay comentarios:

Publicar un comentario