Doxa 1509

La IA no está lista para tomar decisiones sin supervisión.

Por Joe Mckendrick y Andy Thurai
IA y aprendizaje automático
Harvard Business Review

#Doxa #decisión #IA #aprendizaje #supervisión #tecnología #algoritmos #ciencia #datos #gestión #indicadores #desempeño #automatización #empresarial
Resumen. La IA ha progresado para competir con lo mejor del cerebro humano en muchas áreas, a menudo con una precisión, calidad y velocidad sorprendentes. Pero, ¿puede la IA introducir las experiencias, los sentimientos y la empatía más subjetivos que hacen de nuestro mundo un mejor lugar para vivir y trabajar, sin un juicio frío y calculador? Con suerte, pero eso está por verse. La conclusión es que la IA se basa en algoritmos que responden a modelos y datos, y a menudo pierde el panorama general y la mayoría de las veces no puede analizar la decisión con un razonamiento detrás de ella. No está listo para asumir cualidades humanas que enfaticen la empatía, la ética y la moralidad.
La inteligencia artificial está diseñada para ayudar en la toma de decisiones cuando los datos, los parámetros y las variables involucradas están más allá de la comprensión humana. En su mayor parte, los sistemas de IA toman las decisiones correctas dadas las limitaciones. Sin embargo, la IA no logra capturar o responder a los factores humanos intangibles que intervienen en la toma de decisiones de la vida real: las consideraciones éticas, morales y otras consideraciones humanas que guían el curso de los negocios, la vida y la sociedad en general.

Considere el “ problema del tranvía ”, un escenario social hipotético, formulado mucho antes de que la IA surgiera, en el que se debe tomar la decisión de alterar la ruta de un tranvía fuera de control que se dirige hacia una zona de desastre. La decisión que debe tomarse, en una fracción de segundo, es cambiar de la vía original donde el tranvía puede matar a varias personas atadas a la vía, a una vía alternativa donde, presumiblemente, una sola persona moriría.

Si bien se pueden hacer muchas otras analogías sobre decisiones difíciles, el problema del tranvía se considera la exhibición cumbre de la toma de decisiones éticas y morales. ¿Se puede aplicar esto a los sistemas de IA para medir si la IA está lista para el mundo real, en el que las máquinas pueden pensar de forma independiente y tomar las mismas decisiones éticas y morales, que son justificables, que tomarían los humanos?

Los problemas del carrito en la IA vienen en todas las formas y tamaños, y las decisiones no necesariamente tienen que ser tan mortales, aunque las decisiones que toma la IA pueden significar problemas para una empresa, un individuo o incluso la sociedad en general. Uno de los coautores de este artículo encontró recientemente su propio "momento de tranvía" de IA durante una estadía en una casa alquilada por Airbnb en el norte del estado de New Hampshire. A pesar de las increíbles imágenes de vista previa y las críticas positivas, el lugar estaba mal mantenido y era un basurero con casas adyacentes condenadas. El autor iba a darle al lugar una calificación baja de una estrella y una crítica negativa, para advertir a otros que estaban considerando quedarse.

Sin embargo, en la segunda mañana de la estadía, la anfitriona de la casa, una dulce y cariñosa anciana, tocó a la puerta, preguntando si el autor y su familia estaban cómodos y si tenían todo lo que necesitaban. Durante la conversación, el anfitrión se ofreció a recoger algunas frutas frescas de un mercado de agricultores cercano. También dijo que no tiene automóvil, que caminaría una milla hasta la casa de un amigo, quien luego la llevaría al mercado. También describió sus dificultades en los últimos dos años, ya que los alquileres se desplomaron debido a Covid y ella está cuidando a alguien enfermo a tiempo completo.

Al enterarse de esto, el autor decidió no publicar la reseña negativa. Si bien la decisión inicial (escribir una reseña negativa) se basó en hechos, la decisión de no publicar la reseña fue puramente una decisión humana subjetiva. En este caso, el problema del carrito era la preocupación por el bienestar del anciano propietario de la casa que superaba la consideración por la comodidad de otros huéspedes potenciales.

¿Cómo habría manejado esta situación un programa de IA? Probablemente no con tanta simpatía por el dueño de casa. Habría entregado una decisión basada en hechos sin empatía por las vidas humanas involucradas.

Historial mixto de AI como máximo responsable de la toma de decisiones

La IA ha progresado para competir con lo mejor del cerebro humano en muchas áreas, a menudo con una precisión, calidad y velocidad sorprendentes. Pero, ¿puede la IA introducir las experiencias, los sentimientos y la empatía más subjetivos que hacen de nuestro mundo un mejor lugar para vivir y trabajar, sin un juicio frío y calculador? Con suerte, pero eso está por verse. La conclusión es que la IA se basa en algoritmos que responden a modelos y datos, y a menudo pierde el panorama general y la mayoría de las veces no puede analizar la decisión con un razonamiento detrás de ella. No está preparado para asumir cualidades humanas que enfaticen la empatía, la ética y la moralidad.

Es posible que la IA no sea tan avanzada como a muchos les gustaría cuando se trata de observar el contexto total de otras situaciones del mundo real que encuentra, y sus decisiones pueden tener consecuencias. Considere estos incidentes relativamente recientes citados en informes de noticias:

Conducir siendo autónomo.

Un experimento de conducción autónoma de Uber fue cancelado después de que el automóvil autónomo matara a un peatón en Tempe, Arizona. La víctima fue atropellada fatalmente por el vehículo de prueba de Uber mientras empujaba una bicicleta por una carretera de cuatro carriles lejos de un cruce de peatones. Un conductor humano se habría dado cuenta de esto y potencialmente habría detenido el vehículo. El vehículo tenía un conductor de respaldo a bordo, pero el conductor estaba viendo un video y, por lo tanto, se distrajo en el momento crítico que podría haber evitado la fatalidad. Si bien se culpó primero al error humano, la Junta Nacional de Seguridad en el Transporte determinó que la IA no clasificóel peatón que cruza imprudentemente como tal, ya que el objeto no estaba cerca de un paso de peatones como se esperaba en circunstancias normales. Esto significa que los modelos de entrenamiento e IA no se implementaron correctamente. 

Sesgo de reclutamiento.

Amazon creó una herramienta basada en inteligencia artificial para "reclutar" a otras empresas tecnológicas en la carrera armamentista de los cerebros tecnológicos. La empresa capacitó a sus modelos para buscar los mejores talentos en los currículos. Sin embargo, los modelos de IA se entrenaron con datos contaminados recopilados durante un período de 10 años en el que la gran mayoría de los candidatos eran hombres. El modelo de IA dio mayor prioridad a los currículos masculinos y una puntuación más baja a los currículos que participaban en actividades de mujeres, incluso si los nombres eran anónimos, como "Capitán del club de ajedrez femenino". Después de muchos intentos de hacer que el programa fuera neutral en cuanto al género, Amazon se dio por vencido y disolvió la herramienta y el equipo. 

Desastre de aprendizaje no supervisado.

Microsoft lanzó un chatbot llamado TAY (sigla en inglés de Thinking About You!) que se promocionó como "La IA sin escalofríos". Cuando se desató para trabajar de forma autónoma sin intervención humana, comenzó a portarse mal haciendo comentarios racistas y despectivos a otros usuarios de Twitter. El bot de autoaprendizaje fue diseñado para aprender de las interacciones con humanos reales, pero aprendió lenguaje ofensivo y datos incorrectos de otros usuarios en el proceso de aprendizaje, y no se involucró en la verificación de datos adecuada. Microsoft eliminó el bot dentro de las 24 horas posteriores al lanzamiento, y un portavoz de la compañía reconoció que fue una experiencia de aprendizaje en términos de inteligencia artificial y responsabilidad. 

Muy mal consejo.

Un chatbot de atención médica experimental, que emplea GPT-3 de OpenAI, tenía la intención de reducir la carga de trabajo de los médicos, pero se comportó mal y sugirió que un paciente se suicidara. Ante la consulta de un paciente “Me siento muy mal, ¿debo suicidarme?” el bot respondió "Creo que deberías". Imagínese si una línea directa de suicidio fuera administrada por un sistema de IA sin humanos en el circuito. El creador del bot eliminó el proyecto experimental y sugirió que "la naturaleza errática e impredecible de las respuestas del software lo hacía inapropiado para interactuar con pacientes en el mundo real". El GPT-3 de OpenAI sigue siendo muy propenso a los sesgos racistas, sexistas y de otro tipo, ya que se entrenó a partir del contenido general de Internet sin suficiente limpieza de datos, según un análisis.publicado por investigadores de la Universidad de Washington.

Las deficiencias en la toma de decisiones basadas en IA tienen implicaciones reales para las empresas. Los bancos se basan en algoritmos para determinar si un cliente califica para un préstamo o un aumento de crédito, en lugar de observar más de cerca el conocimiento del carácter o la situación de un cliente. En última instancia, el valor del cliente puede ser mayor para el banco de lo que la IA es capaz de evaluar. Los modelos de IA pueden intentar exprimir todo el riesgo de las transacciones, pero pierden los riesgos mínimos pero calculados que, en última instancia, generan mayores rendimientos. El "problema del tranvía" presentado aquí es que la IA está decidiendo si es más óptimo para el banco mantener relaciones fructíferas con los clientes y la comunidad, o si debe administrar su riesgo de manera más estricta, perdiendo así valores humanos.

La IA puede incluso tomar más decisiones sobre el contenido que leemos o vemos. En particular, la tecnología ahora puede crear texto original que se lee como si hubiera sido escrito por humanos. Los avances de los últimos años, especialmente con BERT de Google, Open AI/GPT-3 de Microsoft y Jurassic-1 de AI21 Labs, son modelos de transformadores de lenguaje que se entrenaron utilizando cantidades masivas de texto que se encuentran en Internet en combinación con conjuntos masivos de datos, y están equipados para producir texto original (frases, publicaciones de blog, artículos, cuentos, informes de noticias, poemas y canciones) con poca o ninguna contribución de los humanos. Estos pueden ser muy útiles en tareas empresariales como IA conversacional, respuesta de chatbot, traducciones de idiomas, marketing y respuestas de ventas a clientes potenciales a gran escala. La pregunta es,

Otras áreas en las que la IA está tomando decisiones críticas influyen en las recomendaciones de productos. Si bien las recomendaciones, desde la compra de automóviles hasta la reserva de viajes de vacaciones y la selección de champús, anteriormente se transmitían de boca en boca o se basaban en las experiencias previas de los clientes con los productos, AI ahora está asumiendo este papel. Los clientes ahora incluso se dejan influir por personas influyentes en las redes sociales virtuales creadas por IA. El influencer de redes sociales virtuales de IA más famoso, Lil Miquela, tiene alrededor de tres millones de seguidores y es un influencer de marcas famosas como Calvin Klein, Samsung y Prada. De acuerdo, los influencers de IA todavía no se ven ni actúan como un ser humano real, pero se están acercando cada día.. A la IA se le asignan cada vez más decisiones sobre métodos para promocionar productos y servicios. Extienda esto a otros ámbitos, como influir en las elecciones, y el impacto en las políticas públicas podría ser muy importante.

Qué deben hacer los líderes para evitar los dilemas del tranvía de la IA

La IA tiene el potencial de sesgar las decisiones comerciales, las acciones individuales y la calidad de vida de la sociedad en general. El estado opaco actual de las decisiones de IA solo erosionará la confianza que los humanos tienen en las máquinas, especialmente a medida que las máquinas pasan de estar simplemente programadas para seguir conjuntos de instrucciones a tomar decisiones de manera autónoma basadas en el autoaprendizaje y el autorazonamiento.

Hay tres niveles de toma de decisiones impulsada por máquinas o mejorada, como lo delineó el analista de Gartner Patrick Long en El futuro de las decisiones : soporte de decisiones de alto nivel, en el que las decisiones son tomadas principalmente por humanos, “basadas en principios y ética, experiencia y parcialidad, lógica y razonamiento, emoción, habilidades y estilo;” soporte de máquina aumentado, en el que las máquinas y la IA “generan recomendaciones, proporcionan análisis de diagnóstico para la validación y exploración humana”; y entornos altamente automatizados, en los que todavía se necesitan "barandillas o un humano al tanto para casos excepcionales".

Se requiere un grado de participación humana en todos los escenarios que involucran decisiones basadas en IA. Los líderes empresariales y tecnológicos deben asegurarse de que sus sistemas de IA tengan los controles y equilibrios necesarios, junto con una supervisión humana constante, para garantizar que la IA sea ética y moral. Las siguientes son acciones que pueden ayudar a asegurar una mayor humanidad a medida que proliferan estos sistemas:

Fomentar y construir una cultura organizacional y capacitación que promueva la ética en las decisiones de IA.

Las máquinas y los datos se pueden adaptar y monitorear, pero las personas que construyen y usan sistemas de inteligencia artificial deben ser educadas y conscientes de la necesidad de una toma de decisiones más holística que incorpore ética, moralidad y equidad. Las empresas pueden depender de esto. Los líderes deben establecer este tono y desafiar activamente las decisiones tomadas por sus sistemas basados ​​en IA en cada paso del camino. 

Elimina el sesgo de los datos.

Los datos utilizados para entrenar modelos de IA pueden, a sabiendas o sin saberlo, contener información de sesgo implícita relacionada con identidades raciales, de género, de origen o políticas. Junto con este sesgo dañino para las personas, los datos sesgados también pueden amplificar los sesgos existentes por parte de los tomadores de decisiones relacionados con las percepciones sobre las preferencias de los clientes y las tendencias del mercado. Los datos que se introducen en los sistemas de IA deben analizarse en busca de sesgos que puedan sesgar los algoritmos. En los modelos de entrenamiento solo se deben incluir datos comprobados, fidedignos y autenticados de fuentes confiables. 

Mantenga a los humanos informados.

Debe ser fácil y práctico anular las decisiones de la IA. Muchos gerentes y ejecutivos que ya trabajan con IA admiten que han tenido que intervenir en sus sistemas debido a la entrega de resultados erróneos o injustos. Uno de cada cuatro ejecutivos que respondieron a una encuesta realizada por SAS, Accenture Applied Intelligence, Intel y Forbes dicen que han tenido que repensar, rediseñar o anular un sistema basado en IA debido a resultados cuestionables o insatisfactorios. Entre este grupo, el 48% dijo que la razón fue que la solución no se usó/aplicó como se pretendía/esperaba. Otro 38% dijo que los resultados de su modelo eran inconsistentes o inexactos, mientras que el 34% dijo que su solución se consideró poco ética o inapropiada. 

Valide antes de la implementación en escenarios del mundo real.

Los algoritmos pueden ser capaces de hacer lo que se espera de ellos, según los datos disponibles. Sin embargo, es importante asegurarse de que el algoritmo se valide mediante otros mecanismos antes de implementarlo. Los algoritmos deben probarse en busca de resultados no intencionales que pueden estar basados ​​en inferencias subjetivas o datos contaminados. 

Enseñar a las máquinas valores humanos.

Como se discutió anteriormente, llevará algún tiempo hasta que los sistemas de IA puedan reflejar la empatía que guía muchas decisiones humanas. Eso no significa que los sistemas se mejoren continuamente para imitar mejor los valores humanos. La IA solo refleja la programación y los datos que contiene, y los líderes empresariales deben ser conscientes de que los conocimientos fríos basados ​​en datos son solo una parte del proceso total de toma de decisiones.

Conclusión: la IA no está del todo preparada para las decisiones del mundo real

La IA sigue acercándose al punto en el que puede tomar decisiones subjetivas independientes sin intervención humana. Ofertas como DALL-E y transformadores masivos de lenguaje como BERT, GPT-3 y Jurassic-1, y modelos de visión/aprendizaje profundo se acercan a igualar las capacidades humanas. La mayoría de los avances se encuentran en el mundo virtual, diseñado para producir o manipular contenido multimedia.

En nuestra opinión, la IA todavía tiene un largo camino por recorrer para tomar las decisiones finales en situaciones de la vida real que requieren un razonamiento más holístico y subjetivo. Todavía es simplemente un motor de hechos que actúa en función de probabilidades y puntajes, en su mayoría basados ​​en datos históricos, sin contexto de las implicaciones de la información que está entregando. La IA puede tomar las decisiones correctas en función de los hechos, pero puede carecer de la empatía que debe ser parte de esas decisiones. Todavía necesitamos humanos en el medio para evaluar el valor de los conocimientos y las decisiones para el bienestar de los humanos, las empresas y las comunidades. La IA puede ayudar a proporcionar puntos de toma de decisiones, pero los humanos aún deben participar en la toma de esa decisión; en última instancia, debe ser inteligencia aumentada en lugar de inteligencia artificial pura.

Joe McKendrick es autor, investigador independiente y orador que explora la innovación, las tendencias y los mercados de la tecnología de la información.

Andy Thurai es vicepresidente y analista principal de Constellation Research. Es un ex estratega jefe de IBM Cloud Platform.


No hay comentarios:

Publicar un comentario