Doxa 133

¿Qué pasará cuando los algoritmos de su empresa salen mal?

Por Roman V. Yampolskiy
Harvard Business Review
Tecnología


Cuando esté listo para incorporar tecnologías de inteligencia artificial en su negocio, el análisis que debe realizar es el siguiente: ¿Qué puede salir mal? ¿Cuál es nuestro producto o servicio que se espera que haga? ¿Qué sucede si no lo hace? ¿Tenemos un plan de mitigación de daños? Considere la embarazosa situación en la que se encontraba Microsoft con su fiasco Tay chatbot, donde los trolls de Internet explotaban vulnerabilidades en el código del robot, alimentándolo de contenido racista, homofóbico y sexista que millones leían en las redes sociales.

Los accidentes, incluidos los mortales, causados ​​por software o robots industriales pueden remontarse a los primeros días de la tecnología, pero no son necesariamente causados ​​por los propios sistemas. Por otro lado, las fallas de IA están directamente relacionadas con los errores producidos por la inteligencia que tales sistemas están diseñados para exhibir. Podemos clasificar ampliamente tales fracasos en "errores cometidos durante la fase de aprendizaje" y "errores cometidos durante la fase de desempeño". Un sistema puede fallar en aprender lo que sus diseñadores quieren aprender y podría aprender una función diferente pero correlacionada.

Un ejemplo frecuentemente citado es un sistema de visión por ordenador que el Ejército de los EE. UU. Había esperado utilizar para detectar automáticamente los tanques enemigos camuflados. Se suponía que el sistema clasificaba imágenes de tanques, pero aprendía a distinguir los antecedentes de tales imágenes. Otros ejemplos incluyen problemas causados ​​por funciones mal diseñadas que recompensarían a IA por comportamientos sólo parcialmente deseables, como pausar un juego para evitar perder o tocar repetidamente un balón de fútbol para obtener crédito por posesión.

Puede ayudar a mirar algunos ejemplos recientes de la falta de IA para entender mejor qué problemas pueden surgir y qué puede hacer para prevenirlos o al menos para limpiar rápidamente después de un fracaso. Considere estos ejemplos de fallas de IA de los últimos años:

  • 2015: Un generador automatizado de respuesta por correo electrónico creó respuestas inapropiadas, como escribir "Te amo" a un colega de negocios.
  • 2015: Un robot para agarrar partes de automóviles agarró y mató a un hombre.
  • 2015: El software de etiquetado de imágenes clasificó a los negros como gorilas.
  • 2015: La IA médica clasificó a los pacientes con asma como de menor riesgo de morir de neumonía.
  • 2015: El software de filtrado de contenido para adultos no eliminó el contenido inapropiado, exponiendo a los niños a contenido violento y sexual.
  • 2016: La AI diseñada para predecir la reincidencia actuó racista.
  • 2016: Un agente de AI explotó una señal de recompensa para ganar un juego sin completar el juego.
  • 2016: Los videojuegos de NPCs (personajes que no son jugadores o cualquier personaje que no es controlado por un jugador humano) diseñaron superar mas no autorizadas.
  • 2016: La IA juzgó un concurso de belleza y clasificó a los concursantes de piel oscura más bajos.
  • 2016: Un robot de seguridad del centro comercial chocó con un niño y lo hirió.
  • 2016: La IA "AlphaGo" perdió a un ser humano en un juego de nivel mundial de "Go".
  • 2016: Un autodidacta tuvo un accidente mortal.

Y todos los días, los consumidores experimentan deficiencias más comunes de la IA: los filtros de spam bloquean los correos electrónicos importantes, el GPS proporciona direcciones defectuosas, las traducciones de máquinas corrompen el significado de las frases, la autocorrección reemplaza una palabra deseada por una incorrecta, los sistemas biométricos desconocen a las personas Capturar lo que se dice; en general, es más difícil encontrar ejemplos de IAs que no fallen.

Al analizar la lista de los fracasos de la IA anteriores, podemos llegar a una simple generalización: una IA diseñada para hacer X finalmente no puede hacer X. Aunque puede parecer trivial, es una poderosa herramienta de generalización, que puede usarse para predecir futuras fallas de IAs. Por ejemplo, al observar las IA actuales y futuras de vanguardia, podemos predecir que:

  • Los médicos de IA diagnosticarán erróneamente a algunos pacientes de una manera que un médico de verdad no.
  • El software de descripción de video no interpretará las tramas de la película.
  • El software para generar chistes ocasionalmente fallará en hacerlos divertidos.
  • Software de detección de sarcasmo confundirá declaraciones sarcásticas y sinceras.
  • El software de detección del empleado será sistemáticamente tendencioso y, por lo tanto, contratará a los participantes de bajo rendimiento.
  • El robot-explorador de Marte va a malinterpretar su entorno y caer en un cráter.
  • Software de preparación de impuestos se pierda deducciones importantes o hacer inadecuados.
¿Qué debe aprender de los ejemplos y análisis anteriores? ¡Las fallas sucederán! Es inevitable. Sin embargo, todavía podemos poner en práctica las mejores prácticas, tales como:

  • Controlar la entrada del usuario al sistema y limitar el aprendizaje a las entradas de datos verificadas.
  • Comprobación de la raza, el sexo, la edad y otros sesgos comunes en sus algoritmos.
  • Análisis explícito de cómo su software puede fallar, y luego proporcionar un mecanismo de seguridad para cada posible fracaso.
  • Disponer de un producto o servicio de copia de seguridad menos "inteligente".
  • Tener un plan de comunicaciones en el lugar para dirigirse a los medios en caso de un fallo embarazoso. (Sugerencia: Comience con una disculpa.)

Predigo que tanto la frecuencia como la gravedad de las fallas de la IA aumentarán de manera constante a medida que las IAs se vuelvan más capaces. Los fracasos de los AIs de dominio estrecho de hoy son sólo la punta del iceberg; Una vez que desarrollemos la inteligencia artificial general capaz del funcionamiento del inter-dominio, la vergüenza será la menos de nuestras preocupaciones.

Roman V. Yampolskiy es un profesor titular asociado en el departamento de ingeniería informática e informática en la Escuela de Ingeniería de Velocidad de la Universidad de Louisville. Es el director fundador y actual del laboratorio de ciberseguridad de la universidad y autor de muchos libros, entre ellos la Superinteligencia Artificial: un Enfoque Futurista. Síguelo en Twitter @romanyam.

Este contenido fue publicado originalmente por Harvard Business Review.
Editores originales conservan todos los derechos.

No hay comentarios:

Publicar un comentario