DOXA 30


ENSEÑAR A UN ALGORITMO A ENTENDER

EL BIEN Y EL MAL

Por Greg Satell
Harvard Business Review
Ética
 
En su Ética de Nicómaco, Aristóteles afirma que es un hecho, que "todo conocimiento y toda búsqueda apunta a algún bien", pero luego continúa: "¿Qué queremos decir entonces con lo bueno?" Eso, en esencia, encapsula el dilema ético. Todos estamos de acuerdo en que debemos ser buenos y justos, pero es mucho más difícil decidir lo que eso implica.

Desde el tiempo de Aristóteles, las preguntas que él planteó han sido continuamente discutidas y debatidas. Desde las obras de grandes filósofos como Kant, Bentham y Rawls hasta los cócteles de hoy en día y las sesiones nocturnas de toros de la sala de estar, los temas son interminablemente discutidos y discutidos, pero nunca llegan a una conclusión satisfactoria.

Hoy en día, al entrar en una "era cognitiva" de las máquinas pensantes, el problema de lo que debe guiar nuestras acciones está cobrando nueva importancia. Si nos resulta tan difícil denotar los principios por los cuales una persona debe actuar justa y sabiamente, entonces ¿cómo vamos a codificarlos dentro de las inteligencias artificiales que estamos creando? Es una pregunta que necesitamos para encontrar respuestas para pronto.

Diseño de un entorno de aprendizaje


Cada padre se preocupa por lo que influye a sus hijos, a lo que están expuestos. ¿Qué programas de televisión están viendo? ¿Qué videojuegos están jugando? ¿Están saliendo con la gente equivocada en la escuela? Tratamos de no proteger demasiado a nuestros hijos porque queremos que aprendan sobre el mundo, pero no queremos exponerlos demasiado antes de que tengan la madurez para procesarlo.



Por ejemplo, si quieres enseñar un algoritmo para reconocer gatos, lo expones a miles de imágenes de gatos y cosas que no son gatos. Eventualmente, descubre cómo distinguir entre, por ejemplo, un gato y un perro. Al igual que con los seres humanos, es a través de aprender de estas experiencias que los algoritmos se vuelven útiles.

Sin embargo, el proceso puede ir terriblemente mal, como en el caso de Tay de Microsoft, un bot de Twitter que la empresa desató en la plataforma de microblogging. En menos de un día, Tay pasó de ser amable y casual ( "Los seres humanos son super cool") a francamente aterrador ("Hitler tenía razón y odio a los judíos"). Fue profundamente inquietante.

Francesca Rossi, investigadora de la IA en IBM, señala que a menudo codificamos los principios relativos a las influencias en las normas sociales, como la edad que un niño necesita para ver una película R-rated o si deben aprender la evolución en la escuela. "Tenemos que decidir en qué medida los principios legales que utilizamos para regular a los seres humanos se pueden utilizar para las máquinas", me dijo.

Sin embargo, en algunos casos, los algoritmos pueden alertar a los sesgos en nuestra sociedad que no pudimos haber sido conscientes de, como cuando Google "abuela" y ver sólo caras blancas. "Existe un gran potencial para que las máquinas nos alerten de los sesgos", señala Rossi. "Necesitamos no sólo entrenar nuestros algoritmos, sino también estar abiertos a la posibilidad de que puedan enseñarnos sobre nosotros mismos".

Desentrañar dilemas éticos

Un experimento de pensamiento que ha desconcertado a los especialistas en ética desde hace décadas es el problema del tranvía. Imagínese que usted ve un carro con barrena, abajo de las pistas y está a punto de funcionar sobre cinco personas. La única manera de salvarlos es tirar de una palanca para cambiar el carro a un conjunto diferente de pistas, pero si lo hace, una persona de pie en las otras pistas será asesinado. ¿Qué debes hacer?

Los sistemas éticos basados ​​en principios morales, tales como el Imperativo Categórico de Kant (actúe sólo de acuerdo con esa máxima en la que usted puede, al mismo tiempo, que se convierta en una ley universal) o la primera ley de Asimov (un robot no puede dañar a un ser humano o, a través de la inacción, permitir que un ser humano llegue a dañar) son completamente inútiles aquí.

Otra alternativa sería adoptar el principio utilitario y simplemente hacer lo que resulte lo más bueno o el menos dañino. Entonces estaría claro que deberías matar a una persona para salvar a los cinco. Sin embargo, la idea de matar a alguien intencionalmente es problemática, por decir lo menos. Si bien aplicamos el principio en algunos casos limitados, como en el caso de un deber del oficial de servicio secreto de proteger al presidente, son raras las excepciones.

El surgimiento de la inteligencia artificial nos está obligando a tomar los dilemas éticos abstractos mucho más en serio porque necesitamos codificar los principios morales de manera concreta. ¿Debe un automóvil conducir a riesgo de matar a su pasajero para salvar a un peatón? ¿Hasta qué punto un drone debe tener en cuenta el riesgo de daños colaterales al matar a un terrorista? ¿Deberían los robots tomar decisiones de vida o muerte sobre los humanos en absoluto? Tendremos que tomar decisiones concretas sobre lo que dejaremos a los seres humanos y lo que vamos a codificar en el software.

Estas son preguntas difíciles, pero Rossi de IBM señala que las máquinas pueden ser capaces de ayudarnos con ellos. Las enseñanzas de Aristóteles, a menudo referidas como ética de la virtud, enfatizan que necesitamos aprender el significado de las virtudes éticas, tales como la sabiduría, la justicia y la prudencia. Por lo tanto, es posible que un poderoso sistema de aprendizaje automático nos pueda proporcionar nuevas ideas.

Normas culturales versus valores morales


Otra cuestión que tendremos que afrontar es que tendremos que decidir no sólo qué principios éticos codificar en las inteligencias artificiales sino también cómo se codifican. Como se señaló anteriormente, en su mayor parte, "No matarás" es un principio estricto. Aparte de unos pocos casos raros, como el Servicio Secreto o un soldado, es más como una preferencia que es muy afectada por el contexto.

¿Qué hace que una cosa sea un valor moral y otra una norma cultural? Bueno, esa es una pregunta difícil incluso para los más respetados eticistas humanos, pero tendremos que codificar esas decisiones en nuestros algoritmos. En algunos casos, habrá principios estrictos; En otros, meramente preferencias basadas en el contexto. Para algunas tareas, los algoritmos necesitarán ser codificados de manera diferente según la jurisdicción en la que operen.

El problema se vuelve especialmente espinoso cuando los algoritmos tienen que tomar decisiones de acuerdo con las normas profesionales en conflicto, como en la atención médica. ¿Cuánto se debe tener en cuenta el costo cuando se toman decisiones médicas? ¿Deberían las compañías de seguros tener voz en cómo se codifican los algoritmos?

Esto no es, por supuesto, un problema completamente nuevo. Por ejemplo, las empresas que operan en los Estados Unidos deben respetar las normas contables GAAP, que se basan en normas estrictas, mientras que las que operan en Europa siguen las normas contables de las NIIF, que se basan en principios generales. Probablemente terminaremos con una situación similar con respecto a muchos principios éticos en las inteligencias artificiales.

Establecer un estándar superior

La mayoría de los expertos en IA que he hablado piensan que tendremos que establecer estándares morales más altos para las inteligencias artificiales que para los humanos. Por supuesto, no esperamos que la gente proporcione una lista de influencias y una explicación de su lógica para cada decisión que tomen, a menos que algo vaya horriblemente mal. Pero requeriremos tal transparencia de las máquinas.

"Con otro humano, a menudo asumimos que tienen capacidades de razonamiento de sentido común similares y estándares éticos. Eso no es cierto para las máquinas, así que tenemos que mantenerlas a un nivel más alto ", dice Rossi. Josh Sutton, jefe global de datos e inteligencia artificial, en Publicis.Sapient, está de acuerdo y argumenta que tanto el rastro lógico como el corpus de aprendizaje que llevan a las decisiones de la máquina necesitan estar disponibles para su examen.

Sin embargo, Sutton ve cómo también podríamos optar por menos transparencia en algunas situaciones. Por ejemplo, podemos sentirnos más cómodos con algoritmos que hacen uso de nuestros datos de comportamiento y geolocalización, pero no dejan que los humanos tengan acceso a esos datos. Los seres humanos, después de todo, siempre pueden ser tentados. Las máquinas son mejores siguiendo parámetros estrictos.

Es evidente que estas cuestiones requieren una mayor reflexión y debate. Los principales actores de la industria, como Google, IBM, Amazon y Facebook, establecieron recientemente una alianza para crear una plataforma abierta entre las principales empresas de AI y las partes interesadas de la academia, el gobierno y la industria para avanzar en la comprensión y promover las mejores prácticas. Sin embargo, eso es sólo un punto de partida.

Tan penetrante como la inteligencia artificial se establece para llegar a ser en un futuro próximo, la responsabilidad recae en la sociedad en su conjunto. En pocas palabras, necesitamos tomar las normas por las que las inteligencias artificiales operarán tan seriamente como las que rigen cómo funcionan nuestros sistemas políticos y cómo se educan a los niños.

Es una responsabilidad que no podemos eludir.

Greg Satell es un orador popular y consultor. Su primer libro, Cartografía de la innovación: un libro de discusión para navegar por una edad perturbadora, estará saliendo en el 2017. Seguir su blog en Digital Tonto o en twitter @DigitalTonto.

Este contenido fue publicado originalmente por Harvard Business Review.
Editores originales conservan todos los derechos.
  

No hay comentarios:

Publicar un comentario