Doxa 994

¿Qué implica realmente la construcción de una IA justa?

Por David De Cremer
Innovación
Harvard Business Review

La inteligencia artificial (IA) se está convirtiendo rápidamente en parte integral de cómo se gestionan las organizaciones. Esto no debería ser una sorpresa; al analizar las llamadas de ventas y las tendencias del mercado, por ejemplo, los juicios de los algoritmos computacionales pueden considerarse superiores a los de los humanos. Como resultado, las técnicas de IA se utilizan cada vez más para tomar decisiones. Las organizaciones están empleando algoritmos para asignar recursos valiosos , diseñar horarios de trabajo , analizar el desempeño de los empleados e incluso decidir si los empleados pueden permanecer en el trabajo .

Esto crea un nuevo conjunto de problemas incluso cuando resuelve los antiguos. A medida que aumenta el papel de la toma de decisiones algorítmicas en el cálculo de la distribución de recursos limitados, y a medida que los seres humanos se vuelven más dependientes y vulnerables a las decisiones de la IA, aumentan las ansiedades sobre la equidad. ¿Qué tan imparcial puede ser realmente un proceso de toma de decisiones automatizado con los humanos como destinatarios?

Para abordar este problema, los científicos e ingenieros informáticos se están centrando principalmente en cómo gobernar el uso de los datos proporcionados para ayudar al algoritmo a aprender (es decir, la minería de datos) y cómo utilizar los principios y técnicas rectores que pueden promover la IA interpretable: sistemas que permiten para entender cómo surgieron los resultados. Ambos enfoques se basan, en su mayor parte, en el desarrollo de métodos computacionales que tienen en cuenta ciertas características que se cree que están relacionadas con la equidad.

En el corazón del problema está el hecho de que los algoritmos calculan modelos óptimos a partir de los datos que se les dan, lo que significa que pueden terminar replicando los problemas que deben corregir. Un esfuerzo de 2014 para eliminar el sesgo humano en el reclutamiento en Amazon, por ejemplo, calificó a los candidatos con sesgos de género; Los datos históricos de desempeño laboral que se proporcionaron mostraron que la industria de la tecnología estaba dominada por hombres, por lo que evaluó la contratación de hombres como una buena apuesta. El Perfil de Gestión de Delincuentes Correccionales para Sanciones Alternativas, un programa dirigido por AI, ofreció predicciones sesgadas para la reincidencia que pronosticaron erróneamente que los acusados ​​negros (juzgados incorrectamente como con mayor riesgo de reincidencia) reincidirían a una tasa mucho mayor que los acusados ​​blancos (marcados incorrectamente como de bajo riesgo).

Las organizaciones y los gobiernos han intentado establecer pautas para ayudar a los desarrolladores de IA a refinar los aspectos técnicos para que las decisiones algorítmicas sean más interpretables, lo que permite a los humanos comprender claramente cómo se tomaron las decisiones y, por lo tanto, más justas. Por ejemplo, Microsoft ha lanzado programas que identifican principios de alto nivel como justicia, transparencia, responsabilidad y ética para guiar a los científicos e ingenieros informáticos en sus esfuerzos de codificación. Se están realizando esfuerzos similares a nivel gubernamental, como lo demuestran las Directrices éticas de la Unión Europea para una IA confiable y el Modelo de marco de gobernanza de la IA de Singapur .

Pero ni los esfuerzos de los científicos informáticos por tener en cuenta las características tecnológicas ni los esfuerzos de las empresas y los gobiernos por desarrollar directrices basadas en principios resuelven el problema de la confianza. Para ello, los diseñadores deben tener en cuenta las necesidades de información y las expectativas de las personas que enfrentan los resultados de los productos de los modelos. Esto es importante desde el punto de vista ético y práctico: una gran cantidad de investigaciones en la gestión muestra que cuanto más justas se perciben las decisiones, más las aceptan los empleados, cooperan con los demás, están satisfechos con sus trabajos y se desempeñan mejor. La equidad es muy importante para el funcionamiento organizacional, y no hay razón para pensar que eso cambiará cuando la IA se convierta en quien tome las decisiones.

Entonces, ¿cómo pueden las empresas que desean implementar la inteligencia artificial persuadir a los usuarios de que no están comprometiendo la equidad? En pocas palabras, deben dejar de pensar en la equidad, un concepto complicado, como algo que pueden abordar con los procesos automatizados adecuados y comenzar a pensar en un enfoque interdisciplinario en el que la informática y las ciencias sociales trabajen juntas. La equidad es una construcción social que los seres humanos utilizan para coordinar sus interacciones y contribuciones posteriores al bien colectivo, y es subjetiva. Se debe evaluar a un tomador de decisiones de inteligencia artificial en cuanto a qué tan bien ayuda a las personas a conectarse y cooperar; la gente considerará no solo sus aspectos técnicos, sino también las fuerzas sociales que operan a su alrededor.

Solución 1: Trate la justicia de la IA como un acto cooperativo.

Los algoritmos tienen como objetivo reducir las tasas de error tanto como sea posible para revelar la solución óptima. Pero si bien ese proceso puede ser moldeado por criterios formales de equidad, los algoritmos dejan fuera de la ecuación la naturaleza perceptiva de la equidad y no cubren aspectos como si las personas sienten que han sido tratadas con dignidad y respeto y que han sido atendidas - importante preocupaciones de justicia. De hecho, los algoritmos están diseñados en gran medida para crear modelos de predicción óptimos que tienen en cuenta las características técnicas para mejorar los criterios formales de equidad, como la interpretabilidad y la transparencia, a pesar del hecho de que esas características no necesariamente cumplen con las expectativas y necesidades del usuario final humano. Como resultado, y como muestra el ejemplo de Amazon, los algoritmos pueden predecir resultados que la sociedad percibe como injustos.

Hay una forma sencilla de abordar este problema: el modelo producido por la IA debería ser evaluado por un abogado del diablo humano. Aunque las personas son mucho menos racionales que las máquinas y hasta cierto punto son ciegas a sus propios comportamientos inapropiados, la investigación muestra que es menos probable que sean parciales al  evaluar los comportamientos y decisiones de los demás . En vista de esta idea, la estrategia para lograr la equidad de la IA debe involucrar un acto cooperativo entre la IA y los humanos. Ambas partes pueden aportar sus mejores habilidades para crear un modelo de predicción óptimo ajustado a las normas sociales.

Recomendación: Las organizaciones deben invertir significativamente en el desarrollo ético de sus gerentes. Ser un defensor del diablo para los tomadores de decisiones algorítmicos requiere que los gerentes desarrollen su sentido común y su intuición sobre lo que está bien y lo que está mal.

Solución 2: Considere la equidad de la IA como una negociación entre la utilidad y la humanidad.

Se ha demostrado que el juicio algorítmico es más preciso y predictivo que el juicio humano en una variedad de tareas específicas, incluida la asignación de trabajos y recompensas sobre la base de evaluaciones de desempeño. Tiene sentido que en la búsqueda de un negocio que funcione mejor, los algoritmos sean cada vez más preferidos a los humanos para esas tareas. Desde un punto de vista estadístico, esa preferencia puede parecer válida. Sin embargo, gestionar el flujo de trabajo y la asignación de recursos de forma (casi) perfectamente racional y coherente no es necesariamente lo mismo que construir una empresa o sociedad humana.

No importa cómo intente optimizar sus días de trabajo, los humanos no trabajan de manera constante y predecible. Tenemos días buenos y malos, caídas de la tarde y ráfagas de productividad, todo lo cual presenta un desafío para la organización automatizada del futuro. De hecho, si queremos utilizar la IA de manera que promueva un entorno de trabajo humano, tenemos que aceptar la propuesta de que no debemos optimizar la búsqueda de la utilidad en detrimento de valores como la tolerancia al fracaso, que permite a las personas aprender y mejorar. - Habilidades de liderazgo consideradas necesarias para humanizar nuestras organizaciones y nuestra sociedad. El modelo óptimo de predicción de la justicia debe diseñarse con una mentalidad de negociación que se esfuerce por lograr un compromiso aceptable entre la utilidad y los valores humanos.

Recomendación: Los líderes deben tener claro qué valores quiere perseguir la empresa y qué normas morales les gustaría ver en el trabajo. Por lo tanto, deben tener claro cómo quieren hacer negocios y por qué . Responder a esas preguntas hará evidente el tipo de organización que les gustaría ver en acción.

Solución 3: recuerde que la equidad de la IA implica percepciones de responsabilidad.

La equidad es una preocupación importante en la mayoría (si no en todas) nuestras interacciones profesionales y, por lo tanto, constituye una responsabilidad importante para los tomadores de decisiones. Hasta ahora, las organizaciones y los gobiernos, debido a su adhesión a las estructuras matriciales, han abordado la cuestión de la toma de decisiones de IA justa mediante el desarrollo de listas de verificación de cualidades para guiar el desarrollo de algoritmos. El objetivo es crear IA cuyas salidas coincidan con una determinada definición de lo que es justo.

Sin embargo, esa es solo la mitad de la ecuación: la imparcialidad de la IA como tomador de decisiones realmente depende de las decisiones que tome la organización que la adopta, que es responsable de los resultados que generan sus algoritmos. La imparcialidad percibida de la IA se juzgará a través de la lente de la organización que la emplea, no solo por las cualidades técnicas de los algoritmos.

Recomendación:  los científicos de datos de una organización deben conocer y estar de acuerdo con los valores y normas morales que ha establecido el liderazgo. En la mayoría de las organizaciones, existe una brecha entre lo que los científicos de datos están construyendo y los valores y resultados comerciales que los líderes organizacionales quieren lograr. Los dos grupos deben trabajar juntos para comprender qué valores no se pueden sacrificar en el uso de algoritmos. Por ejemplo, si la inclusión de los grupos minoritarios, que generalmente están mal representados en los datos disponibles, es importante para la empresa, entonces es necesario desarrollar algoritmos que incluyan ese valor como un filtro importante y aseguren que se aprendan los valores atípicos, no solo los puntos en común. de.

***

Las organizaciones deben reconocer que sus partes interesadas las percibirán, no los algoritmos que implementan, como responsables de cualquier resultado injusto que pueda surgir. Lo que hace que la IA sea justa también será una función de cómo las partes interesadas perciben que la empresa es en general. La investigación ha demostrado que las percepciones de equidad, además de la equidad distributiva que los algoritmos han dominado hasta cierto punto, pueden implicar cuán justamente la organización trata a sus empleados y clientes, si se comunica de manera transparente y si se la considera respetuosa con la comunidad en grande. Se recomienda a las organizaciones que adoptan la IA para participar en la toma de decisiones que dediquen el tiempo y la energía necesarios a construir la cultura de trabajo adecuada: una con una imagen organizacional justa y confiable.


David De Cremer es director y profesor de gestión y organizaciones en NUS Business School, Universidad Nacional de Singapur. Es el fundador y director del Center on AI Technology for Humankind en la escuela de negocios NUS. Antes de mudarse a NUS, fue profesor presidido por KPMG en estudios de administración en Judge Business School, Universidad de Cambridge. Es nombrado uno de los 30 principales gurús y oradores de la gestión del mundo en 2020 por la organización GlobalGurus y recientemente publicó el libro "Liderazgo por algoritmo: ¿Quién lidera y quién sigue en la era de la IA?"


No hay comentarios:

Publicar un comentario