Eliminar el sesgo algorítmico es solo el comienzo de la IA equitativa
Las industrias, los gobiernos y los académicos también deben comprender cómo la IA da forma a la oferta y la demanda de bienes y servicios de manera que perpetúe la desigualdad.
Por Simon Friis y James Riley
AI y aprendizaje automático
Harvard Business Review
#Doxa #sesgo #algoritmo #IA #equidad #industria #gobierno #académico #oferta #demanda #bienes #servicios #desigualdad #aprendizaje #inteligencia #artificial #sociedad #tecnología #producto #cliente
Resumen. En lo que respecta a la inteligencia artificial y la desigualdad, el sesgo algorítmico recibe mucha atención, con razón. Pero es solo una de las formas en que la IA puede conducir a resultados inequitativos. Para crear una IA realmente equitativa, debemos tener en cuenta tres fuerzas a través de las cuales podría hacer que la sociedad fuera más o menos igualitaria: las fuerzas tecnológicas, las fuerzas del lado de la oferta y las fuerzas del lado de la demanda. El último de ellos está particularmente poco enfatizado. El uso de la IA en un producto puede cambiar lo que los clientes lo valoran (por ejemplo, los pacientes que hacen menos hincapié en un diagnóstico algorítmico), lo que a su vez puede afectar a la forma en que se utiliza ese producto y a la compensación de quienes trabajan junto a él.
Desde la automatización de tareas mundanas hasta los avances pioneros en la sanidad, la inteligencia artificial está revolucionando la forma en que vivimos y trabajamos y promete un inmenso potencial de aumento de la productividad e innovación. Sin embargo, cada vez es más evidente que las promesas de la IA no se distribuyen por igual, sino que se corre el riesgo de exacerbar las disparidades sociales y económicas, especialmente según las características demográficas, como la raza.
Se pide a los líderes empresariales y gubernamentales que garanticen que los beneficios de los avances impulsados por la IA estén al alcance de todos. Sin embargo, parece que cada día que pasa hay una forma nueva en la que la IA crea desigualdad, lo que se traduce en un mosaico reactivo de soluciones o, a menudo, en ninguna respuesta. Si queremos abordar de forma eficaz la desigualdad impulsada por la IA, necesitaremos un enfoque proactivo y holístico.
Si los responsables políticos y los líderes empresariales esperan hacer que la IA sea más equitativa, deberían empezar por reconocer tres fuerzas a través de las cuales la IA puede aumentar la desigualdad. Recomendamos un marco sencillo y macroeconómico que abarque estas tres fuerzas, pero que centre las intrincadas mecanismos sociales mediante el cual la IA crea y perpetúa la desigualdad. Este marco cuenta con una doble ventaja. En primer lugar, su versatilidad garantiza su aplicabilidad en diversos contextos, desde la fabricación hasta la sanidad y el arte. En segundo lugar, arroja luz sobre las formas interdependientes y que a menudo se pasan por alto la IA para alterar la demanda de bienes y servicios, una importante vía por la que la IA propaga la desigualdad.
Nuestro marco se compone de tres fuerzas interdependientes a través de las cuales la IA crea desigualdad: las fuerzas tecnológicas, las fuerzas del lado de la oferta y las fuerzas del lado de la demanda.
Fuerzas tecnológicas: sesgo algorítmico
El sesgo algorítmico se produce cuando los algoritmos toman decisiones que perjudican sistemáticamente a ciertos grupos de personas. Puede tener consecuencias desastrosas si se aplica a áreas clave como la salud, la justicia penal y la calificación crediticia. Científicos que investigan un algoritmo sanitario muy utilizado descubrió que subestimaba gravemente las necesidades de los pacientes negros, lo que se traduce en una atención significativamente menor. Esto no solo es injusto, sino profundamente perjudicial. El sesgo algorítmico se produce a menudo porque determinadas poblaciones están infrarrepresentadas en los datos que se utilizan para entrenar los algoritmos de la IA o porque los prejuicios sociales preexistentes están integrados en los propios datos.
Si bien minimizar el sesgo algorítmico es una pieza importante del rompecabezas, lamentablemente no basta para garantizar resultados equitativos. Los procesos sociales y las fuerzas del mercado complejos se esconden bajo la superficie, lo que da lugar a un panorama de ganadores y perdedores que no puede explicarse únicamente con un sesgo algorítmico. Para entender perfectamente este panorama desigual, tenemos que entender cómo la IA moldea la oferta y la demanda de bienes y servicios de manera que perpetúa e incluso crea la desigualdad.
Fuerzas del lado de la oferta: automatización y aumento
La IA suele reducir los costes del suministro de ciertos bienes y servicios al automatizar y aumentar la mano de obra humana. Como investigaciones de economistas como Erik Brynjolfsson y Daniel Rock revela que algunos trabajos tienen más probabilidades de automatizarse o aumentarse con la IA que otros. UN análisis revelador de la Brookings Institution descubrió que «los trabajadores negros e hispanos... están sobrerrepresentados en los puestos con un alto riesgo de ser eliminados o cambiados significativamente por la automatización». Esto no se debe a que los algoritmos utilizados estén sesgados, sino a que algunos trabajos consisten en tareas que son más fáciles (o más lucrativas desde el punto de vista financiero) de automatizar, por lo que invertir en IA es una ventaja estratégica. Pero como las personas de color suelen concentrarse en esos mismos trabajos, la automatización y el aumento del trabajo a través de la IA y las transformaciones digitales en general tienen el potencial de crear desigualdad en términos demográficos.
Fuerzas del lado de la demanda: valoraciones de la audiencia (e)
La integración de la IA en las profesiones, los productos o los servicios puede afectar a la forma en que las personas los valoran. En resumen, la IA también altera la dinámica del lado de la demanda.
Suponga que descubre que su médico utiliza herramientas de IA para el diagnóstico o el tratamiento. ¿Influiría eso en su decisión de verlos? Si es así, no está solo. UN encuesta reciente descubrió que el 60% de los adultos estadounidenses se sentirían incómodos con que su proveedor de atención médica dependiera de la IA para tratar y diagnosticar enfermedades. En términos económicos, es posible que tengan una menor demanda de servicios que incorporen la IA.
Por qué el aumento de la IA puede reducir la demanda
Nuestras investigaciones recientes arrojan luz sobre por qué el aumento de la IA puede reducir la demanda de una variedad de bienes y servicios. Descubrimos que las personas suelen percibir que el valor y la experiencia de los profesionales son menores cuando anuncian servicios aumentados por la IA. Esta penalización por el aumento de la IA se produjo para servicios tan diversos como la codificación, el diseño gráfico y la edición de textos.
Sin embargo, también descubrimos que las personas están divididas en cuanto a su percepción de la mano de obra aumentada por la IA. En la encuesta que realizamos, el 41% de los encuestados eran lo que llamamos «alarmistas de la IA», personas que expresaron reservas y preocupaciones sobre el papel de la IA en el lugar de trabajo. Mientras tanto, el 31% eran «defensores de la IA», que defienden sin reservas la integración de la IA en la fuerza laboral. El 28% restante eran «agnósticos de la IA», aquellos que se quedan indecisos y reconocen tanto las posibles ventajas como las dificultades. Esta diversidad de puntos de vista subraya la ausencia de un modelo mental claro y unificado sobre el valor de la mano de obra aumentada por la IA. Si bien estos resultados se basan en una encuesta en línea relativamente pequeña y no reflejan la visión de la IA en toda la sociedad, sí apuntan a claras diferencias entre las valoraciones sociales de las personas sobre los usos y usuarios de la IA y cómo esto informa su demanda de bienes y servicios, que es la esencia de lo que tenemos previsto explorar en futuros estudios.
Cómo los factores del lado de la demanda perpetúan la desigualdad
A pesar de su importancia, esta perspectiva (la forma en que el público percibe y valora la mano de obra aumentada por la IA) a menudo se pasa por alto en el diálogo más amplio sobre la IA y la desigualdad. Este análisis del lado de la demanda es una parte importante para entender a los ganadores y los perdedores de la IA y cómo puede perpetuar la desigualdad.
Eso es especialmente cierto en los casos en que el valor que las personas perciben de la IA se cruza con los prejuicios contra los grupos marginados. Por ejemplo, normalmente se asume la experiencia de los profesionales de los grupos dominantes, mientras que los profesionales igualmente cualificados de grupos tradicionalmente marginados suelen mostrarse escepticos en cuanto a su experiencia. En el ejemplo anterior, la gente se muestra escéptica ante la posibilidad de que los médicos confíen en la IA, pero es posible que esa desconfianza no se manifieste de la misma manera en profesionales de diferentes orígenes. Es probable que los médicos de entornos marginados, que ya se enfrentan al escepticismo de los pacientes, sean los más afectados por la pérdida de confianza causada por la IA.
Si bien ya se están realizando esfuerzos para abordar sesgo algorítmico así como el efectos de la automatización y el aumento, está menos claro cómo abordar las valoraciones sesgadas de la audiencia sobre los grupos históricamente desfavorecidos. Pero hay esperanza.
Alinear las fuerzas sociales y del mercado para un futuro de IA equitativo
Para fomentar realmente un futuro de IA equitativo, debemos reconocer, entender y abordar las tres fuerzas. Estas fuerzas, si bien son distintas, están estrechamente entrelazadas y las fluctuaciones de una repercuten en las demás.
Para ver cómo se desarrolla esto, considere un escenario en el que un médico se abstenga de utilizar las herramientas de IA para no alejar a los pacientes, incluso si la tecnología mejora la prestación de servicios de salud. Esta reticencia no solo afecta al médico y a su consultorio, sino que priva a sus pacientes de las posibles ventajas de la IA, como la detección temprana durante las pruebas de detección del cáncer. Y si este médico atiende a comunidades diversas, esto también podría agravar la infrarrepresentación de esas comunidades y sus factores de salud en los conjuntos de datos de entrenamiento de la IA. En consecuencia, las herramientas de IA se adaptan menos a las necesidades específicas de estas comunidades, lo que perpetúa un ciclo de disparidad. De esta manera, se puede formar un ciclo de retroalimentación perjudicial.
La metáfora de un trípode es acertada: una deficiencia en una sola pata afecta directamente a la estabilidad de toda la estructura, lo que afecta a la capacidad de ajustar los ángulos y las perspectivas e, inevitablemente, a su valor para los usuarios.
Para evitar el ciclo de retroalimentación negativa descrito anteriormente, haríamos bien en buscar marcos que nos permitan desarrollar modelos mentales de mano de obra aumentada por la IA que promuevan ganancias equitativas. Por ejemplo, las plataformas que ofrecen productos y servicios generados por la IA necesitan informar a los compradores sobre el aumento de la IA y las habilidades únicas necesarias para trabajar eficazmente con las herramientas de IA. Un componente esencial es hacer hincapié en que la IA aumenta, en lugar de suplantar, la experiencia humana.
Aunque es indispensable corregir los sesgos algorítmicos y mitigar los efectos de la automatización, no basta. Para marcar el comienzo de una era en la que la adopción de la IA sirva de apoyo y igualar la fuerza, la colaboración entre las partes interesadas será clave. Las industrias, los gobiernos y los académicos deben unirse a través de asociaciones de pensamiento y liderazgo para forjar nuevas estrategias que prioricen los beneficios equitativos y centrados en las personas de la IA. Adoptar estas iniciativas garantizará una transición más fluida, inclusiva y estable hacia nuestro futuro impulsado por la IA.
Lea más sobre IA y aprendizaje automático o temas relacionados Negocios y sociedad y Algoritmos
Simon Friis es investigador científico en el Blackbox Lab de la Harvard Business School, donde se centra en comprender las implicaciones sociales y económicas de la inteligencia artificial. Recibió su doctorado. en Sociología Económica de la MIT Sloan School of Management y anteriormente trabajó en Meta como científico investigador.
James Riley es profesor asistente de administración de empresas en la Unidad de Comportamiento Organizacional de la Escuela de Negocios de Harvard y profesor afiliado del Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard. También es el investigador principal del Blackbox Lab del Instituto de Diseño, Datos y Digitales de la Escuela de Negocios de Harvard, que investiga las promesas de la transformación digital y el despliegue de estrategias y tecnologías de plataformas para profesionales, empresas y comunidades negras. Recibió su doctorado. en Sociología Económica de la MIT Sloan School of Management.
No hay comentarios:
Publicar un comentario