Doxa 1999

Cómo las empresas pueden adoptar un enfoque global respecto de la ética de la IA

Las ideas sobre lo que está bien y lo que está mal pueden variar de un contexto cultural a otro. La gobernanza de la IA corporativa debe reflejar esto.

Por Swanand Deodhar, Favour Borokini y Ben Waber
Ética de negocios
Harvard Business Review

#Doxa #ética #negocios #empresa #enfoque #IA #cultura #gobernanza #corporativa #normas #tradición #geografía #equipo #autoridad
Resumen. Muchos esfuerzos por crear un programa de ética de la IA pasan por alto un hecho importante: la ética difiere de un contexto cultural a otro. Las ideas sobre lo que está bien y lo que está mal en una cultura pueden no ser trasladables a un contexto fundamentalmente diferente, e incluso cuando hay una alineación, puede haber diferencias importantes en el razonamiento ético en juego (normas culturales, tradición religiosa, etc.) que deben tenerse en cuenta. Dado que las regulaciones de la IA y los datos relacionados rara vez son uniformes en todas las geografías, el cumplimiento puede ser difícil. Para abordar este problema, las empresas deben desarrollar un modelo de ética de la IA global contextual que priorice la colaboración con los equipos y las partes interesadas locales y delegue la autoridad de toma de decisiones a esos equipos locales. Esto es particularmente necesario si sus operaciones abarcan varias geografías.
La adopción de una política ética de la IA adecuada es un asunto de gran importancia para una organización. Los casos bien conocidos de sesgos de género en los algoritmos de contratación o en los resultados de búsqueda de empleo pueden minar la reputación de la empresa, ponerla en contra de las regulaciones e incluso atraer fuertes multas gubernamentales . Al percibir estas amenazas, las organizaciones están creando cada vez más estructuras y procesos dedicados a inculcar la ética de la IA de forma proactiva. Algunas empresas han avanzado más en este camino y han creado marcos institucionales para la ética de la IA .

Sin embargo, muchos esfuerzos pasan por alto un hecho importante: la ética difiere de un contexto cultural a otro. En primer lugar, las ideas sobre lo que está bien y lo que está mal en una cultura pueden no ser trasladables a un contexto fundamentalmente diferente. En segundo lugar, incluso cuando hay una coincidencia en cuanto a lo que está bien y lo que está mal, puede haber diferencias importantes en el razonamiento ético en juego (normas culturales, tradición religiosa, etc.) que deben tenerse en cuenta. Por último, las regulaciones sobre IA y datos relacionados rara vez son uniformes en todas las geografías, lo que puede introducir heterogeneidad en los aspectos de cumplimiento de la ética de la IA. No tener en cuenta estos factores puede tener un impacto comercial real en las empresas, así como en sus clientes.

En la actualidad, las normas globales emergentes en torno a la ética de la IA se construyen en gran medida en torno a una perspectiva occidental. Por ejemplo, el Inventario Global de Pautas de Ética de la IA (AEGGA), una base de datos centralizada de informes, marcos y recomendaciones, recopiló 173 pautas hasta abril de 2024 y señaló que “la abrumadora mayoría [provino] de Europa y Estados Unidos”, lo que no es tan global como uno podría imaginar . Sin embargo, muchas empresas simplemente adoptan estas normas y las aplican globalmente.

Las perspectivas occidentales también se están codificando implícitamente en los modelos de IA. Por ejemplo, algunas estimaciones muestran que menos del 3% de todas las imágenes en ImageNet representan a la diáspora india y china , que en conjunto representan un tercio de la población mundial. En términos generales, la falta de datos de alta calidad probablemente conducirá a un bajo poder predictivo y sesgo contra los grupos subrepresentados, o incluso hará imposible que se desarrollen herramientas para ciertas comunidades. Por ejemplo, actualmente no se puede capacitar a los LLM para idiomas que no están muy representados en Internet. Una encuesta reciente de organizaciones de TI en la India reveló que la falta de datos de alta calidad sigue siendo el impedimento más dominante para las prácticas éticas de IA .

A medida que la IA gana terreno y dicta las operaciones comerciales, una falta de variedad desenfrenada en las consideraciones éticas puede perjudicar a las empresas y a sus clientes.

Para abordar este problema, las empresas deben desarrollar un modelo ético de IA global y contextualizado que priorice la colaboración con los equipos y las partes interesadas locales y delegue la autoridad de toma de decisiones a esos equipos locales. Esto es particularmente necesario si sus operaciones abarcan varias geografías.

Añadiendo contexto a la ética de la IA
Muchas empresas están en una posición sólida para crear un proceso de IA global y contextualizado desde cero. Esto se debe principalmente a que aún no lo tienen: no hay nada que desmantelar ni rehacer, ni protocolos en los que las personas deban volver a capacitarse. Se podría decir que están en una mejor posición que aquellas empresas que ya han implementado una política ética de IA única y monolítica. Las organizaciones que están en medio de la definición de sus políticas están en realidad bien posicionadas para hacerlo bien.

Con base en nuestro trabajo, así como en entrevistas con partes interesadas relevantes que representan a usuarios y desarrolladores de IA de diferentes geografías, desarrollar e implementar una política de ética de IA contextualizada para la organización requiere tres pasos.

En primer lugar, las empresas deben ponerse de acuerdo sobre los principios rectores que deben aplicarse en todas las geografías. En la mayoría de los casos que analizamos, el equipo global fue responsable de esta iniciativa: trabajaron con equipos en diferentes partes del mundo para desarrollar, debatir y perfeccionar estos principios rectores.

En segundo lugar, es necesario crear equipos pertinentes en las distintas regiones de la organización. Una presencia significativa en una ubicación geográfica (o un plan de expansión allí pronto) justifica un equipo multifuncional. (Cómo se debe constituir exactamente este equipo es un tema para otro artículo ). Estos equipos serán responsables de poner en funcionamiento el marco de ética de la IA del equipo global y deberían ser recompensados ​​en consecuencia; de lo contrario, las organizaciones corren el riesgo de acumular más responsabilidad sobre grupos ya marginados. En algunos casos, las organizaciones pueden necesitar contratar personal externo, en particular en regiones donde una organización aún tiene poca experiencia.

En tercer lugar, el equipo de liderazgo global debe involucrar a estos equipos regionales de ética de la IA en una serie de conversaciones durante el desarrollo inicial. Los comentarios de estos equipos deben incorporarse a la estrategia de IA de la empresa, que luego se transmite a estos equipos locales, que están capacitados para adaptarlas a su contexto. Estas adaptaciones deben comunicarse a los líderes globales y perfeccionarse en función de los comentarios.

Un ejemplo de cómo funciona esto es Hewlett Packard Enterprise (HPE). En HPE, el director de cumplimiento trabajó en conjunto con su laboratorio de investigación de IA para redactar principios globales de IA, con la participación de representantes de todas las funciones y divisiones de productos. Con la diversidad geográfica incorporada al equipo, era más probable que las consideraciones éticas que se tenían en cuenta fueran representativas de los lugares donde opera la empresa. El equipo de cumplimiento de HPE, por ejemplo, creó una matriz de principios que abarcaba todo el mundo y regulaciones y marcos gubernamentales geográficamente específicos, lo que garantizó que los principios globales de HPE se filtraran a través de una lente local.

Interacción continua al contextualizar la ética de la IA
Como punto de partida, hay que tener en cuenta la posibilidad de que la alta dirección no esté lo suficientemente al tanto del contexto local y, por tanto, considere un error desviarse de la directiva ética global de la IA. Por ejemplo, un equipo de ética global de la IA que esté examinando un algoritmo de remuneración de los empleados podría exigir que las bajas de los empleados no se tengan en cuenta en las decisiones de ascenso. La motivación en este caso es animar a los hombres y a las mujeres a coger la baja por maternidad o por enfermedad si es necesario sin preocuparse por el impacto en sus carreras. Sin embargo, en países como Japón es probable que esta política se modifique en gran medida. El trabajo pionero de Hilary Holbrow demostró que en las empresas japonesas los empleados perciben políticas como esta como profundamente injustas. Desde el punto de vista cultural, no sería adecuado aplicar una política de esta manera sin dedicar recursos importantes a conseguir la aceptación de este enfoque.

Este ejemplo demuestra que, si bien se reconoce como un cambio de política favorable en gran parte del mundo, los objetivos basados ​​en la igualdad que se utilizan en los algoritmos de IA pueden no generar la misma respuesta positiva. Hay algunos casos en los que las partes interesadas locales están creando recursos de datos para permitir que las organizaciones perciban el contexto con mayor precisión. Las comunidades de las Primeras Naciones canadienses, por ejemplo, tienen un marco establecido y un programa de capacitación sobre la recopilación y el uso de datos que es esencial para cualquier organización que desee operar en esta área.

Además de mejorar la conciencia del contexto local, la participación continua también puede ayudar a los líderes globales a lograr un delicado equilibrio entre ceder ante los equipos locales en algunos casos y anularlos en otros. HPE abordó este problema mediante la creación de procesos automatizados. Al iniciar una nueva iniciativa o un proceso de licitación que involucra a la IA, su software de cumplimiento programa automáticamente una reunión entre el personal del equipo y los miembros del grupo de gobernanza de la IA local. El equipo local proporciona el contexto para la conversación, mientras que el equipo global proporciona conocimientos de más alto nivel sobre los principios de HPE y el marco de gobernanza de la IA. Con el tiempo, esto ha generado una "jurisprudencia" dentro de HPE sobre cómo abordar diferentes cuestiones éticas de la IA.

HPE se enfrentaba al desafío de la incognoscibilidad inherente de las excepciones y las cuestiones locales que se desconocen a nivel global. En lugar de intentar crear una política de ética de la IA que enumerara exhaustivamente diferentes escenarios, lo que inherentemente dejaría algo fuera, HPE creó un marco y un proceso generales que permiten responder preguntas específicas y generar un historial a lo largo del tiempo. Esto también tiene la ventaja de tratar con un mundo inherentemente dinámico: incluso si algo es ético hoy, eso puede cambiar en el futuro. Tener un proceso en el que se realice un seguimiento y se modifiquen las decisiones éticas explica este dinamismo inherente.

Lamentablemente, no existe una regla estricta sobre cómo desarrollar estos procesos. Incluso en el ejemplo anterior, puede ser que la equidad sea un valor tan fundamental para la empresa que la dirección sienta que es necesario pasar por alto las objeciones locales. En general, esto debería ser poco frecuente, suponiendo que la dirección global comunique claramente sus objetivos y estrategia, y todas estas decisiones deberían revisarse al menos una vez al año. Este enfoque de revisión periódica es esencial para la gobernanza de la IA: las tecnologías cambian, el contexto local cambia, se recopilan datos sobre la eficacia de la gobernanza y la estrategia de la empresa cambia. Estas discusiones periódicas son esenciales para la sostenibilidad de este esfuerzo.

La importancia de tener una visión ética de la IA
Más allá del proceso de operacionalización de la ética de la IA, de nuestras entrevistas surgió otra consideración importante: la falta de visión . Un encuestado del equipo de ética de la IA de una asociación líder de empresas tecnológicas de la India afirmó que la mayoría de las organizaciones estaban adoptando una visión de la ética basada en el cumplimiento. Por lo tanto, es probable que las organizaciones adopten políticas de ética de la IA siempre que lo exijan sus clientes, que se encuentran principalmente en Occidente, o los reguladores locales.

Un panel reciente del MIT y el Boston Consulting Group reveló un hallazgo relacionado con el anterior, en el que los participantes coincidieron en que actualmente el foco está puesto en los beneficios económicos de la IA. Estos ejemplos indican que la fiebre del oro, desencadenada por la IA, ha relegado la puesta en práctica de consideraciones éticas a una prioridad menor o la ha reducido a una cuestión puramente de cumplimiento normativo. Estos enfoques estrechos no sólo son contrarios a la posición públicamente declarada de las organizaciones, sino que también pueden reducir la formulación de políticas éticas de la IA a una mera “marca de verificación”, lo que reduce aún más la posibilidad de que las organizaciones enfaticen la contextualización de dichas políticas.

En un principio, HPE planeó desarrollar sus principios éticos de IA en un período de seis semanas. Esta tarea llevó más de un año de trabajo para desarrollar un marco que fuera auténtico para HPE y creara procesos que permitieran la adaptación local. Gran parte de este tiempo se dedicó a resolver cuestiones espinosas en torno a afirmaciones aparentemente simples: “Obedecemos la ley” puede parecer trivial, por ejemplo, pero al analizar la afirmación surgen innumerables preguntas. ¿Qué ley? ¿Cómo sopesamos las leyes locales frente a los principios globales de derechos humanos? ¿Qué partes interesadas deben ser consultadas sobre estas decisiones? Las empresas que no estén preparadas para participar seriamente en estos debates inevitablemente invertirán poco en la iniciativa y, en cambio, crearán un marco ineficaz y de casillas de verificación que obstaculizará el tiempo de comercialización, dará lugar a productos de calidad inferior y, en última instancia, no mitigará los problemas de responsabilidad que preocupan a muchas empresas.

Cómo hacer que la ética de la IA sea configurable a través de la tecnología
Por último, nuestras entrevistas revelaron una tendencia interesante y más positiva: los productos tecnológicos están ocupando rápidamente el espacio entre los modelos de IA desarrollados externamente y los usuarios internos de la organización. Al hacerlo, estos productos están convirtiendo una noción algo abstracta de la ética de la IA en parámetros configurables digitalmente. Por ejemplo, discutimos con el gerente de producto de un producto de seguridad de modelo de lenguaje grande (LLM) cómo su producto clasifica el uso ético en cuatro categorías: religión, género, raza y salud . El producto permite monitorear el desempeño de un LLM desarrollado externamente en cada una de estas categorías, que se clasifican a su vez en términos más específicos en el nivel de solicitud. Por lo tanto, la organización del usuario puede configurar estas categorías para definir el uso éticamente aceptable de los LLM como parte de su política de ética de la IA. Como tal, las interfaces de configuración mejoran la eficacia y se extienden más allá de los LLM, y pueden permitir que los equipos locales de ética de la IA contextualicen marcos éticos amplios formulados por la alta gerencia con mayor facilidad.

El enfoque de HPE, si bien es posible que sea menos “de vanguardia” en el aspecto tecnológico, emplea algoritmos y procesos automatizados para involucrar de manera proactiva a los desarrolladores y vendedores de primera línea en la formulación de preguntas éticas, determinar si su caso de uso ya está cubierto por la jurisprudencia existente y hacer un seguimiento de los resultados. Las empresas deberían emular este ejemplo: centrarse en utilizar la tecnología de maneras que acentúen sus propios procesos éticos de IA en lugar de incorporar tecnologías con vagas promesas de automatización plausible.

Conclusión
De lo expuesto anteriormente, la contextualización de la ética de la IA se presenta como un desafío importante. Si bien existen varias consideraciones que hacen necesaria la contextualización de la ética de la IA, la respuesta de las organizaciones usuarias de IA ha sido todo menos uniforme. Si bien organizaciones como HPE se han adelantado a la tendencia y han formulado procesos y estructuras elaborados para contextualizar la ética de la IA, otras parecen estar dando tumbos con la cuestión fundamental de cómo crear prácticas para la ética de la IA, y algunas simplemente adoptan la perspectiva regulatoria. Sin embargo, a medida que la IA gane impulso rápidamente, las organizaciones se enfrentarán a la cuestión de cómo formular y aplicar políticas de ética de la IA sensibles al contexto.

Una respuesta a estas preguntas es la formación y la colaboración continua con los equipos locales de ética de la IA. Para ello, ofrecemos tres recomendaciones. En primer lugar, una empresa debería colaborar con los empleados locales para elaborar su narrativa ética de la IA. HPE, que se embarcó en una revisión exhaustiva de los diferentes enfoques regionales de la ética y la gobernanza de la IA, combinada con su interacción continua con los equipos locales, es un excelente ejemplo de ello. En segundo lugar, al principio del proceso, la empresa debería negociar los puntos de conflicto en los que los valores de la empresa entren en conflicto con los valores predominantes en la geografía. Este punto es evidente en el ejemplo mencionado anteriormente de los valores culturales japoneses y una intervención algorítmica que omite las hojas tomadas para las decisiones promocionales. Por último, si bien puede haber una visión de toda la empresa sobre el uso de la IA, las empresas pueden otorgar a los líderes locales cierta autonomía en lo que respecta a la implementación de iniciativas de IA por motivos éticos, incluidas las variaciones regulatorias en las normas éticas de la IA. Por supuesto, hasta qué punto se puede conceder dicha autonomía es una cuestión que se debe negociar más a fondo.

A medida que las empresas adoptan estas recomendaciones, es importante no considerar la ética de la IA como una meta objetiva. Por el contrario, al igual que los componentes tecnológicos de la IA, la ética de la IA también está en constante cambio. Por lo tanto, las empresas nunca “terminan” con la ética y la gobernanza de la IA. Es un proceso continuo.

Lea más sobre Ética empresarial o temas relacionados Tecnología y análisis , IA y aprendizaje automático , Cuestiones sociales y globales y Negocios y sociedad

Swanand Deodhar es profesor asociado en el Instituto Indio de Gestión de Ahmedabad. Su investigación comprometida en temas como las plataformas digitales y la transformación digital se basa en una profunda colaboración con la práctica. Su trabajo ha aparecido en revistas de prestigio y referencia mundial, como  MIS Quarterly ,  Information Systems Research y  Journal of International Business . Puedes seguirlo en LinkedIn.

Favour Borokini es estudiante de doctorado en el Centro Horizon para la Formación de Doctorado, ubicado en la Facultad de Ciencias de la Computación de la Universidad de Nottingham. Su interés en la investigación se centra en el marco ético que aborda los daños en entornos inmersivos. Tiene un título en Derecho de la Universidad de Benin, Nigeria, y es miembro del Colegio de Abogados de Nigeria. Ha aprovechado con éxito su formación jurídica para investigar cuestiones como el impacto de la tecnología en los derechos humanos, en particular los derechos de las mujeres, el impacto de la IA en las mujeres africanas y las experiencias de las mujeres africanas que trabajan en IA en diversos sectores.

Ben Waber es un científico visitante en el Media Lab del MIT e investigador visitante sénior en la Universidad Ritsumeikan. Su investigación y trabajo comercial se centran en la relación entre la gestión, la IA y los resultados organizacionales. También es autor del libro  People Analytics . Síguelo en Mastodon: @bwaber @hci.social.


No hay comentarios:

Publicar un comentario