Doxa 1036

Cómo IBM trabaja hacia una IA más justa

Por Francesca Rossi 
Demografía
Harvard Business Review

Los seres humanos tenemos muchos tipos de sesgos. Por nombrar solo algunos, sufrimos de sesgo de confirmación , lo que significa que tendemos a centrarnos en la información que confirma nuestras ideas preconcebidas sobre un tema; desde el sesgo de anclaje , donde tomamos decisiones basándonos principalmente en la primera información que recibimos sobre ese tema; y del sesgo de género , donde tendemos a asociar a las mujeres con ciertos rasgos, actividades o profesiones, ya los hombres con otros. Cuando tomamos decisiones, este tipo de prejuicios a menudo se infiltran inconscientemente, lo que resulta en decisiones que, en última instancia, son injustas y no objetivas.

Estos mismos tipos de sesgos pueden aparecer en la inteligencia artificial (IA), especialmente cuando se utilizan técnicas de aprendizaje automático para programar un sistema de IA. Una técnica de uso común llamada "aprendizaje automático supervisado" requiere que los sistemas de inteligencia artificial estén entrenados con una gran cantidad de ejemplos de problemas y soluciones. Por ejemplo, si queremos construir un sistema de inteligencia artificial que pueda decidir cuándo aceptar o rechazar una solicitud de préstamo, lo capacitaríamos con muchos ejemplos de solicitudes de préstamo, y para cada solicitud, le daríamos la decisión correcta (ya sea aceptar o rechazar rechazar la solicitud).

El sistema de inteligencia artificial encontraría correlaciones útiles en tales ejemplos y las usaría para tomar (con suerte, corregir) decisiones sobre nuevas solicitudes de préstamos. Después de la fase de entrenamiento, una fase de prueba en otro conjunto de ejemplos verifica que el sistema sea lo suficientemente preciso y esté listo para su implementación. Sin embargo, si el conjunto de datos de entrenamiento no es lo suficientemente equilibrado, inclusivo o representativo de las dimensiones del problema que queremos resolver, el sistema de IA puede estar sesgado. Por ejemplo, si todas las solicitudes de préstamo aceptadas en el conjunto de datos de capacitación están relacionadas con hombres y todas las rechazadas están relacionadas con mujeres, entonces el sistema detectará la correlación entre el género y la aceptabilidad como una forma de sesgo y utilizará este sesgo al tomar decisiones. sobre nuevas aplicaciones en el futuro.

Otro ejemplo de cómo el sesgo se infiltra en los conjuntos de datos de entrenamiento de IA ocurre cuando incluimos muchos más puntos de datos para un grupo en comparación con otro. En este caso, la precisión del sistema de IA probablemente será diferente para los dos grupos, ya que la IA podría aprender mejor (aprovechando más información) para uno de los dos grupos. En dominios con decisiones de alto riesgo, como en el sector financiero, la atención médica o el dominio judicial, el uso de un sistema de inteligencia artificial con sesgo puede llevar a decisiones que favorezcan a un grupo de personas sobre otro. Esto no es aceptable, especialmente cuando las decisiones pueden afectar significativamente la vida.

Actualmente, existen algoritmos que pueden detectar y mitigar el sesgo en los sistemas de IA. Sin embargo, el espacio de sesgo de la IA es increíblemente complejo y los diferentes tipos de datos (imágenes, texto, voz, datos estructurados) requieren diferentes técnicas para detectar sesgos en el conjunto de datos de entrenamiento. El sesgo también se puede inyectar en otras fases del proceso de desarrollo de la IA, no solo en el conjunto de datos de entrenamiento. Por ejemplo, considere un sistema de inteligencia artificial que se supone que identifica la razón principal de una solicitud de préstamo, como comprar una casa, pagar las tasas escolares y pagar los honorarios legales, con el objetivo de priorizar algunas de esas categorías por encima de otras, como determinado por los desarrolladores. Si los desarrolladores omiten una de las razones por las que las personas solicitan un préstamo, las personas con esa motivación serían penalizadas.

Entonces, ¿qué podemos hacer para solucionar este creciente desafío? Esto es lo que hemos hecho en IBM para promover una IA más justa, transparente y precisa:
  1. Cree un tablero de ética de IA eficaz. En IBM, siempre hemos priorizado las consideraciones éticas de las tecnologías que traemos al mundo. Creemos que para hacer cambios verdaderos y duraderos en este tema crítico, nosotros y otros debemos apoyar un cambio organizacional y cultural holístico. Por ejemplo, IBM ha puesto en marcha un marco de gobernanza de IA centralizado y multidimensional, centrado en la junta de ética de IA interna de IBM , que codirijo junto con el director de privacidad de IBM. Apoya iniciativas tanto técnicas como no técnicas para poner en práctica los principios de confianza y transparencia de IBM. También avanzamos los esfuerzos internamente bajo el paraguas de Trusted AIque busca abordar múltiples dimensiones de este concepto, incluida la equidad, la explicabilidad, la solidez, la privacidad y la transparencia.
  2. Defina claramente las políticas de la empresa en torno a la IA. En 2018, IBM lanzó sus Principios de Confianza y Transparencia para guiar los enfoques de políticas para la IA de manera que promuevan la responsabilidad, incluida nuestra opinión sobre la Regulación de precisión de la IA , publicada a principios de 2020. Estos principios describen nuestro compromiso de utilizar la IA para aumentar la inteligencia humana, nuestro compromiso con una política de datos que protege los datos de los clientes y la información obtenida de sus datos, y un compromiso con un enfoque en la transparencia y la explicabilidad para construir un sistema de confianza en la IA. Nuestra política de regulación de precisión recomienda que los responsables políticos solo regulen las aplicaciones de IA de alto riesgo, después de un análisis cuidadoso de la tecnología utilizada y su impacto en las personas.
  3. Trabaje con socios confiables. También hemos establecido múltiples relaciones de múltiples partes interesadas con socios externos a lo largo de los años para promover la ética en la IA, incluso a principios de este año cuando IBM se convirtió en uno de los primeros signatarios del "Llamado de Roma para la ética de la IA" del Vaticano . Lanzada en febrero de 2020, esta iniciativa en asociación con el Vaticano se centra en promover una IA más centrada en el ser humano que se alinee con los valores humanos fundamentales, como centrar más la atención en las partes vulnerables de la población. Otra iniciativa reciente a la que se sumó IBM es el Grupo de expertos de alto nivel sobre IA de la Comisión Europea (CE), diseñado para ofrecer pautas éticas para una IA confiable en Europa. Ahora se utilizan ampliamente en Europa y más allá para guiar posibles regulaciones y estándares futuros para la IA.
  4. Contribuya con kits de herramientas de código abierto a los pilares de la confianza de la IA. Más allá de definir principios, políticas, gobernanza y colaboración, en IBM también damos prioridad a la investigación y el lanzamiento de herramientas tangibles que pueden impulsar la confianza en la IA. En 2018, IBM Research lanzó un conjunto de herramientas de código abierto llamado AI Fairness 360 (AIF360) que permite a los desarrolladores compartir y recibir códigos y conjuntos de datos de última generación relacionados con la detección y mitigación de sesgos de IA. Este conjunto de herramientas también permite que la comunidad de desarrolladores colabore entre sí y discuta varias nociones de sesgo, para que puedan comprender colectivamente las mejores prácticas para detectar y mitigar el sesgo de IA. Desde AIF360, IBM Research ha lanzado herramientas adicionales diseñadas para definir, medir y promover la confianza en la IA, incluida  AI Explainability 360(AIX360), que respalda la comprensión y la innovación en la explicabilidad de la IA, la Caja de herramientas de robustez adversaria , que proporciona herramientas útiles para hacer que la IA sea más robusta, y las Hojas informativas de IA , que se centran en aumentar los niveles de transparencia en el desarrollo de un extremo a otro de un Ciclo de vida de la IA.

Estos esfuerzos, nacidos en IBM Research, también han llevado a soluciones comerciales innovadoras para los clientes de IBM. En 2018, IBM lanzó Watson OpenScale, una oferta comercial diseñada para crear soluciones basadas en IA para empresas y les ayuda a detectar, gestionar y mitigar el sesgo de IA.

Si bien soluciones como estas ayudan, por sí solas no son suficientes para garantizar que los sistemas de IA implementados no tengan sesgos no deseados incorporados. A menudo, los desarrolladores ni siquiera son conscientes del tipo de sesgo que tienen sus modelos y es posible que no tengan el conocimiento para identificar lo que es justo y apropiado para un determinado escenario.

Para abordar esto, existen múltiples iniciativas en las que las empresas pueden y deben enfocarse:
  • Dedicar recursos a iniciativas de educación y concienciación para diseñadores, desarrolladores y gerentes;
  • Asegurar una composición diversa del equipo ;
  • Asegúrese de incluir consultas con las organizaciones sociales relevantes y las comunidades afectadas para identificar la definición más apropiada de equidad para los escenarios donde se implementará el sistema de IA, así como la mejor manera de resolver los problemas de interseccionalidad: varias nociones de sesgo (como género, edad y prejuicios raciales) que impactan en partes superpuestas de la población, donde la mitigación de una puede aumentar la otra;
  • Defina marcos de metodología, adopción y gobernanza para ayudar a los desarrolladores a revisar correctamente su canalización de IA de forma sostenible. Se deben agregar nuevos pasos (por ejemplo, para detectar y mitigar el sesgo) en los procesos habituales de desarrollo de IA; Es necesario definir una metodología clara para integrar esos pasos y es necesario hacer un esfuerzo para que la adopción de dicha metodología sea lo más fácil posible. También es necesario utilizar un marco de gobernanza para evaluar, facilitar, hacer cumplir y escalar la adopción; y
  • Construya herramientas de transparencia y explicabilidad para reconocer la presencia de sesgos y su impacto en las decisiones del sistema de IA.
En general, solo un enfoque multidimensional y de múltiples partes interesadas puede abordar verdaderamente el sesgo de la IA al definir un enfoque basado en valores, donde valores como la justicia, la transparencia y la confianza son el centro de la creación y la toma de decisiones en torno a la IA. Al hacerlo, no solo podemos evitar la creación de IA que replica o amplifica nuestros propios prejuicios, sino que también podemos utilizar la IA para ayudar a los humanos a ser más justos. El objetivo final, por supuesto, no es promover la inteligencia artificial per se, sino promover a los seres humanos y nuestros valores mediante el uso de tecnologías, incluida la inteligencia artificial.

Francesca Rossi es la Líder Global de Ética en IA de IBM y la próxima presidenta de la Asociación para el Avance de la Inteligencia Artificial.


No hay comentarios:

Publicar un comentario