Doxa 1939

Cómo implementar la IA de forma responsable

Cuatro formas en que los líderes no técnicos pueden fomentar una cultura que valore la IA ética.

Por Michael Wade y Tomoko Yokoi
Derecho y Ética Empresarial
Harvard Business Review

#Doxa #derecho #IA #ética #empresarial #cultura #líderes #organización #científicos #datos #ciclos #técnicos #prácticas
Resumen. Los investigadores colaboraron con organizaciones de diversos sectores, cada una en una fase diferente de la implementación de una IA responsable. Determinaron que, aunque los ingenieros de datos y los científicos de datos suelen asumir la mayor parte de la responsabilidad, desde la concepción hasta la producción de los ciclos de vida de desarrollo de la IA, los líderes no técnicos pueden desempeñar un papel clave a la hora de garantizar la integración de una IA responsable. Identificaron cuatro movimientos clave: traducir, integrar, calibrar, y proliferar — que los líderes pueden hacer para garantizar que las prácticas responsables de la IA se integran plenamente en los estándares operativos más amplios.
Cuando el Parlamento de la UE aprobó la Ley de Inteligencia Artificial (IA) a principios de 2024, Deutsche Telekom, uno de los principales proveedores de telecomunicaciones de Alemania, se mostró confiado y preparado. Desde que creó su principios de IA responsable en 2018, la empresa se esforzó por integrar estos principios en el ciclo de desarrollo de sus productos y servicios basados en la IA. «Anticipamos que la normativa sobre la IA estaba en el horizonte y animamos a nuestros equipos de desarrollo a integrar los principios en sus operaciones por adelantado para evitar ajustes disruptivos más adelante. La IA responsable ha pasado a formar parte de nuestras operaciones», explicó Maike Scholz, de cumplimiento grupal y ética empresarial de Deutsche Telekom.

Lamentablemente, nuestras investigaciones sugieren que estas medidas proactivas son las la excepción más que la regla. Si bien la ética de la IA ocupa un lugar destacado en la agenda de muchas organizaciones, traducir los principios de la IA en prácticas y comportamientos está resultando más fácil decirlo que hacerlo. Sin embargo, con fuertes sanciones financieras en juego por incumplimiento, hay poco tiempo que perder. ¿Qué deben hacer los líderes para redoblar sus iniciativas de IA responsable?

Para encontrar respuestas, colaboramos con organizaciones de diversos sectores, cada una en una fase diferente de la implementación de una IA responsable. Si bien los ingenieros de datos y los científicos de datos suelen asumir la mayor parte de la responsabilidad, desde la concepción hasta la producción de los ciclos de vida de desarrollo de la IA, los líderes no técnicos pueden desempeñar un papel clave a la hora de garantizar la integración de una IA responsable. Identificamos cuatro movimientos clave: traducir, integrar, calibrar y proliferar— que los líderes pueden hacer para garantizar que las prácticas responsables de la IA se integran plenamente en los estándares operativos más amplios.

Movimiento #1: Traducir los principios de alto nivel en una guía práctica
Muchas organizaciones crean un Carta ética de la IA pero a menudo tienen dificultades para implementar los principios de la IA en sus operaciones diarias. Con El 79% de los trabajadores tecnológicos afirman que necesitan recursos prácticos para ayudarlos a abordar las preocupaciones éticas, estos principios tienen que traducirse en una guía práctica.

Es un proceso que lleva tiempo. Los principios autovinculantes de Deutsche Telekom se comprometen con el uso responsable, solidario, transparente y fiable de la IA. Sin embargo, la empresa pronto se dio cuenta de que estos principios eran demasiado abstractos para sus desarrolladores y se pusieron a traducirlos a términos más prácticos y operativos. En 2021, la empresa presentó el Pautas de ingeniería y uso de la IA, que documentaba las mejores prácticas, métodos y consejos para integrar los principios en los procesos de desarrollo de la IA. Estas directrices proporcionaban medidas específicas que debían tomarse antes, durante y después del lanzamiento de un proyecto de desarrollo de la IA, y destacaban las consideraciones esenciales para los propietarios de negocios, los directores de proyectos, los equipos de productos y los equipos operativos. Disponible en alemán e inglés, cada guía estaba claramente documentada y era accesible para todos los empleados.

Del mismo modo, el proceso de integración de la ética de la IA en Thomson Reuters, una empresa global de contenido y tecnología, fue fundamental para la forma en que creó y aplicó la tecnología de la IA. Un aspecto fundamental de este viaje consistía en traducir de forma eficaz principios éticos de datos e IA, que hacía hincapié en la confianza, en un completo programa de gobierno de datos e IA. La empresa hizo hincapié en la naturaleza reflexiva de este proceso, que implicaba hacer preguntas como: «¿Cuáles son los componentes y los procesos fundamentales?» y «¿Qué expectativas se deben fijar para cada empleado?»

Acciones clave: Facilitar la alineación
Mantenga los equipos unidos: Los equipos digitales y de cumplimiento han tenido a menudo una relación difícil. El cumplimiento se considera un impedimento para la innovación digital, mientras que los equipos digitales son vistos como inconformistas que buscan riesgos. El éxito de la alineación entre ambas depende a menudo de la estructura de gobierno. En Thomson Reuters, el equipo de ética trabajó en estrecha colaboración con el equipo de gobierno de datos y modelos. Los dos equipos abordaron diferentes aspectos del mismo tema, como la forma de garantizar que los datos se utilizaran de forma responsable y segura en toda la organización. Trabajar en estrecha colaboración puso de manifiesto la importancia de la ética digital como un aspecto fundamental del proceso de desarrollo de la IA.

Facilitar la apertura de los diálogos: Crear diálogos abiertos es tan importante como establecer un sistema de gobierno bien estructurado.

Descubrimos que las organizaciones destacaban cuando participaban activamente en debates sobre la complejidad del despliegue ético de la IA. Tome la iniciativa de Deutsche Telekom de traducir el principio de transparencia en anuncios de servicio al cliente que aprovechen los chatbots de la IA. El departamento de servicio expresó su preocupación por la posibilidad de que los clientes se desconectaran si los recibían con mensajes formales como: «Hola, soy el asistente de servicio digital de Deutsche Telekom». Esta preocupación llevó a amplias deliberaciones entre los departamentos de cumplimiento, ética y servicio, que finalmente llevaron a la creación de un grupo de trabajo para idear una solución adecuada.

Movimiento #2: Integrar las consideraciones éticas en los procesos de diseño y desarrollo de la IA
El siguiente paso es integrar las consideraciones éticas en la rutina de desarrollo de la IA. Para muchos proyectos de IA, lamentablemente surgen problemas éticos después del despliegue. Para evitar estos problemas, muchas organizaciones han adoptado un enfoque proactivo, abordando los problemas éticos durante la fase de desarrollo.

Descubrimos que las organizaciones, especialmente las que tienen una sólida gobernanza de los datos, aprovecharon sus procesos de privacidad actuales para incorporar principios éticos adicionales de la IA. Este enfoque les permitió basarse en procedimientos internos comprobados y adaptarlos en respuesta a los cambios en los requisitos reglamentarios y las expectativas del mercado. Al operar en un sector altamente regulado, el gigante bancario español CaixaBank había establecido procedimientos de privacidad sólidos para cualquier desarrollo tecnológico nuevo. En 2020, el regulador español introdujo nuevos requisitos para el uso responsable de los modelos de IA que aprovechan los datos personales, incluidos más de 100 controles relacionados con la transparencia, la explicabilidad, la equidad (control de sesgos) y la solidez (precisión). Para cumplir con este nuevo reglamento, CaixaBank adaptó su metodología de privacidad y sus procesos de validación actuales para el desarrollo de modelos de IA. Como describieron fuentes internas: «Seguimos nuestros procesos de privacidad para que la ética de la IA aproveche todo lo que la organización ha creado hasta ahora».

Acciones clave: Navegar y apoyar
Adaptarse según la relevancia operativa: Las organizaciones tienen la tarea de implementar marcos que no solo cumplan con las normas mundiales, sino que también se adapten a sus realidades operativas únicas. Un estudio de 2019 identificado 106 herramientas y metodologías, y este número sigue creciendo. Los líderes pueden ayudar a analizar este abarrotado panorama para garantizar que las herramientas y los marcos de la IA son exhaustivos y relevantes desde el punto de vista operativo. Por ejemplo, cuando SwissPost, el servicio postal nacional de Suiza, se dio cuenta de que el proceso de autocertificación que estaban poniendo a prueba se superponía significativamente con sus requisitos de certificación ISO preexistentes. Respondieron desarrollando un proceso simplificado que incorporaba únicamente preguntas no relacionadas con la ISO. Sophia Ding, especialista en ética digital e inteligencia artificial, explicó: «Reconocimos la importancia de personalizar las herramientas para que se adapten a las necesidades y contextos específicos de la organización».
 
Proporcionar apoyo continuo: El viaje no termina con la creación inicial de barreras éticas; requiere apoyo y supervisión continuos. Las organizaciones pueden establecer mecanismos de apoyo continuo para responder a las preguntas que surjan. Al crear una cuenta de correo electrónico centralizada, Deutsche Telekom invitó a personas y equipos a enviar consultas sobre la implementación de la ética de la IA. El equipo de cumplimiento también consultó sobre proyectos, prestó asesoramiento y, en algunos casos, emitió certificaciones éticas internas. Estas certificaciones ayudaron a los propietarios de los productos a evaluar si sus proyectos de IA cumplían con las normas éticas. Para garantizar aún más el cumplimiento, el equipo llevó a cabo auditorías aleatorias y seleccionó el 10% de todos los proyectos de IA cada año para comprobar el cumplimiento de las normas éticas. Estas acciones ayudaron a garantizar que la integración ética de la IA no fuera una tarea puntual sino un proceso continuo.

Movimiento #3: Calibrar las soluciones de IA en respuesta a las condiciones locales y a los cambios tecnológicos.
En las fases de prueba y evaluación, el objetivo principal es comprobar que la solución de IA cumple con los objetivos y requisitos originales. Un aspecto esencial de la fase de calibración es garantizar que la solución siga siendo relevante para las aplicaciones del mundo real. Con el tiempo, puede haber divergencias entre los escenarios para los que se creó la solución de IA y la evolución de las situaciones del mundo real.

Es necesaria una monitorización continua para detectar cualquier cambio y adaptarse a él. Sin embargo, un desafío importante que destacaron muchas organizaciones fue el ancho de banda limitado para la supervisión continua después del despliegue. Para abordar este tema, se pueden emplear varias tácticas. En primer lugar, la responsabilidad de supervisar activamente la ética de la IA debe distribuirse entre toda la organización entre los equipos de despliegue y las comunidades de usuarios. Este enfoque facilita el diálogo y la comunicación continuos, garantizando que cualquier problema se identifique y resuelva con rapidez. En segundo lugar, es vital priorizar los casos de uso de alto riesgo para centrar más la atención.

Acciones clave: Mantener el impulso
Supervisar y ajustar las soluciones de IA en respuesta a las condiciones locales y a los cambios tecnológicos requiere inversiones sustanciales en tiempo y recursos, especialmente en personal e implementación de procedimientos de «alerta».

Posicione la IA responsable como un impulsor de valor: Las principales organizaciones alinean las consideraciones éticas con los objetivos empresariales. La compañía de seguros suiza Die Mobiliar ejemplifica este enfoque. En lugar de ver la ética de la IA como un proceso oneroso lleno de listas de control, la empresa se centró en encontrar un equilibrio óptimo entre la estrategia empresarial, la privacidad de los datos y la ética de la IA. Para lograrlo, Die Mobiliar contrató a un equipo interdisciplinario, que incluía representantes de cumplimiento, seguridad, ciencia de datos e TI, que se reunían regularmente para explorar esta sinergia.

Aproveche las asociaciones externas: Colaborar con expertos externos, instituciones académicas y grupos industriales puede ofrecer nuevas perspectivas y puntos de vista que sirvan de base para el ajuste de las soluciones de IA. La Universidad de Salud y Ciencia de Oregón utilizaba cada vez más las herramientas de IA para mejorar la investigación en salud, la atención a los pacientes y la administración de los hospitales. La directora de Información Bridget Barnes hizo hincapié en la importancia de adoptar una visión amplia de la ética de la IA: «No solo nos centramos internamente, sino que también nos asociamos con otros centros médicos académicos de los EE. UU. También estamos analizando el trabajo de los gobiernos federal y estatal en relación con los estándares de la IA para enriquecer aún más nuestros aprendizajes».

Movimiento #4: Proliferar las prácticas y los aprendizajes en el resto de la organización.
En el panorama de la IA, en rápida evolución, fomentar un entorno de aprendizaje e intercambio puede mejorar el conocimiento y permitir a los empleados contribuir al desarrollo responsable de la IA. Sin embargo, las organizaciones también se enfrentan al desafío a corto plazo de mejorar las habilidades de la fuerza laboral en los avances de la IA que afectan a la empresa hoy. La compañía farmacéutica Bristol-Meyers-Squibb (BMS) creó una comunidad autoorganizada llamada «AI Collective». Se reunían regularmente en intervalos de 4 a 6 semanas para intercambiar puntos de vista e ideas sobre cómo hacer avanzar los proyectos de IA en la empresa, analizar las últimas tendencias, puntos de referencia, mejores prácticas y casos de uso interesantes. «El colectivo es una iniciativa de abajo hacia arriba que fomenta la innovación a través del aprendizaje entre pares y las conversaciones dirigidas por expertos. Creemos que es más eficaz que un enfoque de arriba hacia abajo. Da a los expertos más autonomía y oportunidades de crecer», afirma Miguel Crespo, responsable de riesgos digitales y de TI.

Acciones clave: Priorizar y escalar
Realizar un análisis de las partes interesadas y priorizar las funciones: cuando los recursos son limitados y la necesidad de un impacto inmediato es alta, es crucial centrarse en las funciones clave que más influyen en el desarrollo de la IA. Un primer paso práctico es realizar un análisis de las partes interesadas para identificar las funciones que tienen el mayor impacto en el desarrollo de la IA y la aplicación ética. Al analizar su panorama de grupos de interés, SwissPost identificó a los directores de proyectos con capacidades de análisis como fundamentales para el éxito de sus iniciativas de IA. En consecuencia, la organización tomó la decisión estratégica de priorizar la formación sobre ética de la IA para estas personas clave, garantizando que las personas que más participan en la dirección de los proyectos de IA cuentan con los conocimientos necesarios para abordar las consideraciones éticas de forma eficaz.

Cree un kit de herramientas de escalado: Proporcionar recursos prácticos que ayuden a compartir prácticas de IA responsables se puede lograr mediante el desarrollo de un conjunto de herramientas de escalado de la IA responsable. La empresa industrial francesa Thales creó un conjunto de herramientas adaptables y con capacidad de búsqueda que las diferentes divisiones de la organización podían utilizar para implementar prácticas de IA responsables. Este kit de herramientas contenía información sobre prácticas de IA responsables, consejos de implementación, material de comunicación y estudios de casos diseñados para ayudar a los equipos locales de IA. También ofrecía consejos sobre cómo personalizar las prácticas de IA responsables para satisfacer las necesidades locales. El kit de herramientas definió un conjunto básico de prácticas que se pueden adaptar para satisfacer las necesidades locales.
• • •
Si bien muchas organizaciones han logrado avances en el desarrollo de los principios de la IA, el verdadero desafío radica en integrar estos principios en la estructura de las operaciones diarias. Los líderes, especialmente los que desempeñan funciones no técnicas, desempeñan un papel decisivo en este proceso, ya que abogan por los recursos prácticos, fomentan una cultura que valore la IA ética y garantizan que las prácticas responsables de la IA son un aspecto fundamental de la toma de decisiones.

Lea más sobre Derecho y ética empresarial o temas relacionados Ética empresarial, Transparencia, Tecnología y análisis, IA y aprendizaje automático y Tecnología de la información y sector de telecomunicaciones

Michael Wade es profesor de innovación y estrategia y director del Centro Global para la Transformación Empresarial Digital de IMD Business School. Es coautor de ALIEN Thinking: The Unconventional Path to Breakthrough Ideas (PublicAffairs, 2021).

Tomoko Yokoi es investigadora y asesora en transformaciones digitales en IMD Business School y ETH Zurich. Es coautora de Hacking Digital: Mejores prácticas para implementar y acelerar las transformaciones de su negocio.


No hay comentarios:

Publicar un comentario