Doxa 1294

Pensar en la ética de las nuevas tecnologías... antes de que surja un problema.

Históricamente, ha sido una cuestión de prueba y error. Hay una forma mejor.

Por Beena Ammanath 
Ética de negocios
Harvard Business Review

#Doxa #ética #tecnología #negocio #aprendizaje #gestión #artificial #inteligencia #riesgo
Resumen. Hay un patrón familiar cuando se introduce una nueva tecnología: crece rápidamente, llega a impregnar nuestras vidas y solo entonces la sociedad comienza a ver y abordar los problemas que crea. Pero, ¿es posible evitar posibles problemas? Si bien las empresas no pueden predecir el futuro, pueden adoptar un marco sólido que las ayudará a prepararse y responder a impactos inesperados. Primero, al implementar nueva tecnología, es vital hacer una pausa y hacer una lluvia de ideas sobre los riesgos potenciales, considerar los resultados negativos e imaginar las consecuencias no deseadas. En segundo lugar, también puede aclarar preguntar, desde el principio, quién sería responsable si una organización tiene que responder por las consecuencias negativas o no intencionadas de su nueva tecnología, ya sea testificar ante el Congreso, comparecer ante un tribunal o responder preguntas de los medios de comunicación.. En tercer lugar, designe a un director de ética en tecnología.
Todos queremos que la tecnología en nuestras vidas cumpla su promesa: deleitarnos más de lo que nos asusta, ayudar mucho más de lo que daña. También sabemos que cada nueva tecnología debe ganarse nuestra confianza. Con demasiada frecuencia, el patrón es el siguiente: se introduce una tecnología, crece rápidamente, llega a impregnar nuestras vidas y solo entonces la sociedad comienza a ver y abordar los problemas que pueda crear.

Este no es un fenómeno exclusivamente moderno. Considere los primeros días del automóvil producido en serie. A medida que los conductores adoptaron un nuevo y emocionante modo de transporte, los accidentes y las muertes eran mucho más probables que en la actualidad. Imagínese si el crecimiento del automóvil hubiera sido diferente, con cinturones de seguridad desarrollados, carreteras más seguras construidas y mejores leyes de tránsito implementadas mucho antes, junto con las innovaciones del motor que nos dieron más potencia y mayor velocidad. Se podrían haber mitigado muchos riesgos y se podrían haber evitado muchas tragedias.

Las empresas tienen que aprender a ser administradores responsables de la inteligencia artificial (IA) que implementan, las redes 5G que han comenzado a construir y mucho más que se nos avecina, desde la computación cuántica hasta la realidad virtual (VR) y blockchain. Las tecnologías que están impulsando un cambio radical y son fundamentales para el crecimiento de la economía deben ser confiables. Las empresas que ofrecen avances tecnológicos deben actuar de forma ética. Las apuestas son altas. Y, sin embargo, saber lo que hay que hacer no es lo mismo que saber cómo.

Las organizaciones deben tratar de anticipar y abordar los efectos potenciales de las tecnologías que implementan. Si bien no pueden predecir el futuro, pueden adoptar un marco sólido que los ayudará a prepararse y responder a impactos inesperados.

Dicho marco tendría que cambiar fundamentalmente la forma en que desarrollamos e implementamos nuevas tecnologías. Tendría que renovar los procesos existentes. Cualquier marco debe reflejar que se trata de un esfuerzo de equipo, no solo el trabajo de ingenieros y gerentes: debe trascender disciplinas. Debería abrir puertas a nuevas formas de pensar sobre los desafíos. El objetivo aquí es describir un marco que pueda hacer estas cosas.

Involucrar a los especialistas

Aquellos que están inmersos en el mundo de la ingeniería de software, y yo me cuento en este grupo, a menudo se inclinan a ver, ante todo, la promesa de una tecnología y la oportunidad de crear valor. A medida que las preguntas sobre los impactos de una tecnología se vuelven más comunes, los ingenieros aún tienen mucho por hacer para comprender los daños potenciales. Los ingenieros y desarrolladores de software no necesariamente tienen toda la experiencia que necesitan para comprender y abordar los riesgos éticos que su trabajo podría generar.

En otras palabras, aquí podría haber un papel para los especialistas de otras disciplinas. Necesitamos cambiar nuestras prioridades para ayudar a los equipos de desarrollo de tecnología a pensar con más previsión y matices sobre estos temas, guiados por aquellos con los conocimientos más relevantes.

Considere, por ejemplo, el desarrollo de una herramienta de capacitación en realidad virtual que sumerja al usuario en una situación de respuesta de emergencia difícil o dramática. A medida que la tecnología evoluciona, las simulaciones de realidad virtual se vuelven tan realistas que es posible que deba abordarse la posibilidad de un trauma real a partir de una experiencia virtual. El equipo querría tener un psicólogo involucrado, trabajando codo a codo con los ingenieros de software, para aprovechar el cuerpo de conocimiento sobre lo que puede causar un trauma o cómo podría identificarse y abordarse.

Tomemos como ejemplo la fabricación en la nube y la impresión 3D. A medida que las empresas persiguen estas tecnologías, que tienen el potencial de cambiar drásticamente las habilidades necesarias en la fábrica, es posible que hablen con economistas laborales que puedan arrojar luz sobre problemas más importantes de la fuerza laboral. A medida que la conectividad 5G pone en línea las fábricas que se pueden administrar de forma totalmente remota, las empresas pueden querer consultar con especialistas en seguridad de plantas, ciberseguridad y tal vez incluso filosofía para comprender los posibles escollos creados por las fábricas que no emplean a personas.

Pausar y planificar

Durante la etapa de planificación estratégica, un equipo naturalmente centrará su atención en lo que es posible. Ahí es donde radica la emoción y el entusiasmo. Pero también se debe prestar atención a comprender qué puede salir mal. Es vital hacer una pausa y hacer una lluvia de ideas sobre los riesgos potenciales, considerar los resultados negativos e imaginar las consecuencias no deseadas.

Esto podría significar que, a medida que las empresas se apresuran hacia un futuro 5G con un salto gigante en la velocidad de los datos y la conectividad ubicua, deberían hacer una pausa para considerar y abordar nuevas preocupaciones de privacidad, quizás mucho más allá de las que ya estamos lidiando. O podrían considerar cómo este salto en la velocidad de los datos puede exacerbar la desigualdad en nuestra sociedad y ampliar la brecha digital.

Este paso del proceso de planificación, en el que se intercambian ideas y se analizan los riesgos, debe documentarse con la misma claridad que la propuesta de valor o el rendimiento esperado de la inversión. El mandato de documentar este trabajo puede ayudar a garantizar que se convierta en parte del esfuerzo. Deloitte ha desarrollado más de 300 preguntas que exploran las dimensiones éticas y de confianza que pueden informar el proceso de planificación estratégica y sus resultados.

La tendencia es pensar en la ética tecnológica en el contexto de los problemas que ya han surgido, como el sesgo discriminatorio en el marketing de redes sociales o los sistemas de adquisición de talento. Pero esta es una forma de pensar defectuosa, porque puede hacer que no veamos otros riesgos éticos potencialmente mucho mayores, y no considera los matices que atraviesan organizaciones, industrias, clientes y productos.

Después de evaluar los posibles impactos negativos de una nueva tecnología en particular y formar un equipo que tenga experiencia relevante, es importante profundizar. El equipo tiene que hacer la investigación y, a partir de ahí, debería ser posible comenzar a establecer las barandas que puedan minimizar los riesgos y mitigar los daños potenciales. Los líderes deben exigir el desarrollo de estrategias éticas de mitigación de riesgos como parte de la planificación de cualquier proyecto de nueva tecnología.

Asignar responsabilidad

También puede resultar aclaratorio preguntar, desde el principio, quién sería responsable si una organización tiene que responder por las consecuencias negativas o no intencionadas de su nueva tecnología. Se debe considerar la rendición de cuentas al documentar el enfoque de los impactos potenciales durante el proceso de planificación estratégica.

Cuando se pide a una empresa que rinda cuentas por la tecnología que desarrolló o implementó, alguien podría terminar testificando ante el Congreso, compareciendo ante un tribunal o respondiendo preguntas de los medios de comunicación. ¿Será esa persona el CEO o el CIO, un científico de datos, un fundador o alguien más?

Una discusión sobre este tema bien puede fomentar un pensamiento más riguroso sobre lo que podría salir mal. Por supuesto, la atención más rigurosa a tales resultados negativos es exactamente el punto, y puede mejorar las posibilidades de que nadie tenga que comparecer ante los legisladores o un juez para abordar cómo surgió una pieza de tecnología en primer lugar.

Nombrar a un director de ética tecnológica

Los mejores métodos para abordar la ética de las nuevas tecnologías no serán iguales para todos. Es posible que sea necesario examinar una amplia gama de impactos potenciales y es posible que deba mitigarse una colección variada de riesgos potenciales. Pero la mayoría de las organizaciones probablemente se beneficiarían de colocar a una sola persona a cargo de estos procesos. Esta es la razón por la que las organizaciones deberían considerar a un director de ética, o un director de ética de tecnología, que tendría tanto la responsabilidad como la autoridad para reunir los recursos necesarios.

Algunas industrias se han enfrentado a desafíos de ética y confianza durante décadas. Los hospitales y los centros de investigación han empleado durante mucho tiempo a oficiales de ética para supervisar las preguntas en los proyectos de investigación y la práctica médica clínica, por ejemplo. La tecnología ciertamente puede generar nuevas preocupaciones, incluso aquí: piense en una escuela de medicina que implemente una herramienta de realidad virtual para ayudar a aumentar la competencia de los cirujanos y la importancia de examinar si la herramienta funciona igual de bien en todas las razas o géneros. Pero el punto más amplio es que las cuestiones de confianza y ética se pueden gestionar de forma eficaz, siempre que se asuman los compromisos de liderazgo adecuados.

Con un director de ética en tecnología en su lugar, sigue siendo importante involucrar a especialistas de varias disciplinas diferentes, como se discutió anteriormente. Estas personas pueden provenir de los campos de la antropología, la sociología, la filosofía y otras áreas. Dependiendo de los problemas que presente una tecnología o aplicación específica, puede ser necesario buscar personas que aporten conocimientos de derecho, política, regulación, educación o medios de comunicación.

Retos y oportunidades

Se espera que nuestra capacidad para administrar éticamente y aumentar la confianza en nuestras herramientas tecnológicas solo gane importancia en los próximos años a medida que la tecnología evolucione, se acelere y llegue más profundamente a nuestras vidas. Es probable que esto suponga un desafío para todas las empresas y negocios, y puede tener lecciones duras para las organizaciones que no sigan el ritmo.

Pero las oportunidades también están a la vista en todas partes. Si puede imaginar un mundo en el que la seguridad de los vehículos y el tráfico progresara tan rápido o más rápido que el desarrollo del automóvil, entonces probablemente pueda imaginar los beneficios que podrían acumular para aquellos que acertan en estos desafíos.

Beena es el director ejecutivo del Deloitte AI Institute global y fundador de la organización sin fines de lucro Humans For AI, y también lidera la tecnología confiable y ética de Deloitte. Es una ejecutiva senior galardonada con una amplia experiencia global en IA y transformación digital, que abarca el comercio electrónico, las finanzas, el marketing, las telecomunicaciones, el comercio minorista, los productos de software, los servicios y los dominios industriales con empresas como HPE, GE, Thomson Reuters, British Telecom, Bank of America, e * trade y varias empresas emergentes de Silicon Valley. También forma parte de la Junta Asesora de Cal Poly College of Engineering y ha sido miembro de la Junta y asesora de varias empresas emergentes.

 

No hay comentarios:

Publicar un comentario