Doxa 782

¿Tu IA tiene los mejores intereses de los usuarios en el corazón?

Por Mike Walsh
Regulación
Harvard Business Review

Las decisiones éticas rara vez son fáciles. Ahora, menos aún. Las máquinas inteligentes, la computación barata y una gran cantidad de datos de los consumidores no solo ofrecen oportunidades increíbles para las organizaciones modernas, sino que también presentan un dilema moral para los líderes del siglo XXI: ¿está bien, siempre que sea legal?

Ciertamente, no habrá escasez de regulación en los próximos años. Para los políticos y reguladores ambiciosos, Big Tech está empezando a parecerse a Big Tobacco con la posibilidad de obtener multas récord, rupturas forzadas, redadas al amanecer e indignación pública populista. Sin embargo, para los líderes que buscan orientación en la Era Algorítmica, simplemente seguir las reglas nunca ha parecido más peligroso ni moralmente insuficiente.

No me malinterpretes. Un mundo turbulento de productos basados ​​en inteligencia artificial y datos requiere reglas sólidas. Dada la avalancha de violaciones y abusos de datos en los últimos años, el antiguo lema no oficial de Google, "No seas malvado", ahora parece tanto profético como ingenuo. A medida que creamos sistemas que son más capaces de comprender y dirigir los servicios a usuarios individuales, nuestra capacidad de hacer el mal automatizando sesgos y algoritmos de armamento crecerá exponencialmente. Y, sin embargo, esto también plantea la pregunta de qué es exactamente el mal. ¿Está violando la ley, violando el código de conducta de su industria o violando la confianza del usuario?

El sesgo algorítmico puede tomar muchas formas: no siempre es tan claro como el racismo en las sentencias penales o la discriminación de género en la contratación. A veces, demasiada verdad es igual de peligrosa. En 2013, los investigadores Michal Kosinski, David Stillwell y Thore Graepel publicaron un artículo académico que demostró que los "me gusta" de Facebook (que estaban abiertos públicamente por defecto en ese momento) podían usarse para predecir una gama de atributos personales altamente sensibles, incluidos los sexuales. orientación y género, etnia, puntos de vista religiosos y políticos, rasgos de personalidad, uso de sustancias adictivas, estado de separación de los padres y edad.

De manera inquietante, incluso si no reveló su orientación sexual o preferencias políticas, esta información aún podría predecirse estadísticamente según lo que reveló. Por lo tanto, mientras menos del 5% de los usuarios identificados como homosexuales estaban conectados con grupos explícitamente homosexuales, su preferencia aún podría deducirse. Cuando publicaron su estudio, los investigadores reconocieron que sus hallazgos corrían el riesgo de ser mal utilizados por terceros para incitar a la discriminación, por ejemplo. Sin embargo, donde otros vieron peligro y riesgo, Aleksandr Kogan, uno de los colegas de Kosinski en la Universidad de Cambridge, vio la oportunidad. A principios de 2014, Cambridge Analytica, una firma de consultoría política británica, firmó un acuerdo con Kogan para una empresa privada que capitalizaría el trabajo de Kosinski y su equipo.

Kogan pudo crear un cuestionario, gracias a una iniciativa en Facebook que permitió a terceros acceder a los datos de los usuarios. Se estima que casi 300,000 usuarios tomaron esa prueba. Más tarde se supo que Cambridge Analytica luego explotó los datos que había recolectado a través del cuestionario para acceder y crear perfiles en 87 millones de usuarios de Facebook. Podría decirse que ni las decisiones de Facebook ni de Cambridge Analytica fueron estrictamente ilegales, pero en retrospectiva, y en el contexto del escándalo que el programa pronto desencadenó, difícilmente podrían llamarse llamadas de buen juicio.

Según Julian Wheatland, director de operaciones de Cambridge Analytica en ese momento, el mayor error de la compañía fue creer que cumplir con las regulaciones gubernamentales era suficiente y, por lo tanto, ignorar preguntas más amplias sobre ética de datos, sesgo y percepción pública.

¿Cómo habría manejado una situación similar? ¿El error de Facebook fue doble al no establecer las políticas correctas para manejar sus datos de usuario por adelantado y compartir esa información demasiado abiertamente con sus socios? ¿Deberían haber anticipado la reacción de los senadores estadounidenses que finalmente convocaron a una audiencia en el Congreso y gastaron más recursos en grupos de presión? ¿Un acuerdo de usuario más completo habría protegido a Facebook de la responsabilidad? ¿O fue simplemente un caso de mala suerte? ¿Proporcionar datos de investigación a Kogan fue una acción razonable para tomar en ese momento?

Por el contrario, considere Apple. Cuando Tim Cook subió al escenario para anunciar los últimos y mejores productos de Apple para 2019, estaba claro que la privacidad y la seguridad, en lugar del diseño y la velocidad, ahora eran el verdadero foco. Desde eliminar la clasificación humana de las solicitudes de Siri hasta las advertencias sobre qué aplicaciones están rastreando su ubicación, Apple estaba tratando de cambiar la ética digital fuera del dominio legal y al mundo de la ventaja competitiva.

Durante la última década, Apple ha sido criticado por adoptar una postura contraria en muchos asuntos relacionados con sus pares como Facebook y Google. A diferencia de ellos, Apple ejecuta un ecosistema cerrado con controles estrictos: no puede cargar software en un iPhone a menos que haya sido autorizado por Apple. La compañía también fue una de las primeras en cifrar completamente sus dispositivos, incluida la implementación de cifrado de extremo a extremo en iMessage y FaceTime para la comunicación entre usuarios. Cuando el FBI exigió una contraseña para desbloquear un teléfono, Apple se negó y acudió a los tribunales para defender su derecho a hacerlo. Cuando la compañía lanzó Apple Pay y más recientemente su nueva tarjeta de crédito, mantuvo las transacciones de los clientes en privado en lugar de registrar todos los datos para su propio análisis.

Si bien las acciones de Facebook pueden haber estado dentro de la letra de la ley, y dentro de los límites de la práctica de la industria, en ese momento, no tenían en mente los mejores intereses de los usuarios. Puede haber una razón simple para esto. Apple vende productos a los consumidores. En Facebook, el producto es el consumidor. Facebook vende consumidores a anunciantes.

Prohibir toda la recopilación de datos es inútil. No hay vuelta atrás. Ya vivimos en un mundo basado en el aprendizaje automático y la inteligencia artificial, que depende de los datos como combustible, y que en el futuro apoyará todo, desde la agricultura de precisión hasta la atención médica personalizada. La próxima generación de plataformas incluso reconocerá nuestras emociones y leerá nuestros pensamientos.

En lugar de depender de la regulación, los líderes deben caminar por una cuerda ética estrecha. Sus clientes esperarán que use sus datos para crear servicios personalizados y anticipatorios para ellos mientras le exigen que evite el uso y la manipulación inapropiados de su información. Al buscar su propia brújula moral, un principio es evidente: no puede servir a dos maestros. Al final, construyes una cultura basada en el cumplimiento de la ley o te enfocas en empoderar a los usuarios. La elección puede parecer fácil, pero en la práctica es más compleja. Ser visto como bueno no es lo mismo que ser bueno.

Ese es al menos un lado positivo cuando se trata de la amenaza de que los robots nos quiten el trabajo. ¿Quién mejor para navegar juicios éticos complejos, matizados y difíciles que los humanos mismos? Cualquier máquina puede identificar la acción correcta a partir de un conjunto de reglas, pero en realidad saber y comprender lo que es bueno, eso es algo inherentemente humano.

Mike Walsh es el autor de The Algorithmic Leader: Cómo ser inteligente cuando las máquinas son más inteligentes que usted. Walsh es el CEO de Tomorrow, una consultora global sobre diseño de empresas para el siglo XXI.


No hay comentarios:

Publicar un comentario