Doxa 1037

La IA puede hacer que los préstamos bancarios sean más justos
Los algoritmos pueden reproducir sesgos históricos, pero también se pueden utilizar para corregirlos.

Por Sian Townson 
Economía y sociedad
Harvard Business Review

Resumen Ejecutivo

Muchas instituciones financieras están recurriendo a la inteligencia artificial para revertir la discriminación del pasado en los préstamos y fomentar una economía más inclusiva. Pero muchos prestamistas encuentran que los motores basados en inteligencia artificial exhiben muchos de los mismos sesgos que los humanos. ¿Cómo pueden abordar el problema para garantizar que los sesgos del pasado no se incorporen a los algoritmos y las decisiones crediticias en el futuro? La clave está en la construcción de sistemas impulsados por IA diseñados para fomentar una menor precisión histórica, pero una mayor equidad. Eso significa capacitar y probar los sistemas de inteligencia artificial no solo en préstamos o hipotecas emitidos en el pasado, sino también en cómo se debería haber prestado el dinero en un mundo más equitativo. Armados con una conciencia más profunda del sesgo que acecha en los datos y con objetivos que reflejan tanto las metas financieras como las sociales, podemos desarrollar modelos de IA que funcionen bien y que funcionen bien.

A medida que los bancos implementan cada vez más herramientas de inteligencia artificial para tomar decisiones crediticias, tienen que revisar un hecho desagradable sobre la práctica de los préstamos: históricamente, ha estado plagado de prejuicios contra  características protegidas, como la raza, el género y la orientación sexual. Estos sesgos son evidentes en las decisiones de las instituciones en cuanto a quién obtiene el crédito y en qué condiciones. En este contexto, confiar en algoritmos para tomar decisiones crediticias en lugar de ceder al juicio humano parece una solución obvia. Las máquinas que carecen de calidez, seguramente lo compensan con objetividad, ¿verdad?

Lamentablemente, lo que es cierto en teoría no se ha confirmado en la práctica. Los prestamistas a menudo encuentran que los motores basados ​​en inteligencia artificial exhiben muchos de los mismos sesgos que los humanos. A menudo se han alimentado de una dieta de datos de decisiones crediticias sesgados, extraídos de décadas de desigualdad en los mercados de vivienda y préstamos. Si no se controlan, amenazan con perpetuar los prejuicios en las decisiones financieras y ampliar las brechas de riqueza del mundo.

El problema del sesgo es endémico y afecta tanto a las empresas emergentes como a los operadores tradicionales. Un estudio histórico de  2018 realizado en UC Berkeley descubrió que, aunque los algoritmos de tecnología financiera cobran a los prestatarios minoritarios un 40% menos en promedio que los prestamistas cara a cara, aún asignan intereses hipotecarios adicionales a los prestatarios que son miembros de clases protegidas. Recientemente, Singapur, el Reino Unido y algunos países europeos emitieron directrices que exigen a las empresas promover la equidad en el uso de la IA, incluso en los préstamos. Muchos aspectos de la equidad en los préstamos están regulados legalmente en los Estados Unidos, pero los bancos aún tienen que tomar algunas decisiones en términos de qué métricas de equidad deben priorizarse o des-priorizarse y cómo deben abordarlas.

Entonces, ¿cómo pueden las instituciones financieras que recurren a la IA revertir la discriminación del pasado y, en cambio, fomentar una economía más inclusiva? En nuestro trabajo con empresas de servicios financieros, encontramos que la clave radica en la creación de sistemas impulsados ​​por inteligencia artificial diseñados para fomentar una menor precisión histórica pero una mayor equidad. Eso significa capacitarlos y probarlos no solo sobre los préstamos o hipotecas emitidos en el pasado, sino también sobre cómo se debería haber prestado el dinero en un mundo más equitativo.

El problema es que los humanos a menudo no pueden detectar la injusticia que existe en los conjuntos de datos masivos que analizan los sistemas de aprendizaje automático. Por lo tanto, los prestamistas confían cada vez más en la inteligencia artificial para identificar, predecir y eliminar los sesgos contra las clases protegidas que inadvertidamente se incorporan a los algoritmos.

Así es cómo:

Elimine el sesgo de los datos antes de crear un modelo.

Una forma intuitiva de eliminar el sesgo de una decisión crediticia es eliminar la discriminación de los datos antes de crear el modelo. Pero esto requiere más ajustes que simplemente eliminar las variables de datos que sugieren claramente el género o la etnia, ya que el sesgo previo tiene efectos que se propagan por todas partes. Por ejemplo, las muestras de datos de préstamos para mujeres suelen ser más pequeñas porque, proporcionalmente, las instituciones financieras han aprobado un número menor y menor de préstamos para mujeres en décadas pasadas que para hombres con puntajes crediticios e ingresos equivalentes. Esto conduce a errores más frecuentes e inferencias falsas para las solicitantes femeninas infrarrepresentadas y tratadas de manera diferente. Las intervenciones manuales para intentar corregir el sesgo en los datos también pueden terminar en profecías autocumplidas, ya que los errores o suposiciones pueden repetirse y ampliarse.

Para evitar esto, los bancos ahora pueden usar la inteligencia artificial para detectar y corregir patrones de discriminación histórica contra las mujeres en los datos brutos, compensando los cambios a lo largo del tiempo alterando deliberadamente estos datos para dar una probabilidad de aprobación artificial y más equitativa. Por ejemplo, mediante el uso de la inteligencia artificial, un prestamista descubrió que, históricamente, las mujeres tendrían que ganar un 30% más que los hombres en promedio para que se aprobaran préstamos de tamaño equivalente. Usó inteligencia artificial para equilibrar retroactivamente los datos que se utilizaron para desarrollar y probar su modelo de decisión crediticia impulsado por inteligencia artificial al cambiar la distribución femenina, moviendo la proporción de préstamos otorgados previamente a mujeres para que esté más cerca de la misma cantidad que para los hombres con un riesgo equivalente. perfil, conservando la clasificación relativa. Como resultado de la representación más justa de cómo deberían haberse tomado las decisiones sobre préstamos,el algoritmo desarrollado pudo aprobar préstamos más en línea con la forma en que el banco deseaba extender crédito de manera más equitativa en el futuro.

Elija mejores objetivos para modelos que discriminen.

Sin embargo, incluso después de que se ajustan los datos, los bancos a menudo pueden necesitar una capa adicional de defensa para evitar que el sesgo, o los rastros restantes de sus efectos, se filtren. Para lograr esto, "regularizan" un algoritmo para que su objetivo no solo se ajuste al historial datos, sino también puntuar bien en alguna medida de equidad. Lo hacen al incluir un parámetro adicional que penaliza al modelo si trata las clases protegidas de manera diferente.

Por ejemplo, un banco descubrió mediante la aplicación de IA que los solicitantes muy jóvenes y muy mayores no tenían el mismo acceso al crédito. Para fomentar decisiones crediticias más justas, el banco diseñó un modelo que requería que su algoritmo minimizara una puntuación de injusticia. La puntuación se basó en la brecha entre los resultados para las personas en diferentes grupos de edad con el mismo perfil de riesgo, incluidas las intersecciones entre subgrupos, como las mujeres mayores. Al adoptar este enfoque, el modelo final impulsado por la inteligencia artificial podría cerrar la brecha matemática entre cómo se trata en un 20% a personas similares de diferentes grupos.

Presenta un adversario impulsado por la IA.

Incluso después de corregir los datos y regularizar el modelo, todavía es posible tener un modelo aparentemente neutral que continúa teniendo un impacto dispar en las clases protegidas y no protegidas. Muchas instituciones financieras dan un paso más y construyen un modelo adicional, denominado "adversario", impulsado por IA, para ver si puede predecir el sesgo de clase protegida en las decisiones tomadas por el primer modelo. Si el retador adverso detecta con éxito alguna característica protegida como raza, etnia, religión, género, sexualidad, discapacidad, estado civil o edad, de la forma en que el primer modelo de crédito trata a un solicitante, entonces se corrige el modelo original.

Por ejemplo, los modelos contradictorios impulsados ​​por la IA a menudo pueden detectar códigos postales de minorías étnicas a partir de los resultados de un modelo de crédito propuesto. Esto a menudo puede deberse a una interacción confusa con salarios más bajos asociados con códigos postales superpuestos. De hecho, hemos visto modelos contradictorios que muestran que es probable que un modelo original ofrezca límites más bajos a las solicitudes de códigos postales asociados con una minoría étnica, incluso si el modelo original o los datos disponibles no tenían la raza o la etnia como entrada para verificar.

En el pasado, estos problemas se habrían resuelto intentando cambiar manualmente los parámetros del modelo original. Pero ahora podemos usar la IA como un enfoque automatizado para reajustar el modelo para aumentar la influencia de las variables que contribuyen a la equidad y reducir las que contribuyen al sesgo, en parte agregando segmentos, hasta que el modelo desafiante ya no sea capaz de predecir la etnia. mediante el uso de códigos postales como proxy. En un caso, esto dio como resultado un modelo que aún diferenciaba entre códigos postales, pero reducía la brecha en la tasa de aprobación de hipotecas para algunas etnias hasta en un 70%.

Sin duda, las instituciones financieras deben prestar con prudencia, en función de si las personas están dispuestas y pueden pagar sus deudas. Pero los prestamistas no deben tratar a las personas de manera diferente si tienen perfiles de riesgo similares, ya sea que la decisión la tomen redes neuronales artificiales o cerebros humanos. Reducir los prejuicios no es solo una actividad socialmente responsable, sino que también genera un negocio más rentable. Los primeros en reducir el sesgo a través de la IA tendrán una ventaja competitiva real además de cumplir con su deber moral.

Los algoritmos no pueden decirnos qué definiciones de equidad usar o qué grupos proteger. Dejados a sus propios dispositivos, los sistemas de aprendizaje automático pueden cimentar los mismos sesgos que queremos que eliminen.

Pero la IA no tiene por qué quedar sin control. Armados con una conciencia más profunda del sesgo que acecha en los datos y con objetivos que reflejan tanto las metas financieras como las sociales, podemos desarrollar modelos que funcionen bien y que hagan el bien.

Existe evidencia cuantificable de que las decisiones de préstamos basadas en sistemas de aprendizaje automático examinados y ajustados mediante los pasos descritos anteriormente son más justas que las tomadas anteriormente por las personas. Una decisión a la vez, estos sistemas están forjando un mundo financieramente más equitativo.

Sian Townson, PhD., Es directora de la práctica de datos y análisis de Oliver Wyman.


No hay comentarios:

Publicar un comentario