Doxa 2399

Nueva investigación sobre IA y equidad en la contratación

Por Elmira van den Broek, Anastasia Sergeeva y Marleen Huysman
Contratación y Reclutamiento
Harvard Business Review

#Doxa #IA #equidad #contratación #algoritmos #sesgos #inclusión #tecnología #rrhh #selección #ética #innovación #talento
Resumen. La IA promete hacer que la contratación sea más justa al reducir el sesgo humano, pero a menudo redefine el significado de la equidad y se limita a una sola definición. Un estudio de tres años de una empresa global de bienes de consumo descubrió que su sistema algorítmico privilegiaba una definición rígida que dejaba de lado el juicio local del gerente. Esto resultó en grupos reducidos de candidatos y gerentes de contratación insatisfechos. El estudio subrayó que la equidad no está incrustada en el código, sino que la negocian las personas que la diseñan e implementan. Para que los sistemas de contratación de IA funcionen mejor para más personas, los líderes deben preguntarse: ¿Qué versiones de equidad existen? ¿Quién le da autoridad a la IA? ¿Qué perspectivas se pierden con el tiempo? Responder a estas preguntas ayudará a los líderes a tratar la equidad como algo dinámico, no fijo.
¿Mejorará o empeorará la IA la equidad? Dado que casi el 90 % de las empresas utilizan algún tipo de IA en la contratación, esta pregunta es una preocupación constante para muchos líderes, lo que suele dividirlos en dos bandos. Unos creen que los algoritmos harán que la contratación sea más justa al reducir el sesgo y el ruido humano en la toma de decisiones. El otro advierte que los algoritmos pueden reproducir e incluso amplificar las desigualdades existentes a gran escala. Ambos ignoran una realidad crucial: cuando se adopta la IA, se redefine lo que se considera justo en primer lugar.

Esto es un problema. La mayoría de las empresas adoptan herramientas de contratación basadas en IA sin evaluarlas exhaustiva y continuamente durante su desarrollo y uso. La imparcialidad se considera algo que la herramienta ofrece desde el primer día, en lugar de algo que los líderes deben supervisar y ajustar en la práctica. El riesgo es discreto, pero grave: la IA puede reducir la cartera de candidatos, dejar de lado la experiencia humana y limitarse a una sola definición de imparcialidad. En un nuevo estudio, analizamos cómo las definiciones de lo que es justo influyen en los resultados de la contratación y ofrecemos a los líderes mejores preguntas para asegurarse de que las herramientas realmente mejoren la contratación para candidatos, gerentes y empresas.

Lo que muestra nuestra investigación
Nuestras conclusiones provienen de un estudio de campo de tres años en una empresa global de bienes de consumo que gestiona más de 10.000 solicitudes de empleo al año. Con el objetivo de mejorar la equidad, el departamento de RR. HH. sustituyó las revisiones de currículums por evaluaciones ciegas y gamificadas analizadas por IA. El algoritmo se entrenó con datos de empleados actuales que habían completado los mismos juegos, vinculando sus puntuaciones con los resultados de rendimiento. Al aprender qué patrones de rasgos se asociaban con el éxito, el sistema predijo la idoneidad de los nuevos candidatos, omitiendo nombres, centros educativos y otros marcadores demográficos. La idea parecía sencilla: lograr una contratación más justa mediante reglas consistentes y basadas en datos.

Pero a medida que la herramienta se expandió, lo que se consideraba imparcialidad comenzó a cambiar. RR. HH. priorizó la coherencia entre todos los candidatos, mientras que los gerentes de primera línea valoraron el contexto local, reconociendo que los factores que determinan la calidad de una contratación varían según el puesto, el mercado y el equipo. Estas perspectivas habían coexistido durante años. Sin embargo, el algoritmo convirtió los principios de RR. HH. en reglas rígidas, difíciles de eludir. Con el tiempo, esta versión algorítmica de la imparcialidad se volvió dominante, mientras que otras perspectivas, como la adaptación a las necesidades locales, desaparecieron.

Las verdaderas preguntas que los líderes deberían hacerse
La lección para los líderes es que preguntarse si son más justos los humanos o las máquinas no les llevará muy lejos. En cambio, deberían plantearse un conjunto diferente de preguntas; preguntas que generen respuestas sobre qué significa realmente "justo" dentro de la organización, quién lo define y qué versión de justicia la IA refuerza o descarta. Las preguntas a continuación, basadas en nuestra investigación, ayudarán a los líderes a evaluar los sistemas con mayor profundidad antes y después de su implementación para garantizar que la justicia, en toda su pluralidad, siga siendo la prioridad.

1. ¿Qué versiones de equidad existen en nuestra organización?
Cuando las empresas introducen la IA en la contratación, suelen asumir que la equidad tiene un significado claro. En realidad, la equidad suele tener varios significados, y no siempre coinciden.

En la empresa global de bienes de consumo que estudiamos, RR. HH. supervisaba la imparcialidad en la contratación y la equiparaba con la coherencia y los procedimientos imparciales. Cuando los gerentes de primera línea se desviaban de los marcos estandarizados en sus decisiones de contratación, RR. HH. lo interpretaba como un error humano. Lo que no comprendían era que los gerentes se guiaban por una versión diferente y contextual de la imparcialidad. Dado que esta versión permanecía informal y tácita, nunca influyó en el diseño de la IA. Una vez que el sistema entró en funcionamiento, esta falta de perspectiva se hizo evidente a medida que surgían rápidamente los conflictos.

Por ejemplo, un gerente senior quería contratar a un becario al que había asesorado estrechamente y creía que destacaría en una región de rápido crecimiento. Sin embargo, el algoritmo lo marcó como "poco adecuado" según sus datos de personalidad. RR. HH. respaldó el modelo, considerando cualquier desviación como una violación de la coherencia; el gerente lo interpretó como una desestimación injustificada de su experiencia. Esta tensión revela una lección clave: si no se reconoce e integra una definición de equidad desde el principio, el sistema no la reconocerá posteriormente, lo que generará conflictos.

Los líderes pueden mitigar estos conflictos descubriendo qué significa realmente "justo" en toda la organización. Una práctica que ayuda a los líderes a revelar diferentes definiciones es que científicos de datos y líderes de proyecto supervisen el proceso de contratación (como hicimos nosotros como investigadores). Estos observadores externos deberían dedicar un tiempo considerable a evaluar cómo se consideran las decisiones "justas" e "injustas" para los diferentes grupos, desde recursos humanos y gerentes de primera línea hasta el departamento legal y los propios candidatos. Ver de primera mano qué considera justo cada grupo ayuda a descubrir las múltiples y a menudo contradictorias definiciones que coexisten en las organizaciones.

Igualmente importante es crear "infraestructuras éticas", o espacios dedicados donde diversos grupos reflexionen y evalúen colectivamente los dilemas éticos a medida que surgen. Por ejemplo, los desacuerdos sobre umbrales algorítmicos, predicciones o excepciones no son indicios de fracaso; son momentos en los que las suposiciones ocultas sobre la equidad se hacen visibles y se abren al debate.

El Grupo H&M ofrece un ejemplo de cómo esto puede funcionar en la práctica. En lugar de tratar la ética como una lista de verificación fija, la empresa creó un Club de Debate sobre IA Ética donde equipos diversos se reúnen y debaten las ventajas y desventajas del uso de la IA en escenarios realistas. Al institucionalizar estos debates, H&M convierte la reflexión continua sobre la equidad en una parte cotidiana del trabajo, no en una cuestión de último momento.

2. ¿Quién le da a la IA el poder de decidir qué es “justo” y sobre qué base?
Los sistemas de IA no deciden por sí solos qué es justo; las personas les otorgan ese poder. Los algoritmos se benefician de la influencia de las personas y los departamentos que deciden implementarlos, autorizan su uso y los posicionan como "objetivos" o "justos".

Vimos esta dinámica de primera mano. En la empresa global de bienes de consumo, tanto el departamento de RR. HH. como el proveedor externo de IA defendieron la tecnología como un avance moral y técnico. Los líderes de RR. HH. vieron la IA como una forma de eliminar la inconsistencia y el sesgo humanos; el proveedor la describió como "científicamente probada" y "que pondría fin a la desigualdad". Este enfoque fue poderoso para impulsar la selección automatizada y desviar la atención de los posibles riesgos para la organización. Los gerentes de primera línea que expresaron su preocupación por la "clonación" de perfiles de candidatos o la omisión de candidatos atípicos que encajaban en sus equipos específicos fueron desestimados por subjetivos en lugar de proteger la equidad. Lo que comenzó como una iniciativa para la equidad terminó marginando las perspectivas locales que durante mucho tiempo habían respaldado la contratación.

Esta dinámica no es única. En diferentes sectores, el lenguaje de la " justicia " y la " antisesgo " suele impulsar las herramientas de IA y reducir el espacio para el debate. Cuando los sistemas se presentan como inherentemente justos, resulta casi imposible cuestionarlos sin parecer contrarios al progreso. Pero la justicia no está integrada en el código, sino que la negocian quienes la diseñan, implementan y defienden.

Por lo tanto, los líderes deben analizar con atención el lenguaje de equidad que acompaña a las iniciativas de IA. Cuando un sistema se promociona como "ético", "científico" o "imparcial", es precisamente el momento de frenar y preguntarse: ¿Quién hace estas afirmaciones y a qué intereses o agendas sirven? ¿Qué métricas definen la equidad en este caso y qué voces o áreas de conocimiento se están dejando de lado? Estas preguntas no frenan el progreso, sino que ayudan a garantizar que esté alineado con una amplia gama de perspectivas, en lugar de estar impulsado por un optimismo tecnológico descontrolado.

Los líderes también pueden equilibrar las demandas reconsiderando quiénes integran los equipos de implementación. Cuando solo los promotores de la tecnología impulsan los proyectos de IA, el resultado reflejará su visión del mundo. En cambio, los líderes deberían reunir diversas voces (expertos en ética, socios comerciales y representantes de los más afectados por el sistema) y darles la misma voz. Este equilibrio de perspectivas garantiza que las decisiones sobre equidad se debatan, no se den por sentado, y que el juicio crítico forme parte del proceso.

Microsoft ilustra cómo las empresas pueden intentar construir este equilibrio deliberadamente. Además de las estructuras de gobernanza central, se apoya en "Campeones de IA Responsables" locales: expertos en la materia dentro de las unidades de negocio, encargados de detectar problemas éticos y cuestionar suposiciones a medida que se construyen e implementan los sistemas. La lección para los líderes: no dejen que "el modelo es justo" sea el final de la conversación; creen roles y rutinas que permitan que múltiples voces cuestionen el significado de la justicia a medida que la IA toma forma.

3. ¿Qué versión de equidad fortalece la IA y qué se pierde con el tiempo?
Los sistemas de IA no solo aplican una definición de equidad, sino que la refuerzan. Una vez que los principios se codifican en umbrales, modelos y flujos de trabajo, adquieren un nuevo poder. A menos que los líderes revisen estas decisiones con regularidad, una visión única de la equidad se consolida, mientras que otras perspectivas valiosas se pierden de vista.

Eso fue lo que ocurrió en la empresa que estudiamos. Una vez que los principios de RR. HH. se tradujeron en puntuaciones algorítmicas y umbrales fijos, la imparcialidad se equiparó a una consistencia rígida. Los candidatos con una puntuación superior al 72 % fueron promovidos automáticamente, mientras que los que obtuvieron una puntuación inferior fueron rechazados sin una revisión humana. Lo que antes era una decisión personal se convirtió en una línea estricta. Mientras tanto, consideraciones menos cuantificables, como la escasez de talento local o la promesa de candidatos atípicos que no encajaban en el perfil algorítmico, se debilitaron.

Como resultado, los gerentes se encontraron con candidatos que consideraban sorprendentemente similares, ya que el sistema favorecía un perfil de personalidad estrecho, extraído de antiguos empleados. Y como la organización perdió de vista a los candidatos rechazados automáticamente, no supo qué potencial estaba perdiendo. Los líderes confundieron la ausencia de pruebas con la prueba del funcionamiento del sistema. Así es como se logra la imparcialidad: no mediante fracasos dramáticos, sino mediante la eliminación lenta e invisible de perspectivas alternativas.

Los líderes pueden prevenir esta desviación considerando la imparcialidad como algo que debe evaluarse continuamente, no como algo puntual. Programe revisiones periódicas donde científicos de datos, RR. HH., gerentes de primera línea y equipos legales analicen casos reales de contratación junto con los resultados del modelo y se pregunten si el sistema aún refleja las prioridades actuales. Facilite técnicamente el ajuste de umbrales, ponderaciones y datos de entrada cuando la evidencia sugiera una desviación o efectos no deseados.

Los gerentes de primera línea deben ser fundamentales en estas revisiones. Detectan con prontitud cuándo un umbral que funcionó en un piloto está limitando una cartera regional o descartando candidatos atípicos pero con alto potencial. Si sus señales no tienen adónde dirigirse o no hay una respuesta garantizada, la organización no detectará los problemas hasta que aparezcan como puestos vacantes o equipos homogéneos.

IBM ofrece un ejemplo de cómo puede ser una revisión continua de equidad en la práctica. Proporciona a los equipos herramientas tangibles como AI Fairness 360 para evaluar modelos con múltiples medidas de equidad, identificar compensaciones y realizar comprobaciones hipotéticas; por ejemplo, ver cómo un límite más estricto o la nueva entrada de datos modifican los resultados de diferentes grupos. El valor de estas herramientas no reside en que declaren la equidad de un modelo de una vez por todas, sino que permiten inspeccionar la equidad a lo largo del tiempo, de modo que los líderes puedan ver qué versión de equidad refuerza el sistema y revisar los supuestos para que la equidad no se desvíe por defecto.
...
Si patrocina o lidera proyectos de contratación de IA, usted es el responsable de la equidad en su empresa, no de la tecnología. Su trabajo consiste en garantizar que se visibilice la diversidad de perspectivas de equidad durante el diseño, la implementación y el uso; en explicitar quién otorga autoridad al sistema y con qué base; y en evaluar constantemente qué versión de equidad fortalece el sistema y qué se relega a un segundo plano. Los líderes que logran esto eficazmente logran una colaboración más fluida entre RR. HH. y los gerentes de primera línea, mantienen perspectivas valiosas en el proceso y construyen afirmaciones de equidad que realmente se sostienen. Quienes no lo hacen se arriesgan a reducir su reserva de talento, a dejar de lado a expertos clave y a caer en una automatización ciega.

La lección más amplia va más allá de la contratación. Muchas empresas invierten fuertemente en IA, pero no logran generar valor real a partir de ella. La diferencia entre los sistemas que aportan valor y los que decepcionan rara vez reside solo en el modelo. Se trata de si los líderes incorporan a las personas adecuadas, formulan las preguntas correctas y siguen poniendo a prueba las suposiciones sobre las realidades del trabajo. Si lo hacen, superarán el debate de "¿Quién es más justo, los humanos o la IA?" y avanzarán hacia algo más útil: definir qué significa "justo" aquí y ahora y crear las rutinas para que siga siendo así.

Lea más sobre contratación y reclutamiento o temas relacionados: IA generativa, indicadores de desempeño, gestión de personas, gestión del talento y gestión de recursos humanos.

Elmira van den Broek, Profesora adjunta, Casa de la Innovación, Escuela de Economía de Estocolmo.

Anastasia Sergeeva, profesora de Trabajo, Tecnología y Organización, Centro KIN para la Innovación Digital, Vrije Universiteit Amsterdam.

Marleen Huysman, Profesora de Conocimiento, Información e Innovación, Directora del Centro KIN para la Innovación Digital, Vrije Universiteit Amsterdam.


No hay comentarios:

Publicar un comentario