Usando a análise de pessoas para criar um local de trabalho equitativo

Uso de la analítica de personas para crear un lugar de trabajo

La tecnología tiene potencial para mejorar los procesos de recursos humanos, pero los gerentes deben ser conscientes de sus limitaciones.

Eleva tus habilidades de liderazgo y negocios

Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.


Resumen.

La automatización llega a RRHH. Al automatizar la recopilación y el análisis de grandes conjuntos de datos, la IA y otras herramientas de análisis ofrecen la promesa de mejorar cada fase del flujo de recursos humanos, desde la contratación y la compensación hasta la promoción, la capacitación y la evaluación. Sin embargo, estos sistemas pueden reflejar sesgos históricos y discriminar en función de la raza, el género y la clase. Los gerentes deben considerar que 1) es probable que los modelos funcionen mejor con respecto a los individuos en los grupos demográficos mayoritarios, pero peor con grupos menos bien representados; 2) no existe un modelo verdaderamente «ciego a la raza» o «ciego al género», y omitir explícitamente la raza o el género de un modelo puede incluso hacer las cosas empeoran; y 3) si las categorías demográficas no se distribuyen de manera uniforme en su organización (y en la mayoría no lo están), incluso los modelos cuidadosamente construidos no conducirán a resultados iguales entre los grupos.


La analítica de personas, la aplicación de métodos científicos y estadísticos a los datos de comportamiento, tiene sus orígenes en el clásico de Frederick Winslow Taylor Los principios de la gestión científica en 1911, que buscaba aplicar métodos de ingeniería a la gestión de las personas. Pero no fue hasta un siglo después, después de los avances en la potencia de la computadora, los métodos estadísticos y especialmente la inteligencia artificial (IA), que el campo realmente explotó en potencia, profundidad y aplicación generalizada, especialmente, pero no solo, en la gestión de recursos humanos (RR. HH.). Al automatizar la recopilación y el análisis de grandes conjuntos de datos, la IA y otras herramientas de análisis ofrecen la promesa de mejorar cada fase del flujo de recursos humanos, desde la contratación y la compensación hasta la promoción, la capacitación y la evaluación.

Ahora, se utilizan algoritmos para ayudar a los gerentes a medir la productividad y tomar decisiones importantes en las oportunidades de contratación, compensación, promoción y capacitación, todo lo cual puede cambiar la vida de los empleados. Las empresas utilizan esta tecnología para identificar y cerrar las brechas salariales en función del género, la raza u otras categorías demográficas importantes. Los profesionales de recursos humanos utilizan de forma rutinaria herramientas basadas en IA para evaluar los currículums con el fin de ahorrar tiempo, mejorar la precisión y descubrir patrones ocultos en las calificaciones que se asocian con un mejor (o peor) rendimiento futuro. Los modelos basados en IA incluso se pueden utilizar para sugerir qué empleados podrían dejar de trabajar en un futuro próximo.

Y, sin embargo, a pesar de la promesa de las herramientas de análisis de personas, también pueden llevar a los gerentes por mal camino.

Amazon tuvo que tirar una herramienta de selección de currículums creada por sus ingenieros porque era sesgados contra las mujeres. O piense en LinkedIn, que los profesionales utilizan en todo el mundo para establecer contactos y buscar trabajo y los profesionales de recursos humanos para reclutar. La función de autocompletar de la plataforma para su barra de búsqueda era sugiere que los nombres femeninos como «Stephanie» se sustituya por nombres masculinos como «Stephen». Finalmente, en el lado de la contratación, un anuncio en las redes sociales para oportunidades de campo de Ciencia, Tecnología, Ingeniería y Matemáticas (STEM) que había sido cuidadosamente diseñado para ser neutral en cuanto al género se mostró de manera desproporcionada a los hombres mediante un algoritmo diseñado para maximizar el valor de los presupuestos publicitarios de los reclutadores, porque las mujeres generalmente más responden a los anuncios y, por lo tanto, los anuncios que se les muestran son más caros

En cada uno de estos ejemplos, se produjo una ruptura en el proceso analítico que produjo un sesgo no intencionado, y a veces severo, contra un grupo en particular. Sin embargo, estas averías pueden y deben evitarse. Para aprovechar el potencial del análisis de personas basado en IA, las empresas deben comprender las causas fundamentales del sesgo algorítmico y cómo se desempeñan en las herramientas de análisis de personas comunes.

El proceso analítico

Los datos no son neutrales. Las herramientas de análisis de personas generalmente se construyen a partir de los datos históricos de un empleador sobre la contratación, la retención, el ascenso y la compensación de sus empleados. Dichos datos siempre reflejarán las decisiones y actitudes del pasado. Por lo tanto, a medida que intentamos construir el lugar de trabajo del mañana, debemos tener en cuenta cómo nuestros datos retrospectivos pueden reflejar tanto antiguos como existentes sesgos y es posible que no capte por completo las complejidades de la gestión de personas en una fuerza laboral cada vez más diversa.

Los datos pueden tener un sesgo explícito incorporado directamente en ellos; por ejemplo, las evaluaciones de desempeño en su empresa pueden haber estado históricamente sesgadas en contra de un grupo en particular. A lo largo de los años, ha corregido ese problema, pero si las evaluaciones sesgadas se utilizan para entrenar una herramienta de IA, el algoritmo heredará y propagará los sesgos hacia adelante.

También hay fuentes más sutiles de sesgo. Por ejemplo, el promedio de calificaciones de pregrado podría usarse como un indicador de inteligencia, o las licencias o certificados ocupacionales pueden ser una medida de habilidades. Sin embargo, estas medidas son incompletas y a menudo contienen sesgos y distorsiones. Por ejemplo, los solicitantes de empleo que tuvieron que trabajar durante la universidad, que tienen más probabilidades de venir de entornos de bajos ingresos, pueden haber obtenido calificaciones más bajas, pero de hecho pueden ser los mejores candidatos para el trabajo porque han demostrado el impulso para superar los obstáculos. Comprender los posibles desajustes entre lo que quiere medir (por ejemplo, la inteligencia o la capacidad de aprender) y lo que realmente mide (por ejemplo, el rendimiento en las pruebas escolares) es importante para crear cualquier herramienta de análisis de personas, especialmente cuando el objetivo es crear un lugar de trabajo más diverso.

El rendimiento de una herramienta de análisis de personas es un producto tanto de los datos que se alimenta como del algoritmo que utiliza. Aquí, te ofrecemos tres puntos que debes tener en cuenta a la hora de gestionar a tu gente.

En primer lugar, es probable que un modelo que maximice la calidad general de la predicción, el enfoque más común, funcione mejor con respecto a los individuos en los grupos demográficos mayoritarios, pero peor con los grupos menos bien representados. Esto se debe a que los algoritmos suelen maximizar la precisión general y, por lo tanto, el rendimiento de la población mayoritaria tiene más peso que el rendimiento de la población minoritaria en la determinación de los parámetros del algoritmo. Un ejemplo podría ser un algoritmo utilizado en una fuerza laboral compuesta principalmente por personas casadas o solteras y sin hijos; el algoritmo puede determinar que un aumento repentino en el uso de días personales indica una alta probabilidad de renunciar, pero esta conclusión puede no aplicarse a los padres solteros que necesitan tomar de vez en cuando porque su hijo está enfermo.

En segundo lugar, no existe un modelo verdaderamente «ciego a la raza» o «ciego al género». De hecho, omitir explícitamente la raza o el género de un modelo puede incluso empeorar las cosas.

Considere este ejemplo: Imagine que su herramienta de análisis de personas basada en IA, a la que ha evitado cuidadosamente dar información sobre el género, desarrolla un sólido historial de predicción de qué empleados es probable que renuncien poco después de ser contratados. No está seguro de a qué se ha aferrado exactamente el algoritmo (la IA a menudo funciona como una caja negra para los usuarios), pero evita contratar a personas que el algoritmo etiqueta como de alto riesgo y ve una buena caída en el número de nuevas contrataciones que renuncian poco después de unirse. Sin embargo, después de algunos años, se enfrenta a una demanda por discriminar a las mujeres en su proceso de contratación. Resulta que el algoritmo estaba eliminando de manera desproporcionada a las mujeres de un código postal en particular que carece de una guardería, creando una carga para las madres solteras. Si solo lo hubiera sabido, podría haber resuelto el problema ofreciendo guarderías cerca del trabajo, no solo evitando la demanda sino incluso dándose una ventaja competitiva en la contratación de mujeres en esta área.

En tercer lugar, si las categorías demográficas como el género y la raza se distribuyen de manera desproporcionada en su organización, como es típico, por ejemplo, si la mayoría de los gerentes en el pasado han sido hombres y la mayoría de los trabajadores mujeres, incluso los modelos cuidadosamente construidos no conducirán a resultados iguales en todos los grupos. Esto se debe a que, en este ejemplo, un modelo que identifica a los futuros gerentes tiene más probabilidades de clasificar erróneamente a las mujeres como inadecuado para la administración, pero clasifica erróneamente a los hombres como adecuado para la gestión, incluso si el género no forma parte de los criterios del modelo. La razón, en una palabra, es que es probable que los criterios de selección del modelo estén correlacionados tanto con el género como con la aptitud gerencial, por lo que el modelo tenderá a ser «incorrecto» de diferentes maneras para mujeres y hombres.

Cómo hacerlo bien

Por las razones anteriores (y otras), debemos ser especialmente conscientes de las limitaciones de los modelos basados en IA y monitorear su aplicación en todos los grupos demográficos. Esto es especialmente importante para RRHH, ya que, en marcado contraste con las aplicaciones generales de IA, los datos que las organizaciones utilizan para entrenar herramientas de IA muy probablemente reflejen los desequilibrios que RRHH está trabajando actualmente para corregir. Como tal, las empresas deben prestar mucha atención a quién está representado en los datos al crear y monitorear aplicaciones de IA. Más concretamente, deberían analizar cómo la composición de los datos de entrenamiento puede estar distorsionando la recomendación de la IA en una dirección u otra.

Una herramienta que puede ser útil en ese sentido es un panel de sesgos que analiza por separado el rendimiento de una herramienta de análisis de personas en diferentes grupos (por ejemplo, raza), lo que permite la detección temprana de posibles sesgos. Este panel destaca, en diferentes grupos, tanto el rendimiento estadístico como el impacto. Como ejemplo, para una aplicación que respalda la contratación, el panel puede resumir la precisión y el tipo de errores que comete el modelo, así como la fracción de cada grupo que recibió una entrevista y finalmente fue contratado.

Además de monitorear las métricas de rendimiento, los gerentes pueden probar explícitamente el sesgo. Una forma de hacerlo es excluir una variable demográfica particular (por ejemplo, género) en la formación de la herramienta basada en IA, pero luego explícitamente incluir esa variable en un análisis posterior de los resultados. Si el género está altamente correlacionado con los resultados, por ejemplo, si es desproporcionadamente probable que se recomiende un aumento de un género, eso es una señal de que la herramienta de IA podría ser implícitamente incorporar el género de una manera indeseable. Es posible que la herramienta identifique de manera desproporcionada a las mujeres como candidatas para aumentos porque las mujeres tienden a recibir un salario inferior en su organización. Si es así, la herramienta de IA te ayuda a resolver un problema importante. Pero también podría ser que la herramienta de IA esté reforzando un sesgo existente. Se requerirá más investigación para determinar la causa subyacente.

Es importante recordar que ningún modelo está completo. Por ejemplo, es probable que la personalidad de un empleado afecte su éxito en su empresa sin que necesariamente aparezca en los datos de recursos humanos de ese empleado. Los profesionales de recursos humanos deben estar atentos a estas posibilidades y documentarlas en la medida de lo posible. Si bien los algoritmos pueden ayudar a interpretar datos pasados e identificar patrones, el análisis de personas sigue siendo un campo centrado en las personas y, en muchos casos, especialmente en los difíciles, las decisiones finales las tomarán los humanos, como se refleja en la popular frase actual «análisis humano en el bucle».

Para ser efectivos, estos humanos deben ser conscientes del sesgo del aprendizaje automático y las limitaciones del modelo, monitorear la implementación de los modelos en tiempo real y estar preparados para tomar las medidas correctivas necesarias. Un proceso consciente de los prejuicios incorpora el juicio humano en cada paso analítico, incluida la conciencia de cómo las herramientas de IA pueden amplificar los sesgos a través de bucles de retroalimentación. Un ejemplo concreto es cuando las decisiones de contratación se basan en el «ajuste cultural» y cada ciclo de contratación atrae a más empleados similares a la organización, lo que a su vez hace que el ajuste cultural sea aún más estrecho, lo que potencialmente va en contra de los objetivos de diversidad. En este caso, es posible que se requiera ampliar los criterios de contratación además de refinar la herramienta de IA.

El análisis de personas, especialmente basado en la IA, es una herramienta increíblemente poderosa que se ha vuelto indispensable en los recursos humanos modernos. Pero los modelos cuantitativos pretenden ayudar, no reemplazar, el juicio humano. Para aprovechar al máximo la IA y las herramientas de análisis de otras personas, deberá monitorear de manera consistente cómo funciona la aplicación en tiempo real, qué criterios explícitos e implícitos se utilizan para tomar decisiones y entrenar la herramienta, y si los resultados afectan a diferentes grupos de manera no intencionada . Al hacer las preguntas correctas sobre los datos, el modelo, las decisiones y los proveedores de software, los gerentes pueden aprovechar con éxito el poder de People Analytics para crear los lugares de trabajo equitativos y de alto rendimiento del mañana.


Eleva tus habilidades de liderazgo y negocios

Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.