Los gerentes no deberían temer la toma de decisiones basada en algoritmos

Ayuda a hacer que nuestro juicio sea más riguroso.
Los gerentes no deberían temer la toma de decisiones basada en algoritmos

Los gerentes no deberían temer la toma de decisiones basada en algoritmos

Las organizaciones están favoreciendo cada vez más los algoritmos en un esfuerzo por hacer que la toma de decisiones y el juicio organizacional sean más rigurosos, ya sea para fijar precios o para seleccionar candidatos a entrevista para un trabajo. Sin embargo, muchos profesionales siguen siendo cautelosos de la toma de decisiones basada en normas, y la interacción entre fórmulas y el juicio experto sigue siendo un área gris. ¿Cómo deberían estar facultados los empleados para alterar o ignorar una decisión generada algorítmicamente? ¿Cómo y cuándo deben ajustarse o modificarse las fórmulas?

Tom Blaser y Linnea Gandhi, dos directores gerentes de la consultoría The Greatest Good (TGG), son entusiastas campeones de los algoritmos. Su reciente artículo de Harvard Business Review, coautor con Noble Prize, el economista de comportamiento Daniel Kahneman y el CEO de TGG, Andrew M. Rosenfield, explica cómo las fórmulas pueden, entre otras mejoras, ayudar a remediar el flagelo oculto de la inconsistente toma de decisiones humanas. En una entrevista con HBR discuten cómo se han vuelto tan confiados en los algoritmos y por qué aconsejan a las empresas compartir su entusiasmo por la toma de decisiones basada en reglas.

HBR: Las dos son animadoras de algoritmos. ¿Por qué?

Blaser: Al hacer predicciones con datos, los algoritmos tienden a ser superiores a los humanos. Incluso en el caso de decisiones que tradicionalmente son competencia de expertos altamente capacitados, décadas de estudios muestran que incluso los modelos estadísticos simples suelen ser una mejora respecto a la inconsistencia humana. Entendemos que nuestra admiración por los algoritmos no es ampliamente compartida. Existe el fenómeno denominado «aversión al algoritmo» — los seres humanos están más dispuestos a aceptar la toma de decisiones defectuosa de un humano que de una fórmula. Damos a otras personas un amplio margen de manicomio y toleramos errores, pero de repente nos volvemos muy juzgados si una fórmula comete un error.

Gandhi: Nuestras colaboraciones con empresas a veces pueden incluir ayudarlas a superar esta aversión. La realización de una auditoría para medir la incoherencia del enfoque de «seguir las cosas habituales» suele ser un buen primer paso. Una vez que reconoce que tiene un problema, la pregunta se convierte en si, y especialmente cómo, los algoritmos se pueden usar para ayudar a solucionarlo.

¿Cuál es su consejo sobre cómo los expertos deben interactuar con algoritmos?

Gandhi: La primera regla general es resistir la tentación de anular algoritmos. Los profesionales a veces encontrarán que las predicciones mecánicas se sienten mal, o al menos parecen necesitar ajustes. Eso es bastante natural. Después de todo, los humanos tienen acceso a tanta información como pueden buscar, mientras que los modelos se limitan a un conjunto programado de variables. Los seres humanos pueden actualizar con flexibilidad supuestos y leer en matices, mientras que los modelos son rígidos en sus interpretaciones de un conjunto fijo de datos. En teoría, podemos ver el panorama general.

La evidencia, sin embargo, apunta en la dirección opuesta. Nuestro acceso a un conjunto aparentemente infinito de variables para su consideración en un problema dado a menudo funciona en desventaja, ya que estamos —conscientemente o no— sujetos a la influencia de factores irrelevantes. Por ejemplo, las decisiones de los jueces sobre libertad condicional ser mucho más indulgente después de una pausa para el almuerzo, y las decisiones de admisión tomadas en días nublados se centran más en los atributos académicos.

Blaser: Otro problema es que incluso cuando hacemos un buen esfuerzo para recopilar todos los insumos relevantes al hacer un juicio, generalmente no somos muy buenos para dar a estos insumos el peso adecuado o combinarlos de manera coherente. En un estudio sobre los jueces del Reino Unido que toman decisiones sobre la libertad bajo fianza, describieron su proceso como una integración relativamente compleja de muchas pruebas. Pero sus juicios reales parecen estar impulsados desproporcionadamente por lo que equivale a una heurística basada en unos pocos datos (a menudo idiosincráticos).

Pero claramente los humanos deberían ser empoderados para anular algoritmos en algunos casos, ¿verdad?

Gandhi: Sí, pero de nuevo, en nuestra opinión es menos frecuente de lo que crees. Un grupo claro de casos es lo que el psicólogo Paul Meehl a que se refiere como casos de «pierna rota». Los profesionales deben ignorar los resultados de un modelo estadístico diciéndole que alguien va a ir al cine esta noche si se entera de que se rompió la pierna. Un modelo decente hará mejor que usted en reconocer cómo las variables demográficas y de otro tipo predicen la asistencia al cine, pero el lugar donde se detienen los datos del modelo es una oportunidad para que los humanos agreguen algo.

¿Cómo pueden los empleados saber cuándo realmente tiene un punto de datos de «pierna rota» que el modelo ha perdido?

Blaser: Saber cuándo tiene una pieza de datos novedosa requiere comprender los conceptos básicos de cómo se conecta su contraparte algorítmica. Cuando un algoritmo es opaco, los ajustes humanos corren el riesgo de contar dos ítems que ya están contabilizados por la fórmula. Por ejemplo, un oficial de préstamos podría ajustar la producción de un modelo de crédito en función de la profesión del solicitante, pero si el modelo ya incluye ingresos, entonces eso puede no estar agregando mucho nuevo en absoluto. Su personal profesional que tenga las habilidades adecuadas es importante para esto: sus profesionales no tienen que ser todos estadísticos, pero los usuarios deben tener una buena idea de dónde termina el modelo y comienza su juicio.

Gandhi: Nuestra esperanza es que a medida que los algoritmos se vuelven aún más inteligentes y mejores, la gente aprenderá a confiar más en ellos porque se sentirán más exigentes, justos y quizás incluso más humanos. También estamos apoyando la tendencia opuesta: para ayudar a nuestros empleados a mejorar su toma de decisiones, necesitamos ayudarlos a ser más rigurosos y basados en reglas. Es decir, necesitamos estructurar el juicio humano para que funcione, al menos algo, algorítmicamente.

Entonces, ¿cómo hacemos eso?

Gandhi: Hay algunas maneras de abordar esto. Una es crear un conjunto de referencias compartidas, esencialmente un grupo de casos que todos sus empleados conocen bien y pueden usar para la comparación. Un estudio de posibles jurados que evaluaban casos de lesiones corporales reveló que, si bien tendían a ponerse de acuerdo sobre la gravedad de un caso determinado, discrepandió ampliamente cuando asigne esa gravedad a una escala financiera sin límites. Carecían de un conjunto de referencia común de sanciones financieras aceptables, por lo que las respuestas eran divergentes. Cuando las personas desempeñan un papel en la interpretación y ajuste de diferentes resultados algorítmicos, la capacitación o las ayudas estructuradas a la decisión pueden ayudar a crear un conjunto de referencia compartido y a «programar» mejor el juicio humano.

Otra forma es establecer reglas en torno a cuánto pueden jugar los profesionales con algoritmos. Los gestores pueden permitir que las personas ajusten la salida de un algoritmo, pero debe haber límites en la magnitud o frecuencia de los ajustes, como se muestra en investigación. Por supuesto, incluso los retoques mínimos introducirán algún error en la salida, pero en nuestra opinión las ganancias en términos de superar la aversión al algoritmo a menudo son una compensación que vale la pena.

Blaser: Añadiría una forma más, que es que los gerentes tienen que asegurarse de que sus sistemas realmente se usan como se pretende. Como parte de un proyecto en una organización global de servicios financieros, observamos a profesionales que utilizaron una herramienta de precios para ayudarles a llegar a cotizaciones para los clientes. Se suponía que debían registrar una variedad de hechos y juicios subjetivos en su herramienta, lo que daría un precio sugerido que tenían alguna capacidad limitada para ajustar. En la práctica, a menudo tenían un precio que pensaban que cerraría la venta, y simplemente respaldaban lo que necesitaban ser los insumos subjetivos de la herramienta para llegar allí. Esto les facilitó alcanzar ciertos objetivos a corto plazo, pero condujo a una gestión frustrada y una gran cantidad de datos cuestionables. Una práctica a considerar es separar a los que recogen los insumos, los que controlan el modelo y los que utilizan los resultados para la toma de decisiones empresariales.


Escrito por
Eben Harrell



Related Posts

Uso de Empudos Conductuales para el Tratamiento de la Diabetes

Se han reconocido los problemas de adherencia al tratamiento y estudiado durante años, pero sólo recientemente se han utilizado técnicas derivadas de la ciencia del comportamiento para mejorar seguimiento del paciente. Los investigadores están explorando ahora si la medicina de precisión basada en datos también puede incorporar empujones conductuales de precisión que mejoran la disposición del paciente a seguir las recomendaciones de los médicos al ofrecer opciones altamente adaptadas dentro de un esquema de incentivos diseñado para abordar la motivación específica de cada paciente. perfil.

Leer más
Columna: ¿Cuál fue la pregunta?

Columna: ¿Cuál fue la pregunta?

Es agradable creer que el mundo es simple y que podemos obtener fácilmente respuestas de alta calidad a nuestras preguntas. Pero, de hecho, nuestra realidad es en su mayoría muy compleja, y no lo entendemos bien. La conclusión es que debemos pasar más tiempo ayudando a las personas a comprender y lidiar con la complejidad y [...]
Leer más

¿Puede AI empujarnos para tomar mejores decisiones?

Los campos de la ciencia del comportamiento y el aprendizaje automático proporcionan algunas técnicas prometedoras para crear una IA más «emocionalmente inteligente que las organizaciones están poniendo a trabajar para producir mejores resultados. La clave es impulsar la inteligencia artificial emocional mediante algoritmos de entrenamiento para imitar la forma en que las personas se comportan en las relaciones constructivas. Así, los nuevos sistemas notan cambios en los patrones de las personas y los empujan para ver si quieren hacer una corrección; fomentan la autoconciencia ayudando a las personas a comparar su desempeño con otros; aplican la teoría del juego para aceptar o desafiar conclusiones; y ayudan a los tomadores de decisiones a enfocarse en la tarea correcta en el momento adecuado.

Leer más

Newsletter

Avanza tu carrera profesional, con el resumen semanal de las publicaciones, un libro de negocio resumido en 10 minutos y entrevistas con líderes de negocio