Eleva tus habilidades de gestión

Aprende practicas de gestión de equipos de alto desempeño — sin el prueba y error.

Súmate a más de 52,000 líderes en 90 empresas.

¿Puede AI empujarnos para tomar mejores decisiones?

Los campos de la ciencia del comportamiento y el aprendizaje automático proporcionan algunas técnicas prometedoras para crear una IA más «emocionalmente inteligente que las organizaciones están poniendo a trabajar para producir mejores resultados. La clave es impulsar la inteligencia artificial emocional mediante algoritmos de entrenamiento para imitar la forma en que las personas se comportan en las relaciones constructivas. Así, los nuevos sistemas notan cambios en los patrones de las personas y los empujan para ver si quieren hacer una corrección; fomentan la autoconciencia ayudando a las personas a comparar su desempeño con otros; aplican la teoría del juego para aceptar o desafiar conclusiones; y ayudan a los tomadores de decisiones a enfocarse en la tarea correcta en el momento adecuado.

Más de 50,000 líderes se mantienen al día con el futuro de los negocios.

Reportes radicalmente breves que ahorran 2,000+ horas de investigación

Estás aprendiendo en buena compañía

logo amazon
logo salesforce
logo mercadolibre
logo google
logo femsa
logo aeromexico
¿Puede AI empujarnos para tomar mejores decisiones?
Mrpliskin/Getty Imágenes

La revolución conductual en la economía fue desencadenada por una pregunta simple y inquietante: ¿y si la gente no actúa racionalmente? Esta misma pregunta ahora irrita el campo de la tecnología. En el mundo online, una vez que se esperaba que fuera un lugar de información lista y fácil colaboración, las mentiras y el odio pueden propagarse más rápido que la verdad y la bondad. Los sistemas corporativos también generan un comportamiento irracional. Por ejemplo, cuando predecir ventas, los empleados a menudo ocultan malas ofertas e informan selectivamente de las buenas. AI se encuentra en la encrucijada de la cuestión del comportamiento, con el potencial de empeorar las cosas o de obtener mejores resultados de nosotros. La clave para obtener mejores resultados es aumentar el cociente emocional de la IA: su EQ. ¿Cómo? Mediante algoritmos de entrenamiento para imitar la forma en que las personas se comportan en las relaciones constructivas.

Tanto si queremos admitirlo como si no, construimos relaciones con las aplicaciones. Y las aplicaciones, como las personas, pueden generar comportamientos positivos y negativos de nosotros. Cuando las personas con alto ecualizador interactúan con nosotros, aprenden nuestros patrones, empatizan con nuestras motivaciones y sopesan cuidadosamente sus respuestas. Deciden ignorarnos, desafiarnos o alentarnos dependiendo de cómo anticipen que reaccionaremos.

Centro de información

La IA puede ser entrenada para hacer lo mismo. ¿Por qué? Porque los comportamientos son más predecibles de lo que nos gusta pensar. El 70 mil millones de dólares industria de pérdida de peso prospera porque las compañías de dieta saben que la mayoría de las personas recuperan peso perdido. El$40 mil millones beneficios de la industria del casino de la esperanza ilógica de los jugadores de un regreso. Las compañías de tarjetas de crédito saben que es difícil para la gente romper sus hábitos de gasto.

Aunque todavía es bastante temprano, los campos de la ciencia del comportamiento y el aprendizaje automático ya proporcionan algunas técnicas prometedoras para crear IA de mayor EQ que las organizaciones están poniendo a trabajar para producir mejores resultados. Esas técnicas incluyen:

Tomando nota de los saltos de patrón y empujamiento. Las personas que saben que usted puede saber fácilmente cuándo está rompiendo un patrón y reaccionar en consecuencia. Por ejemplo, un amigo puede notar que de repente cambió su rutina y preguntarle por qué. El sistema de pago de facturas en línea del Bank of America señala de manera similar las interrupciones del patrón para evitar errores de claves del usuario. El sistema recuerda el patrón de pagos que ha realizado en el pasado y publica una alerta si aumenta sustancialmente el pago a un proveedor.

Fomentar la autoconciencia con puntos de referencia. Decir sin rodeos a los individuos que están realizando mal, a menudo retrocesos, provocando la defensividad en lugar de un mayor esfuerzo. Un método más diplomático simplemente permite a las personas ver cómo se comparan con los demás. Por ejemplo, una importante empresa tecnológica utilizó AI para generar previsiones de ventas más precisas que el equipo de ventas. Para inducir al equipo a corregir el curso, el sistema proporciona a cada miembro del equipo visualizaciones personalizadas que muestran cómo sus pronósticos difieren de la previsión de IA. Un simple empujón entonces pregunta por qué este podría ser el caso. El miembro del equipo puede proporcionar una explicación racional, evitar proporcionar comentarios o afirmar que la IA es incorrecta. La IA aprende acerca de la sustancia y el momento de la reacción del individuo, la pesa contra la brecha en los dos pronósticos, y puede elegir un empujón apropiado de segundo orden.

Usar la teoría del juego para aceptar o desafiar conclusiones. Imagine estar en un equipo que debe encontrar errores en más de 100.000 transacciones de fondos mutuos al día. Un fondo que administra un billón de dólares en activos está abordando este enorme problema con AI. La primera versión de la IA anotó errores potenciales (llamados «anomalías») por riesgo y costo potencial, luego puso en cola las anomalías más riesgosas primero. A continuación, el sistema rastreó el tiempo que el analista pasó en cada anomalía. Se suponía que los analistas pasarían más tiempo en las anomalías de los riesgos y menos tiempo en los «no-cerebros». De hecho, algunos analistas estaban volando a través de las anomalías más arriesgadas, llegando a conclusiones sospechosamente rápidas.

En la mayoría de los sistemas de cribado masivo, la tasa de falsos positivos suele ser extremadamente alta. Por ejemplo, los equipos secretos del Departamento de Seguridad Nacional fundar que la TSA no pudo detener el 95% de los intentos de los inspectores de contrabando de armas o materiales explosivos mediante la detección. Los analistas de fondos mutuos recorren innumerables transacciones, como los detectores de la TSA que tratan con miles de pasajeros, sus ojos se vidrian, simplemente se deslizan sobre anomalías.

El fondo está abordando este comportamiento peligroso, aunque altamente predecible, con un algoritmo empleado por los programas de juego de ajedrez. Esta versión modificada de la teoría secuencial de juegos monitoriza primero si el analista concluye que una anomalía es un falso positivo o decide pasar más tiempo en ella. La IA, jugando el papel de un oponente de ajedrez, puede decidir contrarrestar aceptando la decisión del analista o desafiándola.

Elegir el momento adecuado para la comprensión y la acción. Según cualquier estándar, Jeff Bezos es un maestro en la toma de decisiones. En un entrevista reciente con David Rubenstein, de Bloomberg TV, describió su marco para la toma de decisiones. Cuando se le acerca acerca de una decisión compleja a altas horas de la tarde, a menudo responde: «Eso no suena como una decisión de las 4 en punto; eso suena como una decisión de las 9 en punto [de la mañana]».

El equipo de ventas A/B de mi firma probó la hora correcta del día para maximizar las respuestas a los correos electrónicos de prospección y encontró una drástica diferencia en las tasas de respuesta entre los mensajes enviados el martes por la mañana y el viernes por la tarde. Muchos sistemas de mensajería de consumidores están optimizados para maximizar el rendimiento. El algoritmo de ajuste se puede mejorar para determinar el tipo de decisión a tomar y la tendencia de los usuarios a responder y tomar mejores decisiones. Por ejemplo, las decisiones que necesitan más reflexión podrían presentarse en un momento en que el tomador de decisiones tiene más tiempo para pensar, ya sea a través de la predicción o de la programación del usuario.

¿Podría la IA de mayor EQ ayudar a traer más civilidad a Internet? Las compañías de medios sociales podrían hacer bien en considerar una distinción que los empresarios occidentales pronto aprenden cuando negocian con sus homólogos japoneses: «honne» (lo que uno siente dentro) versus «tatemae» (lo que uno expresa públicamente). Una comprensión compartida de la distinción entre lo que uno siente y lo que se espera que diga conduce a menos errores de cálculo. Se podría desarrollar un algoritmo basado en esa distinción para abordar las tendencias predecibles de la gente a decir y hacer cosas bajo la influencia de multitudes (aunque sean virtuales) que de otro modo dudarían en hacer. Alguien que prepara un post inflamatorio, engañoso o cruel podría ser empujado a reconsiderar su lenguaje o a notar el tenor similar a la mafia de un tema de «tendencia». Los desafíos de desarrollar tal inteligencia artificial de alto coeficiente de ecualización emocional son desalentadores, pero en lugar de simplemente eliminar publicaciones individuales, en última instancia podría ser más beneficioso cambiar el comportamiento en línea para mejor.


Bob Suh
Via HBR.org


Eleva tus habilidades de liderazgo y negocios

Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.