¿Los clientes le mienten a su chatbot?

Los sistemas automatizados de atención al cliente que utilizan herramientas como formularios online, chatbots y otras interfaces digitales se han vuelto cada vez más comunes en una amplia gama de sectores.
¿Los clientes le mienten a su chatbot?

Resumen.

Estas herramientas ofrecen muchas ventajas tanto a las empresas como a sus clientes, pero una investigación reciente sugiere que también pueden tener un coste: a través de dos sencillos experimentos, los investigadores descubrieron que las personas tienen más del doble de probabilidades de mentir cuando interactúan con un sistema digital que cuando hablan con un humano.

Esto se debe a que una de las principales fuerzas psicológicas que nos anima a ser honestos es el deseo intrínseco de proteger nuestra reputación, y la interacción con una máquina, fundamentalmente, supone un riesgo menor para la reputación que hablar con un humano de verdad. La buena noticia es que los investigadores también encontraron que los clientes que tienen más probabilidades de hacer trampa suelen optar por utilizar un sistema de comunicación digital (en lugar de humano), lo que da a las empresas una vía para identificar a los usuarios que tienen más probabilidades de hacer trampa.

Por supuesto, no se puede eliminar la deshonestidad digital. Pero con una mejor comprensión de la psicología que hace que las personas sean más o menos propensas a mentir, las organizaciones pueden crear sistemas que desalienten el fraude, identifiquen posibles casos de trampas y animar de forma proactiva a la gente a ser más honesta.

• • •

Imagine que acaba de hacer un pedido en línea de Amazon. ¿Qué le impide afirmar que la entrega nunca llegó y pedir un reembolso, incluso si realmente llegó según lo prometido? O digamos que acaba de comprar un teléfono nuevo y se le cayó inmediatamente, rompiendo la pantalla. Envía una solicitud de reemplazo y el sistema automatizado le pregunta si el producto ha llegado roto o si los daños son su culpa. ¿Qué dice?

Deshonestidad está lejos de ser un fenómeno nuevo. Pero a medida que los chatbots, los formularios en línea y otras interfaces digitales se vuelven cada vez más comunes en un amplia gama de las aplicaciones de servicio al cliente, distorsionar la verdad para ahorrar dinero se ha vuelto más fácil que nunca. ¿Cómo pueden las empresas animar a sus clientes a ser honestos sin dejar de aprovechar las ventajas de las herramientas automatizadas?

Para explorar esta pregunta, mis coautores y yo realizamos dos experimentos sencillos eso nos permitió medir el comportamiento honesto de una manera discreta. Primero, un investigador pidió a los participantes que lanzaran una moneda diez veces y les dijo que recibirían un premio en efectivo según los resultados. Hicimos que algunos participantes informaran de los resultados de sus lanzamientos de moneda al investigador mediante videollamada o chat, mientras que otros informaron de sus resultados a través de un formulario en línea o un bot asistente de voz. Lanzaban las monedas en privado, así que no había forma de saber si algún participante individual mintió, pero pudimos estimar la tasa de trampas para un grupo de participantes (ya que, en general, solo el 50% de los lanzamientos de moneda deberían tener éxito).

¿Qué encontramos? De media, cuando los participantes informaron a un humano, informaron del 54,5% de lanzamientos de moneda con éxito, lo que corresponde a una tasa de trampas estimada del 9%. Por el contrario, cuando informaban a una máquina, hacían trampa el 22% de las veces. En otras palabras, se espera un poco de trampa de todos modos, pero nuestros participantes tenían más del doble de probabilidades de hacer trampa cuando hablaban con un sistema digital que cuando hablaban con un humano. También descubrimos que las trampas descaradas, que definimos como informar de una tasa de éxito increíblemente alta de nueve o diez lanzamientos de moneda con éxito, eran más de tres veces más comunes cuando se informaba a una máquina que cuando se informaba a un humano.

A continuación, determinamos mediante una encuesta de seguimiento que el principal mecanismo psicológico que impulsaba este efecto era el nivel de preocupación de los participantes por su reputación personal. Hicimos una serie de preguntas diseñadas para medir la preocupación de los participantes por la forma en que los veía el investigador y descubrimos que quienes habían informado de sus lanzamientos de monedas a una máquina se sentían mucho menos cercanos al investigador y, como resultado, estaban mucho menos preocupados por su reputación personal que aquellos que informó al investigador. Como tal, planteamos la hipótesis de que antropomorfizar el sistema de informes digitales (en nuestro caso, darle una voz humana en lugar de una interfaz de solo texto) podría hacer que pareciera más humano y, por lo tanto, hacer que los participantes se preocuparan más por mantener su reputación y fueran menos propensos a mentir. Sin embargo, descubrimos que los participantes seguían haciendo trampa con la misma cantidad, lo que sugiere que si la gente sabe que está interactuando con una máquina, es poco probable que darle características humanas a esa máquina haga una gran diferencia.

Sin duda, es posible que avance de manera convincente Sistemas de IA similares a los humanos podría hacer de esta una estrategia más eficaz en el futuro. Pero por ahora, está claro que las herramientas digitales hacen que las trampas sean mucho más frecuentes y no hay una solución rápida obvia.

La buena noticia es que nuestro segundo experimento identificó una estrategia que podía ayudar a las empresas a abordar este problema: Si bien no se puede eliminar la deshonestidad, es posible predecir quién es más probable que le mienta a un robot y luego presione a esos usuarios para que usen un canal de comunicación humana en su lugar.

En este experimento, primero evaluamos la tendencia general de los participantes a hacer trampa pidiéndoles que lanzaran una moneda diez veces e informaran de los resultados a través de un formulario en línea, y luego los categorizamos en consecuencia como «probables tramposos» y «probables que digan la verdad». En la siguiente parte del experimento, les ofrecimos la posibilidad de informar de sus lanzamientos de moneda a un humano o mediante un formulario en línea. En general, aproximadamente la mitad de los participantes prefería un humano y la otra mitad prefería el formulario en línea, pero cuando echamos un vistazo más de cerca, descubrimos que los «probables tramposos» tenían muchas más probabilidades de elegir el formulario en línea, mientras que los «probables que dicen la verdad» preferían denunciar a un humano. Esto sugiere que las personas que son más propensas a hacer trampa de forma proactiva traten de evitar situaciones en las que tienen que hacerlo a una persona (en lugar de a una máquina), presumiblemente debido a una conciencia consciente o subconsciente de que mentir a un humano sería más desagradable psicológicamente.

Por lo tanto, si las personas deshonestas tienden a autoseleccionarse en los canales de comunicación digital, esto podría ofrecer una vía para detectar y reducir mejor el fraude. Específicamente, la recopilación de datos sobre si los clientes optan por utilizar canales de comunicación virtuales en lugar de humanos podría complementar los esfuerzos actuales de las empresas por identificar a los usuarios que tienen más probabilidades de hacer trampa, lo que permitiría a estas organizaciones centrar sus recursos de detección de fraudes de manera más eficaz. Por supuesto, los clientes pueden averiguar lo que están haciendo las empresas e intentar engañar al sistema eligiendo hablar con un agente real, evitando así que los marquen como de mayor riesgo, pero esto es realmente beneficioso para todos, ya que según nuestras investigaciones, será mucho más probable que se comporten honestamente si hablan con un humano.

En última instancia, no hay cura para la deshonestidad digital. Después de todo, mentirle a un robot no se siente tan mal como mentirle a un humano de verdad. Las personas están programadas para proteger su reputación y, fundamentalmente, las máquinas no representan la misma amenaza para la reputación que los humanos. Pero con una mejor comprensión de la psicología que hace que las personas sean más o menos propensas a mentir, las organizaciones pueden crear sistemas que puedan identificar posibles casos de trampas e, idealmente, animar a la gente a ser más honesta.

por Alain Cohn

Related Posts
El tamaño sí importa (en firmas)

El tamaño sí importa (en firmas)

El hallazgo: las empresas dirigidas por CEOs que tienen grandes firmas, un indicador de narcisismo, funciona peor que los dirigidos por CEOs con pequeñas firmas. La investigación: con el objetivo de juzgar el impacto que tienen los líderes narcisistas en las organizaciones, Nick Seybert y sus colegas medían las firmas de 605 CEOs en un valor anual de una década de [...]
Leer más
La trampa de visualización

La trampa de visualización

El sesgo de retrospectiva, la creencia irracional de que los resultados anteriores eran predecibles, es un fenómeno psicológico bien comprendido. Nuestra investigación sugiere que este sesgo se está volviendo más fuerte, gracias en gran medida a una abundancia de información visual, incluidas las recreaciones y las simulaciones. Pero al medirlo, también hemos descubierto su lado cercano, lo que llamamos el efecto de propensión: la visualización también puede, en ciertos [...]
Leer más
Las ratas pueden ser más inteligentes que las personas

Las ratas pueden ser más inteligentes que las personas

El estudio: Ben Vermaercke y sus colegas de Ku Leuven dieron dos tareas de aprendizaje cognitivo a ratas de laboratorio y estudiantes. Con ambas tareas, los sujetos fueron capacitados para distinguir entre los patrones "buenos" y "malos" y luego se probaron su capacidad para aplicar ese know-how a nuevos tipos de patrones. En la primera tarea, los patrones variaron [...]
Leer más
Una segunda oportunidad para dar la impresión correcta

Una segunda oportunidad para dar la impresión correcta

Romualdo Faura hace años, un amigo mío, Gordon, entrevistado por un puesto en una universidad prominente. Durante su visita de día al campus, almorzó con un miembro de la Facultad Senior (llamemos a Bob) que tuviera una decisión final sobre el alquiler. Después de que llegó su comida, Bob dijo sobre su comida: "Ya sabes, esto es [...]
Leer más
Motivación de los empleados: un nuevo modelo poderoso

Motivación de los empleados: un nuevo modelo poderoso

Conseguir que las personas hagan su mejor trabajo, incluso en circunstancias difíciles, es uno de los desafíos más duraderos y resbaladizos de los gerentes. De hecho, descifrar lo que nos motiva a los seres humanos es un rompecabezas de siglos. Algunos de los pensadores más influyentes de la historia sobre el comportamiento humano, entre ellos Aristóteles, Adam Smith, Sigmund Freud y Abraham Maslow, han luchado para comprender sus matices [...]
Leer más
Contratación de Smarts

Contratación de Smarts

Todo está muy bien ser amable, compasivo y carismático. Pero el predictor más crucial del éxito ejecutivo no tiene nada que ver con la personalidad o el estilo. Es una capacidad intelectual. Aquí es cómo encontrar a esas personas con la inteligencia pura para convertirse en estrellas de negocios.
Leer más

Newsletter

Avanza tu carrera profesional, con el resumen semanal de las publicaciones, un libro de negocio resumido en 10 minutos y entrevistas con líderes de negocio