Hacer que los grupos tontos sean más inteligentes

La investigación de comportamiento sugiere algunas formas bastante simples de lograr "la sabiduría de las multitudes".

Hacer que los grupos tontos sean más inteligentes
Resumen.

Con demasiada frecuencia, los grupos no logran alcanzar la sabiduría histórica de las multitudes. En los últimos años, la investigación conductual ha comenzado a identificar con precisión dónde se equivocan. Pero hasta el momento este trabajo académico aún no ha tenido un efecto notable en la práctica real.

Las dos razones principales del error son señales informativas (algunos miembros del grupo reciben señales incorrectas de otros miembros) y presiones reputacionales (las personas se silencian o cambian de opinión para evitar sanciones graves). Estos dos factores dan lugar a cuatro problemas distintos pero relacionados entre sí: (1) Los grupos no se limitan a corregir los errores de sus miembros; amplificar ellos. (2) Son víctimas de efectos en cascada, siguiendo las declaraciones y acciones de los que fueron primero. (3) Se convierten en polarizado, adoptando posiciones aún más extremas que originalmente. (4) Se centran en «lo que todo el mundo sabe» ignorando la información crítica que solo tienen uno o dos miembros.

Los autores ofrecen algunas sugerencias sencillas para mejorar: silenciar al líder, «primar» el pensamiento crítico, recompensar el éxito del grupo, asignar roles, nombrar a un defensor del diablo, establecer equipos contrarios y usar el método Delphi.

Reimpresión HBR R1412F


Desde el comienzo de la historia de la humanidad, las personas han tomado decisiones en grupo. Como dice el refrán, dos cabezas son mejores que una. Si es así, tres cabezas deberían ser mejores que dos, y cuatro mejores aún. Con cien o mil, entonces, las cosas van a salir bien, de ahí la supuesta sabiduría de las multitudes.

La ventaja de un grupo, escribió uno de los primeros defensores de la inteligencia colectiva, Aristóteles, es que «cuando hay muchos que contribuyen al proceso de deliberación, cada uno puede aportar su parte de bondad y prudencia moral… algunos aprecian una parte, otros y todos juntos lo aprecian todo». La clave es la agregación de información: diferentes personas toman nota de diferentes «partes» y, si esas partes se agregan correctamente, harán que el grupo sepa más (y mejor) que cualquier individuo.

Lamentablemente, con demasiada frecuencia los grupos no están a la altura de este potencial. Las empresas apuestan por productos que están condenados al fracaso, pierden oportunidades espectaculares y siguen estrategias competitivas fallidas. En los gobiernos, los juicios políticos no se activan, perjudicando a miles o incluso millones de personas en el proceso.

«Pensamiento de grupo» es el término que más se aplica a la tendencia de los grupos a extraviarse. Popularizada a principios de la década de 1970 por el psicólogo Irving Janis, ha entrado merecidamente en el léxico popular. Pero la contribución de Janis es más una narrativa evocadora que un relato científico de cómo los grupos se equivocan o una guía útil para el éxito del grupo. Muchos investigadores han tratado de encontrar pruebas experimentales que respalden sus afirmaciones específicas sobre cómo la cohesión y los estilos de liderazgo dan forma al comportamiento del grupo, con poco éxito.

Sin embargo, desde que Janis produjo su teoría, los psicólogos y otros científicos del comportamiento han construido una rica base de evidencia sobre cómo y cuándo los tomadores de decisiones individuales combaten el error. Este trabajo ha sido aclamado por la ciencia (incluyendo varios premios Nobel) y una gran popularidad gracias a best sellers como el de Daniel Kahneman Pensamiento, rápido y lento, Dan Ariely Previsiblemente irracional, y Empujoncito (de la que uno de nosotros, Sunstein, fue coautor con el economista Richard Thaler).

Un cuerpo de investigación más pequeño pero sustancial, algunos de ellos propios, se han centrado en las fortalezas y debilidades de los grupos y equipos en la toma de decisiones. Pero poco de este trabajo ha llegado a la conciencia pública y aún no ha tenido un efecto notable en la práctica real. Es hora de que eso cambie. Nuestro objetivo es poner la investigación conductual en contacto directo con la cuestión del desempeño grupal, describir las principales formas en que los grupos se extravian y ofrecer algunas sugerencias sencillas para mejorar.

¿Por qué se producen errores?

Los grupos erran por dos razones principales. La primera consiste en señales informativas. Naturalmente, las personas aprenden unas de otras; el problema es que los grupos suelen salir mal cuando algunos miembros reciben señales incorrectas de otros miembros. El segundo implica presiones reputacionales, que llevan a la gente a silenciarse o cambiar de opinión para evitar algún tipo de penalidad, a menudo, meramente la desaprobación de otros. Pero si esos otros tienen autoridad especial o ejercen poder, su desaprobación puede producir graves consecuencias personales.

Como resultado de las señales informativas y las presiones de reputación, los grupos se enfrentan a cuatro problemas separados, aunque interrelacionados. Cuando toman decisiones deficientes o autodestructivas, uno o más de estos problemas suelen ser los culpables:

  • Los grupos no se limitan a corregir los errores de sus miembros; amplificar ellos.
  • Son víctimas de efectos en cascada, como miembros del grupo siguen las declaraciones y acciones de quienes hablaron o actuaron primero.
  • Se convierten en polarizado, asumiendo posiciones más extremas que las que mantenían antes de las deliberaciones.
  • Se centran en lo que todo el mundo sabe ya y, por lo tanto, no tener en cuenta la información crítica que solo tiene una o unas pocas personas.

Errores de amplificación

Con los psicólogos Daniel Kahneman y el fallecido Amos Tversky a la vanguardia, los científicos del comportamiento han identificado algunos atajos mentales comunes (conocidos como heurística) y sesgos que llevan a los individuos por mal camino. El falacia de planificación, por ejemplo, nos lleva a subestimar cuánto tiempo tomarán los proyectos y cuánto dinero costarán. ExCESO DE CONFIANZA nos lleva a creer que nuestras previsiones son más precisas y precisas de lo que realmente son. El disponibilidad la heurística nos lleva a aprovechar lo que se nos viene a la mente más fácilmente, porque es memorable o lo hemos experimentado recientemente. El representatividad heurística nos lleva a creer que las cosas o los eventos o las personas que son similares en un sentido son similares en otros aspectos también. Sesgo egocéntrico nos lleva a exagerar hasta qué punto nuestros gustos y preferencias son típicos. El falacia del costo hundido nos lleva a seguir con un proyecto desesperado porque ya hemos invertido tanto en él. Efectos de encuadre influir en nuestras decisiones según la semántica de cómo se presentan las opciones. (Por ejemplo, es más probable que las personas acepten una operación si se les dice que el 90% de las personas están vivas después de cinco años que si se les dice que el 10% de las personas han muerto después de cinco años).

Para nuestros propósitos, la cuestión central es si los grupos pueden evitar o mitigar estos errores. La evidencia experimental indica que por lo general no lo hacen. Los psicólogos Roger Buehler, Dale Griffin y Johanna Peetz han encontrado, por ejemplo, que la falacia de planificación se agrava en grupos. Es decir, los grupos son incluso más optimistas que los individuos a la hora de estimar el tiempo y los recursos necesarios para completar una tarea; se centran en escenarios sencillos y sin problemas para sus futuros esfuerzos. Del mismo modo, Hal R. Arkes y Catherine Blumer han mostrado que los grupos tienen más probabilidades que los individuos de elevar su compromiso a un curso de acción que está fallando, especialmente si los miembros se identifican fuertemente con el grupo. Aquí hay una pista sobre por qué las empresas, los estados e incluso las naciones a menudo continúan con proyectos y planes condenados al fracaso. También se ha descubierto que los grupos aumentan, en lugar de disminuir, la dependencia de la heurística de la representatividad; son más propensos a la confianza excesiva que los miembros individuales; y se ven más influenciados por los efectos de encuadre.

Tanto las señales informativas como las presiones de reputación están funcionando aquí. Si la mayoría de los miembros de un grupo tienden a cometer ciertos errores, la mayoría de la gente verá que otros cometen los mismos errores. Lo que ven sirve como «prueba» de creencias erróneas. Las presiones de reputación desempeñan un papel complementario: si la mayoría de los miembros del grupo cometen errores, otros pueden cometerlos simplemente para evitar parecer desagradables o tontos.

Afortunadamente, tenemos pruebas de que los grupos deliberantes pueden corregir o reducir ciertos sesgos. Para los problemas que tienen soluciones «eureka» (la respuesta correcta, una vez anunciada, está clara para todos), a los grupos les va bien incluso si los miembros individuales comienzan con sesgo. Los grupos también son mejores que los individuos para superar el sesgo egocéntrico. Un individuo se centrará en sus propios gustos, en lo que le gusta y en lo que no; si consulta con otros, es probable que aprenda que sus gustos son idiosincrásicos. En tales casos, la deliberación grupal proporciona un importante correctivo. Tenga en cuenta que es menos probable que obtengamos esa corrección si el grupo está formado por personas con ideas afines. La influencia de la heurística de disponibilidad también se reduce ligeramente en los grupos. Cada uno de los miembros puede confiar en «lo que les viene a la mente», pero es probable que tengan recuerdos diferentes, lo que da como resultado una muestra más representativa a nivel de grupo.

El punto más importante, sin embargo, es que muchos sesgos individuales son no se corrigen sistemáticamente a nivel de grupo y a menudo empeoran. Los mecanismos por los que se agravan los errores suelen encontrarse en los otros tres problemas de la toma de decisiones grupales.

Cascada a la respuesta equivocada

El cerebro humano puede estar conectado desde el nacimiento para sincronizarse e imitar a otras personas. No es exagerado decir que el pastoreo es un comportamiento fundamental de los grupos humanos. Cuando se trata de decisiones grupales y flujo de información, el término preferido por los científicos sociales es «cascada», un pequeño goteo en una dirección que pronto se convierte en una inundación.

Considere un brillante estudio de descargas de música de los sociólogos Matthew Salganik, Peter Dodds y Duncan Watts. Permitieron a los sujetos de prueba escuchar y descargar una o más de las 72 canciones de nuevas bandas. En el grupo de control, a los individuos no se les dijo nada sobre lo que otros habían descargado o les gustaba y se les dejaba emitir juicios independientes. En otros grupos, los participantes pudieron ver cuántas personas habían descargado previamente determinadas canciones. Los investigadores estaban probando cuánta diferencia había, en términos del número máximo de descargas, si la gente podía ver el comportamiento de los demás.

Marcaron una gran diferencia. Aunque las peores canciones (según lo establecido por el grupo de control) nunca terminaron en lo más alto, y las mejores canciones nunca en el fondo, esencialmente cualquier otra cosa podría suceder. Si una canción se benefició de una ráfaga de descargas tempranas, podría hacerlo bastante bien. Sin ese beneficio, podría ser un fracaso. Y como los investigadores encontrado más tarde, estos efectos se produjeron incluso si mintieron a los sujetos de prueba sobre qué canciones se descargaron mucho.

Si un proyecto, un producto, una empresa, un político o una causa recibe mucho apoyo desde el principio, puede ganarse a un grupo aunque de lo contrario hubiera fracasado. Muchos grupos acaban pensando que su convergencia final en una visión compartida era inevitable. Cuidado con ese pensamiento. La convergencia puede ser un artefacto de quién fue el primero en hablar y, por lo tanto, de lo que podríamos llamar la arquitectura de las discusiones del grupo.

Dos tipos de cascadas, informativas y de reputación, corresponden a nuestras dos fuentes principales de error grupal. En cascadas informativas, las personas se silencian por deferencia a la información transmitida por otros. En cascadas reputacionales, se silencian para evitar el oprobio de los demás.

He aquí un ejemplo de una cascada informativa en las deliberaciones del jurado, que tiene importantes implicaciones para las empresas. Uno de nosotros (Hastie) ha realizado docenas de estudios de jurado simulados con miles de jurados voluntarios, muchos de ellos de grupos de jurados de grandes ciudades. En estos estudios, los voluntarios escriben en privado sus veredictos preferidos antes de que comiencen las deliberaciones e indican cuán confiados están en sus juicios. Las deliberaciones comienzan, como suelen hacer en juicios reales, con un voto sordo para ver dónde están todos. La votación rodea la mesa del jurado y con frecuencia comienza con un pequeño grupo de dos o tres jurados que favorecen, con creciente confianza, el mismo veredicto.

En un simulacro de juicio, los jurados 1, 2 y 3 respaldaron un veredicto de asesinato en segundo grado tanto en privado como en el voto de paja. El jurado 4 había votado inocente e indicó el más alto nivel de confianza en su elección en la votación privada previa a la deliberación. ¿Qué hizo el jurado 4 cuando se enfrentó a tres veredictos de asesinato en segundo grado? Hizo una pausa por un segundo y luego dijo: «Segundo grado». El jurado 7, un voto indeciso, de repente habló y preguntó: «¿Por qué segundo grado?» Los investigadores vieron una expresión de ciervo en los faros volando a través de la cara del jurado 4 antes de que él respondiera: «Oh, obviamente es segundo grado». No tenemos ninguna duda de que escenarios similares ocurren todos los días en salas de jurado, salas de juntas y salas de conferencias de todo el mundo.

Muchos grupos acaban pensando que su convergencia final en una visión compartida era inevitable. Cuidado con ese pensamiento.

Una cascada reputacional tiene una dinámica diferente. Los miembros del grupo creen que saben lo que es correcto, pero, no obstante, están de acuerdo con el grupo para mantener la buena opinión de los demás. Supongamos, por ejemplo, que Albert sugiere que es probable que el nuevo proyecto de su empresa tenga éxito. Barbara no confía en que tenga razón, pero está de acuerdo porque desea no parecer ignorante, adversaria o escéptica. Si Albert y Barbara parecen estar de acuerdo en que el proyecto saldrá bien, Cynthia no solo no los contradecirá públicamente, sino que incluso parecerá compartir su opinión, no porque crea que es correcto (no lo hace), sino porque no quiere enfrentar su hostilidad ni perder su buena opinión. Una vez que Albert, Barbara y Cynthia ofrezcan un frente unido sobre el tema, su colega David será muy reacio a contradecirlos, incluso si está bastante seguro de que están equivocados y tiene excelentes razones para esa creencia. (La evidencia incipiente indica que las mujeres son especialmente propensas a autocensurarse durante las discusiones sobre temas estereotipados masculinos, como los deportes, y que los hombres son especialmente propensos a autocensurarse durante las discusiones sobre temas estereotipados femeninos, como la moda. En ambos casos, los grupos pierden información valiosa).

La «corrección política», un término muy utilizado por la derecha política en la década de 1990, apenas se limita a las instituciones académicas de izquierda. Tanto en las empresas como en el gobierno suele haber una clara sensación de que cierto punto de vista es el adecuado y que quienes lo cuestionan o lo rechazan, incluso con fines de discusión, lo hacen bajo su propio riesgo. Se les considera «difíciles», «no forman parte del equipo» o, en casos extremos, como inadaptados.

Los miembros del grupo en los ejemplos anteriores son, en cierto sentido, totalmente racionales. Les importa su reputación, pero eso no tiene nada de irracional. Sin embargo, como se ha señalado, las personas utilizan la heurística, lo que puede llevarlos por mal camino y están sujetos a sesgos. Con el fin de entender cómo funcionan los efectos en cascada, la heurística más importante implica la disponibilidad: una idea o ejemplo vívido se mueve rápidamente de una persona a otra, produciendo finalmente una creencia generalizada dentro de un grupo y posiblemente en una ciudad, un estado o incluso una nación.

En el ámbito del riesgo, las cascadas de disponibilidad son comunes. Un evento en particular —que involucra un pesticida peligroso, un vertedero de desechos peligrosos, un accidente de energía nuclear, un acto de terrorismo— puede ser conocido para el grupo, incluso icónico. Si es así, alterará la percepción de los miembros sobre un proceso, un producto o una actividad. Las cascadas de disponibilidad también son familiares en los negocios. Los informes de éxito o fracaso pueden propagarse como la pólvora dentro de las empresas o entre ellas, lo que lleva a juicios sobre otros eventos o productos aparentemente similares. Si se trata de una película ( Star Wars?) , un programa de televisión ( Los muertos vivientes?) , o un libro (¿sobre Harry Potter?) funciona bien, las empresas reaccionarán con fuerza, buscando ansiosamente una propuesta o un proyecto que parezca similar.

Un subproducto de la disponibilidad es el «bloqueo asociativo» o la «fijación colaborativa», por el cual las ideas sólidas bloquean la recopilación de otra información. Este fenómeno es un gran problema cuando un grupo se fija la tarea de generar soluciones creativas. El pensamiento innovador de los miembros individuales es suprimido por las poderosas ideas generadas por otros miembros.

En el mundo real de la toma de decisiones grupales, por supuesto, es posible que la gente no sepa si las declaraciones de otros miembros surgen de información independiente, de una cascada informativa, de presiones de reputación o de la heurística de disponibilidad. A menudo sobrestiman la medida en que las opiniones de los demás se basan en información independiente. El resultado son decisiones grupales seguras (pero equivocadas).

Grupos polarizadores

La polarización es un patrón frecuente en los grupos deliberantes. Se ha encontrado en cientos de estudios realizados en más de una docena de países. Lo encontramos en forma dramática cuando realizamos un experimento en el que residentes de dos ciudades de Colorado discutieron sus creencias políticas.

Los primeros experimentos sobre los efectos polarizadores de la deliberación incluían comportamientos de toma de riesgos, con un claro hallazgo de que las personas que inicialmente se inclinan a asumir riesgos lo son aún más después de deliberar entre sí. (Ejemplos de decisiones arriesgadas incluyen aceptar un nuevo trabajo, invertir en un país extranjero, escapar de un campo de prisioneros de guerra y postularse para un cargo político). Sobre la base de esta evidencia, la sabiduría convencional se convirtió en que la deliberación grupal producía un «cambio arriesgado» sistemático.

Estudios posteriores cuestionaron esta conclusión y crearon un rompecabezas. En muchos de los mismos temas en los que los estadounidenses hicieron un cambio arriesgado, los participantes taiwaneses hicieron un cambio cauteloso. Incluso entre los participantes estadounidenses, la deliberación a veces produjo cambios cautelosos. Los cambios cautelosos ocurrieron con mayor frecuencia en las decisiones sobre si casarse y abordar un avión a pesar del dolor abdominal intenso.

¿Qué explica estos hallazgos rebeldes? Como los psicólogos Serge Moscovici y Marisa Zavalloni descubierto Hace décadas, los miembros de un grupo deliberador se moverán hacia puntos más extremos de la escala (medidos por referencia al punto medio inicial). Cuando los miembros están dispuestos inicialmente a asumir riesgos, es probable que se produzca un cambio arriesgado. Cuando inicialmente están dispuestos a ser cautelosos, es probable que se produzca un cambio cauteloso. Un hallazgo de especial importancia para las empresas es que la polarización grupal se produce tanto por cuestiones de hecho como de valor. Supongamos que se pregunta a la gente qué probabilidades hay, en una escala de cero a ocho, de que un producto venda cierto número de unidades en Europa el próximo año. Si la mediana previa a la deliberación es cinco, el juicio de grupo tenderá a aumentar; si es tres, el juicio de grupo tenderá a disminuir.

Incluso los jueces federales, expertos en derecho y supuestamente neutrales, son susceptibles a la polarización grupal. Investigación de uno de nosotros (Sunstein, junto con David Schkade, Lisa Ellman y Andres Sawicki) ha descubierto que tanto los nombrados demócratas como los republicanos muestran patrones de voto mucho más ideológicos al sentarse con otros jueces nombrados por un presidente del mismo partido. Si quieres saber cómo votará un juez de apelación en un caso ideológicamente disputado, es posible que quieras averiguar si fue nombrada por un presidente republicano o demócrata. Es un buen predictor. Pero en muchas áreas de la ley, un predictor aún mejor es quién nombró a los demás jueces del panel.

¿Por qué se produce la polarización grupal? Hay tres razones principales:

La primera y la más importante son las señales informativas, pero con algunos giros. Los miembros del grupo prestan atención a los argumentos de otros miembros del grupo. Los argumentos de cualquier grupo con una predisposición inicial inevitablemente se sesgarán en la dirección de esa predisposición. Como cuestión estadística, los argumentos que favorecen la posición inicial serán más numerosos que los que apuntan en otra dirección. Los individuos habrán pensado u oído hablar de algunos, pero no de todos, los argumentos que surgen de la deliberación grupal. Por lo tanto, la deliberación conducirá naturalmente a la gente hacia un punto más extremo en línea con lo que creían inicialmente.

Los líderes pueden negarse a tomar una posición firme desde el principio, dejando espacio para que surja más información.

La segunda razón es la reputación de nuevo. Como hemos visto, la gente quiere ser percibida favorablemente por otros miembros del grupo. A veces, sus opiniones declaradas públicamente son una función de cómo quieren presentarse. Una vez que oigan lo que otros creen, ajustarán sus posiciones al menos ligeramente en la dirección de la posición dominante para preservar su autopresentación.

La tercera razón subraya los estrechos vínculos entre tres factores: confianza, extremismo y corroboración por parte de otros. Cuando las personas carecen de confianza, tienden a ser moderadas. El gran juez estadounidense Learned Hand dijo una vez: «El espíritu de libertad es el espíritu que no está muy seguro de que sea lo correcto». A medida que las personas adquieren confianza, por lo general se vuelven más extremas en sus creencias, porque se ha eliminado un factor moderador significativo (su propia incertidumbre sobre si tienen razón). El acuerdo de los demás tiende a aumentar la confianza y, por lo tanto, el extremismo.

Centrándonos en «Lo que todos saben»

Nuestro último problema de grupo puede ser el más interesante de todos. Supongamos que un grupo tiene una gran cantidad de información, suficiente para producir el resultado correcto sin ambigüedades si esa información es obtenida y agregada correctamente. Aun así, el grupo no funcionará bien si sus miembros hacen hincapié en la información ampliamente compartida mientras descuidan la información que tiene uno o unos pocos. Innumerables estudios demuestran que este lamentable resultado es muy probable.

«Perfiles ocultos» es el término técnico para entendimientos precisos que los grupos podrían pero no lograr. Los perfiles ocultos son producto del «efecto de conocimiento común», por el cual la información de todos los miembros del grupo tiene más influencia en los juicios de grupo que la información de unos pocos. La explicación más obvia del efecto es que es más probable que el conocimiento común se comunique al grupo. Pero las señales informativas defectuosas también juegan un papel importante.

Considere un estudio de Ross Hightower y Lutfus Sayeed sobre cómo los grupos toman decisiones de personal. Los currículos de tres candidatos para el puesto de director de marketing se colocaron ante tres miembros del grupo. Los experimentadores manipularon los currículos para que un candidato fuera claramente el mejor para el puesto. Sin embargo, a cada sujeto de prueba se le entregó un paquete de información que contenía solo un subconjunto de atributos de los currículos.

Casi ninguno de los grupos deliberadores tomó lo que habría sido, si se hubiera tenido en cuenta toda la información, la elección correcta. Los candidatos ganadores tendían a ser aquellos sobre los que se les dio información positiva a los tres sujetos de la prueba. La información negativa sobre el ganador y la información positiva sobre los perdedores (revelada solo a uno o dos miembros del grupo) no llegaron al grupo completo.

Si bien muchos experimentos de perfil oculto involucran voluntarios de cursos universitarios, se han encontrado resultados similares entre los gerentes del mundo real. En un estudio de contratación por ejecutivos de alto nivel dirigidos por Susanne Abele, Garold Stasser y Sandra I. Vaughan-Parsons, los experimentadores no controlaban la información que los ejecutivos tenían sobre los distintos candidatos; en cambio, los ejecutivos realizaban sus propias búsquedas de información. Como resultado, toda la información era conocida por todos, otra fue compartida pero no por todos, y otra fue retenida por una sola persona.

¿El hallazgo? La información común tuvo un impacto desproporcionadamente grande en los debates y las conclusiones. Los ejecutivos dieron un peso desproporcionadamente escaso a la valiosa información que tenía una o varias personas y, como resultado, tomaron malas decisiones.

El estudio también encontró que algunos miembros del grupo son «cognitivamente centrales», ya que muchos otros miembros del grupo poseen sus conocimientos, mientras que otros miembros del grupo son «cognitivamente periféricos», ya que su información se mantiene de forma única. Para funcionar bien, los grupos necesitan aprovecharse de las personas cognitivamente periféricas. Pero en la mayoría de los grupos, las personas cognitivamente centrales tienen una influencia desproporcionada en la discusión. Una explicación sencilla para esto es que los miembros del grupo prefiero escuchar la información que se contiene comúnmente y prefiere oír a las personas que tienen esa información. Por lo tanto, a las personas cognitivamente centrales se les conceden altos niveles de credibilidad, mientras que a las personas periféricas cognitivamente se les conceden niveles bajos.

Hacer más sabios a los grupos

Un objetivo central en la toma de decisiones grupales debe ser garantizar que los grupos agreguen la información que realmente tienen sus miembros y no permitan que las señales informativas defectuosas y las presiones de reputación se interpongan en el camino. Aquí hay seis formas de lograr ese objetivo, empezando por la más sencilla:

Silencia al líder.

Los líderes a menudo promueven la autocensura expresando sus propios puntos de vista desde el principio, lo que desalienta el desacuerdo. Los líderes y los miembros de alto estatus pueden hacer un gran servicio a los grupos al indicar que están dispuestos y desean escuchar información exclusiva. También pueden negarse a adoptar una posición firme desde el principio y, de esa manera, dejar espacio para que surja más información. Muchos estudios han encontrado que los miembros de grupos de bajo estatus, incluidas las personas con menos educación, los afroamericanos y, a veces, las mujeres, tienen menos influencia dentro de los grupos deliberantes (y pueden callarse). Los líderes que modelan una mente abierta y piden opiniones sincera pueden reducir este problema.

Pensamiento crítico «Prime».

Hemos visto que cuando las personas se silencian en grupos deliberantes, a menudo se les castiga por revelar información que va en contra de la inclinación del grupo. Pero las normas sociales no están grabadas en piedra. Los científicos sociales han trabajado mucho sobre la importancia de «preparar», es decir, desencadenar algún pensamiento o asociación de tal manera que afecte las elecciones y el comportamiento de las personas. En experimentos sobre toma de decisiones grupales, se ha demostrado que la participación de los participantes en una tarea previa que implica «llevarse bien» o «pensamiento crítico» tiene un gran impacto. Cuando a la gente se le asigna una tarea de «llevarse bien», se callan. Cuando se les asigna una tarea de «pensamiento crítico», es mucho más probable que revelen lo que saben. Por lo tanto, si el líder de un grupo fomenta la divulgación de información desde el principio, incluso si va en contra de la corriente, los miembros probablemente se autosilenciarán menos.

Premiar el éxito del grupo.

La gente a menudo guarda silencio porque solo recibe una fracción de los beneficios de la divulgación. Experimentos cuidadosos han demostrado que los incentivos se pueden reestructurar para recompensar el éxito del grupo y, por lo tanto, para fomentar la divulgación de información. Las cascadas son mucho menos probables cuando cada individuo sabe que no tiene nada que ganar con un individual decisión y todo lo que se puede ganar de una correcta grupo decisión. La lección general es que la identificación con el éxito del grupo es más probable que la gente diga lo que sabe, independientemente de si encaja con «la línea del partido». (Esta, por cierto, es una de las razones por las que los mercados de predicción funcionan y merecen una atención cuidadosa).

Asigne roles.

Para entender una estrategia especialmente prometedora, imagine un grupo deliberante formado por personas con roles específicos que todos los miembros conozcan y aprecien. Una persona puede tener experiencia médica; otra podría ser abogado; una tercera podría saber sobre relaciones públicas; una cuarta podría ser estadística. En un grupo así, la agregación de información sensata sería mucho más probable, simplemente porque todos los miembros sabrían que cada uno de los demás tenía algo que aportar. De hecho, los experimentos han descubierto que el sesgo a favor de la información compartida se reduce cuando a los sujetos de prueba se les asignan roles específicos abiertamente. Si un grupo desea obtener la información que sus miembros poseen, antes de comenzar las deliberaciones se le debe decir que cada uno tiene un papel diferente y relevante, o al menos información distintiva que aportar.

Nombra a un abogado del diablo.

Si los perfiles ocultos y el autosilenciamiento son fuentes de fracaso grupal, un enfoque tentador es pedir a algunos miembros del grupo que actúen como defensores del diablo, instando a adoptar una posición que sea contraria a la inclinación del grupo. Quienes asumen ese papel pueden evitar la presión social que supone rechazar la posición dominante del grupo, porque se les ha encomendado precisamente eso. Pero ten cuidado con este enfoque: el disentimiento auténtico y el requisito formal de la defensa del diablo son diferentes; este último hace mucho menos para mejorar el desempeño del grupo, porque los miembros son conscientes de que es artificial, una especie de ejercicio o juego.

Establezca equipos contrarios.

Otro método, relacionado con el nombramiento de un defensor del diablo pero que ha demostrado ser más eficaz, es el «equipo rojo». Los equipos rojos se presentan en dos formas básicas: los que intentan derrotar al equipo principal en una misión simulada y los que construyen el caso más sólido posible contra una propuesta o un plan. Los equipos rojos son una excelente idea en muchos contextos, especialmente si intentan sinceramente encontrar errores y explotar vulnerabilidades y reciben incentivos claros para hacerlo.

El método Delphi.

Este enfoque, desarrollado en la Corporación RAND durante la guerra fría, mezcla las virtudes de la toma de decisiones individuales con el aprendizaje social. Las personas ofrecen estimaciones (o votos) de primera ronda en total anonimato. A continuación, se produce un ciclo de reestimaciones (o votaciones repetidas), con el requisito de que las estimaciones de segunda ronda se encuentren dentro de los cuartiles medios (25% — 75%) de la primera vuelta. Este proceso se repite, a menudo intercalado con discusiones grupales, hasta que los participantes convergen en una estimación. Una alternativa simple (y más fácil de administrar) es un sistema en el que los juicios finales o los votos se emiten de forma anónima, pero solo después de una deliberación. El anonimato aísla a los miembros del grupo de las presiones de reputación y, por lo tanto, reduce el problema del autosilenciamiento.

Los fracasos grupales suelen tener consecuencias desastrosas, no solo para las empresas, las organizaciones sin fines de lucro y los gobiernos, sino para todos los afectados por ellos. La buena noticia es que décadas de trabajo empírico, junto con las innovaciones recientes, ofrecen algunas salvaguardias prácticas y correctivas que pueden hacer que los grupos sean mucho más sabios.

Newsletter

Avanza tu carrera profesional, con el resumen semanal de las publicaciones, un libro de negocio resumido en 10 minutos y entrevistas con líderes de negocio.