Eleva tus habilidades de gestión

Aprende practicas de gestión de equipos de alto desempeño — sin el prueba y error.

Súmate a más de 52,000 líderes en 90 empresas.

Cómo evitar una catástrofe

Suceden fallas. Pero si presta atención a las Misses cercanas, puede predecir y prevenir las crisis.

Cómo evitar una catástrofe

Más de 50,000 líderes se mantienen al día con el futuro de los negocios.

Reportes radicalmente breves que ahorran 2,000+ horas de investigación

Estás aprendiendo en buena compañía

logo amazon
logo salesforce
logo mercadolibre
logo google
logo femsa
logo aeromexico
Resumen.

Reimpresión: R1104G

La mayoría de los fracasos empresariales, como los desastres de ingeniería, el mal funcionamiento de los productos y las crisis de RR.PP., se ven presagiados por casi fallos, llamadas cercanas que, de no haber intervenido la suerte, habrían tenido consecuencias mucho peores. El transbordador espacial Columbia el fatal reingreso de BP, el desastre de la plataforma petrolera del Golfo de BP, los aceleradores atascados de Toyota, incluso las fallas en la antena del iPhone 4, todos fueron precedidos por sucesos casi inminentes que deberían haber avisado a los gerentes de crisis inminentes. El problema es que a menudo se pasan por alto los cuasi errores o, perversamente, se ven como una señal de que los sistemas son resistentes y funcionan bien. Esto se debe a que los gerentes están cegados por los sesgos cognitivos, argumentan los profesores de Georgetown Tinsley y Dillon, y Madsen de la Universidad Brigham Young.

Siete estrategias pueden ayudar a los gerentes a reconocer y aprender de los cuasi errores: Deben estar más alerta cuando las presiones de tiempo o costos son altas; estar atentos a las desviaciones en las operaciones de la norma y descubrir sus causas fundamentales; hacer que los responsables de tomar decisiones sean responsables de los cuasi fallos; prever los peores escenarios; la búsqueda de los casi fallos disfrazados de éxitos; y recompensa a las personas por exponer los casi fallos.


La idea en resumen

La mayoría de los fracasos empresariales, tales como desastres de ingeniería, mal funcionamiento de productos y crisis de RR.PP., van precedidos por casi fallos—llamadas cercanas que, de no haber sido por casualidad, habrían sido peores.

Los gerentes suelen malinterpretar estas señales de advertencia porque están cegados por los sesgos cognitivos. Toman los casi errores como indicios de que los sistemas están funcionando bien, o no los notan en absoluto.

Siete estrategias pueden ayudar a los gerentes a reconocer y aprender de los cuasi errores. Los gerentes deben: (1) estar alerta cuando las presiones de tiempo o costos son altas; (2) estar atentos a las desviaciones de la norma; (3) descubrir las causas fundamentales de las desviaciones; (4) responsabilizarse por los fallos; (5) prever los peores escenarios; (6) buscar cuasi errores disfrazados de éxitos; y (7) recompensar a los individuos para exponer casi fallos.

La mayoría de la gente piensa que los «cuasi fracasos» son llamadas desgarradoras que podrían haber sido mucho peores: cuando un bombero escapa de un edificio en llamas momentos antes de que colapse, o cuando un tornado se aparta milagrosamente de una ciudad a su paso. Eventos como estos son raros escapes estrechos que nos dejan sacudidos y en busca de lecciones.

Pero hay otra clase de casi errores, los que son mucho más comunes y perniciosos. Estos son los pequeños fracasos, a menudo no señalados, que impregnan el día a día de las empresas pero que no causan daños inmediatos. Las personas están programadas para malinterpretar o ignorar las advertencias incrustadas en estos fallos, por lo que a menudo no se las examina o, perversamente, se las ve como señales de que los sistemas son resistentes y que las cosas van bien. Sin embargo, estos acontecimientos aparentemente inocuos son a menudo un estallido; si las condiciones cambian ligeramente, o si la suerte no interviene, estalla una crisis.

Considere el desastre de la plataforma petrolera BP Gulf. Como estudio de caso sobre la anatomía de los fallos y las consecuencias de malinterpretarlos, es casi perfecto. En abril de 2010, se produjo una explosión de gas durante la cementación del Horizonte de aguas profundas bien. La explosión se encendió, mató a 11 personas, hundió la plataforma y desencadenó un derrame submarino masivo que tardaría meses en contener. Numerosas decisiones deficientes y condiciones peligrosas contribuyeron al desastre: los perforadores habían utilizado muy pocos centralizadores para colocar la tubería, el «lodo de perforación» lubricante se retiró demasiado pronto, los gerentes habían malinterpretado los resultados vitales de las pruebas que habrían confirmado que los hidrocarburos se estaban filtrando del pozo. Además, BP se basó en una versión anterior de un dispositivo complejo a prueba de fallas llamado prevención de reventones que tenía un historial notoriamente irregular.

¿Por qué Transocean (el propietario de la plataforma), los ejecutivos de BP, los gerentes de la plataforma y el equipo de perforación pasaron por alto las señales de advertencia, a pesar de que el pozo había estado plagado de problemas técnicos todo el tiempo (los miembros de la tripulación lo llamaron «el pozo del infierno»)? Creemos que un catálogo de casi fallas anteriores en la industria provocó la complacencia de las partes interesadas, resultados exitosos en los que la suerte jugó un papel clave en la prevención de desastres. Se estaban perforando cada vez más pozos ultradeep, pero los derrames de petróleo significativos o las muertes eran extremadamente raros. Además, muchos pozos del Golfo de México habían sufrido pequeños estallidos durante la cementación (docenas de ellos en las últimas dos décadas); sin embargo, en cada caso factores fortuitarios (dirección favorable del viento, por ejemplo, nadie soldaba cerca de la fuga en ese momento) ayudaron a evitar una explosión. Cada casi error, en lugar de dar alarmas e investigar prompt, se tomó como una indicación de que los métodos y procedimientos de seguridad existentes funcionaban.

Durante los últimos siete años, hemos estudiado casi fallos en docenas de empresas de diferentes sectores, desde telecomunicaciones hasta automóviles, en la NASA y en simulaciones de laboratorio. Nuestra investigación revela un patrón: varios casi errores precedieron (y presagiaron) cada desastre y crisis empresarial que estudiamos, y la mayoría de los errores fueron ignorados o malinterpretados. Nuestro trabajo también muestra que los sesgos cognitivos conspiran para los gerentes ciegos a los casi fallos. Dos en particular nublan nuestro juicio. La primera es la «normalización de la desviación», la tendencia a aceptar con el tiempo las anomalías, particularmente las arriesgadas, como normales. Piense en la creciente comodidad que un trabajador podría sentir al usar una escalera con un peldaño roto; cuantas más veces sube por la peligrosa escalera sin incidentes, más seguro se siente. Para una organización, esta normalización puede ser catastrófica. La socióloga de la Universidad de Columbia Diane Vaughan acuñó la frase en su libro La decisión de lanzamiento del Challenger describir los comportamientos organizacionales que permitieron que una patente anomalía mecánica en el transbordador espacial se viera gradualmente como un riesgo de vuelo normal, condenando a su tripulación. El segundo error cognitivo es el llamado sesgo de resultado. Cuando las personas observan resultados exitosos, tienden a centrarse más en los resultados que en los procesos complejos (a menudo invisibles) que los llevaron a ellos.

Reconocer y aprender de los cuasi errores no es simplemente una cuestión de prestar atención; en realidad va en contra de la naturaleza humana. En este artículo, examinamos los cuasi errores y revelamos cómo las empresas pueden detectarlos y aprender de ellos. Al verlos por lo que son (fracasos instructivos), los gerentes pueden aplicar sus lecciones para mejorar las operaciones y, potencialmente, evitar catástrofes.

Raíces de las crisis

Considere este revelador experimento: pedimos a estudiantes de negocios, personal de la NASA y contratistas de la industria espacial que evaluaran a un director de proyecto ficticio, Chris, que supervisaba el lanzamiento de una nave espacial no tripulada y había tomado una serie de decisiones, entre ellas saltarse la investigación de un posible diseño defecto y renunciar a una revisión por pares, debido a la presión del tiempo. A cada participante se le dio uno de los tres escenarios: La nave espacial se lanzó sin problemas y pudo transmitir datos (resultado exitoso); poco después del lanzamiento, la nave espacial tuvo un problema causado por el defecto de diseño, pero debido a la forma en que el sol estaba alineado con el vehículo, aún pudo transmitir datos (resultado casi perdido); o la nave tenía un problema causado por la falla y, debido a la alineación casual del sol, no pudo transmitir datos y se perdió (resultado de falla).

Cómo evitar una catástrofe

¿Cómo le fue a Chris? Los participantes eran tan propensos a elogiar su toma de decisiones, sus habilidades de liderazgo y la misión general en el caso de éxito como en el caso casi perdido, aunque este último tuvo éxito solo por la suerte ciega. Cuando las personas observan un resultado exitoso, su tendencia natural es asumir que el proceso que lo llevó a ello fue fundamentalmente sólido, incluso cuando demostrablemente no lo fue; de ahí la frase común «no se puede discutir con éxito». De hecho, puedes y debes hacerlo.

Los desastres organizacionales, según muestran los estudios, rara vez tienen una sola causa. Más bien, se inician por la interacción inesperada de múltiples errores humanos pequeños, a menudo sin importancia, fallos tecnológicos o malas decisiones empresariales. Estos errores latentes se combinan con condiciones propicias para producir un fallo significativo. Un error latente en una plataforma petrolera podría ser un procedimiento de cementación que permite que el gas escape; las condiciones propicias pueden ser un día sin viento y un soldador trabajando cerca de la fuga. Juntos, el error latente y las condiciones propicias desencadenan una tormenta de fuego mortal. Los fallos cercanos surgen de las mismas condiciones previas, pero en ausencia de condiciones propicias, producen solo pequeños fallos y, por lo tanto, pasan desapercibidos o se ignoran.

Los errores latentes suelen existir durante largos períodos de tiempo antes de que se combinen con condiciones propicias para producir un fallo significativo. Que una condición propiciante transforme una situación casi perdida en una crisis generalmente depende del azar; por lo tanto, tiene poco sentido intentar predecir o controlar las condiciones propicias. En cambio, las empresas deben centrarse en identificar y corregir los errores latentes antes de que las circunstancias les permitan crear una crisis.

Las explosiones de la plataforma petrolera son un ejemplo dramático, pero los errores latentes y las condiciones propicias en las empresas a menudo se combinan para producir crisis menos espectaculares pero aún costosas, fracasos corporativos que la atención a los errores latentes podría haber evitado. Echemos un vistazo a las tres.

Apple podrida.

Aproveche la experiencia de Apple tras el lanzamiento del iPhone 4, en junio de 2010. Casi de inmediato, los clientes comenzaron a quejarse de las llamadas interrumpidas y la poca intensidad de la señal. La respuesta inicial de Apple fue culpar a los usuarios por sostener el teléfono de forma incorrecta, cubriendo así la antena externa y aconsejarles que «evitaran agarrar [el teléfono] en la esquina inferior izquierda». Cuando un usuario le preguntó sobre el problema en un foro web, el CEO Steve Jobs rechazó un correo electrónico que describía las llamadas interrumpidas como un «no problema». Muchos clientes consideraron que la postura de Apple era arrogante e insultante y dieron a conocer su disgusto a través de las redes sociales y los medios de comunicación convencionales. Varios presentaron demandas colectivas, incluida una demanda que alegaba «fraude por ocultación, negligencia, tergiversación intencional y diseño defectuoso». La crisis de reputación alcanzó un punto culminante a mediados de julio, cuando Informes del consumidor se negó a recomendar el iPhone 4 (había recomendado todas las versiones anteriores). En última instancia, Apple retrocedió, reconociendo errores de software y ofreciendo a los propietarios actualizaciones de software y fundas de iPhone para resolver el problema de la antena.

Los errores latentes subyacentes a la crisis habían estado presentes durante mucho tiempo. Como demostró Jobs durante una conferencia de prensa, prácticamente todos los smartphones experimentan una caída en la intensidad de la señal cuando los usuarios tocan la antena externa. Este defecto había existido en teléfonos anteriores, así como en los teléfonos de la competencia, durante años. El problema de la intensidad de la señal de los teléfonos también era bien conocido. Otros errores latentes surgieron a medida que la crisis cobraba impulso, en particular una estrategia evasiva de RR.PP. que provocó una reacción violenta.

El hecho de que los consumidores soporten los problemas del iPhone durante años sin hacer comentarios no era una señal de una estrategia sólida, sino de un casi error continuo.

El hecho de que los consumidores hubieran soportado los problemas de rendimiento durante años sin comentarios significativos no era una señal de una estrategia exitosa, sino de un casi error continuo. Cuando se combinan con las condiciones propicias adecuadas, Informes del consumidor‘revisión marchitada y ampliamente citada y el creciente alcance de las redes sociales: estalló una crisis. Si Apple hubiera reconocido la tolerancia de los consumidores como un problema continuo y hubiera solucionado de forma proactiva los problemas técnicos de los teléfonos, podría haber evitado la crisis. Sospechamos que no fue así debido al sesgo de normalización, que hizo que la falla de la antena pareciera cada vez más aceptable; y por el sesgo de resultados, lo que llevó a los gerentes a concluir que la falta de protestas por las deficiencias de los teléfonos reflejaba su propia buena estrategia, en lugar de buena suerte.

Advertencia de velocidad.

El 28 de agosto de 2009, el oficial de la Patrulla de Carreteras de California Mark Saylor y tres miembros de su familia murieron en un ardiente accidente después de que el acelerador del sedán Lexus en el que conducían se atascó, acelerando el automóvil a más de 120 millas por hora. Una llamada al 911 desde el auto a exceso de velocidad capturó los horribles momentos previos al accidente y fue reproducida ampliamente en las noticias y las redes sociales.

Hasta este punto, Toyota, que fabrica Lexus, había restado importancia a las más de 2.000 quejas de aceleración involuntaria entre sus autos que había recibido desde 2001. La tragedia de Saylor obligó a la empresa a investigar seriamente el problema. En última instancia, Toyota retiró del mercado más de 6 millones de vehículos a finales de 2009 y principios de 2010 y detuvo temporalmente la producción y las ventas de ocho modelos, lo que provocó una pérdida estimada de 2.000 millones de dólares solo en ventas norteamericanas y un daño inconmensurable a su reputación.

Las quejas sobre la aceleración del vehículo y el control de velocidad son comunes para todos los fabricantes de automóviles y, en la mayoría de los casos, según la Administración Nacional de Seguridad del Tráfico en las Carreteras, los problemas se deben a un error del conductor, no a un defecto del vehículo. Sin embargo, a partir de 2001, cuando Toyota introdujo un nuevo diseño de acelerador, las quejas por problemas de aceleración en Toyota aumentaron drásticamente, mientras que estas quejas permanecieron relativamente constantes para otros fabricantes de automóviles (ver la exposición «Problemas con los pedales de Toyota»). Toyota podría haber evitado la crisis si hubiera notado esta desviación y hubiera reconocido las miles de quejas por lo que eran: casi errores. También en este caso, la normalización de la desviación y el sesgo de resultados, junto con otros factores, conspiraron para oscurecer las graves implicaciones de los casi errores. Solo cuando se produjo una condición propiciadora —la tragedia de la familia Saylor y la consiguiente tormenta mediática— el error latente desencadenó una crisis.

Negro azabache y azul.

Desde que comenzó a operar, en 2000, JetBlue Airways ha adoptado un enfoque agresivo ante el mal tiempo, cancelando proporcionalmente menos vuelos que otras aerolíneas y ordenando a sus pilotos que se alejen de las puertas lo antes posible en condiciones climáticas adversas para estar cerca del frente de la línea cuando se despejaron las pistas. para el despegue, incluso si eso significaba que los aviones cargados permanecerían durante algún tiempo en la pista. Durante varios años, esta política pareció funcionar. Los retrasos en la pista no fueron demasiado largos, y los clientes los aceptaban en general. Sin embargo, se trataba de una estrategia arriesgada, que exponía a la aerolínea al peligro de dejar varados a los pasajeros durante períodos prolongados si las condiciones empeoraban abruptamente.

La llamada de atención se produjo el 14 de febrero de 2007. Una enorme tormenta de hielo en el aeropuerto internacional John F. Kennedy de Nueva York causó una interrupción generalizada, pero ninguna aerolínea fue más afectada que JetBlue, cuyos pilotos asertivos se encontraron atrapados en el asfalto (literalmente, en algunos casos, debido a las ruedas congeladas) y sin puertas abiertas a las que regresar. Los pasajeros angustiados de varios aviones quedaron atrapados durante 11 horas en cabinas sobrecalentadas y malolientes con poca comida o agua. Los medios de comunicación publicaron airados relatos en primera persona del calvario, y un castigada David Neeleman, CEO de JetBlue, reconoció en CNBC: «Hicimos un trabajo horrible, en realidad, al sacar a nuestros clientes de esos aviones». La aerolínea informó haber cancelado más de 250 de sus 505 vuelos ese día, una proporción mucho mayor que cualquier otra aerolínea. Perdió millones de dólares y desperdició la inestimable lealtad de los consumidores.

Para JetBlue, cada uno de los miles de vuelos que despegaron antes de la competición durante los retrasos climáticos anteriores fue casi un error. A medida que la aerolínea seguía saliéndose con la suya con la arriesgada estrategia, los gerentes que habían expresado su preocupación desde el principio por la forma en que la aerolínea manejaba los retrasos de los vuelos se volvieron complacientes, incluso cuando aumentaron los retrasos largos. De hecho, la proporción de retrasos meteorológicos de JetBlue de dos horas o más aproximadamente se triplicó entre 2003 y 2007, mientras que tales retrasos se mantuvieron bastante estables en otras aerolíneas estadounidenses importantes (véase la exposición «JetBlue Tarmac Trouble»).

En lugar de percibir que un aumento drástico de los retrasos representaba un aumento drástico del riesgo, los gerentes de JetBlue solo vieron vuelos lanzados con éxito. Se necesitó una condición propicia, la feroz tormenta de hielo, para convertir el error latente en una crisis.

Reconocer y prevenir los fallos

Nuestra investigación sugiere siete estrategias que pueden ayudar a las organizaciones a reconocer casi errores y erradicar los errores latentes detrás de ellos. Hemos desarrollado muchas de estas estrategias en colaboración con la NASA, una organización que inicialmente tardó en reconocer la relevancia de los casi errores, pero que ahora está desarrollando programas en toda la empresa para identificarlos, aprender de ellos y prevenirlos.

1. Presión alta.

Cuanto mayor sea la presión para cumplir los objetivos de rendimiento, como los plazos ajustados, los costos o los objetivos de producción, es más probable que los gerentes descartes las señales casi fallidas o las interpreten mal como signos de una toma de decisiones acertada. Los gerentes de BP sabían que la empresa estaba incurriendo en costos adicionales de 1 millón de dólares al día en concepto de arrendamiento de plataforma y tarifas de contratistas, lo que seguramente contribuyó a que no reconocieran las señales de advertencia.

El efecto de alta presión también contribuyó a la Columbia lanzadera espacial desastre, en el que la espuma aislante que caía del tanque de combustible externo dañó el ala del transbordador durante el despegue, lo que provocó que el transbordador se rompa al volver a entrar en la atmósfera. Los gerentes habían sido conscientes del problema de la espuma desde el inicio del programa del transbordador y estaban preocupados por ello desde el principio, pero a medida que decenas de vuelos avanzaban sin graves percances, comenzaron a clasificar las huelgas de espuma como problemas de mantenimiento, en lugar de casi fallos. Este caso clásico de normalización de la desviación se vio exacerbado por la enorme presión política a la que estaba sometida la agencia en ese momento para completar el núcleo principal de la Estación Espacial Internacional. Los gerentes sabían que los retrasos en el transbordador ralentizarían el proyecto de la estación espacial.

A pesar de la renovada preocupación por las huelgas de espuma causadas por un reciente casi error particularmente dramático, y con una investigación en curso, el Columbia despegó. Según la Junta de Investigación de Accidentes de Columbia, «la presión de mantener el cronograma de vuelos creó una atmósfera de gestión que aceptaba cada vez más un rendimiento inferior a las especificaciones de varios componentes y sistemas».

Cuando las personas toman decisiones bajo presión, muestran las investigaciones psicológicas, tienden a depender de la heurística, o reglas generales, y por lo tanto se ven influenciadas más fácilmente por sesgos. En entornos laborales de alta presión, los gerentes deben esperar que las personas se vean influidas más fácilmente por el sesgo de resultados, más probabilidades de normalizar la desviación y más propensas a creer que sus decisiones son acertadas. Las organizaciones deberían alentar, o incluso exigir, a los empleados que examinen sus decisiones durante períodos de presión y preguntarles: «Si tuviera más tiempo y recursos, ¿tomaría la misma decisión?»

2. Aprende de las desviaciones.

Como sugieren las crisis Toyota y JetBlue, la respuesta de los gerentes cuando algún aspecto de las operaciones se desciende de la norma suele ser recalibrar lo que consideran un riesgo aceptable. Nuestra investigación muestra que, en tales casos, los responsables de la toma de decisiones pueden comprender claramente el riesgo estadístico que representa la desviación, pero cada vez se preocupan menos por ello.

Hemos visto este efecto claramente en un laboratorio. Volviendo al programa espacial en busca de información, pedimos a los participantes del estudio que asumieran el control operativo de un rover de Marte en una misión simulada. Cada mañana recibían un informe meteorológico y tenían que decidir si seguir adelante o no. El segundo día, se enteraron de que había un 95% de probabilidades de que se produjera una tormenta de arena severa, que tenía un 40% de probabilidades de provocar un fallo catastrófico en las ruedas. A la mitad de los participantes se les dijo que el rover había atravesado con éxito tormentas de arena en el pasado (es decir, había salido ileso en varios fallos anteriores); la otra mitad no tenía información sobre la suerte del rover en tormentas pasadas. Cuando llegó el momento de decidir si arriesgarse o no, tres cuartas partes del grupo casi fallado optaron por seguir conduciendo; solo el 13% del otro grupo lo hizo. Ambos grupos sabían, y de hecho afirmaron que sabían, que el riesgo de fracaso era del 40%, pero el grupo que casi fallaba se sentía mucho más cómodo con ese nivel de riesgo.

Los gerentes deben buscar desviaciones operativas de la norma y examinar si sus razones para tolerar el riesgo asociado tienen mérito. Las preguntas que deben hacerse podrían ser: ¿Siempre nos hemos sentido cómodos con este nivel de riesgo? ¿Ha cambiado nuestra política respecto a este riesgo con el tiempo?

3. Descubra las causas fundamentales.

Cuando los gerentes identifican desviaciones, su reflejo suele ser corregir el síntoma en lugar de su causa. Tal fue la respuesta de Apple cuando al principio sugirió que los clientes abordaran el problema de la antena cambiando la forma en que sostenían el iPhone. La NASA también aprendió esta lección por las malas, durante su 1998 Mars Climate Orbiter misión. A medida que la nave se dirigía hacia Marte, se desvió un poco de su rumbo cuatro veces; cada vez, los gerentes realizaron pequeños ajustes de trayectoria, pero no investigaron la causa de la deriva. Cuando la nave espacial de 200 millones de dólares se acercó a Marte, en lugar de entrar en órbita, se desintegró en la atmósfera. Solo entonces la NASA descubrió el error latente: los programadores habían usado inglés en lugar de unidades métricas en su codificación de software. Las correcciones del curso abordaron el síntoma del problema pero no la causa subyacente. Su aparente éxito hizo que los tomadores de decisiones pensaran que el problema se había resuelto adecuadamente.

La industria de la salud ha hecho grandes avances en el aprendizaje de los casi fallos y ofrece un modelo para otros. Se alienta cada vez más a los proveedores a que informen de errores y casi errores para que las lecciones puedan extraerse y aplicarse. Un artículo en Hospitalista de hoy, por ejemplo, describe una casi falta en el Delnor-Community Hospital, en Ginebra, Illinois. Dos pacientes que compartían una habitación de hospital tenían apellidos similares y se les recetaron medicamentos con nombres similares: Cytotec y Cytoxan. Confundido por las similitudes, una enfermera casi administra uno de los medicamentos al paciente equivocado. Por suerte, ella detectó su error a tiempo y presentó un informe detallando la llamada cercana. El hospital separó inmediatamente a los pacientes y creó una política para evitar que los pacientes con nombres similares compartieran habitación en el futuro.

4. Responsabilidad de la demanda.

Incluso cuando las personas son conscientes de los fallos, tienden a degradar su importancia. Una forma de limitar este efecto potencialmente peligroso es exigir a los gerentes que justifiquen sus evaluaciones de los cuasi errores.

¿Recuerdas a Chris, el gerente ficticio de nuestro estudio que descuidó la diligencia debida en su supervisión de una misión espacial? Los participantes le dieron calificaciones igualmente buenas por el escenario de éxito y el escenario casi perdido. Los evaluadores de Chris no parecían ver que el casi error era de hecho un desastre. En una continuación de ese estudio, le dijimos a un grupo separado de gerentes y contratistas que tendrían que justificar su evaluación de Chris a la alta dirección. Sabiendo que tendrían que explicar su calificación a los jefes, quienes evaluaron el escenario de casi error juzgaron el desempeño de Chris con la misma dureza que aquellos que habían aprendido que la misión había fracasado, reconociendo, al parecer, que en lugar de manejarse bien, simplemente había esquivado una bala.

5. Considere los peores escenarios.

A menos que se lo recomiende expresamente, la gente tiende a no pensar en las posibles consecuencias negativas de los casi fallos. Los gerentes de Apple, por ejemplo, eran conscientes de los problemas de antena del iPhone, pero probablemente no se habían imaginado lo grave que podía llegar a ser una reacción de los consumidores. Si hubieran considerado el peor de los casos, podrían haberse alejado de la crisis, sugiere nuestra investigación.

En un estudio, les dijimos a los participantes que supongan que un huracán inminente tenía un 30% de probabilidades de golpear su casa y les preguntamos si iban a evacuar. Al igual que en nuestro estudio sobre el rover de Marte, las personas a las que se les dijo que habían escapado de un desastre en fallos anteriores tenían más probabilidades de arriesgarse (en este caso, optaron por quedarse en casa). Sin embargo, cuando les dijimos a los participantes que supusieran que, aunque su casa había sobrevivido a huracanes anteriores, la casa de un vecino había sido golpeada por un árbol durante uno, vieron las cosas de manera diferente; era mucho más probable que este grupo evacuara. Examinar los eventos de cerca ayuda a las personas a distinguir entre fallos y éxitos, y a menudo ajustan su toma de decisiones en consecuencia.

Los gerentes de la oficina de continuidad del negocio de Walmart lo entienden claramente. Durante varios años antes del huracán Katrina, la oficina había evaluado cuidadosamente el huracán anterior que casi había perdido sus tiendas e infraestructura y, basándose en ellos, había planeado un impacto directo en un área metropolitana donde tenía una gran presencia. En los días previos a que Katrina tocó tierra en Luisiana, la compañía amplió el personal de su centro de mando de emergencia de seis a 10 personas habituales a más de 50, y almacenó alimentos, agua y suministros de emergencia en sus almacenes locales. Habiendo aprendido de los casi fallos anteriores, Walmart superó a los funcionarios locales y federales en la respuesta al desastre. Harry Lee, sheriff de Jefferson Parish, dijo: «Si el gobierno estadounidense hubiera respondido como ha respondido Walmart, no estaríamos en esta crisis».

6. Evalúa proyectos en cada etapa.

Cuando las cosas van mal, los gerentes suelen realizar postmortems para determinar las causas y prevenir las recurrencias. Sin embargo, cuando van bien, pocos hacen revisiones formales del éxito para captar sus lecciones. Debido a que las fallas pueden parecer éxitos, a menudo escapan al escrutinio.

El director de conocimientos del Centro de Vuelos Espaciales Goddard de la NASA, Edward Rogers, instituyó un proceso de «pausa y aprendizaje» en el que los equipos discuten en cada hito del proyecto lo que han aprendido. No solo cubren los contratiempos sino que también examinan expresamente los éxitos percibidos y las decisiones de diseño consideradas a lo largo del camino. Al examinar críticamente los proyectos mientras están en marcha, los equipos evitan el sesgo de resultados y es más probable que vean casi errores por lo que son. Estas sesiones van seguidas de talleres de intercambio de conocimientos en los que participan un grupo más amplio de equipos. Otros centros de la NASA, incluido el Laboratorio de Propulsión a Chorro, que administra el programa Marte de la NASA, están comenzando experimentos similares. Según Rogers, la mayoría de los proyectos que han utilizado el proceso de pausa y aprendizaje han descubierto casi fallos, por lo general, defectos de diseño que no se habían detectado. «Casi todos los perceses en la NASA se pueden rastrear a alguna serie de pequeñas señales que pasaron desapercibidas en el momento crítico», dice.

7. Recompensa por ser dueño.

Ver y atender a los casi fallos requiere un estado de alerta organizacional, pero ninguna cantidad de atención evitará el fracaso si las personas no están motivadas para exponer las casi fallas o, lo que es peor, se desaniman a hacerlo. En muchas organizaciones, los empleados tienen motivos para guardar silencio sobre los fracasos y, en ese tipo de entorno, es probable que se guarden las sospechas sobre los fallos.

Cómo evitar una catástrofe

Los politólogos Martin Landau y Donald Chisholm describieron uno de esos casos que, aunque tuvo lugar en la cubierta de un buque de guerra, es relevante para cualquier organización. Un marinero alistado en un portaaviones descubrió durante un ejercicio de combate que había perdido una herramienta en cubierta. Sabía que una herramienta errante podía causar una catástrofe si la succionaba un motor a reacción, y también era consciente de que admitir el error podría poner fin al ejercicio y un posible castigo. Mientras no se tuviera en cuenta la herramienta, cada despegue y aterrizaje exitoso sería casi un error, un resultado afortunado. Informó del error, el ejercicio fue detenido y todos los aviones en alto fueron redirigidos a bases en tierra, a un costo significativo.

En lugar de ser castigado por su error, el marinero fue elogiado por su oficial al mando en una ceremonia formal por su valentía al denunciarlo. Los líderes de cualquier organización deben recompensar públicamente al personal por descubrir cuasi fallos, incluso los suyos propios.

Dos fuerzas conspiran para dificultar el aprendizaje de los casi errores: los sesgos cognitivos los hacen difíciles de ver e, incluso cuando son visibles, los líderes tienden a no captar su significado. Por lo tanto, las organizaciones a menudo no exponen ni corrigen los errores latentes incluso cuando el costo de hacerlo es pequeño, por lo que pierden oportunidades de mejora organizativa antes de que ocurra un desastre. Esta tendencia es en sí misma un tipo de fracaso organizacional: no aprender de los datos «baratos». Una de las inversiones más acertadas que puede hacer una organización es una de las inversiones más acertadas que puede hacer una organización.


Eleva tus habilidades de liderazgo y negocios

Súmate a más de 52,000 líderes en 90 empresas mejorando habilidades de estrategia, gestión y negocios.