Poco antes de las 8 horas se perdió la comunicación con el transbordador espacial Columbia, en su secuencia de entrada a la atmósfera terrestre. Era el 1 de febrero de 20003 y se confirmaba la desintegración de la nave y el fallecimiento de sus siete tripulantes. A partir de aquel momento se suspendieron los lanzamientos de transbordadores hasta dar con la causa del desastre, que resultó deberse a un problema relativamente sencillo de evitar. Una vez materializados los incidentes, llueven críticas por no haber dispuesto los medios para su prevención que, en muchos casos, no entrañan complejidad alguna. Es el sesgo retrospectivo de las personas, que nos hace considerar como obvias cuestiones que en su momento no lo eran. Todo un clásico en los incidentes de Compliance.
Resultó que a los 81 segundos de su lanzamiento, la parte inferior de una de las alas del transbordador recibió el golpe de un pedazo de espuma de poliuretano que recubría el tanque externo de combustible. El impacto no se percibió por la tripulación y Control de misiones restó importancia al incidente, que también se había detectado en misiones anteriores.
Algunos procedimientos de control, como el visionado de la secuencia de lanzamiento por el equipo de supervisión, están sujetos a errores de apreciación humanos. De hecho, nuestras actividades se desenvuelven en el contexto de los problemas realistas, donde inciden tal cantidad de variables que sólo el cerebro humano las puede procesar y extraer rápidamente una conclusión aparentemente acorde con las circunstancias: sucede cuando dosificamos la presión sobre el pedal de freno de nuestro vehículo ante una situación de riesgo, procesando a velocidad de vértigo muchísima información: la distancia, estado del piso, situación del tráfico, consecuencias previsibles de nuestra maniobra, etc. Pero las estimaciones que nos brinda nuestro cerebro son falibles y en ocasiones nos equivocamos. Por eso, desde hace años se desterró el principio de seguridad absoluta en ámbito de la gestión de riesgos, pues muchos controles dependen finalmente de nuestro juicio, expuesto al error especialmente en contextos de estrés.
Como podemos imaginar, la gestión desarrollada por Control de misiones fue muy cuestionada, especialmente porque el problema que causó la pérdida de siete vidas se había identificado en misiones anteriores. La socióloga Diane Vaughan habla del sesgo “normalización de la desviación”, que se produce cuando una irregularidad se reitera sin mayores consecuencias, pasando entonces a formar parte de la normalidad y escapando del entorno de control. En Compliance, las irregularidades deben ser analizadas y evitar que se consoliden, aunque no desencadenen consecuencias negativas inmediatas.
Con esos antecedentes, bastantes analistas y periodistas consideraron que el incidente que sufrió el transbordador era predecible y fácilmente evitable. El sesgo retrospectivo lleva a percibir eventos pasados como predecibles e incluso modifica nuestros recuerdos para hacernos creer que siempre mantuvimos ese pronóstico: “yo ya lo dije”. En los incidentes de Compliance es difícil evitar la concurrencia de tal sesgo, que puede afectar a las autoridades administrativas y judiciales frente a un resultado aparentemente previsible. Valorar la idoneidad de las los controles y las decisiones exige retrotraerse al momento en que se adoptaron, haciendo abstracción de hechos posteriores. Tal vez una mala decisión fuera la correcta en el contexto donde se adoptó. Desde luego, el Equipo de Gestión de la Misión (MMT) defendió que las razones para abortar la misión eran pésimas entonces, pues nadie podía prever las consecuencias catastróficas del impacto de un simple pedazo de poliuretano en una nave valorada en más de 2.000 millones de euros en el año 2003.
Las personas estamos condicionadas por el conocimiento adquirido después de un evento, circunstancia que incide indefectiblemente en nuestra estimación posterior de probabilidad de que sucediera. Lamentablemente, algunas evaluaciones de riesgos de Compliance sufren las consecuencias de este sesgo, cuando, materializado un incidente, nadie comprende cómo no se previó. Este efecto se conoce como “falacia del historiador”, mencionada por primera vez por David Hackett Fischer, que sucede al dar por supuesto que quienes adoptaron una decisión podían considerar informaciones o puntos de vista posteriores a la misma.
No sólo las evaluaciones de riesgos están expuestas al sesgo retrospectivo, sino muchas otras valoraciones en el ámbito del Compliance, incluyendo la contratación o promoción de personal o la formalización y mantenimiento de relaciones con terceros. Son contextos en los que también se puede criticar qué la organización mantuviera vínculos con personas que han observado después conductas claramente contrarias a sus valores. Los indicadores de perfil de riesgo (Risk Metrics) que comento en el vídeo número 10 de la Serie Compliance Basics, permiten capturar y considerar datos objetivos que facilitan identificar relaciones de riesgo y adoptar a tiempo las medidas mitigantes oportunas. Reducen la exposición a comportamientos nocivos y ayudan a explicar los motivos de nuestras decisiones, en caso de que se precise analizarlas retrospectivamente.
Deja un comentario