Elaborado por Materia para OpenMind Recomendado por Materia
4
Inicio Sobre el odio a las sorpresas. Cómo reducir la incertidumbre en las organizaciones
01 diciembre 2014

Sobre el odio a las sorpresas. Cómo reducir la incertidumbre en las organizaciones

Tiempo estimado de lectura Tiempo 4 de lectura

En el año 2000, los científicos anunciaron un gran avance en la tecnología de secuenciación de genes. Se consideró un gran paso hacia nuevos fármacos específicos para genes, que podrían curar un sinfín de enfermedades.  En aquel momento, yo gestionaba una cartera de varios miles de dólares a la vez en una de las mayores gestoras de activos globales. La empresa inmediatamente convocó una reunión especial de gestores de carteras y analistas del sector sanitario para identificar las implicaciones de inversión. En las horas posteriores, logramos sacar adelante una visión de un prometedor futuro sanitario y las muchas oportunidades de inversión derivadas de él.

La mayoría de nuestras predicciones resultaron estar equivocadas

Muchos de los nuevos medicamentos adaptados a las causas genéticas de enfermedades no llegaron. Había algo que no habíamos tenido en cuenta. Esto mismo dio lugar a que ISIS sorprendiera a los analistas de información en 2014 y a que las pérdidas de las hipotecas basura sorprendiesen a los gestores de bonos en 2007. De hecho, afecta a todas las previsiones, desde las tasas de contagio del ébola a las pérdidas de la deuda soberana europea.  Si pudiéramos controlar a este merodeador de previsiones, nuestras organizaciones estarían mejor.  Principalmente, nos llevaríamos menos sorpresas. Todos los que trabajan en el negocio de la predicción, y eso significa desde un gestor de bonos, pasando por un analista de información hasta un biólogo celular, odian las sorpresas.

Las sorpresas, sin embargo, no son equivalentes a «cisnes negros». Lamentablemente, ese término se ha convertido en una excusa genérica para el hecho de ser tomados por sorpresa. «Fue un cisne negro. ¿En serio creías que podías predecirlo?» No, nuestro merodeador de previsiones no era un cisne negro. Sin embargo, como científicos aprendimos más sobre el genoma, descubrimos algunas simples relaciones entre gen y enfermedad. Sin embargo, varios genes «reguladores» activaron otros genes y estos, a su vez, produjeron respuestas celulares que pueden dar lugar a enfermedades. Imaginemos una red de cadenas de espaguetis de complejas conexiones entre distintos genes y enfermedades. No era el simple genoma que los investigadores de fármacos esperaban descubrir.

En definitiva, la complejidad desmoronó nuestras predicciones.

Gran parte de lo que llamamos incertidumbre surge de interacciones complejas similares entre partes de un sistema.  Ya se trate de un sistema político, económico o biológico, se aplica la misma regla:

<<La complejidad genera incertidumbre>>

¿Cómo se relacionan los cisnes negros con la complejidad? La metáfora describe una época en que los colonos australianos se encontraban con un cisne negro antes nunca visto, destruyendo así la predicción de que «cisnes era igual a blanco».  Se trata de un ejemplo de un tipo de incertidumbre llamada información incompleta. Siempre han existido cisnes que no eran blancos, simplemente no lo sabíamos. La cuestión es que normalmente nos sorprendemos no por lo que existe y es desconocido para nosotros, sino por lo que surge de interacciones complejas.

Por suerte, los científicos han estado ocupados intentando entender la complejidad. Sus estudios se conocen como Sistemas adaptativos complejos. Unen campos tan diversos como la ciencia de las redes, neurociencia, ecología, economía, medicina y planificación urbanística. El punto en común es la existencia de partes que interactúan produciendo resultados sorprendentes.

La teoría de la complejidad no es del todo nueva.  De hecho, en cierto modo, es inusitadamente antigua. Economistas como Keynes y Hayek estaban preocupados por la complejidad y la incertidumbre. Sus experiencias con la guerra y la depresión les hicieron preocuparse por lo desconocido. Los economistas de hoy en día han disfrutado de mucha más estabilidad. Como consecuencia de ello, teorizan cómodamente acerca de que disponemos de perfectas racionalidad e información a la hora de tomar decisiones. La incertidumbre generada por la complejidad no cabe en su simple universo que funciona como un reloj.

Esta forma de pensar «como un reloj» de los economistas respalda muchas de nuestras decisiones organizativas. Como gestores y analistas, nos han enseñado a actuar como agentes racionales encargados de calcular recompensas y probabilidades. Nuestras predicciones pueden estar equivocadas, pero la probabilidad de error y el rango de resultados es conocido: lo denominamos «riesgo». Las evaluaciones de información, presupuestos, planes estratégicos: todos siguen la misma lógica económica de predicción de recompensas y gestión del riesgo. ¿Dónde gestionan la incertidumbre en el proceso? En ocasiones, enumeran posibles «acontecimientos de escasa probabilidad». Es lo que se conoce como planificación de hipótesis. El problema es que no se suelen explorar las conexiones entre acontecimientos posibles de las cadenas de causa y efecto complejas. La lista de hipótesis es un añadido al proceso del actor racional, una ocurrencia tardía que se suele dejar en el olvido.

Una mentalidad de sistemas complejos puede hacerlo mejor. La razón es que la complejidad suele producir patrones recurrentes. No sabemos exactamente qué forma adoptará el patrón en su siguiente iteración, pero podemos captar su esquema general. Veamos un ejemplo:

ISIS sorprendió a la comunidad de inteligencia. El grupo salió de su base siria para capturar rápidamente una tercera parte de Irak. El concepto de sistemas complejos de adaptación evolutiva habría ayudado a predecir su levantamiento.  Los ecosistemas proporcionan nichos a habitantes. Árboles altos, por ejemplo, ofrecen abundante alimento a los animales que sean capaces de adaptarse desarrollando cuellos más largos. El paisaje de Oriente Medio ofrecía ese nicho a los militantes islamistas: los «árboles altos» eran las ciudades suníes enervadas bajo la regla de la mayoría chií. El «cuello largo» fue ganando territorio abiertamente en lugar de realizar ataques terroristas furtivos. El que lograse ganar territorio disfrutaría de retroalimentación: la primera conquista atraería a seguidores, lo que permitiría lograr más conquistas y atraer más seguidores. La pregunta clave era «¿qué grupo militante tiene más probabilidades de adoptar la adaptación para ganar territorio?» Plantearla habría sugerido un enfoque de vigilancia e información distinto, otro con un nicho y su estrategia implícita en mente.

En definitiva, un enfoque ecológico, que reconociese un patrón de sistema complejo, habría mejorado el control de grupos como ISIS. Este es solo un ejemplo, pero hay muchos más, en campos que van desde las finanzas a la política pública. Al aplicar estos patrones, la conexión entre causa y efecto no será obvia.  La función del pensamiento de sistemas complejos es descubrir las conexiones no evidentes.  Es mucho más difícil, pero no tanto como enfrentarse a la siguiente sorpresa.

Diego Espinosa

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada