Big Data y Machine Learning no nos salvarán de otra crisis financiera

El juicio humano aún importa profundamente.
Resumen.

Diez años después de la crisis financiera, los mercados bursátiles alcanzan regularmente nuevos máximos y niveles de volatilidad nuevos mínimos. La industria financiera ha adoptado con entusiasmo y rentable big data y algoritmos computacionales, envalentonados por los muchos triunfos del aprendizaje automático. Sin embargo, es imperativo cuestionar la confianza depositada en la nueva generación de modelos cuantitativos. Dos esferas son motivo de especial preocupación. En primer lugar, hay muchos paralelismos inquietantes entre los recientes avances en el aprendizaje automático y el comercio algorítmico y el crecimiento explosivo de la ingeniería financiera antes de la crisis. En segundo lugar, no podemos obtener comodidad simplemente con más datos y una mayor potencia informática: la teoría estadística muestra que el big data no necesariamente evita grandes problemas.


Diez años después de la crisis financiera, los mercados bursátiles alcanzan regularmente nuevos máximos y niveles de volatilidad nuevos mínimos. La industria financiera ha adoptado con entusiasmo y rentable big data y algoritmos computacionales, envalentonados por los muchos triunfos del aprendizaje automático. Sin embargo, es imperativo cuestionar la confianza depositada en la nueva generación de modelos cuantitativos, innovaciones que podrían, como advirtió William Dudley, «conducir al exceso y poner en riesgo el sistema [financiero]».

Hace ochenta años, John Maynard Keynes introdujo el concepto de incertidumbre irreductible, distinguiendo entre eventos para los que se puede calcular razonablemente probabilidades, como el giro de una rueda de ruleta, y aquellos que permanecen intrínsecamente desconocidos, como la guerra en diez años. Hoy, nos enfrentamos al riesgo de que los inversores, comerciantes y reguladores no entiendan hasta qué punto el progreso tecnológico es, o más precisamente, lo es no — reducir la incertidumbre financiera.

Dos esferas son motivo de especial preocupación. En primer lugar, hay muchos paralelismos inquietantes entre los recientes avances en el aprendizaje automático y el comercio algorítmico y el crecimiento explosivo de la ingeniería financiera antes de la crisis. En segundo lugar, no podemos obtener comodidad simplemente con más datos y una mayor potencia informática: la teoría estadística muestra que el big data no necesariamente evita grandes problemas.

Al igual que hoy, las finanzas en la década de 1990 y principios de 2000 atrajeron a muchas de las mentes cuantitativas más agudas, que produjeron notables avances teóricos y metodológicos. Al igual que hoy en día, la ingeniería financiera durante todo el milenio trajo un gran éxito comercial: las herramientas matemáticas desarrolladas por los escritorios de derivados construyeron negocios, aumentaron los beneficios y proporcionaron rendimientos de inversión superiores. Viví esa era en Nueva York, parte de un mundo dinámico y emprendedor de modelado probabilístico avanzado y potencia computacional sin precedentes. Estábamos domando la incertidumbre financiera, o eso creíamos.

La crisis financiera expuso esa mentalidad como una «ilusión cuant», un episodio que ahora corremos el riesgo de repetir. Se demostró que muchas hipótesis de modelización, como las correlaciones entre los precios de los activos, eran muy defectuosas. Además, se rompieron los fundamentos fundacionales de la financiación cuantitativa, por ejemplo, los límites lógicos elementales de los precios de los valores. También se hizo evidente que quants había especificado claramente mal el conjunto de posibles resultados, y había calculado probabilidades condicionales de eventos, sujeto a que el mundo permaneciera más o menos tal como lo habían conocido. Tomaron decisiones que fueron expuestas como absurdas una vez que ocurrieron eventos aparentemente imposibles.

Es importante destacar que también hubo una proliferación de lo que el estadístico Arthur Dempster ha llamado «proceduralismo»: la aplicación de técnicas sofisticadas, a expensas del razonamiento cualitativo y del juicio subjetivo, que conduce a resultados ilógicos. Un ejemplo: los bancos a menudo adoptaron diferentes modelos para fijar precios diferentes de contratos de derivados, lo que dio lugar a que un producto idéntico recibiera dos precios desiguales por la misma entidad.

Una afluencia de talento cuantitativo, rápidos avances técnicos, auge de los beneficios: el mundo actual de las finanzas cuantitativas se hace eco del milenio. El proceduralismo puede ser aún más frecuente ahora, alimentado por el amplio éxito de los algoritmos y las presiones competitivas asociadas para adoptarlos; y por el impulso regulatorio para validar o «dar fe» de modelos, cuyos resultados se vested entonces de una credibilidad poco realista.

Sí, con datos más grandes y mayor potencia informática que hace diez años, ahora podemos explorar conjuntos cada vez más grandes de posibles resultados. Pero todavía no sabemos hasta qué punto nuestras probabilidades condicionales calculadas difieren de las probabilidades reales. Todavía no sabemos cuál de nuestras suposiciones se romperá. De hecho, a medida que nuestros algoritmos se vuelven más complejos, al igual que con el aprendizaje profundo, es cada vez más difícil identificar lagunas en la lógica que pueden estar incrustadas dentro de los algoritmos, o comprender cuándo los modelos podrían fallar gravemente.

El aprendizaje automático puede ser muy eficaz en predicciones a corto plazo, utilizando los datos y mercados que hemos encontrado. Pero el aprendizaje automático no es tan bueno en la inferencia, aprendiendo de los datos sobre la ciencia subyacente y los mecanismos de mercado. Nuestra comprensión de los mercados sigue siendo incompleta.

Y el big data en sí puede no ayudar, como mi colega de Harvard Xiao-Li Meng ha mostrados recientemente en «Paraísos estadísticos y paradojas en Big Data». Supongamos que queremos estimar una propiedad de una gran población, por ejemplo, el porcentaje de votantes de Trump en los EE.UU. en noviembre de 2016. Lo bien que podemos hacer esto depende de tres cantidades: la cantidad de datos (cuanto más mejor); la variabilidad de la propiedad de interés (si todo el mundo es votante de Trump, el problema es fácil); y la calidad de los datos. La calidad de los datos depende de la correlación entre la intención de voto de una persona y si esa persona está incluida en el conjunto de datos. Si los votantes de Trump tienen menos probabilidades de ser incluidos, por ejemplo, eso podría sesgar el análisis.

Meng muestra que la calidad de los datos domina la cantidad de datos de maneras notables. Por ejemplo, supongamos que encuestamos al 1% de los votantes estadounidenses, aproximadamente 2,3 millones de personas, y que la probabilidad de que un votante de Trump responda con precisión es solo un 0,1% menor que un votante que no sea Trump. A continuación, el gran conjunto de datos proporciona una menos estimación confiable del porcentaje general de votantes de Trump que una simple muestra aleatoria de solo 450 personas, donde las respuestas son precisas.

La lección para las finanzas es dura. Si nuestro conjunto de datos, por muy grande que sea, es de una manera mínima pero sistemática no representativa de la población, los macrodatos no excluyen grandes problemas. Aquellos que vuelven a un enfoque proceuralista de lanzar algoritmos complejos y grandes conjuntos de datos a preguntas difíciles son particularmente vulnerables. ¿Quién puede decir cuán no representativos son nuestros datos hoy en términos de representar el futuro? Sí, es posible que nunca más asumamos que los precios de la vivienda no pueden caer simultáneamente en todos los estados, pero no sabemos qué otras suposiciones se están haciendo implícitamente.

Más que nunca, el juicio —necesariamente subjetivo y basado en la experiencia— desempeñará un papel importante en la moderación de la excesiva dependencia y el uso indebido de los modelos cuantitativos. El juicio de cuestionar incluso los algoritmos más exitosos, y mantener la humildad ante la incertidumbre irreductible, puede demostrar la diferencia entre la estabilidad financiera y el «terrible daño» de otra crisis.


Escrito por
Stephen Blyth



Related Posts

Cómo se enganchó el velcro a la calidad

La llamada telefónica salió del azul una mañana en agosto de 1985. Fue de nuestro gerente de ventas de Detroit, quien me dijo que General Motors nos estaba abandonando de su máxima calificación de calidad del proveedor a la siguiente al nivel más bajo, cuatro (en un uno a uno a Cinco escala). Tuvimos 90 días para configurar [...]
Leer más
Pathbooks

Lee un
bestseller en

10 minutos

Cada viernes, recibe un libro de negocios y carrera resumido en 10 minutos.

(puedes darte de baja cuando quieras)