Elaborado por Materia para OpenMind Recomendado por Materia
3
Inicio Trading: una carrera armamentística
17 febrero 2014

Trading: una carrera armamentística

Tiempo estimado de lectura Tiempo 3 de lectura

Al igual que el resto de industrias la actividad de trading se está automatizando a un ritmo acelerado. Con ello, el dominio de la estadística, matemáticas, microeconomía y gestión de riesgos parece ya no ser suficiente para que un trader opere eficientemente en el mercado. Ahora se exige que también se dominen las ciencias computacionales y el aprendizaje de máquinas. Y es que la era de los robots ha llegado a las finanzas en una etapa a la que se le ha dado el nombre de Carrera Armamentística (‘Arms Race’). De hecho, tal y como ocurría en los peores tiempos de la Guerra Fría la actividad está rodeada de:

  1. secretismo: apenas hay literatura publicada al respecto;
  2. espionaje: existen numerosas sentencias en contra de programadores que robaron código en sus empresas para facilitárselo a sus nuevos empleadores; y
  3. propaganda: ya no solo cuenta lo que sabes sino lo que parece que sabes de cara a confundir a tus competidores (este es un aspecto obviamente más sutil que ocurre en conversaciones fuera de trabajo, entrevistas, eventos, etc).

Y nadie quiere perder el hueco dentro de esta oleada de avances porque el que llegue tarde puede encontrarse en un punto de no retorno y verse expulsado del mercado  —no en vano se habla de un cambio de paradigma en trading.

El problema al que por tanto se enfrentan la mayor parte de los agentes financieros en este campo es siempre el mismo: falta de criterio. Hay muy pocos profesionales que dominen los campos citados arriba y mientras capital humano se va formando (existen casos llamativos como el hecho de que el gobierno británico ha organizado un doctorado en Finanzas Computacionales directamente para esto  —el UK PhD Centre for Financial Computing and Analytics— las decisiones son tomadas por personal con buenas intenciones pero poco criterio. Sobregastos en tecnología (maximizada, a menudo desarrollada antes de ser realmente explotable que estará parcialmente obsoleta el día que se aproveche), fricciones entre equipos debido a incentivos individualistas y a responsabilidades no definidas, desequilibrios en la gestión de proyectos… son las típicas consecuencias del caos en el que se encuentran muchos de los agentes financieros en su avance hacia el trading sistemático. Y mientras tanto, la competencia se sigue haciendo cada vez más feroz —algunos productos ya han visto reducir su margen en más de un 50% de forma consistente (Menkveld (2013)— lo que significa que el nuevo paradigma de trading es ya un hecho y que ha venido para quedarse.

Lo que pocos operadores tienen claro es que detrás de esta evolución se encuentran dos tipos de agentes: los que se centran en maximizar la tecnología y los que se centran en maximizar las estrategias. Así, mientras los primeros se dedican a arbitrar al mercado (a aprovecharse de sus ineficiencias) en cuestión de milésimas los segundos se orientan a arbitrarlo estadísticamente (a aprovecharse de las ineficiencias que ‘probablemente va a mostrar’ de acuerdo a una serie de indicadores). De entre ambos, el más interesante para la mayor parte de la industria parece ser el segundo, no solo por no depender de un gasto continuo en tecnología al contrario que el puro arbitraje sino por además tener un universo de posibilidades más amplio lo que permite competir por ciertos patrones con menos agentes o incluso ninguno —a diferencia del arbitraje, donde la gran mayoría del universo es básico y conocido por todos.

El reto del arbitraje estadístico cuando es intradiario (lo habitual para los creadores de mercado) es que no solo requiere el conocimiento de los campos mencionados más arriba sino que a estos se les une uno de gran auge en los últimos tiempos: big data. Y es que los datos sobre los que se buscan patrones intradiarios cumplen el paradigma de las 3-uves: volumen ingente, variedad de formatos/estructuras y velocidad de su procesamiento. Lo que dificulta aún más las cosas en términos de capital humano y costes. De hecho, incluso cuenta con una dificultad añadida: se pierde el map-reduce, —una de las grandes herramientas del big data —los algoritmos de regresión y de aprendizaje de máquinas utilizados en las estrategias son en general difícilmente paralelizables, lo que no permite el uso de técnicas como map-reduce para lograr la velocidad antes mencionada.

Con todo, la adaptación al nuevo mercado pasa por dar mayor papel a las sinergias tecnológicas y algorítmicas. Flexibilidad que requiere nuevas estructuras jerárquicas con roles globales, que se encarguen de que estas sean perfectamente aprovechadas por e-Commerce y trading tanto en las distintas regiones como en los distintos activos —a menudo con herencias desde renta variable hacia divisas y renta fija en lo que se ha dado a conocer como la ‘rentavariablización’ (‘equitization’) del resto de activos. Esa es precisamente la ventaja de los agentes más pequeños (se pueden citar desde fondos de inversión como Renaissance Technologies, Citadel o D.E. Shaw hasta proveedores de liquidez como Jane Street o Susquehanna) y el gran reto de las grandes, más reticentes en general a adoptar cambios organizativos.

La adquisición de talento, la flexibilidad organizativa y la percepción de equipo global determinarán por tanto el futuro de los actuales agentes de mercado.

Referencias:

  • Menkveld, A.J. (2013). High Frequency Trading and the New-Market Makers. Journal of Financial Markets 16.

Sergio Álvarez-Teleña

Strategies & Data Science, BBVA (Madrid)

Publicaciones relacionadas

Más publicaciones de Sergio Álvarez-Teleña

BIG "DATAxi": ¿invasión o innovación?

Comentarios sobre esta publicación

Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada