A blog about data, information and IT, by Mario Alberich

Aug 16
2007

Lecturas veraniegas: Chaos and order in the capital markets


Fractales, economía y estadística

Una de las tesis principales del libro es desmontar la hipótesis del mercado eficiente, que es el paradigma de análisis de los mercados financieros. La alternativa del autor es la hipótesis del mercado fractal. El paradigma actual aplica las herramientas estadísticas para el análisis de tendencias, y la hipótesis de la normalidad del error para aplicar una impresionante batería de tests y fórmulas que se han desarrollado alrededor de la ley normal.

Peters desglosa las razones por las que el mercado eficiente no lo es bajo estas premisas, contrastando la calidad de las estimaciones entre las series temporales generadas por los fractales y las generadas por las estimaciones estadísticas.

Lo que Peters utiliza como fractales son ecuaciones en diferencias finitas, lo que permite hacer simulaciones y acercamientos bastante satisfactorios con la ayuda de una hoja de cálculo.

Como siempre sucede, hay un capítulo o apartado con más interés personal. En mi caso se trata del capítulo 7, "Fractal Statistics". Allí podemos encontrar las versiones fractales de la ley de Pareto, y la ley logística.

Como en la relación euclideana-fractal, las distribuciones fractales son leyes estadísticas cuyas condiciones se mantienen aunque varíen las condiciones de escala. En el caso de la Pareto fractal, existe un parámetro, alfa, cuyo valor tiene características interesantes.

En concreto, los valores no enternos entre 1 y 2 se corresponden con movimientos brownianos con correlaciones a largo plazo y autocorrelación [statistical self-similarity]. Sólo por dar otra vuelta de tuerca, los movimientos brownianos fueron descubiertos por Einstein e inauguraron la física estadística.

Peters también menciona el exponente de Hurst (que equivale a 1/alfa), cuyo nombre se debe a un hidrólogo que comprobó que los períodos de retorno de las cuencas hidrográficas no se ajustaban a un paseo aleatorio (random walk). El exponente de Hurst es el que permite identificar si las series temporales son aleatorias o no. El impacto del presente en el futuro utiliza el exponente de Hurst, por ejemplo. Hurst es un estadístico con características fractales, que Peters aplicará para exponer la naturaleza fractal de los mercados y el por qué existen ciclos de dependencias de varios años que relacionan presente y futuro.

Lo que exponen las correlaciones a largo plazo es que las condiciones iniciales alteran completamente los resultados finales. Esto es totalmente diferente en los procesos estocásticos, en los que el largo plazo diluye las tendencias iniciales, convirtiéndolas en ruido.

Al margen que Peters encontrara unos grados de ajuste muy aceptables en series temporales de hasta 60 años aplicando los fractales, lo que en el fondo interesa de sus resultados es la conclusión que "lo rugoso no siempre es aleatorio". Sin embargo, la novedad conceptual de los fractales arroja dificultades sobre la interpretación de los resultados. Si se ajusta, perfecto, pero si no...


Caos y fractales

El paso siguiente de Peters es la introducción de la teoría del caos y su relación con los fractales. Dado que la teoría del caos es un intento de explicar el comportamiento impredecible en sistemas dinámicos. Para Peters (y otros muchos) la economía puede interpretarse como un sistema dinámico.

En esencia, lo que introduce la teoría del caos es que fenómenos imposibles de medir pueden causar alteraciones en un sistema, cuando la naturaleza de este sistema es realimentarse continuamente. La metáfora del aleteo de la mariposa es suficientemente conocida como para no repetirla.

En la exposición de la teoría, se introduce el concepto de los atractores como elementos que definen el movimiento tendencial del sistema (que no su trayectoria).

En lo referente a la combinación de la teoría del caos y los fractales, se introduce el exponente de Lyapunov, otro elemento desarrollado por Shannon en la teoría de la información. Shannon lo utilizó para identificar el nivel de entropía. Peters lo utiliza para identificar el grado de predictibilidad del sistema en base al grado de entropía de la información del sistema. Este grado de entropía se refiere (por decirlo así) a los "aleteos de mariposa" del sistema. El exponente de Lyapunov más grande define la predictibilidad del sistema


Conclusiones y opiniones

La razón principal por la que leí el libro de Peters es que trataba la economía (un área con mucha acción humana y gran cantidad de información numérica), y abordaba los fractales desde una perspectiva práctica. Además, el libro me introducía también en la teoría del caos y en la dinámica no-lineal (nonlinear dynamics), combinándolos con los fractales.

El libro no me ha convertido en un experto en fractales, aunque me ha dado herramientas y ejemplos para hacer mis pinitos en el uso de fractales. Así que si es tu intención, adelante.

Yo he leído el libro en inglés, y además la terminología es marcadamente técnica (por suerte para mí, poco en lo referente a economía). Eso puede echar para atrás. Aún así, si te ves con ánimos con las fórmulas matemáticas y las representaciones gráficas, inténtalo.

Aunque esto sonará a "barrer para casa", creo que la estadística y los fractales pueden complementarse en varios aspectos. Sucede a menudo que la definición del azar oscila entre "lo que no conocemos" y "lo que no controlamos". En la primera parte están los que creen que todo será determinable (y se centran en el desarrollo de modelos de predicción que tratan el azar como "error de predicción"). En la segunda están los que plantean que dicen que "Dios juega a los dados", y que el azar es algo inherente a la materia. Yo me siento más cómodo en la segunda visión y eso es algo que me distancia en parte de la tesis de Peters. También me he encontrado con este tipo de debates en la lógica borrosa, donde se han acabado compartiendo herramientas aunque la base conceptual sea diferente.

A nivel metodológico, las series temporales utilizadas para el análisis mediante fractales tienen algunas características diferentes según Peters. En el caso de los muestreos estadísticos, al considerarse que el azar es la base de la oscilación, se considera que la continuidad es el aspecto primordial, con lo que para la estadística es casi mejor una serie de una semana que diera datos minuto a minuto. En cambio, en el estudio de los fractales, lo importante es que las series tengan un horizonte temporal amplio, aunque los datos tengan periodicidad mensual (como es el caso del libro).

El libro me ha ayudado a aclarar y asimilar los aspectos teóricos básicos para entender los fractales. El siguiente paso es comprender cómo se pueden aplicar los fractales al tratamiento de la información. La mayoría de aplicaciones de los fractales que he encontrado (aparte de la compresión) se centran en elementos audiovisuales, pasando incluso por arte audiovisual. Pero... los fractales son aplicables a los datos individuales o conjuntos de información que no tengan un esquema de serie temporal? Un atículo científico puede ser entendido como una serie temporal?

Lo que al fin y al cabo me interesa es la aplicación de los fractales a la gestión de la información textual, tanto en el proceso de indexación como en el de recuperación (e incluso interpretación). Para ello tengo en la lista de temas pendientes la lectura de "La geometría fractal de la naturaleza" de Mandelbrot.

Para ir haciendo boca sobre la relación entre fractales y textos, he encontrado el capítulo 9 de from complexity to creativity en el que se habla sobre la relación entre fractales y producción de sentencias. También he encontrado un hilo en el foro de search engine watch sobre semántica y fractales.

Por lo demás, aún tengo sobre la mesita de noche unas cuantas lecturas pendientes. No creo que el verano dé para tanto, pero se intentará.

Tags

gestión documental 10     Recuperación información 11     Linux 7     Usabilidad 5     open source 3     Tagging 12     lógica borrosa 2     fuentes de información 12     Google 6     off-topic 6     spam 2     grafos 6     Web social 11     modelización 12     Productividad 11     buscadores 2     utilidades 17     Profesionales 9     SEO 5     estándares 3     veracidad 3     relevancia 2     lingüística 2     PLN 2     lenguajes documentales 2     apis-mashups 3     reseñas 7     Flash 7     Gráficos estadísticos 13     Publicidad 3     Innovación 5     muestreo estadístico 9     PHP 14     internet 2     testeo 12     desarrollo 3     visualizacion 36     javascript 16     datos abiertos 9     elecciones 2     simulación 5     html5 7     phing 9     ssh 2     seguridad 3     indicadores 2     demografía 3     media 2     algoritmos 7     shell 4     mysql 2     backup 2     big data 6     twitter 2     d3js 11     revealjs 2     metodología 6     data-journalism 6     smartcities 2     NYT 2     privacidad 3     benchmarking 4     recopilaciones 21     magento 5     formacion 2     github 2     HHVM 3     psicología 2     angularjs 3     grep 2     nodejs 5     promises 2     mapreduce 3     crossfilter 2     exploración de datos 2     machine learning 2    

© 2007 and beyond Mario Alberich, licensed under CC-BY-SA unless stated otherwise.