1, cuando A ~+ oo estos puntos crecen sin límite, y acaban escapando al infinito. Este es el conjunto de los puntos de escape, que denotaremos por E = (tyo; |w^ol —♦ oo si A —f cxd}
El complementario de £ es el conjunto de los puntos prisioneros, es decir, los que mantienen un módulo finito cuando k —» oo; V = {ujo;
^ £}
Este conjunto V contiene tanto los puntos cuyo atractor es el origen ( ¡tiio| < 1) como aquellos que constituyen su frontera, F-p, que siempre permanecen en ella y que están caracterizados por tener módulo unidad, r = 1. El conjunto frontera de "P, Fp, es el conjunto de Julia para el polinomio f {z) = z‘ . Los conjuntos de Julia habituales son objetos fractales, y provienen de pohnomios de la forma f ( z ) — f c, en donde c es un número complejo arbitrario en cada caso y responsable de los infinitos conjuntos de Julia existentes (uno para cada valor de r). El caso *G aiston J u l i a , “A íem otre
sut...”. J o u r .
d e M a t h . P u r é e t A p p l i . 8 (1 9 1 8 ), 47-245.
Frac taies
105
a- C > < /■< }
*e
Figura 3.18: Cálculo numérico de conjuntos de Julia a partir de un conjunto cerrado inicial. La secuencia de figuras es de izquierda a derecha, y de arriba abajo. Inicialmente, se toma la figura en forma de “L” y se itera la aplicación inversá de un poUnomio complejo de gcado 2 , con c =: —0.5 + 0.3i. Se representan las cuatro primeras iteraciones y el conjunto de Julia final. Este mismo conjunto (recuadro 6 ) es el conjunto cerrado inicial para la creación del conjunto de Julia correspondiente a c = 0,5i. Se han representado los dos primeros pasos y el conjunto final correspondiente (última figura). anterior, que nos ha servido para definir el conjunto de los puntos prisioneros y de los puntos de escape (de ahora en adelante Ve y dependientes del parámetro c) corresponde al caso c = 0 . Podría parecer que la obtención de los puntos pertenecientes a un cierto conjunto de Julia no es excesivamente complicada. Sin embargo, no es así. Excepto en el caso trivial c = O, es imposible obtener expresiones compactas que designen Una primera aproximación numérica al conjunto consistiría en dividir el plano complejo en una red discreta de puntos y calcular para cada uno de ellos un cierto número de iteraciones, a fin de determinar la convergencia o la divergencia de dicho punto. Este método es terriblemente tedioso, y requeriríamos gran número de iteraciones par?, llegar a una imagen más o menos cercana al conjunto final. Existe un método mucho más sencillo, que aprovecha la invertibilidad del polinondo f{z)En efecto, dado f (z) = + c, consideremo¿ ía aplicación inversa, / - 1,-1 - ± \ / z — c Si, dado cualquier conjunto cerrado de C realizamos sucesivas iteraciones de /~*(z), el conjunto de Julia aparecerá como punto fijo de esta transformación. Por otra parte, se puede demostrar que todos los puntos wo tales que su módulo ¡lí':. sea mayor que el valor r(c·), donde
106
Orden y Caos en Sistemas Complejos
Figura 3.19: Cálculo de dos conjuntos de Julia utilizando las antiimágenes sucesivcis de la circun ferencia de radio 2. En cada amtiimagen se produce un cambio de color. Se han representado las cuatro primeras iteraciones y en el interior el conjunto de Julia final correspondiente (tras unas 25 iteraciones, que son suficientes en estos casos para dar una imagen indistinguible del conjunto h'mite a esta escala). A la derecha, c = —0.6 + QAi, y a ia izquierda, c = —1.3.
r(c) — max(|c|, 2 ) pertenecen a Se, y por tanto no están en el conjunto de Julia. Según esta condición, las itera ciones de f ~^ que permiten encontrar el correspondiente conjunto de Julia se reaUzan (de forma muy conveniente) a partir del conjunto compacto de C formado por el círculo de radio r(c). En pocas iteraciones, unas 10 ó lo, la imagen del conjunto de Julia aparece definida con considerable precisión. El conjunto de Julia correspondiente a f[z) c es invariante bajo la acción de f{z). Por tanto, los puntos pertenecientes al conjunto deben de seguir perteneciendo a él tras aplicar la transformación u;o —*■ u>q + c. El conjunto de Julia posee puntos de todas las periodicidades y punto.s que siguen dinámica caótica sobre F-p^. Esto implica la existencia de sensibilidad a las condiciones iniciales, en el sentido siguiente: la iteración aplicada a los puntos incluidos en una pequeña porción del conjunto de Julia provoca que éstos acaben repartidos por todo el conjunto tras unas pocas iteraciones.
3.4.3
El c o n ju n to de M a n d e lb ro t
Benoit B. Mandelbrot nació en Polonia en 1924, pero a los 12 años se trasladó a Francia con su familia. Su tio Szolem Mandelbrojt, profesor del Collège de France, lo introdujo en los trabajos de Julia y Fatou. B. B. Mandelbrot era un apasionado de la geometría, aun cuando durante su juventud ésta parecía estar en franca regresión. Recordemos que el trabajo de Julia sobre los polinoimos de grado dos fue publicado en 1918, pero en aquellos años, sin ordenadores, la visuahzación de los puntos fijos de las aphcaciones, de los conjuntos de Julia, era imposible. Un
Fractales
107
Figura 3.20: Ejemplo de la sensibilidad a las condiciones iniciales en el conjunto de Julia correspon diente al caso trivial c = Ü. Iniciaimente, se escoge un pequeño grupo de puntos, comprendidos entre 2 y 3 grados de arco. Tras tan sólo siete iteraciones de la función ; —> r “ peisan a ocupar la zona del conjunto comprendida entre las líneas punteadas. primer esquema del cispecto que éstos deberían presentar se dio en 1925 pero la imagen aún era sumamente tosca. Recordemos también que los conjuntos de Julia podían ser conexos o desconexos, dependiendo del v£Üor del parámetro c, y debido a su carácter autosimilar. Mandelbrot, entre 1979 y 1980, se propuso la clasiñcación rigurosa de los conjuntos según c, es decir, calculó los valores En principio, podía suceder que la de c que producían conjuntos conexos y los representó zona del plano complejo que contuviese los valores de c responsables de conjuntos de Julia conexos tuviese una forma geométrica bien definida, podría ser un círculo o un polígono sencillo, o bien una colección de piezas desconectadas repcirtidas por el plano. No obstante, el citado grupo de puntos resultó ser de exquisita geometría y extrema complicación. Se le ha calificado como “'el objeto más bello y comphcado jamás visto^. La frontera del conjunto de Mandelbrot posee autosimilaridad a todas las escalas, estructura infinita. La autosimilaridad no es estricta: podemos obtener copias ligeramente deformadas del conjunto original a todo lo largo de la frontera, copias de cualquier tamaño, pero no exactas (en el sentido de que exista una transformación isométrica que convierta una en otra). Cualquier valor de c que escojamos en el interior del conjunto proporcionará un conjunto de Julia conexo, y cualquier valor del exterior producirá uno desconexo. En consecuencia, serán los valores de c cercanos a la frontera los que producirán los conjuntos de Julia con mayor estructura (asociada en este caso a una mayor dimensión fractal). Parecía, pues, que B. B. Mandelbrot había conseguido la unificación de su pasión (la geometría) con un campo nuevo de las matemáticas que le iba a proporcionar trabajo y distracción durante toda su vida (y hasta el momento, así ha sido). La descripción del conjunto dada hasta ahora permite una primera definición rigurosa de los ^■*1-1. C r e m e r , “U b e r d ie I t e r a t i o n r a t i o n a l e r F u n k t i o n e n ” , Jahresberichte der D eu tsch en M ath tr a a lisc h e n Vereini gung 3 3 ( 1 9 2 5 ) 185 -210 . h e c h o , la s p r i m e r a s im á g e n e s d e l c o n j i m t o n o a p a r e c i e r o n h a s t a 1988, e n el a r t i c u l o d e R. B r o o k s y J . P, M e t e l s k i “T h e d y n a m i c s of 2 - g e n e r a t o r s u b g r o u p s o f P S L ( 2 , C ) ” e n R t e m a n n Surfaces and Related Topics, I. K r a y B . M a s k i t e d s ., P r i n c e t o n U. P r e s s , 1988. S in e m b a r g o , l a e s t r u c t u r a f r a c ta l d e l c o n j u n t o y a l g u n a s d e s u s c a r a c t e r í s t i c a s c o n s t i t u y e r o n el t r a b a j o o r i g in a l d e M a n d e l b r o t , “F r a c t a l a s p e c t s o f t h e i t e r a t i o n o f z —> ■ A ^ (l — z) f o r c o m p l e x A a n d z " , A nna ls New York A ca d e m y of Sciences 3 5 7 ( 1 9 8 0 ) 249-259.
108
Orden 7 Caos en Sistemas Complejos
Figura 3.21: El conjunto de Mandelbrot en el plano complejo. Se ha representado la circunferencia de radio 2 (que contiene totalmente al conjunto) y se han reahzado divisiones cada 0.5 unidades, para facihtar la identificación de la zona ocupada. puntos que lo constituyen. Denotemos el conjunto de Mandelbrot por A i (nomenclatura usual): {.A/í =: c G C ; Ve
conexo}
Recordemos que Ve representaba el conjunto prisionero para el parámetro c (llamado a veces conjunto de Fatou), y su frontera es el conjunto de Julia para c. Si bien la definición dada de A4 lo determina completamente y es rigurosa, el cálculo de los puntos c G Ád es extremadamente largo, puesto que pa^a por establecer la conectividad de todos y cada uno de los conjuntos de Julia existentes. Afortunadamente, algunas propiedades de Ai ayudan en el cálculo. Por ejemplo, en 1982 fue posible demostrar que Á4 es un conjunto conexo con lo cual es suficiente con preocuparse de su frontera. La empresa sería ahora fácil de no ser por la infinita sinuosidad dei conjunto de Mandelbrot: resulta imposible "seguir” la frontera, ya que ésta tiene una longitud infinita. Imagine el lector cuán complejo es el conjunto que hasta 1991 no fue posible determinar su dimensión de Hausdorff de forma rigurosa, y cuando se consiguió, resultó ser ¡Dh = 2! Un argumento de ccirácter geométrico permite una definición más sencilla (operativamente) de A i. Consideremos un conjunto de Julia desconexo. Cuando éste se calcula utiüzando las antiimágenes sucesivas de la circunferencia de radio r — 2 , en cierta iteración debe de aparecer la desconexión, que se manifiesta por una figura en forma de ‘‘S”, es decir, una figura de tipo circular D o u ady , J . H . H u b b a r d , “I t e r a t i o n d e s |>51ynomes q u a d r a t i q u e s c o m p l e x e s ” , C R A S Pa ris 2 9 4 (1982) 123-126. S h i s h i k u r a “T h e H a u s d o r f f d i m e n s i o n of th e b o u n d a r y of t h e M a n d e l b r o t set a n d J u l i a s e t s ” , S U N Y Sto ny Brook, I n s t i t u t e fo r M a t h e m a t i c a l S c ie n c e s , P r e p r i n t # 1991/7.
Fractales
109
Figura 3.22: Dos conjuntos de Julia desconexos en los que aparece la característica figura en forma de “8 ” en una de las antiimágenes. En un caso la desconexión aparece en la tercera iteración (para c — —1 -f i), y en otro en la cuarta (para c = —l.lí). que incluye dos rosquillas de este tipo, separadas. Observemos que los conjuntos de Julia presentan una simetría de rotación según un ángulo de 180°, debida a que los puntos del conjunto son las soluciones de una raíz cuadrada, como se ha visto. La existencia de esta iteración desconexa, juntamente con la simetría de rotación, implica a,utomáticamente que el punto 2q = O + 0¿, el origen, no pertenece a ningún conjunio de Julia desconexo, y por tanto podemos establecer que, si el origen pertenece a £c (conjunto de los puntos de escape para un parám etro c dado), el conjunto de Julia será desconexo, y c no pertenecerá a A i. Esta propiedad proporciona la siguiente definición alternativa de A i, que ya fue de hecho utihzada en 1979 por Mandelbrot para el cálculo del conjunto: + c Establecer el carácter no divergente de la órbita crítica O —»■ c —♦ -I- c... no es tampoco inmediato, ya que implica el cálculo de un límite infinito. Usualmente se calcula un cierto número de iteraciones, del orden de 10^, y esto da una aproximación bastante buena del conjunto. Si la definición de la imagen o la precisión del cálculo requerido es mayor, mayor también será el número de iteraciones que deben de ser realizadas. También se pueden calcular aproximaciones sucesivas de j\4: sólo es necesario considerar el conjunto de valores de c que escapan, bajo la iteración anterior, en un paso (de iteración), en dos pasos, en tres,... de la circunferencia de radio r = 2 , y progresivamente se van produciendo imágenes cada vez más cercanas a j\4. En la figura 3.21 se representa el conjunto de los puntos que escapan tras 25 iteraciones (de -o —*■ ^0 + comenzando con 2q = O -f Oz), y la imagen es una muy buena aproximación de A i, prácticamente indistinguible a esta escala del representado. Ai se extiende desde -2 a 0.75 en el eje real, de forma exacta, y desde —1.25 hasta 1.25 en el eje imaginario, de forma aproximada, como se puede ver en la figura. Todos los valores de c que se encuentran en su interior (sin considerar la frontera) producen conjuntos de Julia conexos con interior no vacío, es decir, en el conjunto de Julia, la eliminación de la frontera no produce su desconexión. Los valores de c localizados en la frontera de A i producen conjuntos de Julia que en algún lugar mantienen la conexión mediante un
110
Orden y Caos en Sistemas Complejos
único punto. Los valores de o en el exterior de A i producen conjuntos de Julia desconexos, tanto más cuanto mayor es la distancia a A i. Observando con atención el conjunto de Mandelbrot se puede descubrir la existencia de zonas con interior que están conectadas mediante un único punto al cuerpo principal de A i. Cuando tomamos un valor de c en el interior de una de estas zonas, el conjunto de Julia correspondiente reproduce esta estructura: existen zonas de interior no vacio conectadas a través de puntos. En particular, en la ‘■‘'aguja” de A i existen muchas de estas zonas, visibles a la escala en la que AA se ve completo, y su número aumenta infinitamente con el aumento de la imagen. En particular, el "cuello” que une el cuerpo principal con el apéndice mayor de A i (el círculo de centro —1 y radio 0.25) consta de un solo punto, uo ~ —0.75 + Oi. Es posible aún una clasificación mucho más exhaustiva de los conjuntos de Julia atendiendo a la estructura de A i. En particular, se pueden establecer órbitas de período p para la dinámica de los puntos sobre el conjunto de Julia, y cada período puede ser asociado a extremidades o apéndices del cuerpo principal de A \.
3.5
Fractales no determ inistas
Hemos considerado en las secciones anteriores un gran número de fractales que podemos denominar deterministas, puesto que existe una regla de construcción del objeto que permite su reproducción exacta tantas veces como se desee. Los fractales vistos hcista ahora son interesantes principalmente como objetos matemáticos, pero la relación caos-fractales-sistemas físicos aún no ha aparecido de forma clara. Hemos reservado para esta última sección los fractales no deterministas, que están relacionados con procesos físicos y con su modelízación, y que siempre poseen cierto grado de aleatoriedad en su construcción. El hecho de que sea un proceso físico el responsable de la generación de una estructura con distribución espacial (el fractal no determinista) provoca que. si bien cada objeto generado será único, debido a los térrrúnos aleatorios, existirán propiedades comunes a todos ellos, originadas por el proceso ñ'sico, que es el representante de un orden superior (véase el capítulo sobre fenómenos críticos). Cantidades como la dimensión fractal, la densidad de masa, la conectividad o el espectro multifractal (que será definido más adelante) se revelarán como invariantes de los fractales generados mediante un mismo sistema. Estas magnitudes comunes se deben en ocasiones a la existencia de cierto tipo de universahdad. de propiedades que son comunes a diferentes sistemas y que representan un nivel de organización superior Otro punto de interés en los fractales físicos es la existencia de escalas límite para la presencia de autosimilaridad. En los fractales deterministas vistos, descritos por una ecuación (o varias), no hay ningún problema en calcular la invariancia del objeto, desde lo infinitamente pequeño hasta lo infinitamente grande (de hecho, es suficiente con que exista el límite para uno de los dos extremos y nos situemos a medio camino), utilizando su definición misma. Cuando tratamos con sistemas físicos, se hace evidente la imposibilidad de alcanzar estos dos límites. Por una parte, la mayor escala de autosimilaridad posible es la determinada por el tamaño del sistema, por el espacio físico que ocupa. Con frecuencia se simulan ciertos sistemas sobre redes con N x N elementos. En este caso, la escala dada por la longitud Im = N es una escala crítica de corte para la existencia de fractalidad. Por otra parte la escala menor, Im estará acotada por la escala de definición de la interacción elemental. Supongamos que utihzamos un sistema con un grupo de hormigas que interaccionan. Entonces la escala mínima es la propia del individuo, la hormiga, y las partes de ésta de ninguna manera podrán poseer la invariancia de escala del sistema. Por último, encontraremos sistemas que posean alguna otra escala característica entre ¡m y Im- Y éstas nos darán pistas Véase el c a p itu lo 7.
Fractales
111
F igura 3.23: Diversos conjuntos de Julia. Unos se han representado con las antiimágenes sucesivas de la circunferencia de radio 2, y otros sin ellas. El lector puede utihzar el conjunto de Mandelbrot para clasificarlos y comprobar su conectividad. De izquierda a derecha y de arriba abajo: c = -1.47, c = -0.008555 - 0.7879¿, c = -1.25 + 0.25z, c = i.
1 12
Orden y Caos en Sistemas Complejos
sobre los fenómenos físicos subyacentes. Esta escala (o «^scalas) intermedia puede manifestcirsc, por ejemplo, en un cambio brusco en la dimensión fractal del sistema, como se ha observado en los arrecifes de coral, entre otros casos.
3.5.1
M u ltif ra c ta le s
Introducimos ahora una nueva herramienta anah'tica con clara interpretación física; el cálculo del espectro multifractsil de un objeto autosimilar. La definición de multifractal constituye una ex tensión de la idea de fracfcai. Data de 1974, y se debe de nuevo a B. B. Mandelbrot, quien introdujo el concepto a fin de proporcionar una descripción más precisa del fenómeno de la turbulencia. Comencemos con una visión intuitiva de la multifractahdad. Imaginemos para ello un fractal, en el que se pueda reconocer la existencia de la autosimilaridad, como el objeto de la figura 8.13, pero que no esté definido por ninguna regla sencilla de construcción a todas las escalas. Requerimos eu este punto la ayuda del método del “box-counting” , descrito en la sección 3.1.1, Imaginemos que recubrimos el conjunto con cajas de distintos tamaños (6 variable, como el método requiere), e intentamos conseguir la representación de una recta en la gráfica de ln(iV(¿)) frente a ln(¿). En ocasiones, los puntos no se ajustan a una recta de forma aproximada, sino que aparentemente la dimensión de “box-counting” (la pendiente de la gráfica) varia con la escala. De aquí se puede deducir inmediatamente que la medida del conjunto no es autosimilar. En la inmensa mayoría de los casos, esto implica que el conjunto que estamos intentando describir no puede ser caracterizado por una única dimensión fractal. Si la medida está desigualmente repartida, con zonas más y menos densas en el mismo conjunto, necesitaremos valores diferentes de la dimensión fractal para caracterizar cada una de estas regiones. Estaremos pues de acuerdo en reconocer que habrá sistemas que no podrán ser caracteriza dos por un único número, la dimensión fractal (calculada mediante ‘^box*counting” ), puesto que cualquier valor para D b será el obtenido a cierta escala, y diferente del que se calcule a una escala distinta. La solución consiste, precisamente, en no dar una única dimensión fractal, sino todo un espectro continuo, que caracterizará con infinita mayor precisión el sistema. A los objetos fractales que necesitan ser descritos por este conjunto infinito de exponentes se les denomina multifractales. Pasemos a su caracterización rigurosa. El primer paso consiste en la definición de una densidad de probabilidad sobre el sistema. Supongamos (siempre pensando, ahora, en la distribución espacial de cierta cantidad) que el sistema se divide en m porciones {ai, G2, . - ■, }, y que a cada una se le asocia una probabilidad p,·, i — l,2,...,m. Para fijar ideas, vamos a concentrarnos únicamente en medidas de masa: si el sistema tiene un volumen V (en n dimensiones) y cada una de sus ni partes tiene un volumen v¡, entonces la probabilidad (medida) de cada una de estas partes es u, = v y lo único que representamos es la proporción de volumen contenido en cada parte respecto del tamaño total del sistema. En la bibUografía del final del capítulo se pueden encontrar definiciones más generales. Es fácil considerar una imagen geométrica de esta probabilidad: es, precisamente, la probabilidad de que al escoger al azar un punto del sistema, este pertenezca a la porción ai. Escojamos ahora una escala en el sistema, /, que nos pernúta reahzar l~^ divisiones (al igual que dividíamos en cajas para calcular la dimensión fractal. normalizaremos el sistema a tamaño unidad, y en principio deberemos realizar una regresión lineal para calcular cada una de las dimensiones que van a definirse, con lo cual / será variable). Cada división lleva asociada una probabilidad pero puede ser que alguna de ellas tenga probabilidad nula, debido a que no recubre ninguna parte
Fractales
113
del sistema. En la suma que ahora definiremos, sólo cuentan las cajas con p, / 0. Consideremos la cantidad
1= 1
que permite definir las llamadas dimensiones de correlación 1
D(q) — hm /-.o q — í
In x{q) In /
Do es simplemente la dimensión fractal (de “box-counting”, por la forma en que se está definiendo el cálculo) del sistema. Efectivamente, cuando g — O obtenemos
í- 0
In /
pero m
m
t‘^1 1= 1 que es en este caso el número de cajas necesarias para recubrir el sistema. Di se denomina dimensión de información, y se puede ver que cuando ^ = 1 (reahzando el correspondiente límite),
í- 0
In l
Obsérvese que Pt
s (i) = - ' £ p '
es simplemente la entropía de Shannon a la escala l. D{2) es la llamada dimensión de correlación,
/-O
In l
que evalúa en cierto modo la probabilidad conjunta de dos partes del sistema (en el término pf). Para q > 2 D(q) ya no tiene un nombre específico; es simplemente la dimensión de correlación (o dimensión generalizada) de orden q. Aunque son los valores enteros de q los que tienen una interpretación directa, D{q) es una función perfectamente analítica para 5 G R (excepto casos singulares que no describiremos ^®) y por tanto se extiende su definición para todo valor de q real, no sólo entero. A partir de la definición de D[q) se puede obtener de forma sencilla ei espectro de dimensiones fractales, que llamaremos / ( a ) . Definimos » (9) = ^
~ 1) ^ ( 9 )]
y / ( a ) ^ q
left-sided multifractal mea íu res", P h y s , R ev. A 4 2 ( 1 9 9 0 ) 4528-4536.
Orden y Caos en Sistemas Complejos
114
Figura 3.24: Forma genérica de las tres funciones que caracterizan la multifractalidad. Las cLsíntotas de T{q) permiten encontrar el valor de lc»s puntos extremos del espectro multifractal, f { o) , según se indica en la figura. El valor de D{q) en q = O coincide con el máximo de / ( a ) y da la dimensión fractal habitual. Las funciones D{q) y f{ct) tienen ciertas propiedades generales, aparte de las ya citadas: D{q) > D{q'),
V? < g'
D{q) es una función decreciente. Sólo se da la igualdad (que se cumple entonces para todo valor de q) si el objeto no es un multifractal, sino lo que se denomina un fractal puro, perfectamente descrito por un único valor de D{q)y por i?( 0 ). / ( a ) es una función convexa de Q. Su máximo coincide con la dimensión frax:tal del conjunto, para (? = O, /(a(0 )) = D(0) / ( a ) siempre es tangente a la recta de pendiente unidad en el punto q = Ì (D (l)):
/(o(l)) = a ( l ) Por último, /(ct) se encuentra definida entre dos valores de a , asj y y el valor de f { a \ f ) y / ( «m) (que puede ser cero) depende del soporte de la medida de probabilidad definida en el conjunto. Definimos una última cantidad. T{q)
= D{q) {q - 1)
r(Q) tiene también propiedades que ayudan a caracterizar la multifratalidad y proporcionan algunos valores concretos de D{q) y f ia). La forma genérica de las tres funciones r{q), f { a ) y D{q) está representada en la figura 3.24. Hemos introducido formalmente las expresiones que pernúten el cálculo de los exponentes multi fractales de un conjimto. Las funciones x{q), T{q) y f { a ) tienen, por otra parte, una interpretación concreta en el marco de la mecánica estadística (ME). Vamos a dar esta formulación alternativa a fin de profundizar un poco más en e! significado del infinito espectro de dimensiones multifractales que un objeto puede presentar.
Fractales
115
Coíislderc'iuo-s (ic iiuevo el conjunto de probabilidades {pi} definidas solire nuestro multifractal y el histograma ií{lii p,), es decir, la función distribución no de {pi}, >^uio de {In p,}. Como toda función de distribución, ésta puede ser caracterizada por sus momeníos, que en este caso se escriben Z., = ^ l u p ff(ln p) exp { -,/? (-In p)} Observemos que es absolutamente análoga a una función de partición
donde la suma se realiza ahora sobre todas las configuraciones del sistema (s< »bre todas sus partes), y no sobre las diferentes probabilidades, como en la primera definición. Dad i la función de partición, se acostumbra a definir la energía libre del sistema, que es la encargada de identificar la posible existencia de transiciones de fase (véase el capítulo 7),
In L que se puede transformar en
Así, podemos establecer una dependencia potencial de la función de p
dFjp) d$
donde ^ dFj d)
l3 i---- >q
E < ----► a
F{0) ~
S(S) ^
T{q)
f ( a) .
116
Orden y Caos en Sistemas Complejos
Figura 3.25: Ejemplo de agregado formado por difusión de partículas desde los bordes del sistema. Se marca la trayectoria de la última partícula que se ha unido a la agrupación total. La demostración definitiva de ía multifractaüdad de un objeto consi-stiría en observar, por ejemplo, un cambio de pendiente en la función r{q) cuando nos encontramos cerca de g = 0. Este cambio de pendiente es ei responsable del cambio en D{q) (entre q —*■ —oo y q —+ oo) y de la dispersión en / ( a ) . Si el objeto tratado es un fractal puro, r(Q) no presenta cambio de pendiente, D{q) es una linea recta horizontal y f {a) está formada por un úmco punto. Existe actualmente una extensa literatura sobre multifractales. En cualquiera de los libros citados como bibhografía del capítulo es posible encontrar una ampliación de los conceptos vistos.
3.5.2
A g re g a c ió n lim ita d a p o r difusión (D L A )
Las estructuras que describiremos a continuación constituyen el primer ejemplo de fractal no deter minista. El aspecto general que presentan se puede ver en la figura 3.25. Su forma de construcción es la siguiente: consideremos uua red de N x N puntos. Iniciaimente, todas las celdas están des ocupadas excepto una en el centro de la red. Aleatoriamente se libera un "random walker” a una distancia r grande del centro. Este "random walker’^ se mueve hasta que localiza una de las celdas ocupadas, momento en el cual se adhiere irreversiblemente a estas, ocupando él la última en que se hallaba La probabilidad de que las partículas se adhieran a las puntas de la estructura en formación es siempre mayor que la probabilidad de que se adhieran a los lados. Estas probabili dades dependen de la estructura del agregado, y son las responsables de la formación de fiordos muy profundos que tienen una probabilidad de crecimiento varios órdenes de magnitud inferior a la de los extremos. La distribución de las probabilidades de crecimiento en las celdas desocupadas de la red en los agregados limitados por difusión (DLA) caracteriza su estructura, y se ha observado que presenta espectro multifractal. En este caso, la distribución de probabilidades define directamente una medida en el sistema, igual que habíamos definido la medida de masa. Obsérvese, además, que ambas pueden entenderse como probabilidades. En ocasiones, este espectro multifractal no está definido para ^ < O (de hecho, q{—oo) diverge cuando el tamaño del agregado tiende a infinito), ^*^Esta es l a r e g l a m á s e le m e n t a l d e f o r m a c i ó n d e u n a g r e g a d o d e e s te t i p o . E x i s t e n n i m i e r o s a s v a r i a n t e s , e n las q u e el c a m i n a n t e p o d r í a a d h e r ir s e con u n a c i e r t a p r o b a b i l i d a d , o e n la s q u e la s c o n e x io n e s f o r m a d a s p o d r í a n ev en tu alm en te ro m p erse.
Fractales
117
debido a propiedades que no describiremos. Por otra parte, si intentamos realizar una medida de masa sobre el sistema y calcular, por ejemplo, la función /( a ) , se observa que nos encontramos ante un fractal puro, con un sólo valor para su dimensión fractal espacial, que resulta ser
Do(DLA) =
1.70 ± 0.0 1
La ausencia de multifractalidad en la distribución de masa se debe a la existencia de una medida laplaciana subyacente a la generación del fractal, y que comparten todos los sistemas que presentan DLA. Algunos de éstos son la deposición electroquímica, la solidificación de dendritas (en la formación de cristales de nieve o en el crecimiento de liqúenes, por ejemplo), la producción de relámpagos (por ionización del aire o por exceso de potencial aplicado a un dieléctrico), la digitación viscosa (invasión de una sustancia por otra de diferente densidad, por ejemplo agua en petroleo para realizair el vaciado de pozos), o la cristalización rápida de lava, entre más de 50 sistemas que forman el mismo tipo de estructuras. E ntre los sistemas que poseen un campo eléctrico como generador (por ejemplo relámpagos y deposiciones eléctricas), E es una cantidad con gradiente nulo (cumple VE = O, y si la cantidad no depende del tiempo es además ima magnitud conservada) y por tanto se verifica la ecuación de Laplace psira el potencial eléctrico,
En los sistemas que provienen del campo de la mecánica de fluidos (digitación viscosa), se verifica una ecuación de Laplace para la presión del fluido, V ^P = O
P aja los sistemas que forman dendritas y solidifican, constituyendo el agregado (cristales de nieve, lav-a, neuronas de la retina), es la concentración del compuesto, c (la variación de la cual da el ritmo de crecimiento del DLA), la que verifica una ecuación laplaciana, V^crrO
La tabla siguiente proporciona la equivalencia entre estos sistemas y las magnitudes que los caracterizam (r denota la posición, y t el tiempo):
S istem as eléctricos Potencial electrostático
S. M ecán ica d e fluidos Presión
P(r,t) Campo eléctrico E « - V ^ ( r , í) Gradiente nulo V E = 0 Ecuación de Laplace
Velocidad V oc - V P (r, V v rr 0 V 2p = 0
t)
Solidifìcación d e n d ritic a concentración c(r,í) Ritmo de crecimiento V oc —V c(r,í) Vv = 0 V2c = 0
Todos los sistemas cou medidas laplacianas producen fractales puros en la distribución espacial. Intuitivamente, se puede entender que un campo eléctrico, ima velocidad o un ritmo de crecimiento uniformes provoquen que la distribución de la masa sea en cierto modo también “uniforme” , que
118
Orden y Caos en Sistemas Complejos
aquí significa independiente de la zona espacial considerada,
B ibliografía 1. A.-L. Barabasi y H. E. Stanley, Fractal Conceyts in Surface Growth. Cambridge University Press, 1995. 2. M. Barnsley, Fractals Everywhere. Academic Press. 1988. 3. M. Batty y P. Longley, Fractal Cities. Academic, San Diego, 1994. 4. A. Bunde y S. Havlin, Fractals and Disordered Systems. Springer-Verlag, 1991. 5. A. Bunde y S. Havlin, Fractals in Science. Springer-Verlag, 1994. 6 . K. Falconer. Fractal Geometry. John Wiley y Sons, 1990.
FractaJes
119
7. J. A. Kaandorp, Fractal Modelling. Growth and Form in niology, Springer-Verlag, 1994. 8 . H . A . Makse, S. Havlin y H. E. Stanley, Modelling urban groxvik ■patterns. Nature 377 608
(1995). 9. B. B. Mandelbrot, Los objetos fractalrs. Tusquets, 1975. 10. H.-O. Peitgen, H. Jürgens y D. Saiij)e. Chaos and Fractals Springer-Verlag, New York, 1992. 11. H.-O. Peitgen y P. H. Richter, The Beauty of Fractals. Springer-Verlag, Berlin, 1986. 12. H.“0 . Peitgen y D. Saupe, The Science of Fractal Images. Springer-Verlag. New York, 1988. 13. T. Vicsek, Fractal Growth Phenomena. World Scientific, 1992.
C ap ítu lo 4
A tra cto res P eriódicos y C uasiperiódicos Se ha visto en el capítulo 2 la forma en que se puede iniciar el estudio de un sistema de ecuaciones no lineal. Es posible conocer ciertas caiacterísticas del equilibrio a nivel local, en los casos en los que, como se ha descrito, la estabilidad es asintotica. Sin embargo, aún no somos capaces de decir nada sobre el sistema a nivel global. Por ejemplo, sabemos a partir de la experiencia que algunos sistemas presentan lo que llamamos ciclos limite, que son, como su nombre indica, trayectorias cerradas a las cuales todas las trayectorias del sistema pueden acabar convergiendo. La existencia y !a determinación de estos ciclos límite (que también pueden ser repulsores), de las llamadas órbitas komocUnícas (órbitas que unen ún punto fijo con él rnismo) o de las órbitas he^erocltnicas (unen dos puntos fijos diferentes) permite el estudio de los sistenms dinámicos a nivel global. Este estudio (global) es un poco más comphcado que el de los puntos fijos (local), pero es capaz también de decir más sobre el sistema. Por ejemplo, si fuésemos capaces de determinar que en cierto sistema dinámico, para cierto valor de los parámetros, aparecen dos órbitas homochnicas, podríamos asegurar que el sistema va a tener, en este caso, dinánúca caótica. La aparición del tipo de órbitas citado va ligada a la existencia de la variedad centro (valores propios con parte real nula en la matriz lineal). Llevaremos en este capítulo un poco más allá ei estudio de los sistemas dinámicos con valores propios nulos. Entre las situaciones periódica.s y -el caos veremos también que podemos encontrarnos con los llamados atractores cuasiperiódicos {sobve los que el sistema describe órbitas cuasiperiódicas). En este caso, el rnovinúento posee más de una frecuencia característica, y tiene lugar sobre los llamados toros n —dimensionales, ün toro en dos dimensiones es cualquier curva cerrada, y en tres puede ser la cámara de un neumático, o uu Gonut, o una taza (los tres tienen un único agujero, se dice que son topològicamente equivalentes). Trataremos en este capítulo aún con sistemas disipativos. En el capítulo 10, sobre caos hairúlcoiiiano, describiremos sistemas que exhibirán algunas propiedades idénticas a los aquí descritos. En particular, hallaremos también caos y órbitas cuasiperiódicas; a diferencia de los sistemas disi pa, tivos, los sistemas hamiltonianos son conservativos, y en consecuencia no poseen atractores de la dinámica en el sentido de “lugar o lugares del espacio de las fases al que el sistema tiende en tiem po infinito asintóticamente, para cualquier condición inicial’’. Iniciaremos el capítulo con el estudio de la forma en que aparecen los ciclos límite, primer paso hacia el estudio de la dinámica a nivel global. 121
122
4.1
Orden y Caos en Sistemas Complejos
B ifurcaciones
Definición Supongamos una EDO de la forma
X í R", /i G R-^· Los puntos fijos Xq ; F(xó,p) = 0,
¿€N
dependerán del valor de los parámetros pi. Cuando éstos varían, tanto el número de puntos fijos como su naturaleza (estables, inestables o indecidibles; nodos, focos, puntos de silla, ...) pueden variai. Cuando esto sucede se dice que el sistema sufre una hifuTcación. Para tener un cambio en las características de un punto fijo, y por tanto un cambio cualitativo en el espacio de fases del sistema de EDOs, es necesario que se anule alguno de sus valores propios. Pequeños cambios en el caso de tener estabilidad asintotica (9?(A,) ^ O.Ví ) no implican cambios 011 la estabilidad. Unicamente cuando los parámetros del sistema pernúten cruzar de 3í(Aj) > O a ')?(Ay) < O (o en sentido contrario) para algunos Aj, aparecen puntos fijos cualitativamente diferentes, y por tanto existe la posibilidad de variar la dinámica asintotica del sistema. Describiremos a continuación brevemente algunos de los casos que podemos encontrar, en función del número de valores propios con parte real nula y de los términos de orden superior. Veremos que, como consecuencia del cambio cualitativo en la dinámica, el sistema es estructural mente inestable cuando el parámetro (o conjunto de parámetros) toma el valor que provoca la anulación de la parte real de uno o varios de los valores propios. Es decir, pequeñas perturbaciones del sistema en este estado cambiaci su retrato de fases.
4.1.1
U n ú n ico v a lo r p ro p io n u lo
Si existe un único valor propio nulo debe de tener parte imaginaria también nula, ya que de no ser asi debería presentarse su pareja compleja conjugada, y el valor propio nulo no sería único. Por tanto, debe ser
A= O En este caso, la variedad centro asociada al valor propio es unidimensionaJ, y podemos escribir todas las variables del sistema como funciones de la variable asociada ai valor propio nulo, en un entorno del punto fijo. Véase en el apéndice correspondiente a este capítulo Ía forma en que es posible reducir el sistema de EDOs a tantas ecuaciones como valores propios nulos aparezcan, y por tanto tratar el sistema reducido a la variedad centro (siempre en un entorno del punto de equilibrio). Para más información, consúltese la bibliografía citada al final del capítulo. Bifurcación silla-nodo En este primer caso, el sistema pasa de la no existencia de puntos fijos a la aparición de un punto de silla para el valor exacto del parámetro en la bifurcación. Este punto pasa a convertirse inmediatamente en una pareja de dos nodos que presentan estabilidades contrarias. Veámoslo con un ejemplo. Consideremos la EDO en una dimensión
¿ = (/i - P e ) -
Atractores Periódicos y Cuasiperiódicos
123
Figura 4.1: Esquema de una bifurcación silla-nodo en una dimensión en función del parám etro del sistema. En todas las figuras sobre bifurcaciones, la línea continua significa que el punto fijo es estable, y la discontinua, inestable. Los puntos fijos se marcan con un pequeño círculo. Pre'stese atención en los casos en que existan puntos fijos sobre ei eje x. y calculemos sus puntos fijos, soluciones de (/x — fie) = 0. En general, ~ ^c)· Observamos que para /x < /ic el sistema no presenta ningún punto fijo. En el punto exacto fi — fie tenemos una única solución, x* —O, (a la cual le corresponde un valor propio nulo) y que resulta ser un punto de silla. Cuando fi > fi^ tenemos dos soluciones, — fié), Que corresponden a un nodo estable (valor positivo de la raíz) y a un nodo Inestable (-). La figura 4.1 contiene un esquema de la forma en que se produce este tipo de bifurcación. En el punto crítico, /x — y sólo existe variedad centro, que contiene toda la recta real. Cuando /i > las variedades estable e inestable son oo)
W *(y/fí-fic) - i- y /^ -
- f i e ) = ( - 0 0 , y/fl - / i j
Obsérvese el solapamiento de las variedades en el intervalo S
-
{-\/fi
-
\/fJ- -
f^c)
Este intervalo pertenece a la variedad estable para el nodo atractor, ya que los puntos en esta zona ^caen” a y/fi — fie- En cambio, pertenece a la variedad inestable para el nodo repulsor, ya que se alejan de —-y/ju —jUc- Podemos decir que el campo de vectores F{x) = —x^ es estructuralmente inestable, puesto que cualquier pequeña perturbación introducida por un parámetro fi hace desa parecer el punto de silla y lleva al sistema bien a no tener ningún punto fijo, bien a la aparición de dos nodos de estabilidad opuesta. Si consideramos un desarrollo del campo F(x, /i) que define la EDO, F ( i,;,) = f^ ( 0 ,0 V + la condición para que aparezca una bifurcación del tipo citado es F ^ ( 0 ,0 ) ^ 0 , Bifurcación transcrítica Consideremos la ecuación en una dimensión
F ,,( 0 ,0 )^ 0
Orden y Caos en Sistemas Complejos
124
Figura 4.2: Esquema de la generación de una bifurcación transcrítica. La estabilidad de los puntos fijos se intercambia en ei punto de bifurcación.
Los puntos fijos son soluciones de - //c) -
= O
El valor ¡i = p.c representa de nuevo un punto de bifurcación en el cual, en este caso, simplemente se intercambia la estabilidad de los dos puntos fijos existentes. Obse'rvese el diagrama de bifurcación en la figura 4.2. Bifurcación en horquilla {pitchfork) Consideremos X =
(/i -
iic )x
-
En este caso, los puntos fijos son I* = 0 ,
- ±y/fl - ¡le
En el punto ¡j. = Hc se pasa de un único punto fijo estable (que existe en todo el dominio ^ < /^c) a ia existencia de tres puntos fijos: el origen pierde su estabilidad y aparece una pareja de puntosfijos estables. Podemos entender esta bifurcación físicamente si tenemos en cuenta que la ecuación de partida puede expresarse como la derivada de una función potencial dV dx
d x d i
que en nuestro ejemplo es 1/
_
~
,
i „4
y gráficamente se puede ver que presenta un único nnnimo en x = O para /i > y dos mínimos para ¡jl < (véase la figura 8 del capítulo 7). Este esquema es muy útil para comprender la
125
Atractores Periódicos y Cuasiperiódicos
naturaleza de la bifurcación. Observemos que en todo momento el potencial es simétrico, con una única opción (un atractor único) estable que se bifurca en dos nuevos atractores. Si imaginamos que el estado del sistema se representa al principio por una bola que puede rodar situada en el origen i· = O, observamos que cualquier perturbación alrededor de este punto cuando (/i —/^c) < O no aleja el sistema del origen: el punto de equilibrio es estable. En cambio, cuando {fi — Hc) > O, una perturbación de la bola implica que ésta rodará hacia uno de los dos mínimos posibles. Peso a la existencia de simetría, el sistema se ve forzado a efectuar una elección. Esta bifurcación, en la que un sistema dinámico no lineal realiza una elección entre dos alternativas posibles después de atravesar un punto crítico recibe el nombre de bifurcación con rotura de simetría. Los fenómenos no lineales que muestran rotura de simetría juegan un papel esencial en nu merosas ideas físicas (véase el capítulo sobre estructuras de Turing) pero también eu otras áreas. El economista Brian Arthur, que ha aplicado estas ideas en su estudio de las retroaümentaciones (feedhack) positivas en economía, nos da algunos ejemplos. Uno de ellos es la adopción de relojes ‘‘horarios” en lugar de los ‘'antihorarios” . El reloj de la catedral de Florencia es un ejemplo del se gundo caso. Fue diseñado en 1443 por Paolo Vícello, en una época en la que la construcción actual no estaba aún definida. Pero, tal y como señala Arthur, a medida que algunos relojes de sentido ho rario fueron ganando al número de sus contrapartidas antihorarias, una retroalimantación positiva precipitó el resultado de esta competencia en una única dirección. Estas roturas de simetría jue gan probablemente un papel destacado en economía. Podemos pensar en otro ejemplo más actual, como la imposición del sistema de vídeo VHS sobre el sistema Beta. Obsérvese que prácticamente no ha quedado lugar para la coexistencia. La bifurcación transcrítica y la bifurcación en horquilla no son bifurcaciones genéricas. Esto quiere decir que cierto tipo de perturbaciones puede provocar que desaparezcan y se conviertan en una bifurcación silla-nodo, que si resulta ser genérica, üna perturbación del tipo ex no las destruiría, ya que simplemente implica una traslación del punto en el cual se produce la bifurcación. En lugar de ser en (.i — pe sería en — fie — En cambio, el hecho de añadir un parámetro e. por ejemplo, cambia los puntos fijos. Consideremos la bifurcación transcrítica. Si el sistema fuese de la forma F(j:,/i,é) = (/i obtenemos
/Uc)x
-
+
€
126
Orden y Caos en Sistemas Complejos
+ 4e X , — ------------ ----------------------^ -2 Para e > O no exist·· rruce entre las curvas de puntos fijos, no hay intercambio de estabilidad ni, por tanto, bifurcaciiui (ya que el número de puntos fijos no varia). Para e < Ü existe un dominio ((// — < 4e) en ri que no hay solución, y no existen puntos fijos. Una situacióri semejante aparece en la bifurcación en horquilla para el mismo tipo de per turbación. Sin embargo, existen mecanismos que permiten que, por ejemplo, la bifurcación en horquilla se observe de forma genérica. Tal es el caso de las ecuaciones de Lorenz, que, debido a su sim etría (implícita en el problema físico que se está tratando) no admitirían una perturbación del tipo + e, y por tanto la bifurcación en horquilla resulta ser la bifurcación genérica para este sistema. Observemos que en estas dos últimas bifurcaciones no se cumple 0) ^ 0. En el caso de ia bifurcación transcrítica tenemos Fi-(0,0) ^ Q, y en la bifurcación en horquilla ^^.(O, 0) = 0. Podríamos describir muchas otras bifurcaciones, en ias que, dependiendo del orden de la parte no lineal (digamos rn) y de sus coeficientes podríamos obtener hasta m puntos fijos diferentes tras la bifurcación, que presentarían estabilidad o inestabilidad. También podríamos analizar qué tipo de perturbaciones podrían destruir la bifurcación o parte de ella, o bien si ésta es genérica. Sin embargo, lo hasta ahora expuesto es suficiente e ilustra los tipos principales de bifurcaciones producidas en sistemas con un único valor propio nulo.
4.1.2
B ifu rc a c ió n de P o in c a r é - A n d r o n o v - H o p f
Esta bifurcación se produce cuando el sistema de EDOs considerado posee dos valores propios con parte real nula y con parte imaginaria no nula, siendo por tanto uno de estos valores el complejo conjugado del otro. El resto de valores propios del sistema se suponen, evidentemente, con parte real no nula. Podemos decir que una bifurcación de Poincaré-Andronov-Hopf, o muy frecuentemente sólo bifurcación de Hopf, genera un ciclo límite a partir de un punto fijo, cuando éste se inestabiliza. Secomprende que la parte real de los valorespropios nulossufre pues un cambio, de negativo apositivo. Lasdefiniciones siguientes, junto con elteorema en el cual son necesarias, establecen las condiciones de existencia de una bifurcación de Hopf. Consideremos el sistema en dos dimensiones ¿
-
f ix
~
y
+
p ( x ,
y )
y ^ X + /íy + q(x, y)
(4.2.1)
donde p y q son funcioues analíticas que admiten un desarrollo de la forma p ( ^ ,p ) = i+j>2 = (a20¿^· + «iii-y + O02Í/^) + (O30í^^ +
+ ao3y^) + ■ · ·
•+j>2 = (020^·' + 6nxy + &02y^) + (ho^^ +
+ ¿>03/ ) + ■ · ·
Atractores Periódicos y Cuasiperiódicos
127
D e fin ic ió n El número de lyapunov correspondiente al sistema anterior es 3^
a —~
[3 ( a
3o
+
603) +
((^2 +
h-ix '
— 2 ( a j o í > 2 ’) "
a02Í>02)+
oii(ao2 + «2ü) —f>iii,h(j2 + En particular, si <7 ^ Oel origen es un foco estable para
sistema plano analítico de la forma X = ax- + by + p(x, y) y = cx +
d y + g(a:,T /)
con A = ací —¿>c>0, a + í>—Oy p(x, p) y ?fx, y) funciones analíticas de la forma antes indicada, la m atriz
poseerá una pareja de valores propios compleja conjugada y el origen será un
foco. El número de Lyapunov cr está entonces dado por _-3TT ^ ~ 2b A ^^ ^
c‘^(aiiao2
+ “ 11^02 + « 02^11) +
+ 020011 + aii¿*o2 )-f-
+ 2ao2Í»02) — 2 a c ( 6 o 2 — 0 2 0 0 0 2 ) —
2ab(a2o ~
¿^(2a20^20 + biib2o) + (be —2 o ^ ) ( b n b o 2 (a^
+
be)
^>2 0 ^0 2 ) —
— 011020)
[3 (c6oa - 6030) + 2a(o2i + ¿>12) + {can -
í>^2i)]}
Cuando las condiciones anteriormente exigidas no se satisfacen (enparticular, si cr = 0) se puede producir más de un ciclo límite en el punto de bifurcación ^ Ilustraremos con un ejemplo la bifurcación de Hopf. E jem plo i -
-y +
-
y^ )
y = I + y(/i - í* - y^) El único punto crítico de este sistema corresponde ai origen, x = (0.0). Si consideramos la parte lineal del sistema, ^ E s t o d e p e n d e c o n cre ta m en te de la multiplicidad del foco q u e se inestabiliza. E n el caso d e la bifu rca ció n de H opf, el f oco tie n e m ultiplicidad u n o , y e m ite u n único ciclo h'mite. Si tuviese m u ltiplicidad k, p o d n a e m itir h a s ta k ciclos h'nnite. Véaise la siguiente sección, 4.3.
Orden y Caos en Sistemas Complejos
128
fi 1
D F(0,0) =
-1 M
y calculamos los valores propios asociados A,· obtenemos \± = —fl ± i Si /X > o el origen es un foco estable, y si /i < O es un foco inestable. Para /i = O tiene lugar una bifurcación. Calculemos a para comprobar que es una bifurcación de Hopf (obsérvese que la forma del sistema corresponde a la forma genérica dada en el enunciado del teorema sobre esta bifurcación). En este caso tenemos p{x, y) -
^ - xy^
q(x. y) == - y x ^ - y^
así que los coeficientes no nulos del desarrollo de p y 5 son «30 — —
^12 — “ 1
hiy — - 1,
603 - - 1
para p y
para q. Por tanto, [3(a3o + í>03) + (ctii> + &21)] = -12TT ^ O Confirmamos que el origen es un foco estable (ty < 0) y mediante el uso del teorema visto podemos afirmar que tras la bifurcación el sistema presentará un ciclo límite único y estable (para // < 0 ). El cam bio a c o o rd e n a d a s polares Una forma alternativa, útil y muy intuitiva de comprobar la existencia del ciclo límite consiste en escribir las ecuaciones del sistema en coordenadas polares. En el caso anterior, realicemos el cambio X =
rcosB
y=
rsin
9
Si consideramos el cambio inverso. r = y/
+ y'^
9 — arctan -
X
y derivamos, resulta 2 rr — 2 x¿ + 2yy
i
I
xy
i.fl| En estas últimas expresiones debemos sustituir x, y en función de r y ^ y la definición de nuestro sistema.
Atractores Periódicos y Cuasiperiódicos
129
Figura 4.4: Tres estadios cic la bifurcación ele Hopf en el sistema del ejemplo 1. Para /j. < O uo existe ciclo límite. El origen es ua foco estable. En /i O se produce la bifurcación. La tendencia de las trayectorias al origen es muy lenta. Cuando /i > O aparece un ciclo lírnire. El origen se ha convertido en un foco inestable.
i = — r sin^ + rcos^(/i — r·^)
y = r COS0 +
Se hace uso únicamente de esfuerzo, a
+ y'^ -
rsinÚ(¡jL —
(cos^ 0
r^)
sin^ 0 = 1), lo cual pernútc llegar, sin excesivo
r = r(/z ~ r^y é= 1 Hemos separado el sistema en dos ecuaciones independientes; una para la parte radial y otra para la parte angular. La última tiene una solución trivial, ú(t) — Oq + i, lo cual indica que los puntos sobre las trayectorias se desplazan a velocidad angular constante alrededor del origen. Por otra parte, para > O tenemos una solución para la parte radial que resulta ser estable, r = + y ^ · La solución negativa de la raíz no tiene sentido, ya que r > O en coordenadas polares. En la figura 4.4 se representan las trayectorias del sistema para diversas condiciones iniciales antes, en y después de la bifurcación. Para /i = O las trayectorias tienden muy lentamente al origen (o al ciclo límite de radio nulo), así que sólo se ha representado una parte de las mismas.
4.2
La aplicación de P oin care
La aplicación de Poincaré es una herramienta básica y geométricamente sencilla para estudiar la estabilidad y ias bifurcaciones de órbitas periódicas. La aplicación de Poincare, o aplicación de primer retorno, fue presentada por Henri Poincaré en 1881. Se basa en una idea sencilla que podemos enunciar de la forma siguiente; si F es una órbita periódica del sistema
i = F(x)
(4,3.1)
a través del punto Xq y S es un hiperplano perpendicular a F en xo, entonces para cualquier punto X G S suficientemente próximo a xo, la solución de 4.3.1 que pasa por x en t 0. ^ í(x ), atrav'esará E de nuevo en un punto P(x) cercano a x q . La aphcación
130
Orden y Caos en Sistemas Complejos
X H->P(x) se denom ina aplicación de Poicare.
El siguiente teorema establece la existencia y continuidad de la aplicación de Poincaré, P (x) y de su primera derivada, D P (x ). Teorem a Sea E un subconjunto abierto de R ” , y F 6 C^{E). periódica de 4.3.1, de periodo T, y que el ciclo r
Supongamos que ^í(x) es una solución
{x e R " ;x = ^í(xo),0 < t < T}
está contenido en E. Sea S el hiperplano ortogonal a F en xq. E - {x € R"; (x - xo)-F(xo) - 0} En este caso, existe ¿ > O y una función única £ iV¿(xo) tal que
definida y derivable en continuidad para
t(x ),
X
r(xo), $r{x)(x)GE,
Vx € A'áíxo)
Según las definiciones dadas en el teorema anterior, y para x G A''’á(xo) H E, la función P(x) = se denorrúna aplicación de Poincaré para F en x q . Los puntos fijos de l a aplicación de Poincaré, es decir, x G E que satisfacen P (x ) = x corresponden a órbitas periódicas. Si realizamos el cambio # —» ~ í en el sistema 4.3.1, se puede ver que P(x) tiene una función inversa P ~^(x) derivable en continuidad, y por tanto P es un difeomorfismo ("función suave con inversa suave”). En ciertas ocasiones es posible calcular anah'ticamente la expresión de la aplicación de Poincaré. Consideremos como ejemplo el sistema estudiado en la sección anterior, ¿ = - y + x(/x -
-
y^)
y - x + y { l i - x ^ - y'^) Este sistema tiene, para /i > O, un ciclo líniite como solución, 7(í) = {y^cosí, y ^ s in í)^ La aplicación de Poincaré se puede deternúnar en este caso solucionando el sistenia escrito en coordenadas polares. Recordemos que habíamos obtenido r = r(/i —r^) è
= 1
Consideremos las condiciones iniciales r(0) — ro y ^(0) = ^o· La primera ecuación tiene una solución de la forma r ( í ,r o ) =
r1 i+ -fi
/ t 1\ 1 -J/2 ( l - i ) e - " '" \n>
Atractores Periódicos y Cuasiperiódicos
131
lo cual se puede comprobar por siiaple sustitución, y la segunda 0(í, 0q) =
í
+ ^0
Si S CR la recta que tiene pendiente ^ y pasa por el origen, entonces S es perpendicular a f y la trayectoria a través del punto (tq, ^o) G S H F en ¿ O intersecta H de nuevo en t — 2-k . La aplicación de Poincaré estará dada por -
r1
1/2
+ Piro) = ........... 7 - i V - H ~
con lo cual estamos simplemente considerando los puntos de la trayectoria correspondientes a intervalos discretos de tiempo con un incremento Ai = 27T, La aplicación de Poincaré proporciona en cierto modo una visión ""estroboscópica” de la dinámica. Si buscamos los puntos fijos de la aplicación (P(ro) = tq), que corresponden al ciclo límite anterior 7 (í), obtenemos ro = yjjl, como era de esperar. La derivada de P{r) en ro = y/Ji proporciona 1
n
_ ^-45T/í
^0 Í - + I Uo
Como se vio en el capítulo 2, en referencia a las aplicaciones discretas y su estabilidad, podemos utilizar ahora aquellos criterios y estudiar la estabilidad del ciclo límite ~f{t). Este será estable si P '(ro) <
<1
En particular, tendremos la igualdad cuando = O, pero V/i > O la función será menor que 1. (Obsérvese que es una función monótona decreciente con el máximo precisamente en /i = 0.)
4*2.1
F u n ció n d e d e s p la z a m ie n to
Relacionada con la función de Poincaré introduciremos ahora la función de desplazamiento, que permite caracterizar la multiplicidad de un ciclo límite y de los focos que experimentan la bifur cación de Hopf. Los resultados que enunciaremos a conrinuación se aplican solamente a sistemas en 2 dimensiones. Supongamos que (sin pérdida de generalidad) trasladamos el origen al punto xo ■£ F O E. En este caso, E siempre pasará por el origen. Ahora, O G F H S divide a E en dos .subsegmeatos abiertos, S·*" y E~. E"^ pertenece por completo al exterior de F. Sea s la distancia al origen de los puntos que intersectaa S, y escojamos 5 > O para los puntos G E+ y 5 < O para x_ G E '. Según el teorema sobre la aphcación de Poincaré, ésta está definida para js| < ¿, y hemos tomado P(0) —0. Introducimos ahora la función de desplazamiento como d(s) = P(s) - s Entonces, d(Q) = O,
d'{s) = P'{s) - 1
Observemos que ¿( 5 ) permite caracterizar la estabilidad de las órbitas periódicas de la forma siguiente: si <¿'(0) > O, el ciclo h'mite es inestable; si d'(0) < 0. el ciclo h'mite es estable.
132
Orden y Caos en Sistemas Complejos
D efinición Sea P(s) la aplicación de Poincaré para un ciclo F de un sistema analítico en dos dinK’iisioues, y sea (¿(5 ) = P{s) — s la función de desplazamiento. Si í/(0) := í^'(O) = . —Oy O, F se denomina ciclo h'mite múltiple de multiplicidad Si fc = 1, F se denomina ciclo líiTÚtf* .simple. Observemos que las bifurcaciones que habíamos estudiado para los puntos fijos focos jiodemos aphcar las ahora a puntos fijos de la aphcación de Poincaré que sean focos. La generalización inmediata implica que un ciclo límite puede bifurcarse en hasta k ciclos h'mite, si k es su laultiplicidad. Si el sistema 4.2.1 tiene un foco en el origen, entonces es linealmente equivalente al sistema X - ax — h y ^ p{x, y) y = bx + a y q { x , y )
(4.3.2)
con í> ^ 0. Teorema Sea P{s) la aphcación de Poincaré para un foco en el origen del sistema analítico en dos dinícnsiones 4.3.2. con 6 76 O y supongamos que P(s) está definida para O < s < ¿o· Entonces, existe ^’ > O tal que P ( 6') se puede extender a una función anah'tica definida para j s| < S. Además, P(0) = 0,
P '(0) = e x p | ^ |
y si í/{5 ) =: P(s) —s, entonces el producto d{s) d ( - s ) < O para O < \s\ <6. El hecho de que «¿(s) d(~s) < O para O < ls[ < <5 se puede utilizar para demostrar que si (í(0) = ¿ '(0 ) = . . . =
= O
y
entonces k es impar, es decir, k — 2m + L El entero m = {k - l)/2 se denomina multiplicidad del foco. Si ru - O tenemos un foco simple, y se sigue del teorema anterior que el sistema 4.3.2 con 6 ^ 0 tienr im foco simple en el origen si, y sólo si. a 7^ 0 . El signo de t¿'(0), es decir, ei signo de a, determina la estabilidad del origen en este c
O
se llama número de Lyapunov para el foco. Si cr < O el foco es estable, y si a > O el foco es inestable. Es con frecuencia muy complicado llegar a una expresión anah'tica para la aplicación de Poin caré, y muy a menudo ni siquiera existe (analíticamente). Sin embargo, la imagen geométrica que la aplicación de Poincaré aporta es de suma utilidad en el estudio de los sistenias dinámicos, especialmente cuando la dimensión del sistema es elevada. Obsérvese que es necesario resolver
Atreictores Periódicos y Cuasiperiódico.^
133
las ecuaciones diferenciales si se pretende obtener P{.^) analíticamente. No obstante, también se puede resolver las ecuaciones numéricamente y estudien entonces la sección de Poincaré, a fin de obtener información sobre el sistema dinámico. Es suficiente considerar en este caso un hiperplano o una hipersuperficie que corte las trayectorias del sistema. No es necesario que la intersección se realice exactamente en forma perpendicular. Se dice entonces que la hipersuperficie (en general) £ corta las trayectorias de forma transversal. La sección de Poincaré resultante de una intersección transversal es topològicamente equivalente a la que resulta de una intersección perpendicular, así que las características cualitativas del sistema permanecen invariantes.
4.2.2
A n á lisis c u a lita tiv o y n u m érico de la S P
Realicemos una breve descripción del aspecto de la sección de Poincaré y lo que de ella se deduce. Si observamos una serie de puntos que convergen a uno fijo, independientemente de la condición inicial, es inmediato concluir que nuestro sistema dinámico posee un ciclo limite estable. También podríamos observar que los puntos de la sección oscilan alternativamente entre dos, tres, cuatro o más puntos, y los repiten siempre en el mismo orden. En este caso, estaríamos ante órbitas de periodo dos, tres, cuatro o superior, respectivamente. En algunas ocasiones los puntos de la sección ¡>ucden acabar llenando una curva cerrada. Nos hallamos en este caso ante una órbita cuasiperiódica. Las trayectorias del sistema se moverán sobre un toro n — dimensional. Esto tipo de dináimca será descrito en las próximas secciones. Veamos con un ejemplo simple cómo el estudio de la sección de Poincaré puede proporcionar considerable información sobre la dinámica de un sistema. Consideremos un péndulo unidimen sional forzado por una fuerza exterior periódica que depende de la posición del péndulo, j, —— + d sin(a:) = cos{kx — ivt) dt^ d — g/l, donde g es la constante de la gravedad y / es la longitud del péndulo. Si se escoge A: ^ 1 y d = 10. por ejemplo, se puede utilizar ia frecuencia w como parámetro libre del sistema, y estudiar la variación de la dinámica en función de él. En particular, es posible obtener transiciones caos-cuasiperiodicidad-periodicidad y también en sentido contrario. En la figura 4.5 se han representado cuatro secciones de Poincaré para diversos valores de w. En este caso, se resolvió la ecuación diferencial numéricamente y se representaron en la sección de Poincaré los puntos que cumplían las condiciones ja:) < ¿ ,
X < O
con é % 0.001. Con este convenio nos aseguramos que los puntos sean prácticamente los corres pondientes a la intersección de la trayectoria con el plano x = O y consideramos únicamente los que atraviesan dicho plano en una única dirección. En algunos casos, la sección de Poincaré está formada por un conjunto de puntos que ocupan con densidad variable toda ia zona de la sección, y en un orden aparentemente impredecible. Estamos entonces, muy probablemente, ante un sistema dinámico que exhibe caos determinista. Con frecuencia, la sola observación de una trayectoria (solución de un sistema dinánúco) en (por ejemplo) no es capaz de distinguir entre cuasiperiodicidad y caos. La sección de Poincaré, en cambio, discrimina perfectamente los dos casos Es recomendable, en ei caso de realizar estudios numéricos, observar el comportamiento del sistema a largo plazo. La representación gráfica que se realice de la dinárrdca puede ser poco clara si se representa el estado transitorio, esto cs, los ^En
general, s i n e m b a r g o , se ex ig e alguna o t r a e v i d e n c i a p a r a a f i r m a r q u e u n s i s t e m a p r e s e n t a c a o s d e t e r m i n i s t a .
Orden y Caos en Sistemas Complejos
134
2.0
1.0
0.0
0.00
Figura 4.5: Secciones de Poincaré para el sistema +d sin{i·) = cos{kx —wt), con fc = l,(i — 10 y, de izquierda a derecha y de arriba abajo, w = 2.95, 2.98, 2.99, 3.00. En este caso, el incre mento en la frecuencia externa provoca una transición del caos a la cuasiperiodicidad. El atractor correspondiente a la órbita total del sistema sería topològicamente equivalente a la superficie en gendrada por la rotación de la sección de Poincaié alrededor, por ejemplo, del eje y (en el caso del atractor caótico esto no sería del todo cierto, como el lector puede imaginar).
Atractores Periódicos y Cuasiperiódicos
135
estados por los que el sistema pa,sa anr^'s de llegar a un punto fijo, a un ciclo límÍLe, etc. Por tanto, debe eliminarse uu cierto intervalo inicial de tiempo en la simulación a fin de determinar el estado más probable eu que el sistema sera realmente observado. Considérese, por ejemplo, el caso de la aplicación logística. Cerca de los ¡>untos donde se producen las bifurcaciones de periodo n a periodo 2n, se observa que la dinánura conduce al sistema lentamente a un atractor de ¡periodo n. El estado transitorio es largo, y un e>rudio que analizase pocos pasos de tiempo podría conducir a conclusiones erróneas sobre la dinánura.
4.3
T eorem a de P oiiica ré-B en d ixso n
El teorema de Poincaré-Bendixson fue enunciado por estos autores a principios de siglo. Sólo es válido para sistemas en y permire demostrar la existencia de un ciclo límite sin necesidad de hallar explícitamente la expresión do <'ste. Definamos primeramente lo que se entiende por conjuntos a — y u>~limite de un sistema dinámico. Consideremos el sistema autónomo k := F (x )
(4.4.1)
con F G C^{E) y E un subconjunto abierto de R^. Llamaremos $ (í, x) a la solución del sistema dinámico 4.4,1 en E. Para x 6 £/, la función ^ (., x) : R —>define una curva solución, trayectoria u órbita de 4.4.1 que pasa por x en fT. D efinición Un punto p G es un punto u) —limite de la trayectoria ^(-.x) del sistema 4.4.1 sí e.xiste una secuencia —» oo tal que lim n— ►oo $(!:„, x) = P Igualmente, si existe una secuencia —oo tal que li.m ^(¿„, x) = q n~^oc y el punto q G £', entonces q se denomina punto a —límite de la trayectoria ^ ( .,x ) del sistema 4.4.1. El conjunto de todos los puntos ú.;—límite de una trayectoria de 4.4.1 (F) se denomina conjunto u) —limite (de la trayectoria) y se denota por u;(r). El conjunto de todos los puntos q —límite de una trayectoria es el conjunto o —limite, Q(r). El conjunto unión ív(r) U cj(r) se llama conjunto limite de F. Se puede demostrar que q(F) y u;(F) son subconjuntos cerrados de E, y que si la trayectoria F está contenida en un subconjunto compacto de R ” , entonces a(F) y u)(F) son subconjuntos de E no vacíos, compactos y conexos.
136
Orden y Caos en Sistemas Complejos
T eo rem a (de Poincaré-Bendixson) Supoimamos que F G C^(E), donde E es un subconjunto abierto de y que L4.1 tiene una trayectoria V contenida en un subconjunto compacto F C E. Entonces, si ü;(r) no contiene ningún punto c::-!co de 4.4.1, u?(r) es una órbita periódica de 4.4.1. Vear:‘-os a continuación con un ejemplo cómo es posible aplicar el teorema anterior para deter minar la existencia de un ciclo límite en el espacio de fases de un sistema dinámico. E jem plo Consideremos el sistema X = X — y -y ~ x + y-y^ Su únic' · pimto fijo es el origen, Xg = (0,0). Excluyendo, pues, el origen, podemos intentar eDcontrr-' una zona de que contenga u;(r). Escribamos primeramente (como empieza a ser habitua.1 A sistema en coordenadas polares. Sustituyendo en 9= “
sin ^ —y eos B] V f = X eos 9 + ysin O
(expresic’Lies válidas en general para cualquier cambio a coordenadas polares), con x = rcos6, y = rsin f. obtenemos para el sistema anterior ¿
—1 —
sin 9 eos 9
r - r - r^(cos^ 8 + sin^ 0)
La func: :-n f{0) = {cos^ 9 -|- sin·* 0) está acotada entre los valores | y 1, es decir f[9) G 2 ^ 1 · Utilicerr.’:«> estos dos valores ^ para deternrúnar si, para algunos valores de r, sería posible encontrar f < O en cierta circunferencia y r > O en otra. Obsérvese que, si es posible deternúnar una zona con r < ij. esto significa que todas las trayectorias ‘‘entran^ en este dominio. De forma equivalente, si encon:ramos un dominio con r > 0. sabemos que las trayectorias del sistema ""salón” de la zona establee: z?.. Con¿:r.eremo.s. pues, los valores extremos que r puede tomar: r" r
— r --------- -
2
Busquenr^os una zona en la que se cumplan las dos desigualdades r — r^/2 < O y r — < O simultáneamente. Para r < O, obtenemos r > \/2 en el primer caso y r > 1 en el segundo. Esto sigz-ifica que en la circunferencia r == y/2 + 6, con f arbitrariamente pequeño, r es siempre negativa, para cualquier valor de 9, con lo cual podemos asegurar que el conjunto ó;(r) se halla en el inrerior de la circunferencia limitada por r ~ i . Por otra parte, cambiando el signo de las desigualdades obtenemos que r > O siempre para v — 1 — de nuevo con e arbitrariamente pequeño. Así que todas las trayectorias salen de la zona r — 1 —f . En consecuencia, tenemos u;(r) confinado a la corona definida por ^Esto> ■. aJores se o b tie n e n c alculando ios extrem os de / ( 5 ) y viendo q u e tiene dos m áxim os, de valor 1 v vm m ínim o en 6 = de valor 1/2,
6 = O y 0 = jr/'¿,
A tractores Periódicos y Cuasiperiódicos
137
señalan las dos circuaferenciais de las cuales las trayectorias ‘"entran“’ o “salen·”, que pueden ser calculadas analíticamente y permiten la aplicación del teorema de Poincaré-Bendixson.
(r^.n, Tmar) = ( 1 - 6,
+ €).
Como el único punto fijo del sistema es el origen de coordenadas, no hay ningún punto fijo en la corona anterior, así que por el teorema de Poincaré-Bendixson podemos asegurar que existe un ciclo límite en esta área. Véase el mapa de fases del sistema dinámico en la figura 4.8. Todo lo hasta aquí expuesto sobre la existencia de ciclos h'mite y cómo pueden ser determinados tiene una traducción muy sencilla que resulta ser correcta la mayor parte de las veces cuando tratam os con sistemas físicos, imaginemos que en cierto sistema real sabemos que las trayectorias no pueden escapar al infinito, es decir, la solución está forzosamente acotada a cierta zona del espacio de fases. Si, además, en esta zona el único punto de equilibrio que tenemos es inestable, podemos casi asegurar que la configuración descrita del sistema físico lleva a la existencia de un ciclo h'mite para la dinánúca, aunque en ocasiones el supuesto ciclo línúte puede ser una órbita periódica, cuasiperiódica o un atractor extraño. Pongamos un ejemplo. Supongamos que disponemos de un péndulo en el extremo del cual colocamos un imán que oscilará con él. Supongamos también que en la vertical del péndulo, allí donde habría un punto de equilibrio estable (debido al rozamiento con el aire el péndulo acabaría deteniéndose en posición vertical) colocamos un segundo imán con polaridad opuesta al primero. El punto de equilibrio estable es de esta forma inestabihzado. Y, además, el péndulo no puede escapar al infinito (como es fácil de imaginar). La intuición nos dice que posiblemente el péndulo oscilará alrededor de este punto inestable. Así, efectivamente, sucede. Y como éste, muchos otros sistemas: reacciones quínúcas (las concentraciones de los reactivos son finitas y algunas tienen valores fijos inestables), neuronas (potencial eléctrico finito, estado de reposo inestable), ...
4.4
A tractores cuasiperiódicos
Se ha visto, en el capítulo sobre sistemas dinámicos y en este mismo, la dinámica a largo término que pueden presentar los sistemas dinárrücos: puntos fijos y ciclos línúte. En la escala que acaba
138
Orden y Caos en Sistemas Complejos
llevando a los atractores extraños y a la dinámica caótica nos falta el caso que nos ocupa en esta sección: los atractores (la dinámica) cuasiperiódicos. Veremos que este tipo de movimiento tiene un papel esencial en el capítulo que dedicaremos al caos haniiltoniano, donde trataremos con sistemas conservativos. En las páginas siguientes veremos algunos sistemas disipativos que presentan dinámica cuasiperiódica, en ios cuales, por tanto, ia dinámira es atractiva, y no se da sobre (como veremos) un toro n-dimensional desde el principio, sino que tiende asintóticamente hacia él. Podemos pensar en el movimiento cuasiperiódico como en una composición de movimientos periódicos, de diversas frecuencias cuya superposición (en ciertos casos) podrá conducir al sistema a los citados atractores. Hablaremos de A^—cuasiperiodicidad cuando el número de frecuencias Q, constituyentes del movimiento cuasiperiódico sea N . Las variables dinámicas del sistema de la forma /( /) estarán representadas por funciones de N variables independientes G (íi, í-2, . . . , ), tales que serán fimciones periódicas en cada una de sus variables, G(¿i, ¿2, . . . ,ti
T i,..
... ,t^,.. .i
con un periodo T, correspondiente a cada una de las variables. Las N frecuencias implicadas deben de ser inconmensurables, es decir ninguna de ellas debe de poder ser expresada como combinación lineal de las demás. Se cumplirá por tanto que + 7712^^2 + - - - + m^víl V = O donde m, £ Z no debe poseer ninguna solución excepto la trivial las variables del sistema se podrán representar como
= O, Ví. En térnúnos de G,
f{t) ~ G { t ,t ,t, .. .,í) es decir, f{t) corresponde al valor de G con todas sus variables í, = í. Debido a su periodicidad, G podrá ser fácilmente expresada como una serie de Fourier de N factores, G=
^
{i{niÜ iti + ri29.2t2 + . .. + n M ^ y tN )}
Tomando í, ^ t y reahzando la transformada de Fourier sobre la función G obtenemos /( u ') = 2 7 r
^
~ (niQyti + n 2 Í'l2 Í2 + ■ ■ ■ + rLyQjsít,\^))
Así que la transformada de Fourier de una variable dinánúca fit] está formada por todas las combi naciones lineales enteras de las A" frecuencias fundamentalef. .......Í2jv. El espectro de potencias (el cuadrado de la transformada de Fourier) correspondiente a un movimiento cuasiperiódico pre sentará, por tanto, unos picos característicos a estos valores concretos. Los picos son más agudos cuanto menor es el valor de los coeficientes H], .. . rí/\*· A medida que éstos aumentan de valor, los picos disnúnuyen de amplitud hasta que, si trabajamos con un sistema real, serán indistinguibles del ruido inherente al dispositivo.
4.4.1
2 - c u a s ip e r io d ic id a d
Consideremos brevemente el caso particular en el que sólo dos frecuencias están implicadas en el movimiento de! sistema, ííi y fí?- Supongamos que la solución de la dinámica del sistema, x, tiene componentes vectoriales dados por la ecuación
=G<'>(íl,<2)k=.,E.
Atractores Periódicos y Cuasiperiódicos
139
Figura 4.7: Espectro de potencias correspondiente a un movimiento periódico, a uno cuasiperiódico con dos frecuencias características y a uno caótico. Los picos limpios que se aprecian en el segundo caso desaparecen en el segundo, ya que en el caso de tener dinámica caótica se obtiene un espectro amplio, con todos los valores de las frecuencias representados.
140
Orden y Caos en Sistemas Complejos
Considerando que ¿i > Í 2 funciones periódicas con periodos Ti y T2, respectivamente, sólo será necesario especificar eí valor de t, módulo T,, es decir, las variables í, pueden ser consideradas como ángulos, y por tanto definimos las variables angulares Oj — Qjtj
módulo 27t
El estado del sistema puede ser especificado dando únicamente dos ángulos. Desde el j)unto de vista geométrico, ía especificación de un ángulo se puede pensar como la especificación de un punto sobre un círculo. La especificación de dos ángulos es equivalente a la especificación de un punto sobre un toro 2-dimensional así que podemos pensar que las trayectorias cuasiperiódicas están confinadas (asintóticamente) a la superficie de este toro. Efectivamente, el movimiento cuasiperiódico tiene lugar sobre una superficie 2-dimensional topològicamente equivalente a este toro. Observemos que se ha exigido anteriormente que las frecuencias fuesen inconmensurables a fin de obtener un movinúento realmente cuasi])eriódico. Si el cociente R llamado número de rotación fuese un número racional de la forma p/q, entonces las trayectorias sobre el toro acabarían cerrándose sobre ellas mismas, y el movimiento sería periódico, con periodo pTi = qT2 Cuando R es irracional, el movimiento es cuasiperiódico, y las órbitas acaban llenando densamente la superficie toroidal. En el caso de que el movimiento fuese iY—cuasiperiódico, podríamos igualmente considerar A"—toros ( T ^ ), sobre los cuales se daría ahora el movimiento que. estaría especificado por A* variables angulares.
4.4.2
L a ap licació n c ir c u la r
Consideremos el sistema dinámico continuo
dt d ^ - a dt donde las variables angulares son
= n^t + Si tomamos una sección de la trayectoria, la correspondiente por ejemplo a [8^^^ módulo 2ñ) ~ ct, obtenemos una aplicación unidimensional para —0^^^(ín) módulo 2t, — (8n -I- id) módulo 2 tt
con w — 27rfÍi/fÍ2- Siempre que las frecuencias sean inconmensurables, y para cualquier condición inicial, la órbita que se obtendrá llenajá densamente el círculo unidad, mientras que si = p/y· un valor racional, entonces la órbita será periódica con periodo q. Las órbitas periódicas sólo se
Atractores Periódicos y Cuasiperiódicos
141
obtienen para un conjunto de valores de w con medida de Le¡>esgue cero, lo cual significa que estos valores tienen una probabilidad a priori cero de aparecer. Esta imposibilidad práctica de obtener órbitas periódicas cambia cuando se introduce algún tipo de término no lineal, algún acoplanúento entre las frecuencias que puede inducir un tipo de resonancia y provocar en consecuencia órbitas periódicas con probabilidad no nula. A fin de estudiar el efecto del acoplajniento en el sistema, Arnold introdujo en 1965 la siguiente aplicación modificada = {9n + w + k sin (0f,)) módulo 2tt llamada aplicación circular. Los parámetros w y k juegan un papel fundamental en la dinámica que presenta esta aplicación, así como el número de rotación, que en este caso está dado por 1
1
R = — lim ~ y AOn 2t m—oc m ^ ^ n=0
donde w + k sin Se plantea ahora el problema de distinguir cuáles serán los valores de k, que se utihza como parámetro variable en el sistema habitualmente, que producirán dinámica cuasiperiódica. es decir, un valor irracional para R. La obtención de estos valores en el dominio ¿ as O plantea el llamado problema de los denominadores pequeños, con el que nos volveremos a encontrar en el capitulo sobre caos hamiitoniano. El problema en cuestión se produce cuando intentamos reaUzar un desarrollo para k pequeña, alrededor de cero. En este desarrollo aparecen términos de ia forma ^
-------------------ívT expíjmO) 1 —€xp{2 T¿mR}
Para cualquier valor de R irracional podemos encontrar un valor de m que nos haga el denominador anterior tan pequeño como deseemos, ya que cuando el producto Rm « n, con n un entero, la parte exponencial se acerca arbitrariamente a 1. El problema que entonces se presenta es el de establecer la convergencia de la serie que se estudia. Si efectivamente Rm n, obtenemos 1
- - exp{27Tími?}
—27ri(mR —n)
así que la contribución de este térriúno a la serie es aproximadamente
1
i-VI
27rm ¡i? —n/m ] Estudiemos el caso en que se producirá movimiento cuasiperiódico, esto es, cuando R sea irracional. Cuando el valor de R satisface j n K I7Ti ^ mt^+í) para algún valor positivo de A' y f y para cualquier valor de m y n, m 7Í: Ose dice que R es un número mal aproximable por racionales. Sin embargo, los coeficientes ¡.An,| se obtienen del desarrollo en serie de Fourier de una función analítica, con lo cual presentan un decainrüento exponencial con m, ^ exp(-(T|mi)) 2Trm \R - m /n| lo que implica que la suma convergerá para todos los valores de R que sean mal aproximables por racionales. Por desgracia, la convergencia de esta suma no implica la convergencia de la serie perturbativa.
142
Orden y Caos en Sistemas Complejos
Se puede obtener que la medida de L«.·irrigue para los valoras de w que presentan cuasiperiod icidad en el intervalo w € [O, 2 tt] es diferente de cero para k pequeña, y que tiende a 27t cuando jb —^ 0. Para k pequeña se sigue dando cuasiperiodicidad, y los valores de to para los que se obtiene ocupsüi la mayor parte de la medida de Lebesgue en el intervalo de valores estudiado.
4.5
A p én d ice
Incluimos en este apéndice un caso más detallado de análisis de un sistema dinámico. Creemos que el ejemplo ilustra muy bien la forma en que se puede calcular explícitamente la ecuación de una variedad centro, y la dificultad de cálculo no es excesiva. Consideraremos el sistema i: ~ xz ~ wy y = wx z - p+ z ~
yz
~ ( 2·^ + .y^)(l +
+ ez)
(A.l)
que proviene del modelo de Langford para el flujo de Couette-Taylor Los valores de las variables están fijados a w — 10, e = 0.5 q = 0.7, y p actúa como parámetro de bifurcación. El primer paso es el cálculo de los puntos fijos del sistema. proporcionan
i' - O,
Las dos primeras ecuaciones
!/ == O
y de la tercera obtenemos una curva que dará eí valor de z en función del parámetro p, p + z -iz " = 0
(.4.2)
Esta ecuación tiene diferente número de soluciones (reales, que son las que nos interesan) depen diendo de p. Efectivamente, •
Para p < —2/3
o p > 2/3, existe un linicopunto fijo.
•
Para p = ± 2 /3
existen dos puntos fijos.
•
Para —2/3 < p
< 2/3 existen tres puntos fijos.
En la figura 4.8 se representa la curva de soluciones para 2 en función del parámetro. Estudiemos la matriz lineal para conocer la e.stabilidad de los puntos fijos. En general, para un valor de p dado, el punto fijo será de la forma j-*(p) ^ (0,0, 2o) con lo cuaJ la matriz lineal en este punto correspondiente al sistema A .l quedará de la forma / 2o
A =
— XV
0
IV
2o
0
0
0
V
1 -
\
^0 /
^E1 l e c t o r i n t e r e s a d o e n el s i s t e m a re a l p u e d e c o n s u l t a r el a r ti c u l o d e T . M u U in ^‘F in ite - D i m e n s i o n a l D y n a m i c s tn Taylor-Couette Flow, q u e a p a r e c ió e n [M A Jou rna l of Applied M a th e m a tic s (1 9 9 1 ) 4 6 1 0 9 -1 1 9 . U n a b r e v e d e s c rip c ió n se h a r e a l i z a d o e n el c a p í t u l o s o b r e ca o s .
A trac ¿ores Periódicos y Cuasiperiódicos
143
Figura 4.8: Soluciones para la variable del sistema A.l en función del parám etro p. que tieue corno valores propios •^1 — -o “I"
^2 ~ ^0 ~
^3 — 1 ~ ' *1
y como vectores propios =
( i , - 1 , 0 ) ,
i'2
=
( - Í , - 1 ,
0 ) ,
t'3
-
(
0
.
1
)
Los valores propios permiten clasificar los puntos fijos según su -estabilidad. dependiendo del parámetro p. • p < - 2 / 3 = > zq < —2, y en este caso existe un único punto fijo, para el cual resulta 3f(Ai) < O, 5í(A2) < o, A3 > O, así que el punto fijo es inestabie. • p — - 2 / 3 = > zo = 1 ,- 2 (existen dos puntos fijos ahora, el de valor cq = 1 es un punto fijo doble), para los cuales resulta: 1. Jo = 1- -^1 = 1 +
A-2 = 1 - uñ, A3 = O, el punto fijo e¿ inestable
2. 2o = —2: Al = - 2 + uv', X2 = - 2 - wi. A3 = —3, el pun" :· fijo es estable. • —2/3 < p < 0 tenemos los siguientes dominios de estabilidad, c i :respondientes a las diferentes soluciones de A.2: 1. - 2 < 2o < —%/3: 3í(Ai) < O, 3í(A2) < o, A3 < O, el punto ñio será estable 2. 1 < 2T0 < \/3: 3?(Aji) > O, 3í(A2) > O, A3 < O, el punto fijo será inestable 3. O < zo < 1: 3?(Ai) < O, 5?(A2) < O, A3 > O, el punto fijo i^-rá también inestable, aunque la dimensionahdad de las variedades asociadas cambia. • p
O obtenemos tres puntos fijos, 1. 2q = 0 : Al = ii¡\ A2 = —iw, A3 = 1, punto fijo inestable 2. 2o = \/3: íR(Ai) > O, 3?(A2 ) > 0. A3 < 0. punto fijo inestórile 3. Zq =: ~\/3'· íR(Ai) < O, ^ { ^ 2 } < 0. A3 < o, punto fijo estaole
144
Orden y Caos en Sistemas Complejos • O < p < 2/3 tenemos otros tres dominios de estabilidad, también correspondientes a las soluciones de A.2; 1. —\/Z < 2o < —1·
2.
< O, 5?(A2 ) < o, A3 < O, el punto njo será estable
< Zq < 2: 3í(Ai) > O, ^ ( ^ 2 ) > O, A3 < O, el punto fijo será inestable
3. —1 < 2o < 0: 3í(Ai) < O, ^(A^) < O, A3 > O, el punto fijo será también inestable • p > 2/3 => ZQ > 2 y resulta en este último caso 3í(Ai) > O, 'R{A2 ) > O, A3 < O, y eí punto fijo será inestable. Estudiaremos a continuación la variedad centro que se produce cuando el parámetro p p¿Lsa de ser positivo a ser negativo. Obsérvese en la relación anterior que cuando p — O se obtiene que el punto fijo x ‘ (p = 0 ) = (0 , 0 , 0) tiene asociados dos valores propios nulos (con cual aparecerá una variedad centro de dimensión dos) y un valor propio positivo (correspondiente a una variedad inestable unidimensional). Necesitamos en primer lugar escribir el sistema A .l en forma de .Jordan (o forma normal), para lo cual utilizaremos el cambio que proporcionan los vectores propios y aplicaremos una traslación en la variable z, x' — ix — y y' = - I X - y
z' = z-¡rp y así podemos escribir el sistema A .l en la forma X — [iw — p)x y - { - i w - p)y ¿
xz yz
(1 + i^ ( y - a^) + e (2 - p)j
(A.3)
donde se han suprimido las primas por comodidad. Vemos que la variedad centro está determinada por las dos primeras variables, x e y. Localmente, sabemos que en la variedad centro se puede escribir la variable 2 como función de x y de y. Consideremos un desarrollo de 2 a segundo orden como función de x e y para encontrar, siguiendo las ecuaciones dinánúcas A.3, la ecuación a segundo orden que corresponderá a la variedad centro, 2=
+ bpx + cpy + dx'^ + f x y 4 -
+ 0(3)
donde a,í>, c ,d ,/, g son coeficientes que han de ser determinados. Por sustitución directa en ¿
^
„\3
^ “ 3 (“ - P) -
í i
* . ·?
(i +
- x ) + e{z - p
e igualando los términos con las mismas variables obtenemos ecuaciones que nos permiten calcular los coeficientes del desarrollo de 2 (indicamos al principio el término que produce cada ecuación), •
ct = O
• px: iwb = b
6=0
• py. —iwc = c = > c —O
Atreictores Periódicos y Cuasiperiódicos • x'^: 2diw — d = >
145
= O
• y'^: -2giw =z g => g = O • xy: fiw ~ f i w = / —l = > / = r l Así que obt*-nemos que, localmente (para p « 0), y a segundo orden z = xy y podemos escribir las ecuaciones de la dinámica reducidas a la variedad centro como X =
(iw — p)x
+
x^y
y = (~ iw - p)y + En este caso particular se puede ver que no es posible determinar la esrabilidad del punto fijo con la aproximación a segundo orden, lo cual haría necesario el cálculo de la variedad centro a un orden superior si éste fuese nuestro propósito. Se ha visto el mecanismo esencial; desarrollo de 2 en función de X, y y p a\ orden deseado y, siguiendo las ecuaciones dinámica.s, cálculo de la variedad centro. Se puede encontrar en la bibhografía especializada los teoremas que permiten establecer la estabüidad del punto fijo en cada, caso.
B ibliografía Junto con algunos de los textos citados en el capítulo 2, se puede consultar 1. J. Guckenheimer y P. Holmes Nonlinear Oscillations, Dynamical Systems and Bifurcations of Vector Fields. Springer-Verlag, New York, 1983. 2. Y. A. Kuznetsov, Elements of Applied Bifurcation Theory. Springer Series in Applied Math ematical Sciences, vol. 112, New York, 1995. 3. E. Ott, Chaos in Dynamical Systems. Cambridge University Press. 1993. 4. L. Perko, Differential Equations and Dynamical Systems. Springer Series in Texts in .^Lpplied Mathematics, vol. 7, New York, 1991. 5. S. Wiggins, introduction to Applied Nonlinear Dynamical Systems and Chaos.
Verlag, New York, 1990.
Springer-
C a p ítu lo 5
C a o s D eterm in ista Eem os analizado en capítulos anteriores el comportamiento de sistemas que exhiben atractores p-er'ódicos o puntuales. Los ejemplos dados hacen referencia por lo tanto a sistemas intrínsecamente p:-: decibles. En este sentido, se asumió desde el principio la vahdez de la implicación: D eterm inism o
Predicción
Las herramientas básicas presentadas anteriormente nos permiten en muchos casos conocer la ¿ i^ám ica de ias soluciones, cuanto menos en las proximidades de los puntos críticos. A la pregunta d-T 5Í son éstas todas las soluciones posibles o suficientes en nuestra descripción de la reahdad, la r-rs'puesta es, como veremos, decididamente negativa. La ciencia ha tendido a clasificar los fenómenos naturales en dos grandes grupos, atendiendo a - u e s tra capacidad de explicar su comportamiento. En uno de ellos se hallan fenómenos que e:íLi;.iben, en una u otra forma, comportamientos simples, ya sean estos estados estacionaxios o p-r riódicos. Para estos problemas se dispone de un formalismo como el anterior, y podemos predecir dificultad el futuro del sistema. Aparece aquí una segunda implicación, intuitivamente clara; Dinámica sim ple c
M odelo simple
implícitamente, hizo válido que se asumiera la implicación contraria: M odelo sim ple = > Dinámica simple
Por o tra parte están aquellos sistemas que se comportan de forma compleja y que estudiamos ■r~_pleando fundamentalmente herramientas de tipo estadístico. Para estos sistemas renunciamos a :iaa descripción detallada y nos contentamos con promedios que, aunque pobres en detalle, nos CLZL cuanto menos algún tipo de información. La conclusión implícita en esta separación fue que la 0 :?j-ervación de una dinámica compleja e irregular en un sistema cualquiera era debida a una comr ltiid a d interna del mismo sistema. Si observamos un fluido turbulento, la compleja estructura de remolinos nos da un ejemplo de esta idea. Las oscilaciones irregulares de poblaciones naturales, 1 cambios en el chma y el registro de la actividad cerebral serían buenos ejemplos adicionales, adrem os oportunidad de volver a ellos más adelante. Lo que nadie esperaba, y que en gran ~T*dida ha transformado nuestra forma de observar y comprender el universo, es que la mayoría de - sistemas "complejos” , que se habían supuesto como únicamente descriptibles mediante método.s 147
148
Orden y Caos en Sistemas Complejos
estadísticos, son debidos a un fenómeno do baja dimensión, de carácter determinista y que recibió el nombre de “caos” . La existencia de oste fenòmeno ha pulverizado la implicación anteriormente indicada acerca de la capacidad de predecir cuando existe determinismo. Como veremos, si la dinámica del sistema presenta caos, deterrnimsmo no implica predicción. Y más aún: la implicación acerca de la sim plicidad del comporramiento de los modelos simples tampoco se cumple. Los modelos caóticos que analizaremos son enormemente simples, limitados incluso a una sola ecuación. Sin embargo, poseen en su estructura interna la capacidad de generar una complejidad asombrosa.
5.1
A tr a cto res extraños
Partamos nuevamente de nuestro sistema dináiíúco que, como sabemos, puede ser descrito geomé tricamente a través de su atractor asociado. Coiií^ideremos un ejemplo clásico que nos permitirá introducir el concepto de caos y un nuevo atractor. Este sistema, conocido como modelo de Lorenz, se define por: ^--(j{x-y) ^
- rx
(5.1.1)
y - xz
(5.1.2)
^•^hz-^xy
(5.1.3)
y describe de manera esquemática la dinánúca de una capa de fluido que presenta una diferen cia de tem peratura A T entre sus superficies inferior y superior. Este sistema es bien conocido clásicamente: para A T bajos, el fluido transporta el calor por conducción. Para un cierto vsloi crítico, el fluido enera en régimen convectivo, y aparece una estructura espacial (ya indicada en el capítulo anterior) que es reemplazada finalmente por un comportamiento turbulento para una diferencia aún mayor. Este comportamiento desordenado aparece en el mismo sistema que da lugar a los otros comportamientos. No hemos modificado la estructura del sistema (que sigue siendo simple) y sin embargo algo nuevo (y aparentemente muy complejo) tiene lugar. Estudiaremos en primer lugar la estabilidad de las soluciones. Notemos que el sistema es siempre disipativo (véase el capítulo 1) puesto que para un volumen arbitrario V, se tiene: dtV —
divFf, =
dx
puesto que las constantes se definen positivas. con el paso del tiempo.
5.1.1
di)' El
dz
= -(
volumen se contrae por lo tanto exponencialmente
L o renz: p u n to s críticos y e s ta b ilid a d
En primer lugar estudiaremos los puiitos críticos del modelo de Lorenz y su estabilidad local. Partiendo de las ecuaciones del modelo 5.1.1, 5.1.2 y 5.1.3, los puntos fijos del sistema son: .Vi = ( ü , 0 , 0 )
A'± - ( ± v A ( 7 ^ . T V 6 ( 7 ^ , r + 1) El primer punto corresponde físicamente a la situación de fluido estable, sin movimiento y con transporte de calor por conducción. La matriz asociada al sistema lineal será:
Caos D eterm inista
149
Fig;ura 5.1: Orden y caos. Clásicameate el orden queda ejemplificado por el ritmo regular de un reloj (que no es más que un oscilador armónico simple). El caos, representado por la tormenta, fue entendido como e! azar imprevisible. Para comprenderlo, deberíamos ser capaces de conocer en detalle todcis las variables implicadas, algo virtualmente imposible de realizar. El caos determinista, sin embargo, ha modificado completamente esta visión.
(-0 L(X¡) = I r
a -1
o \ o
O
-V
Vo que nos proporciona los valores propios;
Al,2 =
± iv'(<^+ip+4(r-l)cr A3 = - 6
A'i será estable si 3?(A,) < O, lo cual implica r G (0 ,1), e inestable en consecuencia cuando r > 1. Los valores propios evidencian un punto crítico que se comporta, para r > 1, como un punto de silla tridimensional. La convección do Bcnaid (su equivalente en este modelo) se inicia en r = 1, donde \ i = Ü, y aquí X± entran en escena. Haremos a continuación un análisis más detallado del comportamiento de estos puntos. ReaUzaremos el cambio de coordenadas (véase el capítulo 2) x ' = X ^ {b(r -
2'
=
2
- (r - 1)
con lo cual las ecuaciones linealizadas son ahora: dx - =
- y)
150
Orden y Caos en Sistemas Complejos dy
^
= ±e(x + y) - b z
donde se han suprimido ia¿ primas por comodidad y se ha definido € - y/h{r — 1). Los valores propios se obtendrán del poUnomio caxacterístico; P(A) =
-f-(£7 + b+l)A 2 + 6(o-+ r)A + 2 6 a ( r -
1) =.
O
Para anaUzar la estabilidad de esta ecuación podemos recurrir a métodos numéricos o emplear cierta álgebra simple (aunque algo intrincada). Notemos que todos los coeficientes de P{X) son positivos, ya que imponernos r > 1 para que y X - existan. Tenemos así P(X) > O para cualquier A > 0. Tendremos inestabiUdad (es decir, 5?(A) > 0) únicamente si existen soluciones A G C complejas conjugadas en P(A) = 0. Es fácil ver que si r — 1, Al — O,
A2 = — 6,
A 3 = — (cr 4- 1)
y tendremos estabilidad marginal. Para r > 1 tenemos inestabilidad ¡jara algún u en el que 5?(A) = O, y por tanto Ai = iu; y A2 = “ ¿u;. Ahora bien, la suma de los tres ceros de la ecuación cúbica es: Al +
A2 - f A3 =
— (cr +
í> +
1) < 0
y por lo tanto A3 ——(cr + 6 -f* 1) < O En el punto de inestabiUdad, Xi ^2 = ±^^'1 y puede probarse en ese punto que o-{a + 5 + 3) r = Te = --------r---— rr ~ í> —1 y tendremos inestabilidad para aquellos pares {a, 6 } tales que estables si fT < bi- l y r > l
> 1- Los puntos críticos X± serán
o bien si a > b + l y Vr_ > r > i Si se da la inestabilidad, sucede lo siguiente a medida que r aumenta desde 1: Ai decrece, desde cero hasta que “colisiona”con A2(cuando Ai= A2 < 0 ), seconviertenenuna pareja compleja conjugada, y finalmente su parte real se hace positiva. A3 permanece negativo para todos los valores r > L Cada uno de los dos puntos X+ y A'_ tiene un valor propio negativo y dos con parte real positiva y complejos conjugados, cuando nos hallamos en la zona de inestabiüdad. La dinámica se localiza sobre órbitas que se acercan al punto fijo en la dirección determinada por la variedad estable asociada a A3 y se alejan en forma espiral sobre la variedad inestable que determinan Ai y ^ 2· Podemos, pues. haUar ciertas combinaciones de parámetros que arrojarán inestabiUdad para los tres pvmtos fijos, A'i, A'^. y A'_. y entonces, dado que la dinánúca está acotada en el espacio de fases y no divergirá a infinito, se presentarán situaciones dinámicas complejas, como en el caso siguiente, lo cual hace necesario recurrir a partir de aquí a un análisis global de la dinánúca.
Caos Deterministar
151
30
10-
-
10 :
-30-
0
500
1000 1500 tie m p o
2000
2500
Figura 5.2: (a) Atractor extraño para el sistema de Lorenz (véase el texto), (b) Series temporales correspondientes a las variables x(t) y z{t).
Supongamos que tomamos las siguientes constantes, r = 28, a = 10, 6 = 8/3 y analizamos numéricamente el comportamiento de las soluciones. Nuestro sistema es determ inista y, sin em bargo, exhibe una dinámica de gran complejidad, que, de hecho, es totalmente aperiódica. La existencia de determinismo (y de un número reducido de dimensiones) queda patente cuando es tudiamos la estructura del atractor, que vemos en la figura 5.2. Si siguiéramos la trayectoria de una condición inicial dada a lo largo del tiempo, veríamos que se mueve sobre este objeto de una forma errática, pasando de un lado a otro de forma aparentemente caprichosa. El atractor tiene volumen cero, y su dimensión estará por debajo de d = 3. ¿Se trata de algún ciclo límite muy comphcado, restringido a un subespacio de dimensión d = 2? No: el atracto r de Lorenz es un atractor extraño^ un nuevo objeto de una estructura muy intrincada. En su interior encontraremos fractales, extrañas propiedades y, sobre todo, un nuevo fenómeno que nos acercará a uno de los problemas más apasionantes de la complejidad: el caos determinista. Antes de volver al atractor de Lorenz, daremos un rodeo alrededor de los sistemas discretos. Señalemos que Edward Lorenz partió en su estudio inicial de sistemas de mayor complejidad, formados por 14 ecuaciones (Lorenz, 1995), que fue simplificando progresivamente. En 1971, tras asistir a un congreso acerca del problema de la turbulencia y oír a David Ruelle, que acababa de publicar un artículo junto con F. Takens (titulado “sobre la naturaleza de la turbulencia” , Ruelle y Takens, 1971) en el que por primera vez aparecía ia expresión '^atractor extraño", Lorenz llevó a cabo la última simplificación que convertiría su sistema en un modelo tridimensional (véase apéndice). Como señala Lorenz, ésta es una representación muy simplificada de la reaUdad, pero si este modelo exhibiera un comportamento que, en alguna forma, fuera impredecible, entonces tal vez el chma real pudiera serio por motivos distintos a los que supondríamos (esto es, un conjunto enorme de variables). Lorenz empleó el ordenador para resolver el sistema, y vió algo realmente sorprendente; su sistema, totalmente determinista, era completamente aperiódico. Jamás se repetía y, lo que era aún más sorprendente, era intrínsecamente impredictible. El caos determinista había entrado en escena una vez más. Esta vez, de forma definitiva.
Orden y Caos cu Sistemas Complejos
152
x(n)
Figura 5.3: Diagrama de iteración de la aplicación logística para
5.2
D u p licación de periodo: f^{x) =
= 2.7 (véase el texto).
— a:)
En esta sección nos detendremos a explorar eí comportamiento de uno de los sistemas dinámicos más simples conocidos: la ecuación logística (May, 1976). Este sistema discreto unidimensional, que ya fue introducido en el capítulo de sistemas dinámicos, está definido por; :5.2.1) siendo ¡j, e [0,4] un parámetro y G [O, l] (aunque algunos textos exploran el comportamiento para valores mayores, véase Devaney, 1986). El sistema logistico puede generar comportamientos dinámicos de extraordinaria complejidad. Ya vimos que el punto fijo x* = O es estable para /i < 1 e inestable en caso contrario. En fl — 1 aparece un nuevo punto crítico, x ‘ = 1 — l/jj que permanece estable dentro del intervalo fl G (1-3). Más allá de ^ = 3. este punto deja de ser estable. La estabilidad de estos puntos puede analizarse empleando diagramas de recurrencia (x„.xn + i) como los que se indican en la figura 5.3. Dibujamos la curva logística ffi(x) dentro del intervalo unidad, así como la recta bisectriz x„ 4.i = x„. Observemos que dicha recta intersecta a la curva logística en dos puntos, que son de hecho los puntos fijos antes indicados. El f)r()cedimiento para iterar sobre este diagrama es el siguiente: • Partimos de una condición inicial dada
xq
(un punto del eje horizontal. x„).
• Trazamos la recta que va hasta el valor de ia imagen de Xq, esto es, un punto sobre la curva logística de valor Xi — f^(xo)‘ • El nuevo valor sirve de condición nueva sobre la que iterar. En lugar de volver al eje horizontal, simplemente trazamos la recta horizontal que va del último punto a ia recta bisectriz, y repetimos la iteración para alcanzar de nuevo la curva en x -2 = f ni xi )· • Iteramos siguiendo los pasos anteriores. En la figura 5,3 podemos ver el resultado de nuestro experimento numérico; la trayectoria forma un diagrama que converge hacia el punto fijo x' = 1 — 1/^. Este punto es estable, como queda de manifiesto en el comportamiento de las iteraciones sucesivas.
Caos DetermLaista
153
x (n )
Figura 5.4: (a) Diagrama de iteración para ^ = 3.2, que muestra comportamiento periódico. En las proximidcides del punto fijo x^, la órbita se desplaza alejándose de este valor (que es inestable) para alcanzar alternativamente los puntos xi y X2· (t>) Diagrama de bifurcación correspondiente. P ara /i > 3, el punto anterior se hace inestable. Si empleamos el diagrama dr recurrencia anterior, encontramos que esta inestabilidad conlleva la aparición de dos nuevos puntos sobre la curva logística, que dan lugar de hecho a una trayectoria periódica, a una órbita de periodo dos - {X1,X2} esto es, a un par de puntos tales que: Xl = Ui ^2) X2 = /fí(xi) o, lo que es lo mismo.
El punto /ic = 3 es un punto de bifurcación y a este tipo particular se la denoiniiia bifurcación con duplicación de periodo. En general, los puntos fijos de una órbita /^-periódica forman un conjunto: OW = {x,-'^> ; í = l , . . . , p | ^ ' W = /W (x,-‘' ’ que, para el caso que nos ocupa (p =: 2), se obtienen de la ecuación: a:- = / « ( x - ) = ^ [ / „ ( l · ) esto es, para el caso logístico, x ' = /^^^(x*) = /jx’’(l -
X*)
l - / i x '( l - x *
lo que nos da una ecuación de cuarto grado (haremos x* H x): -/i^x"^ + 2/i^x^ - (/i^ +
- l)x = O
154
Orden y Caos en Sistemas Complejos
Figura 5.5: (a) Diagrama de iteración para con (a) — 2.8 y (b) ^ = 3.2 (b). Vemos la aparición de dos nuevos puntos fijos correspondientes a la órbita periódica. aunque esta ecuación sería en principio difícilmente resoluble, dos de sus soluciones son ya cono cidas: r* zz O y = 1 — l/f¿, puesto que ambas verifican (trivialmente) las condiciones de la ecuación de péurtida. La primera solución permite obtener: ^^)r + (/i^ - 1) = O
Mientras que, dividiendo esta ecuación por (x —x¿), obtenemos una ecuación cuadrática: -f 2fi^x - (/i^ + /j^) = O
lo que nos lleva a obtener las dos nuevas soluciones a partir de > + l esto es, ^1,2 =
[fl -f 1) ±
- 2/i - 3
En la figura 5.4 (a) representainos el diagrama de recurrencia para /x — 3.2 junto con el cor respondiente diagrama de bifurcación (figura 5.4 (b)). Como es habitual, indicamos con lineas discontinuas las soluciones inestables y mediante lineas continuas las estables. No olvidemos que ahora las ramas que aparecen a ambos lados de x* = l ~ l/¡j. forman parte de la órbita periódica. Podemos representar esta situación mediante un nuevo diagrama de recurrencia, ahora el cor respondiente a los puntos (x„, x„+ 2) (figura 5.5). La curva es ahora que, como vemos, tiene un comportamiento algo más comphcado. Los puntos fijos de la aphcación aparecen ahora eu las intersecciones entre la nueva bisectriz Xn+2 = Xn Y la- curva. Para valores inferiores & — 2, sólo aparecen dos puntos que corresponden a los dos puntos fijos de ffi{x). Para > 3, surgen ias nuevas soluciones que se mantendrán estables hasta un nuevo valor . A medida que aumenta, la amplitud de las oscilaciones en la ecuación logística crece (como vemos en el diagrama de recurrencia). Más adelante se da una nueva pérdida de estabilidad, la cual genera una órbita de periodo cuatro. Estas bifurcaciones con duplicación de periodo se
Caos Determinista
155
dan sucesivamente y con mayor rapidez, de forma que aparecen comportamientos periódicos de periodos 8, 16. 32, 2". Las órbitas que se han hecho inestables serán, como antes, soluciones de las uuevas ecuaciones de los puntos fijos de las nuevas órbitas, de forma que, a medida que aum enta el valor del parámetro, el núraero de órbitas periódicas inestables va creciendo con rapidez. En la figura 5.0 vemos el diagrama de bifurcación con duplicación de periodo (descrito por primera vez por May y Oster, 1976) en el que se aprecian las propiedades ya indicadas. La estabilidad de las órbitas de periodo arbitrario puede obtenerse a partir del estudio de la aproximación lineal a la aplicación de manera similar a como se estudia la estabilidad de los puntos fijos dei sistema de partida. Para p = 2, el criterio de estabilidad se establece a partir de los puntos fijos <{ue forman la órbita, es decir, x ' = (con i = L 2). \(2) _ esto es, de la desigualdad regla de la cadena:
dx
\^i)
< I, Podemos obtener una expresión más mcinejable empleando la
\
dx
' ¡AK· \
dx
/
á J jA Í dx
V
dx
Esta expresión uos permite escribir la forma general del criterio de estabilidad para una órbita p-periódica arbirraria,
A(^) = n ;= 1 \
dx
para la que igualmente tendremos estabilidad siempre que |A(^^¡ < 1.
156
Orden y Caos en Sistemas Complejos
Un resultado interesante que ya fue iniciaimente observado por distintos autores {May, 1976) es el hecho de que esteis órbitas de periodicidaii creciente (que aparecen a través de un proceso de du plicación de periodo) se dan en un gran número de sistemas dinámicos discretos unidimensionaJes. Así, los siguientes sistemas muestran este comportamiento: Xn + l -
J'n e x p ( ^ í ( l - X n } )
ax„ [1 + X„]^ Xn + l =
SÍn(TX„)
aunque la aparición de ias bifurcaciones tenga lugar en valores distintos y las amplitudes difieran de las anteriores. Todas estas funciones comparten la existencia de un único máximo en el intervalo de definición de x así como su continuidad sobre dicho intervalo (más adelante veremos que existe un conjunto bien definido de puntos en común que las agrupa en una dase de universalidad, según definiremos en el capítulo 7). Un anáüsis de la aparición de las órbitas periódicas sucesivas, que generan órbitas de periodo 2” + ^ a partir de la última órbita de periodo 2” , indica que el línúte n-oo (que no es sino el cociente entre las distancias sucesivas en los valores de ß que dan lugar a bifurcaciones con duplicación de periodo), converge a un valor constante dado por 6 = 4.6692 — Este es un número trascendente, conocido como constante de Feigenbaum (Feigenbaum, 1978). Observemos que, dado un primer par de valores del parámetro p en los que aparecen bifurca ciones consecutivas, podemos llevar a cabo una estimación de los puntos sucesivos /j en los que tiene lugar una bifurcación a partir de la recurrencia: , - P n -l Atn+ 1 — Atn H------- -------On donde
será: fín-l - ßn-'i f^Tt l-ín - 1
lo que nos da, empleando el método de Newton, un valor límite para
dado por
fioc ~ 3.5699456... que es, como vemos, un punto de acumulación para esta serie. Debemos preguntarnos a continuación qué puede ocurrir más allá de este valor /^oo- El número de órbitas periódicas inestables ha crecido indefinidamente, de forma que las trayectorias se han hecho cada vez más complicadas.
5.3
C aos en sistem as discretos
Más allá del punto /ioo aparece el caos deternúnista. En la figura 5-7 vemos dos ejemplos de diagramas de recurrencia en este dominio, para /i —3.7 y /i = 4. Podemos ver el caos en acción y su efecto sobre la evolución futura del sistema dinámico empleando dos condiciones iniciales muy próximas y siguiendo sus cambios a lo largo del tiempo. Tomemos la ecuación logística con /i = 4 y las condiciones iniciales xq = 0.1000 y Xq = 0.1001, que sólo difieren entre sí en el cuarto decimal.
Caos Determinista
157
Figura 5.7: Caos: aplicación logística en el dominio caótico. Vemos el diagrama de recurrencia para (a) /i = 3.7 y (b) /i = 4. La separación entre ambas es, por lo tanto, € =: lO“ "*. No debemos olvidar que el sistema dinámico que empleamos es determinista así que, en principio, tal vez esperaríamos que la evolución de ambcis condiciones iniciales fuera básicamente idéntica al cabo de mucho tiempo. Podemos ir más allá: supongamos que estamos modehzando un sistema real perfectamente descrito por la ecuación logística. Imaginemos que nuestro modelo parte de Xq —
que también hemos representado, en la figura 5.8 (b). Observamos que, auíique ri / ) fluctúa enorme mente (y por tanto cada trayectoria es básicamente independiente) su valor promedio el relativa mente alto. Esta situación es general en los sistemas dinámicos que exhiben caos: son sistemas que presentan sensibilidad a las condiciones iniciales (SCI). Como veremos, existe una conexión profunda entre las propiedades topológicas de los atractores extraüos y esta SCi. Formalmente, podemos definir esta SCI en la forma: D efinición Diremos que la aplicación f ^ : U —^U tiene sensibilidad a las condiciones iniciales (SCI) si > O ; Vz € t/, V 5(x), 3{ y € B{x ) , n > O } *■ S ( x ) es u n a b ola a b ie rta q u e c o n tie n e a x. Véase la sección 3.3.
Orden y Caos en Sistemas Complejos
158
Figura 5.8: Sensibilidad a las condiciones iniciales para ^ = 4. (a) Se indican dos órbitas que difieren en el valor de sus condiciones iniciales. Aquí, la primera parte de zo = 0.1000 (línea continua) y la segunda de Xq = 0.1001 (trayectoria discontinua), (b) Diferencia (en valor abso luto) entre am bas trayectorias. Esta diferencia, que fluctúa enormemente con el tiempo, define la existencia de sensibilidad a las condiciones iniciales. tales que i / ; ( x ) - / ; ( y ) i ><5 En forma intuitiva: la aplicación es sensible a las condiciones iniciales si existen puntos arbitrari amente próximos a x que se separan al menos en ó bajo n iteraciones de la función ¿Cómo se traduce este comportamiento en el diagrama de bifurcación de la aplicación logística? En la sección ¿jaterior nos habíamos detenido en los h'mites de la secuencia de bifurcaciones que, como vimos, p-:>?ee un punto de acumulación para cierto valor /ioo- Si continuamos nuestra repre sentación de 1-5:5 órbitas del sistema para valores superiores, vemos por primera vez la estructura del diagrama rn la región caótica (figura 5.9 (a)), que posee una extraordinaria complejidad. Las regiones sombreadas corresponden a órbitas aperiódicas (caóticas) que aparecen salpicadas por ventanas de periodicidad de mayor o menor tamaño. Si llevamos a cabo una ampliación de un detalle de una de estas ventanas (figura 5.9 (b)) nos encontramos con una sorpresa: el diagrama de bifurcación anteriorm ente obtenido aparece nuevamente a esta escala de detalle y, de hecho, puede ser obtenido im a y otra vez, con toda su complejidad, a partir de detalles de diagramas sucesivos. Pese a su simr'licidad, la ecuación logística esconde una complejidad asombrosa. Podemos ilustrar esta definición con un ejemplo formal simple. Consideremos el sistema dinámico (M artín et al., 1994) ^n + l — f i ^ n) — demostraremc^ que, dentro del intervalo U — [l,oo) este sistema simple (pero no-hneal) exhibe SCL Para el iniervalo U empleado, la órbita que parte de cualquier punto xq > 1 diverge a infinito. Tenemos: lim /" ( x ) — lim x^'* = oo ; xq > 1 n— '00 n— ‘00
Caos Determinista
159
4
3 .8 2 8
3.8 4
3.85
3.85
Figura 5.9-· Diagrama de Feigenbaum, (a) Diagrama para distintos valores de fi desde el dominio periódico a los límites del dominio caótico. En (b) indicamos una ampliación de un pequeño detalle del primer diagrama, obtenido de una parte de la ventana periódica. (y toma el valor constante 1 si xo = 1)Sea í > 0 , l > e > O y x G [0,oo). Cualquier punto arbitrario y € ( r ,x + e) verifica la desigualdad \y-x\<€ y, por el teorema del valor medio, tenemos que !/"(y) -
r{^)\ =
^1
donde ^ € ( 2:,a: + e) y es un punto arbitrario en este intervalo, que existe tal que la condición anterior se verifica. Aplicando la regla de la cadena. dr(: dx
/ / fn - l / c^
= / ' ( í ) / ' ( / { í ) ) / ' ( / ^ 0 ) - / ' ( / " “ (O)
Ahora, puesto que f ' {x) = 2x > 2 (ya que x > 1) y dado que
{ / ‘ (í) ; fc = 0 ,...,o c } c (i,o o ) se verifica que ( / " ) '( í ) > 2", luego
y se verifica 2'^|j/ —rj > 1 si n >
ln|y - x|-^ ln(2)
Por tanto, para e) valor de n que verifica la condición anterior se (obtiene uua separación enrre las dos trayectorias superior a e,
160
Orden y Caos en Sistemas Complejos
\r{y)~ r { r ) i > i> ^ esto es, el sistema anterior presenta sensibilidad a ias condiciones iniciales, como queríamos de mostrar. Debe quedax claro del último ejemplo qur la sensibilidad a las condiciones iniciales es carac terística de los sistemas que exhiben caos determinista (concepto que iremos definiendo). Aunque el ejemplo anterior es ilustrativo, no lo es de manera completa: el sistema dinámico anterior no está acotado como lo estarán los sistemas dinanúcos de interés que anahzaremos (como es el caso de la ecuación logística). La existencia de un atractor acotado a cierto dominio del espacio de fases será un requisito claro a exigir.
5.4
E x p o n en te s de Lyapunov
Hemos definido con anterioridad el concepto de atractor extraño ligando la geometría de estos objetos a la sensibilidad a las condiciones iniciales. El carácter disipativo de la dinámica garantiza la convergencia de las trayectorias dentro de la cuenca de atracción hacia cierta región acotada del espacio de las fases que, como ya vimos, define la dinánrüca del sistema y nos da una imagen del orden (y del deternúnismo) subyacente. Por otra parte, la sensibilidad a las condiciones ini ciales hace que dos puntos iniciaimente próximos situados sobre el atractor se cdejen de manera exponencial con el paso del tiempo. El resultado de ambas tendencias da lugar a un proceso de estiramiento-y-plegado que origina las propiedades fractales ya comentadas. Veremos ahora cómo cuantificar, desde ei punto de vista de la dinámica del sistema, la divergencia (y por tanto la in estabilidad locad) de las trayectorias. Emplearemos para ello los exponentes de Lyapunov, que nos permitirán conectar con la geometría del atractor a través de su procesa de formación. Para introducir el concepto de exponente de Lyapunov, emplearemos como ejemplo una aplicación unidimensioncd que extenderemos a continuación a un ejemplo bidimensionaJ. Consid eremos la aphcación — i^p(a:^) con la expresión —x) y definida sobre el intervalo unidad U — [0,1]. Dadas dos condiciones iniciales muy próximas, el comportamiento de ambas diverge, en el régimen caótico, de una forma rápida que podemos cuantificar. El ejemplo numérico anterior, que estudiábamos para la ecuación logística con — 4, tiene sus contrapartidas equivalentes en otros sistemas dinámicos caóticos disipativos, como el modelo de Lorenz- Consideremos ahora el problema en términos generales, manteniendo por ahora la aproximación 1-dimensional. Tomemos dos condiciones iniciales X q , X q í U separadas una distancia f <§: 1, con lo que podemos escribir de hecho x,', = xy y Xg = ■^o + f· Tr.is n iteraciones de estas condiciones iniciales habrán evolucionado hasta los nuevos puntos definidos por
^
+ f)
La separación inicial e habrá incrementado su valor en un cierto factor, digamos V"
fG(xy, n)
que indicaremos en la forma: G (xo.n)
siendo A(xo) el llamado exponente de Lvapunov. Se tiene por tanto que:
161
Caos Determinista que nos da, tomando el limite para n —^ oo y f —► 0: A (x„)= lim n—>-c30<—>0 n que obviamente se reduce a la expresión: A(zo) = lini - In «—‘OO 71
d
dxo
En este contexto, e·^ es el factor (promediado) de divergencia entre condiciones iniciales próximas tras n = 1 iteraciones, ü n a expresión más simple se obtiene manipulando la expresión anterior: A(xo) = lim —In n~*oo n
d
= lim —In n—oc n dx(
dxo
y dado que = F\{xi)F\{xo) con Xi = Ffj,{xo)y reescribimos A(xq)
la forma; n -l
A(xo) — lim - In n-K X >
n
o lo que es lo mismo: n -l A(ro) == lim - ^ In ^¿^¿( 3:^) n—00 n *—^ (=0
(5.4.1)
Si bien esta última expresión no nos permitirá (en general) obtener resultados analíticos, es de fácil manejo en lo que al cálculo numérico se refiere, y permite observar propiedades cualitativa y cuantitativamente relevantes. Como ejemplo (figura 5.10) tomemos la aplicación logística y calculemos el valor de A para distintos valores de //, promediando N = 5000 iteraciones tras eliminar los primeras r — 1000. El procedimiento de cálculo seguido. expKcitarnente, es: ♦ Damos un primer valor de y una condición inicial (digamos x = 0.1) que emplearemos para obtener una serie de valores. ♦ Iteramos la aplicación ffi{xn) = —Xn) durante N + r pasos de tiempo, descartando los primeros r (para evitar incluir el comportamiento transitorio). Tenemos entonces una serie
Orden y Caos en Sistema^ Complejos
162
Figura 5.10: Aplicación logística: Exponentes de Lyapunov. (a) Exponentes obr.enidfjs para /i G (3.4, 4.0) en los que apreciajnos una transición hacia valores posÍtivo.s para fi > /í^c que aparecen salpicados de uu gran número de caídas hacia valores negativos o nulos que indican la presencia de órbitas periódicas, (b) Ampliación de la gráfica anterior, para ß € (3.85, 3.95). Podemos observar la existencia de una zona de exponentes positivos que corresponde a .los valores de /i del donünio caótico. Previamente, podemos observar las últimas etapas d^^l escenario de Feigenbaum. Los puntos para los que A — O corresponden a los puntos de bifurcación (de estabilidad mcirginal). Una propiedad especialmente interesante es la existencia de "ventanas" periódicas entremezcladas en la zona caótica. De hecho, si ampliamos un detalle cualquiera de este dominio (véase fig. 5.10 (b)), aparecen otras ventanas. Este hecho conlleva la inestabiüdad estructural del ceios en este sistema; cualquier entorno de un ¡x con un exponente asociado positivo contiene punios periódicos. Este fenómeno, como veremos, no tiene contrapartida en los modelos que incluyen el espacio físico en forma explícita.
5.5
La aplicación triangular
Existe un sistema dinánúco discreto unidimensional especialmente interesante debido a su simpli cidad y a la posibilidad de obtener, de forma analítica, su exponente de Lyapunov asociado. El sistema en cuestión está definido por la aplicación: ^fi+1 — donde
— ^^1
2
1
2 -"'
)
G ( 0 ,1). Podríamos reescribir esta aplicación en dos partes, esto es.
- 2/ix„ jxira x„ < 1/2
y
+i = 2^<(1 - x„) para
> 1/2
Esta función se representa en Ía figura 5.11, en la que hemos indicado además la trayectoria dei sistema para cuatro valores distintos de ¡j.. Excepto para el primer caso, los otros tres muestran una dinámica compleja. Demostraremos que, efectivamente, se trata de caos determinista (exponento de Lyapunov positivo).
163
Caos Determinista
Figura 5.11: Aplicación triangular: diagramas de recurrencia para // = U.7 y para /i = L. Para esta función, el cálculo de la derivada nos da, para cada subintervalo (O, 1/2), (1/2, 1), los valores y —fi, respectivamente. Sí empleamos la expresión del exponente de Lyapunov 5.4.1, obtenemos n -l
^ lim i ^ I n n —oo n i=0
f.-i · -
= lu(;x)
n-^oo n *—^
que será positivo si > 1/2 y negativo en caso contrario. Así, más allá de fj-c = 1/2 este sistema siempre mostrará caos. Aunque la aplicación triangular es un sistema dinámico muy simple, sus propiedades (así como las de otros sitemas similares) la hacen, como veremos, de enorme interés en nuestro estudio.
5.6
S istem a s d iscretos : d > 1
Los resultados previos pueden obtenerse en sistemas discreto.s de mayor dimensión. Para estoí^ sistemas, definidos ahora por un conjunto de ecuaciones discretas del tipo +i
f^(x»)
con x„ - (x¿,..., x^) y = ( / μ - ··<>//?) tendremos también combinaciones de parámetros que darán lugar a dinámicas enormemente complejas. Un ejemplo de éstas ya se vio en el capítulo 2, en el que se mostraba la dinámica del modelo de Lotka-Volterra +l = μ Χ η ( 1 -
- yn)
yn +l = μ Χ η υ η el cual exhibe atractores de gran complejidad para ciertos intervalos de valores de μ .
Orden y Caos en Sistemas Compiejos
164
Figura 5.12: Deformación de un entorno de condicioues iniciales bajo la acción del flujo de sistema. La estabilidad de los puntos de equilibrio se analiza de forma similar a lo que ya se vio con anterioridad. El sistema lineal asociado en las proximidades de un punto fijo dado será:
y, por analogía con lo anterior, y empleando notación vectorial, tenemos / n - l
x„ = I TT
\
Xo
\ fc=0
siendo Jjk(5jf^) la matriz de Jacobi calculada en el instante k. Es importante apuntar que el producto matricial que aparece entre paréntesis debe mantener el orden indicado
JqJ 1...Jn- 1 ya que en general Jm J;· Podemos ahora explorar las soluciones caóticas de forma cuantitativa midiendo ciertas can tidades (de carácter estadístico) que se corres{X)nden con la definición anterior de exponente de Lyapunov. Geométricamente, y restringiéndonos al caso d — 2 (sin pérdida de generalidad) pode rnos comprender el significado de los exponentes de Lyapunov {A¿; ¿ = 1,2} a partir del esquema de la figura 5.12. üna bola de condiciones iniciales de radío r se deforma bajo la acción de tal y como se Índica en el esquema. En una dirección se da estiramiento del semieje y en la ortogonal contracción. En esta forma, los nuevos semiejes ot y 6^ de la elipse tienen un valor en la k~ésima iteración dado por a i(z ,y ) y 6fc(a:,t/) « siendo Ai,A 2 las tasas de crecimiento. Los exponentes de Lyapunov se definen entonces como el logaritmo del promedio de estas tasas, Ai(z, y) -
lim ~ In «^(r, y) i —oc fc
^ 2( 2:, y) = lim - I n hk{x,y) k De forma general, para una aphcación fi—dimensional, el procedimiento a seguir para calcular el espectro de exponentes de Lyapunov será diagonahzar la matriz Jacobiana asociada a la T —ésima
Caos Determinista
165
iteración (/.„)(T) (t“l producto de T veces la matriz calculada para cada iteración) y obtener los valores propios asociados, qu*· denominaremos (para evitar confusiones): {A. ; ¿ = y los orden ^retnos de f<»rma (¡ue |A ,|> |A y + ,| ; Vj = l,...,
j
= d e t( i^ ( T ) )
en muchos casos de interés (como el que veremos a continuación) se tiene que det(X^(T)) = C, una constante independiente de las variables dinámicas. Bajo estas condiciones, tendremos que det(L(T)) = . En este caso particular, ¿ A j = l n |C | i =l Para el caso especial en que el volumen no cambia con el tiempo, tendremos que jC| = 1 y por io tanto para sistemas dinámicos discretos que preservan el volumen (el área en dos dimensiones) ¿A , = 0 i= i Una consecuencia adicional del resultado anterior es que Ap < I n \C\/p,
5.7
El m od elo de H énon
Uno de los sistemas discretos bidimensionales mejor conocidos es el sistema de Hénon, que puede escribirse en la forma + i + B y n - i = 2y„ + y que, para jJ?] < 1, es disipativo. Para B = O la aplicación anterior se reduce a la logística, m ientras que si jB = 1, tenemos un sistema dinámico conservativo. De manera equivalente, podemos escribir el sistema de He'non en la forma: ^n +i = y„ -f 1 Vn +l ~
Orden y Caos en Sistemas Complejos
166
Figura 5.13: (a) Atractor de Hénon (a = 1.4, b = 0.3), y (b) exponente de Lyapunov máximo para ia aplicación de Hénon. con Jacobiano a.sociado (ahora /i = {a, &)), o lo que nos da un determinante det(L^) = -6 . Dado que es constante, podemos emplear el resultado obtenido anteriormente acerca de la suma de los exponentes de Lyapunov: Aj + A'2 = In |6| Y por lo tanto en este caso no es preciso calcular más que el exponente de Lyapunov máximo. En la figura 5.13 se representa el atractor de Hénon, así como el mayor exponente Ai obtenido para el modelo de Hénon, para b = 0.3. Podemos anahzar la estabilidad de los puntos fijos del sistema de Hénon. Estos son = y JV* = ( x l .é x l ) , siendo = ¿ { - ( 1 - f>) ± V ( l - 6 ) 2 + 4 a 2 valores reales para a > ü c = - - ( 1 - 6)^ Para a >
los valores propios de la matriz de Jacobi nos dan: A± —
± \Ja^{x± y + h
con lo que tendremos estabilidad para 1- b 2a Este conjunto de valores de x constituye la zona contractiva. Tenemos: <
167
Caos Determinista
:in) Figura 5.14: Atractor (extraño) de Hénon, para a — 1.4 y b — 0.3. Podemos apreciar el efecto del estiramiento y plegado de las trayectorias (véase el texto). Al llevar a cabo sucesivas ampliaciones de una zona del atractor, descubrimos que se trata de un objeto fractal. • (i) Para la desigualdad anterior permite calcular la frontera de la zona contractiva, dada por ai = 3(1 —6)^/4. Para a 6 (O, ni) el punto fijo es asintóticamente estable. • (ii) Para x!_, puede comprobarse que es un punto fijo inestable Va. Cuajido a > a j, el punto fijo deja de ser un atractor estable. Al igual que ocurría con ia función logística discreta, nuestro sistema abandona la estabilidad para dar lugar a trayectorias periódicas. Hénon (1976) (véase también el exhaustivo trabajo de Simó (1979)) estudió el comportcLiniento de este sistema (que es de hecho una aproximación a ciertos problemas físicos más cercanos al representado por el atractor de Lorenz) observando la aparición de comportamientos de gran complejidad, como es de esperar a partir de lo anteriormente visto con el cálculo del exponente máximo de Lyapunov, Para a > ai = Ü.7Ü56 aparecen bifurcaciones con duplicación de periodo que alcanzan el régimen caótico para a.^. a; l.OG... dando lugar a atractores extraños. En la figura 5.14 (a-c) vemos una representación gráfica de este atractor junto con la ampliación sucesiva de un detalle del mismo. Podemos apreciar con claridad la repetición de la misma estructura a cuíJquier escala. Podemos aprovechar este ejemplo para comprobar la riqueza de estructuras asociadas a la aparición de un atractor extraño, representando gráficamente la cuenca de atracción de esta solución caótica (fig. 5.15). El estudio de estas ruencas revela una enorme complejidad en su estructura, que a menudo es fractal (Grebogi et al.^ 1987). En el capítulo sobre fractales se ha representado numerosos ejemplos de conjuntos de J ulia. Desde el punto de vista dinámico, las ecua ciones iterativas que dan lugar a estos conjuntos se [)ueden interpretar como aphcaciones dinámicas, del mismo tipo que las que se están discutiendo, aunque con valores en el piano complejo. Dábamos en aquel capítulo la forma en C{ue se caíc\ilaban los puntos ¿ 6 C pertenecientes a cada uno de los conjuntos de Julia: eran, de hecho, los que separaban la frontera entre los puntos del plano complejo que tenían como atractor el origen y los que escapaban al infinito bajo iteración de la función ^ -h c (c G C). Por tanto, cada uno de los conjuntos de Julia se puede interpretar como la cuenca de atraccuin de la función anterior, para cada valor de c. Los puntos sobre los conjuntos de Julia presentan sensibilidad a las cotuliciones iniciales bajo la iterétción del polinomio -I- c.
Orden jt· Caos en Sistemas Complejos
168
Figura 5.15: Cuenca de atracción para el atractor de Hénon.
5.8
La transform ación del panadero
Estudiaremos ahora un caso de aphcación bidimensional especialmente interesante por su simpli cidad y comportamiento. Se trata de la conocida transformación del -panadero., definida por el sistema dinámico discreto (2ar
{2x.2y) si XG [0.1/2] - l , | í y + l / 2 ) si 0 /2 ,1 ]
que se aphca sobre los puntos del cuadrado unidad — [0,1] x [0,1], y O < ^ < 0.5. El efecto de esta aphcación :E E sobre E puede verse en la figura 5.16. Esta aphcación “estira^ el conjunto dando lugar a un rectángulo de área 2 x fi, que es a continuación “cortado” por su mitad dando dos partes de área 1 x (i que se unen (se pliegan) con un vacío de lado \ — i-t entre ambas. Al aphcar suceííivamente la transformación (similar a la que reahza un panadero al amasar), el conjunto inicial se transforma en E^ = F^(£'), formado por una colección de 2^ bandas horizontales de grosor y separadas por vacíos de longitud vertical > (0.5 — . Puesto que Fn{Ek) ~ Ek +\. el conjunto compacto G definido por
G- *,-=0 n satisface claramente el requisito de invariancia F^{G) — G. Esta aphcación genera una trans formación de estirado-y-plegado sobre el conjunto E. El proceso de estiramiento introduce la inestabihdad que da lugar a la sensibilidad a las condiciones iniciales, y el plegamiento introduce la adecuada disipación (confinando los puntos de E a este mismo dominio). Para este sistema el cálculo de los exponentes puede realizarse anah'ticamente. La matriz de Jacobi es ahora: -
(2 ü
y por lo tanto el producto matricial definido por
Caos Determ inista
169
Figura 5.16: Ttaxisformación del panadero: la idea intuitiva de cómo se oiipiiiar pan. A l aplastar la masa en una dirección, separamos puntos cercanos (sensibilidad a las CI) mientras que al plegar la masa confinamos el sistema a una región limitada.
i =l es la matriz diagonal: (2^ lo
OA
los semiejes serán por lo tanto a k { x , y)
= 2*" ;
b ki r . y)
y los exponentes de Lyapunov correspondientes serán: Al = In 2 (> 0) ,
A2 = In/i (< 0)
Este ejemplo, de gran simplicidad, ilustra con enorme claridad el fenom*íno que subyace a la aparición del caos determinista en sistemas dinámicos disipativos. El objeto obtenido por iteración de m uestra sensibilidad a las condiciones iniciales y propiedades fractales; ambos fenómenos son caras de la misma moneda. Para el conjunto invariante generado por este sistema, podemos calcular sin dificultad su di mensión fractal. Si tomamos tres iteraciones sucesivas del sistema dinámico (fig. 5.17), podemos calcular el número de objetos de tamaño vertical dado (en la horizontal tenemos siempre la misma longitud) que se requieren para recubrir el conjunto generado. En ia figura se indican claramente las longitudes e consecutivas, así como el número de objetos necesarios para obtener el recubri miento. Tenemos entonces que el conjunto invariante final, resultante de la transformación, Aqoi
Orden y Caos en Sistemas Complejos
170
Figura 5.17: Iteraciones sucesivas de la transformación del panadero. Se indican las longitudes del los lados de las sucesivas imágenes obtenidas a través de la iteración. Se indica también el número de objetos de lado dado necesarios para completar el recubrimiento. Este cálculo perriúte determinar la dimensión fractal asociada al objeto obtenido (el atractor). tendrá dimensión (sumamos una unidad para introducir la dimensión horizontal):
n—‘CC
ln(f)
ln(/¿»)
ln(//)
Para terminar, estudiaremos brevemente las propiedades estadísticas de la aplicación del pa nadero para = 2, que define un sistema dinámico conservativo. Para analizar este problema recurriremos a algunas herranrúentas de tipo estadístico como la ecuación m aestra (capítulo 1). Llamemos Pn(xn>í/n) a la densidad de probabilidad asociada al sistema dinámico. Tendremos que: P n ( X n , ! / n ) d X j , d y , , = P o i ^ o , Vo) d x o d y o = P n - \ { X n - l , V n - l ) d X n ^ i d y ^ _ i
Ahora bien, puesto que el sistema es conservativo, el Jacobiano asociado a la transformación es unitario, y por io tanto tenemos conservación de la densidad de probabilidad, Pni^n^Vn) = P n -1(^n - 1, y« - 1) = · · · = po(¿^0, ^0 ) La inversa de la transformación será
G{Zn\yn) ~~ 1 o, lo que es lo mismo,
1
SI
Xn €
í 2' ^
Caos Determinista
171
Si reemplazamos *“1 par {x n ^ i , y n - i ) por sus expresiones en términos de (xn^Vn) a izquierda derecha de la ecu
Pn{x.y) ~ Pn-l
fx + 1
si y \
- Íj
«’ 2 fl
si y ^ ( 2 ’ ^
Este sistema diuámico presenta una aproximación al equilibrio estadístico (en el sentido ya discutido). De esta ecuación podemos obtener los promedios estadísticos de nuestro sistema. En particular, podemos expresar el promedio de cualquier variable f ( x , y ) como < f{x^y) >= / / Pn{x, y)f {x, y) dx dy = / f { x . y ) dx dy Jo Jo Jo Jo Podemos también obtener una ecuación maestra a partir de la ecuación de Perron-Frobenius, Pn{x, y) =
[ í
Jo Jo donde f ( x ) y g{y) son las funciones
p n - i { x \ y ' ) S[z - f{x')] 6[y - g{y' )]dx' dy'
^ 2x 2x~l g(y)=í
\ l / 2 ( y + l)
x e [O, 1/2) [1/2,1] . y e [0,1/2)
y e [1/2,1]
Dado que <5[x - f{x')] =
¿[x' - f
y empleando el hecho de que el valor de x dentro del intervalo unidad determina el nuevo valor d<^ yn + i, tendremos .1/2 rl/2 P „ (x « y )- / dx' p n - i ( x \ y ' ) S X ' - Í <5[y' - 2y] dy' 2 Jo Jo
=J\Í2 f1/2 dx' J\12 í p „ _ i(x ',y ') (5 J\¡2
S[y' - (2y - 1)] dy'
luego, si O < y < 1/2, obtenemos Pnix,y) = Pn-i
y, para y € [1/2,1] obtenemos ,2 y - 1 / como antes. Puede demostrarse (Ford. 1983) que, de hecho, las propiedades estadísticas de este sistema dinámico son las mismas que las del proceso de lanzaniiento de una moneda. Pn( x,
y) = Pn-l
Orden y Caos en Sistemas Complejos
172
Fi'j;ura 5.18; Mixing: al introducir un fluido (tinta) en el interior de otro (agua) se da una mezcla (bajo algún tipo de agitación) que va deformando las fronteras del primero dentro de los límites del segundo. Las forman sinuosas iniciaimente visibles (B’) se van haciendo c£ida vez más tenues, hasta la (aparente) mezcla completa. Se cumple la propiedad de mezcla especificada por la expresión 5-9.1.
5.9
M ix in g y ergodicidad
Anteriormente, hemos introducido la llamada transformación del panadero, un sistema dinámico bidimensional bien conocido en la teoría de sistemas caóticos, y que nos pernútirá entender algunos fenómenos básicos, a^í como el papel que el caos determinista puede jugar en ellos. Una propiedad es{)ecialmente relevante es la ergodicidad y el llamado mixing (o propiedad de mezcla)^ ambos relacionados entre sí. La propiedad de mezcla juega un papel muy importante en la definición de caos deternrúnista, y es también conocida como iransiiividad topològica. En esta sección daremos algunas definiciones básicas. Imagmernos dos fluidos (digamos tinta y agua) que se mezclan entre sí (figura 5.18). Esta experiencia simple pernrúte acercarnos intuitivamente al problema de la evolución hacia eí equilibrio eu sistemas dinánúcos. Inicialmente, el fluido oscuro ocupa una porción reducida del recipiente (indicada por B ' en la figura). Llamemos 72 a esta región, e imaginemos que ambos fluidos son incompresibles, de forma que el volumen de ambos se conserva y supongamos que son no-viscosos, de forma que podamos ignorar los efectos de la difusión molecular de un fluido a través de su frontera con el otro. A medida que el tiempo transcurre y el fluido es agitado, la región inicial se modifica, ex tendiéndose V deformándose. Indicaremos esta evolución en términos de un sistema dinámico: - f(7Z) donde / es el operador que define la evolución temporal de 7Z. Para t —» oo, los filamentos se van extendiendo uniformemente hasta que el fluido se vuelve rosado. Podríamos decir que, como observadores, llevamos a cabo un “promedio de grano grueso” que nos permite llegar a la obtención de una evolución irreversible hacia el equilibrio estadístico. Idealmente, sin embargo,
Caos Determinista
173
si observásemos el fluido a una escala microscópica^ veríamos que la tinta estaría formando hilos finos de formas muy complejas. La condición de mixing puede formularse matemáticamente como sigue: sea B una región del fluido de volumen ¡i{B) y sea A otra parte (por ejemplo, la cuarta parte del volumen de agua, situada eu ei fondo del recipiente, figura 5.18), de volumen ^(A). Como es habitucd, definirnos fi[C) por: i 4 0 = j^n (x)d x (para C = A, B). Si F indica el espacio de fases completo, debe darse la normalización
J fj,(x)dx = 1 Bajo la acción de la mezcla, B evoluciona en el tiempo. Podemos definir una dinámica mediante la aphcación / : R —» R, como antes (y sobre la que se define la medida fi). Se dice que la dinámica es mixing (o que posee la propiedad de mezcla) si: (5.9.1)
lim fl fc-*CXD Si además / es una aphcación uno a uno
obtendremos:
lim fl f ’^ ( B ) U A =fi{A)fiiB)
i — oo
L
En otros términos, tendremos que si Bi = P{B) , entonces lim fi{B)
_ /^(^) fi{B)
lo que no es otra cosa, físicamente, que el cociente entre los volúmenes de A y B. La fracción de tinta que se esparce por la región A deberá, con gran probabilidad, igualar ia fracción del espacio total ocupado por A, En particular, se puede demostrar que un sistema mixing posee la siguiente propiedad: si A y B corresponden a la misma región, entonces se tiene: lim / f i ( x ) f ( x ) x d x =< xtxo > 12 J'r
fí(x)xdx
- <
Xo
esto es, la propiedad de mixing implica que la función de autocorrelación, definida por C{t) =< {Xt - < Xo > )(^ 0 - < ^0 >) > - < Xt^Q > - < X0>^ decae a cero (el sistema se relaja al estado de equilibrio termodinàmico). La propiedad de mixing es una caracterización fuerte de caos. En particular, se tiene que; Mixi ng = > caos ^M ás e x a c ta m e n te , a u n a esc ala m ic ro sc ó p ic a y a n te s de que la difusión m olecular haya t c u i d o t ie m p o suficiente de a c t u a r. ^ E sto es. t a l que si r i se te n g a / ( x i )
174
Orden y Caos en Sistemas Complejos
(en el sentido de Li y Yorke, como se verá más adelanta) p<^ro Caos =!=> mixuig Del mismo modo, se tiene que mixiTKj
crgodiridtid
ergodicidad
mi xi ng
Podemos dar un ejemplo sencillo de sistema dinámico que no exhibe la propiedad de mezcla. Empleando otra vez el sistema Xn4-1 = f i ^ n) = en X 6 [0,1), distinto del anteriormente considerado, lomem os los subintervalos
1= l2=’ I- -21 Podemos ver fácilmente que, Vn > 1, se tiene r(/)u j= . r(/)u 7 =
1
1
2l4n ’
u
2 '' 2®.
u L Jl
luego aquí no se da mezcla, como queríamos demostrar.
5.10
M ixin g en la ecuación logística
Hemos visto cómo para valores de ^ adecuados la ecuación logística (y otras de su famiha) muestran un comportamiento altcunente inestable, que hemos denominado sensibilidad a las condiciones iniciales. La aphcación logística muestra, eu el régimen caótico, la propiedad de mixing: si tomamos cualquier intervalo I C [0. 1] como punto de partida (tomamos xq G /) veremos que más tarde o más temprano las trayectorias que salen de I terminan visitando cualquier otro subintervalo J C [0,1] que ehjamos. Para comprobarlo, tomemos fi — A y una partición V del intervalo unidad en N subintervalos:
[k-l k\ N ’V y tomemos cualquiera de ellos como punto de partida de nuestras condiciones iniciales xq £ I í € V . ¿Llegaremos a cualquier otro Ij por iteración de la ecuación logística? En la figura 5.19 damos un ejemplo de esta situación. Partiendo de 7, (a la izquierda) alcanzamos Ij al cabo de cierto número de pasos de tiempo. Podemos anahzar este resultado de forma más sistemática. Siguiendo el tratam iento de Peitgen y otros (1992), tomamos un conjunto de 10' condiciones iniciales Xq ^ G 7 C [0,1], siendo 7 = [0 .2 ,0 .2 + 1 0 ^ “ ] y tomamos un segundo intervalo J de llegada definido por J - [0.68,0.69]
Caos Determinista
175
10000 f j 1
H 1000 1 Co 100
10 0.0
I
0.2
0.4
0.6 j
0.8
I '"i '■ 200
f
I
I . [ r
400
;
r
I '
i i i
i
[ i
600
i
i
i ~ r i - - -
aoo
n iteraciones
1,0
x(n)
Figura 5.19: (a) Mixini; en la aplicación logística (// — 4): partiendo de un intervído I dado, alcanzamos, al cabo de cierto número de iteraciones, otro intervalo J previamente elegido, (b) Dinámica del número de condiciones iniciales que parten de un subintervalo I = [0.2, 0.2 + 10“ “ ] y que aún no han caído en el intervalo de llegada J — [0.68. 0.69] al cabo de n iteraciones. Seguimos las órbitas que parten de cada condición inicial Xq ^ E / y contamos, en cada iteración, el número de “supervivientes” 5ín), esto es, cuántas trayectorias no han caído aún en J al cabo de n iteraciones. En la ftgura 5.19 se m uestra el comportamiento de S{n) en función del número de iteraciones n. Vemos que se da un decaimiento exponencial 5(n)
,~ n /r
siendo r el tiempo característico necesario para reducir el número de supervivientes en un factor 1/e 0.368.
5.11
Caos determ inista: definición
Hemos establecido ya algunas propiedades básicas que describen, a uno u otro nivel, la presencia de dinámicas aperiódicas en sistemas deterministas. Las propiedades de mezcla (mixing) y sensibilidad a las condiciones iniciales, junto con la presencia de un conjunto infinito de órbitas periódicas, son los ingredientes de la siguiente definición: D efinición {Devaney, 1986) Un sistema dinámico Xn + i = propiedades siguientes:
definido sobre el intervalo U es caótico sí verifica las tres
1. Los puntos periódicos de /^(x) son densos en U . 2. Es topològicamente transitivo (presenta mezcla). 3. Es sensible a las condiciones iniciales.
176
Orden y Caos en Sistemas Complejos
Señalemos que esta definición, dada inicialmente por Devaney en 1986. ha sido analizada poste riormente por diversos autores. Banks y sus colaboradores demostraron en 1992 que las propiedades 1 y 2 implican 3. Exph'citamente, obtuvieron el siguiente resultado: T e o re m a Sea f f i ' U —♦ U topológicajnente transitiva y supongamos que los puntos periódicos de ff^ son densos en Í7. Si Z7 contiene un número infinito de elementos, entonces exhibirá sensibilidad a las condiciones iniciales. Más adelante, en 1994, VeUekoop y Berglund demostraron que, bajo la hipótesis de continuidad de sobre el intervalo de definición de ésta, la propiedad de transitividad topológica implica las otras dos propidades. En consecuencia, si Z7 C R- es un intervalo (no necesariamente finito) sobre el que está definida y ésta es continua, entonces el sistema dinámico anterior será caótico si y solo si tiene la propiedad de mezcla (transitividad topológica). Pese a estos resultados, siguiendo el tratamiento de otros textos (Peitgen et al. 1992) seguiremos empleando la definición de caos anterior, dado que las propiedades implicadas son de gran interés por sí mismas. A continuación analizaremos algunas ideas suplementarias así como algún ejemplo.
5.12
D in ám ica simbólica
En esta sección definiremos una aproximación distinta a la dinámica determinista. El enfoque de fondo consiste en sustituir, en cierta forma, la dinámica definida mediante variables continuas por un conjunto de símbolos (pertenecientes a un conjunto discreto) que permiten tratar las nolinealidades, y el caos en particular, de un modo especialmente útil (Bai-Lin, 1989). Consideremos en primer lugar el llamado espacio de secuencias binarias S 2, definido por: S 2 — I s — (so-5iS2··· ) ;
€ {Oí 1}|·
(de forma general, podríamos emplear S«, donde sj E {O, l,2 ,.,.,n — 1}). Los elementos de E 2 serán, por definición, secuencias infinitas. Podemos definir una métrica sobre S 2 como sigue. Sean las secuencias s, r G S =
(S
0 S 1S 2 · · · )
r = (rorjr·,...) c u a l e s q u i e r a ( h a b i t u a lm e n t e se t o m a rg, ¿o = 0). La d i s t a n c i a en tr e e s t a s s e c u e n c i a s se d efine por:
4 s .r ] = Z . ^ 1=0
2-
Puesto que |s, —r¿| E {0,1}, esta serie infinita estará acotada por la serie geométrica ^
1
I-O. 2· y por lo tanto es convergente. Tomemos por ejemplo s = (000...) y r = (1111...). Su distancia es, directamente, íi[s, r] — 2. Si empleáramos r = (1010...), entonces
Caos Determ inista
177
‘'[^’'•l = L pr =m 74 = 3 1=0 '
t s t a distancia define una métrica sobre el conjunto S 2· Este rebultado puede c omprobarse con fr^cilidad. En primer lugar, debemos tener (y así ocurre); d[s, r] > O V s, r G S 2
siendo la igualdad cierta si y sólo si 5, = r¿,Vi. Además, se da la condición de simetría í/[s,rj = |r, —s,·]) y finabnente se tiene que, f)ara cualquier terna s, r. t G 1^2, s e d a la desigualdad
í/[r, s] (puesto que |£j —r,|
E sta distancia nos permitirá decidir qué subconjuntos de Ds son abiertos o cerrados y. especiailaente, la proximidad (distancia) entre secuencias. Un resultado especialmente importante viene dado por el siguiente teorema. T eorem a Sean s, t G ^ 2 Y supongamos que s, = í, para i = O, Recíprocamente, si íí[s,t] < 1/2" entonces Si = ti para i < n.
Entonces. cí[s, t] < 1/2".
La demostración es simple. Si Si = í, para i < ul entonces
i=n + l
1=0
< f; —
1 = 1
t =ri+ l
2"
Por o tra parte, si 5» ^ i, para algún i < n, entonces tendremos > 2' L t]1 —
2”
luego d[s, t] < 1/2” y por lo tanto, s,· = t¿ para i < n. Este resultado reviste importancia en la medida en que podremos decidir rápidamente si dos secuencias son o no similares (esto es, próxúnas en el espacio métrico) siempre que sus primeros símbolos (o bits) coincidan. Un ingrediente esencial para es estudio de la dinámica simbólica es la aplicación (u operador) skift (desplazamiento). Se define por: a : TI2 —* ^ 2 (áO-SlS2···)
<^(SoSi.S2--.) = (-S1S2S3..·)
También se indica por 0 . 5oSi2 · ■ · —» O.S152S3 ..., y su dinámica es, como se ve, muy simple; cr desplaza hacia la izquierda la secuencia, “olvidando” el primer símbolo. Esta es una aplicación
Orden y Caos en Sistemas Complejos
178
x(n) Figura 5.20: Gráfica del operador
2x 2x-l
=
X G [O, 0.5’ xG [0. 5 . 1;
o también puede indicarse por a{x) = frac{2x), siendo frac(z) la función definida como la parte fraccionaria de 2:. Para hallar la codificación binaria de un número x G [O, 1), basta con hallar la serie de valores obtenidos a partir de la condición inicial Xi = x generada a partir del sistema dinámico anterior. Si la serie obtenida es {xi, X2, x > , la codificación binaria (CB) de x será X =
0 .a ia 2 a 3 ...
donde los dígitos aj se obtienen de: üj = O ; Xj < 0.5 üj — 1 ; Xj > 0.5 Así. si tomamos por ejemplo las CI dadas por x = 3 /8 y x = 7/11, las series asociadas son 7
3
6
1
2
4
8
5
10
9 7 3
i r i r i r 11’ i r 11’ i r 11’ i r i r u ' 11’ ■■■
lo que nos da las CB siguientes:
i 0.1010001011 u (V'emos que los números racionales podrán expresarse mediante una codificación binaria finita o bien infinita periódica, mientras que los irracionales tendrán una expresión binaria infinita no periódica).
Caos Determinista
179
Esta codificación biii.vria perniit*· además definir una partición ordenada sobre el intervalo unidad. Si partimos el intervalo [0, l) en dos mitades iguales, esto es [0 ,1/2) y [1/2. 1], los números X e [O, 1/2) tendrán una CB que einpi»'za por 0.0 y para x € [0,1/2) tendremos una CB que empieza por 0.1. Si seguirnos dividiendo estos uitervalos por la mitad, obtendremos una partición eu cuatro subconjuntos para los qu-· tendremos una CB que empezará por: O, i 1 - 0.00
1 ? 2’ 4
1 1
0.01
4 ’ 2/
0.10
y así sucesivamente. Esta aplicación es enormemente simple, y el hecho de que esté definida linealmente a trozos (de forma similar a la ajilicación triangular que vimos con anterioridad) la hace cspeciídmente interesante. Este operador/aplicación exhibe caos, y permite estudiar las propiedades bá-sicas del caos determinista de forma exhaustiva.
5.13
C aos en el operador cr{x)
En esta sección demostraremos que el sistema dinámico definido a partir del operador shift es caótico, empleando para ello 1a definición de Devaney anteriormente dada.
5.13.1
S e n sib ilid a d a las co n d icio n es iniciales
De la definición antes dada, debemos demostrar qué existe ¿ > O tal que Vx £ [O, 1), Vt > O, existe un punto y G [O, 1) y un entero k > O tales que se cumpla \x-~ y\ <€
En nuestra demostración emplearemos la codificación binaria introducida previamente. Para un € dado (con O < e
Podernos elegir un valor de A: > 1 tal que la desigualdad < e se cumpla. Elegiremos a continuación el número y como aquel tal que coincide, en su codificación binaria, con todos los dígitos de X excepto aquel que ocupa la posición fc + 1- Se tiene entonces que < 2 -‘ < ^ y por otra parte tenemos que: d{a-’‘(x),tT’'[y)) = d{0.ak +iat-i-2··. ~ O.h +iak+2···) - O.l - ^ > ^ = oluego el sistema dinámico es SCI, como queríamos demostrar.
Orden y Caos en Sistemas Complejos
180
Figura 5.21: Orbitas periódicas obtenidas empleando el sistema dinámico definido por el operador E(x) (shift), partiendo de dos CI distintas: xi — 1/3 y X2 ~ 6/7.
5.13.2
P u n t o s p e rió d ic o s densos
Para demostrar esta propiedad, notemos que aquellos puntos sobre el intervalo unidad tales que posean una CB que posea un ciclo periódico serán puntos periódicos de la aphcación
0 .a 2 ü 3 ...a k a ia 2 .-d k
<7^(x) = ü.a3...afcaiU2-..ajt
cr*~^(x) = 0.akaia2..Mk cr*(x) = 0 ,ciia2 ...ak Podemos dar ejemplos de órbitas periódicas partiendo de condiciones iniciales dadas. En la figura 5.21 se muestra un ejemplo de órbitas periódicas obtenidas partiendo de los puntos x = 1/3 y de X — 6/7. cuyas codificaciones binarias son 0.01 y 0.110, respectivamente. Para demostrar que estos puntos son densos, debemos ver que Vx 6 [0,1) existen puntos periódicos tan cercanos a x como se quiera, esto es, para cualquier entorno de Bf ( x) de radio € podemos encontrar un punto periódico y tal que ¿(x,y) < € Este resultado puede probarse con facihdad. Supongamos que para un e dado y x = 0 .010203..., podemos encontrar un entero fc > 1 tal que 2 “ *" < 6. Consideremos el punto y cuya codificación binaria es periódica, siendo sus fc dígitos (que se repiten) idénticos a los fc primeros dígitos de x:
Caos Determinista
181
que es un punto periódico de periodo menor o igual que k y que, como sdl)em<'s, d[x, y) < 2 “ * < € luego hemos demostrado que los puntos periódicos son densos en el espacio fásico (el intervalo unidad).
5.13.3
M ix in g
Como hemos indicado anteriormente, los números irracionales poseen codificaciones binarias for madas por cadenas infinitas, no periódicas, de dígitos. Podemos intuir que la órbita asociada a un irracional recorrerá el espacio de feises dando lugar a un conjunto de puntos denso en él. Para demostrarlo, consideremos dos subintervalos /, J C [0,1) arbitrariamente pequeños. Queremos ver que siempre podremos encontrar un entero ¿ > 1 tal que
Llamemos
a la longitud (medida) de estos intervalos. Podemos elegir un i: > 1 tal
que í< (/)>
^
y supongamos que Xo = 0 .010203 ·-. € I es el punto medio de este intervalo. Sea y — O.Í>if>2Í>3··· £ J un punto arbitrario dentro del segundo intervalo. ■ Consideremos un tercer punto i 6 [O, 1) tal que su CB sea la formada por los k primeros dígitos de Xo € / seguidos a continuación por los de y € J: X
ú.aia2Ci3--ak^i^2^ó···
Ahora, puesto que x y xq coinciden en sus primeros k dígitos, su distancia será, como sabemos, inferior a 2 “ ^ v tendremos:
o lo que es lo mismo: la distancia de x al centro de I es inferior que la mitad de la longitud de I. Se tiene además que; a-(r) = 0.a2a3.-afc6ií>2í>3··. fT^(x) = 0.a3a4...afc&ií>2^3···
(j^“ *^(x) = Q.akhih2h3... (T^{x) = 0 . 61^2^3··· = y €: J Luego hemos demostrado que existe un x £ I tal que cr^{x) € J · esto es. tai que
íT*=(/) n J ^ 0 con lo que queda demostrado.
182
5.14
Orden y Caos en Sistemas Complejos
C aos en la aplicación triangular
En una sección anterior hemos introducido la denominada aphcación triangular, que, como vimos, exhibe caos determ inista para una amplia región de su espacio de parámetros. El expolíente de Lyapunov asociado era calculable de forma analítica y tomaba valores positivos para dicho intervalo. Ksta aplicación estaba definida por: ^n+i —
~
~^ 2 ~
)
y en esta sección demostraremos, empleando la definición anterior, que para _ r
2x si
X
= 1, esto es, para
E [0,1/2)
“ \ 2( 1 - r ) si X e [ 1/ 2, 1)
la dináimca de esta aphcación exhibe caos determinista (seguiremos, como antes, el desarrollo pre sentado por M artín ei al., 1994). Para llevar a cabo esta demostración emplearemos el formalismo anterior basado en la dinámica simbólica así como el operador shift previamente definido. Dicho operador, (j{x) = frac{2z) tiene propiedades muy útiles en ei estudio del caos. Señalemos, en primer lugar, que la función frac(x) cumple, para cualquier /n G N, las siguientes propiedades: fra c{x + m) — frac[x) frac{m x)
frac{m frac{x))
por inducción, puede probarse además que: íj^’(x) = frac{2^x) Para continuar, veremos qué relación guardan las funciones # y
con lo que queda demostrado. Finalm ente, antes de estudiar las condiciones para demostrar la existencia de caos, trans formaremos la aphcación triangular $ en términos de codificaciones binarias. Sea ahora x = 0.010203 ··· G [O, 1). Como sabemos, si oi = O, el punto x pertenecerá a la prim era m itad del intervalo unidad, i. e. x G [O, 1/2). Tendremos entonces: <í(x) = o-(x) = 0 ,020304 ... luego ambos operadores actúan en igual forma sobre los puntos de la primera mitad. En cambio, si X G [1/2, 1), tendremos: ^(x ) = 2(1 - x) 1 -
Caos
De t e r m i n ¡ s ta
183 —0 .020304... = O.o^o'jo^...
1
siendo a* = 1 si a =: O y a* = O en caso contrario. Si tenemos en cuenta que 0 .020304 -.· + O-ajOgO^.,. = 0 -111 ..- = 1
el operador correspondiente a la aplicación triangular se e.scribirá como _ \ í 0.020304 si a i — O $(0.010203-..) = < ^ 1 [ 0.030304 SI ai — 1 a continuación demostrauremos que esta aplicación es caótica.
5.14.1
P u n t o s p e rió d ic o s densos
Sea X tal que cr^(x) = x (un punto ¿'—periódico del operador shift. Se tiene entonces que: $ ( r ) ^ ^(cr^'(x)) = $^+^(x)
$^[^(x)]
y por lo tanto í>(2:) será un punto periódico de la aphcación triangular. Vimos anteriorm ente que aquellos puntos tales que su CB estaba formada por un ciclo ¿ —periódico, esto es, de la forma 0.OiO2...O;fc
son puntos Z:—periódicos dei operador shift. En consecuencia, todas las codificaciones binajias A /n -------------- i / 0 .0203...OfcO si oi = O 0 (0 .a ,a ,a 3 ...a t) = | o 5 ^ ^ ^ a. = 1 son puntos periódicos de periodo k para la aphcación triangular. codificación binaria se escriba en la forma
Los puntos x tales que su
X = a.aia2...akú serán puntos periódicos de $ (x ). Consideremos a continuación el
punto X = 0 .010203... G
y sea un 6 > 0. Elegiremos un periodo i + 1 dado por:
A;
[O, 1)
> 1 tal que 2“ *·'
el punto periódico de
y = 0 .a ia 2O3 -..afc0 € [O, 1) que coincide en los primeros k dígitos con r. luego su distancia será tal que d[x^ y) < 2 “ *^ < 6 Con lo que queda demostrada la propiedad. En la figura 5.22 (a,b) se m uestran las órbitas corresj>ondientes a los puntos 0.110 = G/7 y O-OÓlO 2/15.
184
Orden y Caos en Sistemas Complejos
Figura 5.22: Orbitas periódicas para la aplicación triangular ^ (x ). Los puntos iniciales son: (a) X — 6/7 y (b) 1- —2/15.
5.14.2 Sea 6
S en sib ilid ad a las condiciones iniciales
> 0. tomemos
6
~ 1/4 y
sea X
= 0-010203.., G [0 ,1)
un punto cualquiera. Sea dado un k tal que 2~^ < € y a continuación elegimos como y un punto del intervalo unidad que sólo difiera de x en el dígito k + 1 —esimo:
y — 0.aia2a3...ajta^^iajt+2ajt+3·" con lo que
y) < 2 -'^ < 6 Por otra parte, si
= O, tendremos:
l$(0.ajt«it + iafc+2aA:+3-) - 0.ajta* +iaA:+2aAr+3--)i |0.ajt + iOfc+2aí:+3·-· - 0.a¿^iajk+2aí:+3···! = 0.1 = - > é
y, si ajt
1, se tiene;
]$^'(r) —^^(í/)| — con lo que queda demostrado.
~ 0.O|;^.ia¿^2‘^¡k+3---í = 0.1 = - > é
Caos Determinista 5 .1 4 .3
185
M ix in g
Finam ente, probaremos que la aplicación triangular posee la propiedad de mezcia. Consideremos, siguiendo la definición, dos subinter\alos /, / C [O, 1) arbicrariamente pequeños. Queremos ver que siempre podremos encontrar un entero k > 1 tal que cr^(/)n J 7^ 0 El procedimiento será idéntico básicamente al desarrollado para el operador shift. Llamemos a la longitud (medida) de estos intervalos. Podemos elegir \in k > l tal que M í) > 21-1 ‘ y sean ahora los puntos: Xo — 0 .010203... e I (en el centro de este intervalo) y yo == 0.í>iÍ>2^3··· € J un punto arbitrario sobre J . Si un punto y posee los mismos k primeros dígitos que xq, entonces 6 7, ya que si
X
X = 0.CiO2a3...£IfcCjt + iCfc+2...
entonces d (i ^ o ) < 2 - ‘ = i / í ( / ) y un razonamiento idéntico puede hacerse para un punto y que tenga la misma proximidad a yo. Si Ofc = O y elegimos X - ü.aiíi 2---nit^ií>2--&Jí € 7 se tiene que ^^■(x) = ^(cr*"Hx)) = ^(0.afc6i02.-6fc) = O.61Ò2...Ò/,) G J Si, por otra parte, ajt — L elegimos X
= i).aía2...akb\b2--.bl G 7
y tendremos ahora, del mismo modo: $'=(x) =r ^ ( a * - i( r ) ) = ^{0 .a tb \b l..b l) = Q.byb2...bk G J Luego en cualquier caso se cumple que. dado un punto x G 7 encontramos un k para el que se cumple í>*^(x) G .7. y por tanto $*{7)U J^0
186
5.14.4
Orden y Caos en Sistemas Complejos
C o n secu en cias: C a o s e n / z x { l
x)
Los resultcidos anteriores son extensibles a la aplicación logística /^(x) =; /ix (l — x) para el ca so limite ¡X — A. Para demostrar ia caoticidad
2
que define una aplicación biyectiva sobre ios ¡)uutos del intervalo unidad. fácilmente (Holmgren, 1994; Devaney, 1986) que
Puede dem ostrarse
y a p artir de esta relación puede probarse que si x es un punto í:—periódico de la aphcación triangular, entonces H {x) es un punto k~ periódico de la aphcación logística (y viceversa). Este resultado perm ite demostrar el comportamiento ca/)tico de la aphcación logística. Señalemos, finalmente, que la partición del intervalo unidad en términos de codificación binaria de símbolos permite introducir una conexión entre las secuencia.s de dígitos que resultan de la dinámica de la aphcación logística para ¡i - A y la de un proceso aleatorio como es el lanzam iento de una moneda. En 1973, MetrópoHs, Stein y Srein emplearon la partición binaria del intervalo para anahzar esta relación. Una secuencia de caras y cruces generadas por el lanzam iento de una m oneda se denomina secuencia de Bemouilli. Una posible definición de caos determ inista (Jackson, 1991) es que, para cualquier secuencia de BernouilH dada, existe una condición inicial que perm ite generar dicha secuencia.
5.15
La herradura de Smale
Un sistem a dinámico muy bien estudiado y que volverá a aparecer más adelante cuando exploremos el problema del caos en sistemas continuos es la denominada aplicación de Smale. En la figura 5.23 vemos el procedimiento básico de actuación de este sistem a dinámico. Partiendo del cuadrado unidad U = [O, 1] x [O, 1], llevamos a cabo un estiramiento dei mismo hasta formar la denominada herradura de Smale, que solapamos entonces encima de U. A continuación, nos quedamos sólo con aquellos puntos que se hallan en la intersección entre ambos objetos, y repetimos la misma iteración. De forma similar a lo que vimos en la sección de la transformación del panadero, podemos imaginar que esta dinámica queda definida por cierta aplicación bidimensional — t' que actúa sobre los puntos de U. Asunúreinos (ra/ionablemenie, a partir de la definición anterior) que esta aphcación es continua e invertible. La aplicación inversíi transform ará la herradura ffi{U) en el cuadrado invirtiendo los pasos anteriores. Si llevamos a cabo iteraciones sucesivas, veremos que el resultado de aphcares la generación de bandas verticales de grosor cada vez menor. Si indicamos las bandas verticales resultantes de la prim era iteración por V\ y V'2 , tendremos que: U
- V'i U V'2
Si ahora llevamos a cabo una segunda iteración, las bandas anteriores setr¿üisforman en cuatro bandas nuevas de menor grosor (figura 5.24) y que indicaremos por Wl· V'tT. ^ 22>V21
Caos Determinista
187
B
Figura 5.23: (a) Sistema dinàmico que genera la herradura de Smale: a partir del cuadrado unidad U y llevamos a cabo un es tiramiento-plegado del mismo y solapamos ia herradura con el cuadrado unidad, reteniendo sólo aquellos puntos que pertenecen a la intersección, (b) Repetimos este procedim iento e indicamos los conj untos de puntos resultantes
s n / '(5)
sn/ \s) V ^ n V 12
ri/-'(5) V *^22 V 2
s n /(S )
Figura 5.24: Bandas verticales y horizontales generadas por la aplicación de Smale.
Orden y Caos en Sistemas Complejos
188
f -\s)
n / ' ‘ (S) n s n / ( 5 ) n f \ s )
n 5 n /(5)
Figura 5.25: Intersección entre bandas verticales y horizontales. La aplicación rt'iterada de la aphcación de Smale da lugar, asintóticamente, a un conjunto de Cantor. escribiremos ahora
V n /„(i 7 ) n f h u ) =
u Vi2 u V22 u v%,
y, de manera similar, tendremos que ias bandas horizontales obtenidas por aphcación de la inversa / ^ serán tales que: u n f z ^ u ) ^ H1 UH2
Observemos que: =; i = 1 , 2 =;
¿.i = 1 ,2
y que por iteración del sistema de Smale vamos obteniendo, después de l· itoiaciones, 2 *^ bandas verticales en la intersección 6' O f^{U ) [ k = 1, 2, ...) y de forma similar la inversa nos dará, después de k iteraciones. 2 *^ bandas horizontales en la intersección U H f~ ^[V ) {k = 1. 2.... 1 . La mayor parte de los puntos de U abandonarán el cuadrado unidad al iterar la aphcación o su inversa. Si olvidamos estos puntos, podemos preguntarnos qué estructura tendrá el conjunto invariante A que queda en el cuadrado después de iterar indefinidamente, esto es, A=
6 Í7 ;
f^{x) e
-
00 < k +
ooj
Este conjunto es de hecho la intersección infinita entre las iteraciones empleadas: A = ... n /;<·■(£/) n ... n
f,(U)-^U)
n/; ‘
nf- n f^(U) n /„([.') n f ¡ ( U ) n ... n /¿(D n ...
Caos Determinista
189
Este conjunto será un objeto fractal. Par;i ¡a primera iteración de ambas aplicaciones, el conjunto invariante deberá estar incluido en la inter ección dada por: f - '' u ) n u n f , { u ) que estará formado pur cuatro cuadrados (ti'^ura 5.25 (a)). Iterando por segunda vez, la intersección en la que se encontraxá incluido A será ali'Ta un conjunto de dieciséis cuadrados menores (figura 5.25 (b)) definido por: /„“ "(£'■) n f - ' • U ) n u n M U ) n fl{ U ) El conjunto resultante es obviamente autosimilar (un conjunto de Cantor). Podemos emplear el formalismo de la dinámica simbólica para analizar sus propiedades (Wiggins, 1990; K u z n e t s o v . 1995). Puede demostrarse que existe una biyección entre A y el conjunto ÍÍ 2 de las secuencias binarias bi-infinitas, c-to es, el conjunto de secu< ncias de ia forma: = ...a_ 2Ct-1000102·.· donde i
si /;( x ) € S \
—
para fc — O, ±1, ± 2 ,... y donde es la aplicación identidad. Esta equivalencia permite, de forma algo más complicada que en los ejemplos anteriores, de mostrar la presencia de caos en este sistemai dinámico. El siguiente teorema (Smale, 1963) resume los resultados más importantes acerca del comportamiento de esta aplicación; Teorem a (Smale, 1963) La aplicación de Smale posee un conjunto invariante A que contiene un conjunto numerable de órbitas periódicas de periodicidad arbitrariam ente grande, y un conjunto no-numerable de órbitas no periódicas, entre las cuédes están aquellas que pasan arbitrariam ente cerca de cualquier punto de A. Sin entrar en más detalles (véase Wiggins, 1990) indiquemos que la aparición de este tipo de estructuras en herradura (que reencontraremos más adelante) sirve para detectar la aparición de caos así como para caracterizar formalmente los atractores extraños eu sistemas disipativos y conservativos (véase el capítulo sobre caos hamiitoniano, 17). O tra propiedad im portante del ejemplo de la herradura de Smale es que podemos perturbar lige ramente la aphcación sin que tengan lugar cambios cualitativos de im portancia sobre la dinámica, lo que garantiza la estabilidad estructural del comportamiento.
5,16
U niversalidad en aplicaciones cuadráticas
La existencia de una constante universal que caracteriza las propiedades globales del escenario de bifurcación con duplicación de periodo es de enorme im portancia. La constante de Feigenbaum es universal en un sentido formal bien definido. Sea í · . = {/^(^)) el conjunto de funciones uniparamétricas (ccíuocidas como aphcaciones cuadráticas) que verifican las siguientes condiciones: 1, / ^ ( z ) € C > [ 0 , l l
Orden y Caos en Sistemas Complejos
190
Figura 5.26: Orbitas superestables para la aplicación logística. Se indica los puntos /iJ en los que aparecen. 2. Existe un punto Xm tal que f"{xm )
O
3. /p (x ) es m onótona en [O, x^i) y en {xm^ 1] 4.
posee una derivada de Schwarz 5 (/^í ) negativa, esto es,
ñ
2
<0
ñ
Esta clase de funciones exhibirá un escenario de Feigenbaum caracterizado por la misma constante universal S: Mk+i - ßk é = lim k-^co flk+2 - ßk +i
4.6692
Mitchel Feigenbaum (1978) demostró esta universalidad empleando el método del grupo de renormalización (discutido, en otro contexto, en el capítulo 7). Una primera constante universal es que puede escribirse como varible en la ley asintótica de escala (es decir, para n —+oo), fljl
SS
cS
siendo c una constante. La segunda constante universal está relacionada con la aparición de órbitas superestables, esto es, aquellas órbitas tales que A(P) n
O
que aparecerán sucesivamente en los puntos ¡j.2 , - · - que se indican en la figura 5.26. Los ciclos superestables obedecen una relación dn/dn+x ~ —Q. Estos ciclos incluyen el punto X ~ 0.5, y cí„ es la distancia
Caos Determinista
191
)-ì entre r = 1/2 y el puni<· de escala,
nuLs ct rcano a éste. Tendremos por lo tanto una nueva ley de
iifi ^ ^oo
^ Oí
como la anterior para n —* oo. El exponente a se interpreta de forma análoga a como se ha hecho con los exponentes de la teoría de transiciones de fase (capítulo 7). Emi)leando las ecuaciones del grupo de renormaiización. Feigenbaum demostró que tt ^ 2.5029078751... ^
4.6692016091... = 3.5699456...
En la teoría de fenómenos críticos, la universalidad se obtiene debido a que el método del grupo de renormalización proporciona un conjunto de ecuaciones cuyos puntos fijos describen cierto tipo de transiciones de fase. A medida que nos aproximamos a este punto fijo estable, los detalles de la condición inicial de la que partíamos se pierden. Por lo tanto, la universalidad de los exponentes críticos surge si el punto fijo posee una cuenca de atracción finita. La idea de Feigenbauin fue encontrar una descripción iterativa del proceso de duplicación de periodo tal que, en el límite, proporcionara ia misma solución (punto fijo) para todas las aphcaciones cuadráticas definidas sobre el intervalo, con independencia do sus detalles particulares (véase McCauley, 1994, para una discusión más general). Feigenbaum parte de la composición entre funciones (que son ahora los objetos matemáticos de interés) en la forma :5.16.1) e introduce la siguiente hipótesis de escala, (5.16.2) siendo
el punto fijo de 5.16. L Si combinamos 5.16.1 y 5.16.2, tenemos que
= ( - « ) - " / ; [ /; ((-a)"!^)]
(5.16.3)
y dado que también se tiene
4 " " * ''( í ) « ( - « ) - ■ — / ; [(-«¡'•■'‘xl podemos combinar 5.16.1 y 5.16.3 para obtener (-a ) ”- 7 ;
^ i - a r f ; ( /;(- a )" x )
asi como
todo ello definido en el espacio de aplicaciones cuadráticas, no invertibles.
(5.16.4)
Orden y Caos en Sistemas Complejos
192 Dana una solución
fácil probar que f
\/V es también solución para cualquier fi. Podernos establecer la escala touiando ///*(0) = 1. Es cribiremos IcLS solucioii''s de g { x ) ^ - a g \g en la forma g(x) = 1 + br^ + . . . con ¿> < 0. Este desarrollo puede resolverse aproximadamente b = ~ o / 2 . La condición 6 < O da
(a orden x ') dando 1 —a ( l + fe) y
a = 1 + v/3 ^ 2.723 que es una buena aproximación para a := 2.5029... Un desarrollo formal basado en esta aproximación perm ite obtener de forma análoga losvalores de ¿ y /í^ (Schuster, 1989). En la siguiente sección daremos un procedimiento distinto, desarrollado por R. May y G. Oster.
5.17
Universalidad; aproxim ación de M ay-O ster
Podemos obtener una buena estimación de la constante é de Feigenbaum siguiendo un procedi miento distinto al del grupo de renormaiización. Este planteam iento fue desarrollado por May y Oster (1976). Sea ia k —ésima iteración de la aplicación /^ (x ). Un ciclo de periodo p queda definido, como ya sabemos, por el conjunto
Sea
el valor asociado a la estabilidad de dicha órbita,
es decir, la pendiente de la A:—ésima iteración de la aplicación. Cualquier ciclo estable de periodo k aparece, como sabemos, para cierto valor = 1 y pierde su estabilidad (dando lugar a una órbita de periodo 2 ¿, i.e. cuando —1. Para ir de un límite al otro (de = -|-1 a A^^^ = —1) el parám etro sufre cierta variación, que indicaremos por A^(fc). En lo que sigue, estudiaremos el comportam iento del lím ite S — lim fc—co Afi{2k) esto es. del cociente entre la variación de p. en dos intervalos de duplicación de periodo consecutivos. Llamemos al valor de tal que = +1
Caos Determinista
193
1.0
0.8 ^
0 . 6 ^J
0 ,4 -
0.2
0.0
^
2.0
4.0
Figura 5.27; Bifurcaciones con duplicación de periodo. Se indica la notación empleada en ei cálculo de la constante de Feigeabaum é m ediante el metodo de May-Oster. esto es, al valor de // para el que aparece un ciclo de periodo k. Indicaremos (figura 5.27) Ics siguientes valores de ¡i por: fi = (*) ^F e Un desarrollo de Taylor nos da, para valores cercanos a p.. = 1+ e
+ O(e^)
3/1
Indicaremos la primera derivada mediante la siguiente notación: JÌq
—
dfj.
/'S*’
/
Empleando estas definiciones, podemos estimar el valor de ó mediante el cálculo del cociente entre y A^q K Sin embargo, no puede ser, en general, calculado analiticam ente. Sin embargo, podemos relacionar la pendiente asociada con con asociada a /¿*^(x). La órbita de periodo k aparece con = 1 y se hace inestable para AÍ^^ = —1, en el punto para el cual emerge la órbita 2¿—periódica, esto es, para A^^^l = 1. Esta órbita a su vez se h ará inestable para = —1. En este punto, el escalar A^^^ tomará cierto valor negativo, que indicarem os por a5^\ Si sustituim os en el desarrollo en Taylor anterior para e Ignoramos los térm inos de segundo orden, obtenemos; Afi{k) = - . ^ Ak) + 1 Aik)
Orden y Caos en Sistemas Complejos
194
x ( t) Figura 5.28: (a) La aplicación ^ se m uestra en las proximidades de uno de sus puntos fc—periódicos, Para la ci;rva discontinua, la peiidi^mre de en la intersección con ia bisectriz es tal que ^ Y punto fijo es estable. Para la curva continua, se tiene !//( ^| > 1. esto es, el punto fijo es inestable“, (b) La aplicación correspondiente a la bifurcación consecutiva. ^ se m uestra en las proxirmdades del mismo punto fijo fc-periódico. Como se discute en el texto, la aparición de la inestabilidad de la órbita fc—periodica viene acom pañada por una bifur cación en la aplicación dando lugar a dos nuevos puntos fijos de periodo 2 fc, indicados por (2;:: a cada lado de x ■ de donde llegamos al siguiente resultado: „0 + 1 Queda por encontreu: una relación asintotica entre ios valores y A^^^^ con los que podremos í fc} . r y determ inar A^ . Podemos empl«.‘ar para ello, siguiendo a M a\-Oster. un polinomio ctíbico (véase la figura 5.28) que se comporte de la forma en que exhibe la bifurcación cuando el ciclo de periodo fc se hace inestable. Supongamos que desarrollamos en serie de Taylor hasta tercer orden alrededor de 4 - f ) K x-'*> +
A i +
if ií-
2
■
-
i c í "
e
+ o í í “ :
Necesitamos llevar a cabo este desarrollo hasta términos cúbicos (al menos) para tener en cuenta, de forma apropiada, la forma cualitativa de en las proximidades de \ esto es, para describir la bifurcación en un par de nuevos puntos, cada uno a cada lado de x, = 0. Recordemos que + í) + í)) = + A(‘ )í) + . . . ) Podemos expresar los coeficien*es del desarrollo (.4. B, en términos de las derivadas de la aphcación de orden inferior. En este caso encontramos:
d^f dx^
Caos Determinista
195
Notemos qu»‘ los puiitos fijos de periodo k se bifurcan en = —1. Por tant.i,», para /j justo por encima de este valor, i4 % 1 y B 0. Para los puntos fijos de periodo 2k\ escribiremos ^ Los valores de se determ inan a partir de: C « /tr + i r ' + A parte de la solución ¿ —periódica degenerada (^* = 0), existe un par
(A - 1) + i s r + i c í ^ ·
Notemos que estas soluciones serán reales si y sólo si j4 > 1 (esto e.s, si |A^^^( > I) de acuerdo con lo expuesto anteriormente. A continuación, notemos que la pendiente en estos puntos 2 ¿-periódicos es: ß2f(2k)
Empleando las relaciones anteriores, podemos simplificar esta expresión para obtener
La cantidad C representa la distancia entre el punto periódico inestable de periodo ¿ y el punto inicialmente estable asociado a la órbita de periodo 2k, y será una cantidad pequeña incluso para valores bajos de k. Además, el coeficiente B es cero cuando tiene lugar la prim era bifurcación, luego podemos despreciar el término B^* ¡2 de la últim a igualdad. Con estas aproximaciones llegamos a la expresión para el valor de A en el punto pata el que ^ —1 (donde ia 2¿ —órbita se hace inestable); 2A ä; 4, esto es, A äs 2. Si empleamos ahora la ecuación anterior que relacionaba A con tenemos para el valor correspondiente, (que habíamos llamado A^*^), A(^> « - ^ 2 4- 0 ( ¿ - 2) Sustituyendo este resultado en la ecuación para ¿, llegamos por fin al resultado anahtico para ia aproximación a la constante de Feigenbaum: é Äi 2(1 + V 2 ) ^ 4.828... Comparando este valor con el valor exacto, vemos que existe un aceptable error de un tres por ciento.
5.18
P eríodo tres im plica caos
En 1975 apareció un artículo de Tien Li y Jim Yorke encabezado por un sugestivo título: '"Period Tkree Implies Chaos"’ (Periodo tres implica caos) en el que daban una elegante demostración, para sistemas dinámicos unidimensionales, acerca de la existencia de puntos periódicos de distin tas periodicidades. Este teorema está muy directam ente relacionado con otro muy simple, pero fundam ental, de la teoría de sistemas dinámicos demostrado por A. Sarkovsky (Devaney, 1986). El teorema, enunciado explícitamente, dice:
196
Orden y Caos en Sistemas Complejos
T e o re m a (L i y Yorke, 1975) Sea un sistema dinámico definido ->bre un intervalo X C R que presenta un punto periódico de periodo tres. Entonces, este sistema iinámico tendrá puntos prrió
J una funci' iii continua, y sea {/„ ; 71 = 0 , 1,...}
una sucesión de intervalos compactos con I n C J \ /.+ 1 C /( /„ ) Vn > O · Entonces existe una sucesión de intervalos compactos ; n = 0, 1,...} tales que, para todo n > O, se cumple que: 1- Qn-i-1 ^ Qn d Íq 2. r ( Q n ) ^ In
3- r
( n r = o « .,) c / „
L em a 4. Sea J C K y g : J R. una función continua, e / C ./ un intervalo compacto tal que 1 C q(I)· Entonces £ I tal que g{p) = p. Estos lemas nos pernoitirán demostrar el teorema de Li y Yorke, tal y como se enunció más arriba. D e m o stra c ió n d el T eorem a de Li-Y orke Dado que nuestro sistema dinámico = f i ^ n ) posee un punto periódico de periodo tres (om iti mos el subindice p por simplicidad), aplicaremos el lema 1 para encontrar un punto a £ X tal que d = a < b < c o bien c < b < a = d. siendo b = / ( a ) , c = f{b) — f^(a) y d = f{c) = /-(í>) = p { a ) - a. Si se cumple la primera serie de desigualdades, esto cs, d = a < b < c y si
Caos De terni mista
197
K — [a, 6], L = [ò,c], para, cualquirr k > 1 demostraremos que existe un punto periódico de periodo k. Definamos para elio una sucesión {/„ ; n - 0 , 1,...} de intervalos compactos como sigue. Si fc > 1, tendremos: L si O < n < k — 2 K sí n = k — 1 In -k si n > k
{
y si k = 1, In = L para todo n > 0, Es decir, tendremos una colección de intervalos de la forma siguiente: í^ -} r= o =
) si k = l
c=
si k > l
Teniendo en cuenta que se dan las siguientes inclusiones;
/ ( i ) = /([ó,c]) 3 [/(c), /(6)1 = (a,c] = £ u A· / ( A - ) = / ( [ a , 6 ] ) D [ / ( c ) , / ( 6 )] = [6 ,c] = i tendremos que verifícalas hipótesis del lem a 3 y por lo tanto podemos hallar una sucesión {<5 n de intervalos compactos tal que -
C Q n + l C Qn C ... C Qo C í o = L
con: riQ n i^L oc
n-O Entonces tendremos que: Q k
C
Q o
—
~
L
f( Q ,) = h = L Luego
Qt c / ‘(<3t) y, aplicando ahora el lema 4 a ia función /* : QkB. existirá un punto pk t Qk tal que f*"{pk) — Pk- Si el periodo de pk fuera menor que k, y dado que se tiene
Í
L si n < k ^ 2 K si T i = z k - l y L u K - {6} L si n > k
se debería cumplir entonces que /^~UPfc) ~ b y por lo tanto que = f\b ) = d í L
198
Orden y Cao> en Sistemas Complejos
pero tenemos que: / ‘ + '{ P it) = /( p O € /( ( ? o ) -~I« = L lo que introduce una contradicción. Es decir: pk es un punto periódico de periodo exactamente k. D¿ido que esto es válido para cualquier fc > 1, el teorema rstá demostradf» El teorem a de Li-Yorke introduce la posibilidad de hallar órbitas de - norme complejidad en sistemas discretos unidimensionales en presencia de órbitas de periodo o aunque este resultado no es general; no es aphcable a sistemas de dimensión superior ni la existencia de cualquier periodicidad tiene iguales consecuencias. Este teorema nos remite en re
: = { 3 < 1 5 < ¡ 7 < I . . . < ] 2 x 3 < i 2 a 5 < ] 2 x 7<1..
. . . 0 2 ^ x 3 < l 2 ^ x 5 < ] 2 ^ x 7 < I . . . < ] 8 0 4 < ] 2 < ] If
Sea
cov. U = [O, 1], una aphcación continua tal que /( O ) = / ( l ) = O y que posee un único punto crítico. Si m <] n, y posee un punto periódico de periodo m, entoncr.s también posee un punto periódico de periodo n.
Así, para la aphcación logística, existe una órbita de periodo seis en ^ —3.627... (el comienzo de una ventana periódica). De acuerdo con el teorema, existirán soluciones periódicas (inestables) de periodos 2 x 5, 2 x 7, etc., siguiendo la ordenación dada por Q (notemos que el primer elemento de íi es, precisamente, el valor 3). (Para una revisión introductoria de este teorema véase Kaplan, 1987.)
5.19
C aos en sistem as dinám icos con tin u os
En las secciones previas hemos explorado con cierto detalle la aparición de caos en sistemas discre tos. La naturaleza, en general, se nos presenta en forma de variables (aproximadamente) continuas, de forma que la descripción natural será la de las ecuacioups diferenciales. -TT dt - F ^(x( 0 ) (esta expresión en realidad sólo incluye sistemas autónomos, sin dependencia explícita con el tiempo, de hecho, el tipo de sistemas que tratarem os). Notemos sin embargo que ello no impide que empleemos sistemas discretos como modelos adecuados de cierto tipo de fenómenos, como puede ser la dinám ica de ciertas poblaciones de insectos (May. 1976) que, de forma natural, poseen generaciones separadas y una escala real de tiempo que podemos considerar discreta (un año, por ejemplo). Además, aunque en esta sección introduciremo.s algunos modelos continuos que pare cen alejados de los resultados obtenidos en los modelos basados en ecuaciones cuadráticas, veremos cómo recuperamos los resultados anteriores empleando secciones de Poincaré. El modelo de Lorenz, presentado en la introducción, es un ejemplo de sistema dinámico tridimensional que exhibe caos determinista. Analizaremos este modelo algo más adelante. Antes, detengámonos en un modelo distinto conocido como modelo de Róssler.
Caos Determ inista
199
;as del modelo de R5 ssler, para distintos valores del parám etro fi. Figura 5.29: Bifurcaciones sucesiv
200
Orden y Caos en Sistemas Complejos Este modelo se basa
en
ua conjunto de tres
e c u a c io n e s
/ dy dz
diferenciales ordinaxias:
\ 1
1
,
y es, de hecho, un modelo del modelo de Lorenz (Rossler, 1976), un meiamodelo. Este modelo per mite simplificar la estructura del atractor de Lorenz (
(siendo u; = - ( a / 2 )2). Si c = c(í), el sistema deja de ser autónomo y podemos visuahzar el efecto de c{t) introduciendo un nuevo eje de coordenadas. En la figura 5.30 representamos esta situación. Si c crece, el centro de la espiral tiende a desplazarse hacía abajo en el plano (x, y). Si c va variando y vuelve más adelante a tomar el mismo valor que al principio, el centro de la espiral tam bién es ei mismo y el movimiento es “reinyectado” sobre el plano (x, y). Pero aquí está el punto clave: el lugar de reinyección dependerá en general de la historia de c{t) y por lo tanto el movimiento sobre el plano puede ser muy distinto dt^l anterior. La idea de Róssler es precisamente convertir c{í) en una variable dinámica ;(í). recuperando así el carácter autónom o de la dinámica. Llegamos a.sí al modelo general dx dt “
~
Caos Determinist^i
201
Figura 5.30: (a Ejemplo de atractor caòtico de Ròssler y (b) estructura topológica dei mismo.
— -b+ x{x-n) Un conjunto de parám etros habitual es a = 6 = 0.2, y se suele tomar como valor típico para generar caos / i 5.7. Vernos que si a: < ¡.i, entonces z(t) se aproxima a. b¡(f2 — x) (tan to má.s rápidamente cuanto mayor sea fi — x) m ientras que, para x > ¡i·, z{t) crece exponencialmente. El único térrnino no-lineal, que aparece en la tercera ecuación (esto es, zz) da lugar a un estiram iento -f reinyeccion de z{t) relativo al movimiento “hnear’ de las variables del plano (x. j/). De forma similar a los sistemas anteriores, el atractor extraño presenta una estructura geomé trica altam ente ordenada que, nuevamente, exhibe fractalidad. Podemos estudiar las propiedades del atractor en varias formas. Una primera imagen del proceso dinámico que genera caos en este sistema puede obtenerse a partir del estudio de su topología. Para generar sensibilidad a las condiciones iniciales, el atractor debe poseer una zona de “estiramiento"’ de puntos cercanos. A la vez, este objeto debe estar confinado eu una zona del espacio de fases: deberá por lo tanto existir un proceso adicional de "‘plegado'’. Ambas propiedades pueden de hecho observarse si miramos atentam ente uno de estos atractores extraños. En la figura 5.30 mostramos la imagen del atractor obtenida a parnr del sistem a dinánúco antes definido junto con una imagen aproxim ada de su estructura topològica. La topología del atracto r e¿ reveladora. Observamos una zona (S) de la "superficie'' (estricta mente, no lo es) en la que puntos cercanos pueden separarse, con lo que tendremos sensibilidad a las condiciones iniciales. Volviendo al modelo planteado antes, la espiral inestable asociada al comportam iento sobre el plano (i,y) introduce la separación. Esta separación coexiste con otra zona del atractor (F) en la que las órbitas que previamente se han separado se pliegan para con finar el flujo en una región finita (la reinyección de la que hablábamos antes). Ei resultado es, de hecho, un proceso de estiramicnto-plegamiento que se da una y otra vez. Podemos visuahzar el proceso de dos formas: por una parte, podemos ver de qué forma un conjunto de condiciones iniciales sobre la región S se desplaza alrededor del atractor para regresar cerca de su estado ante rior. Este proceso se indica en la figura 5.31 (a-c) en tres etapas, que indican cómo un conjunto de condiciones iniciales distribuidas sobre un segmento de línea son estiradas y plegadas. Al volver hacia la zona inicial, vemos que nuestra línea se ha estirado y plegado dando lugar a uua forma que nos es familiar: una herradura, Al dar otra vuelta, esta herradura se pliega otra vez sobre sí
Orden y Caos en Sistemas Complejos
202
Figura 5.31: Generación de autosimilaridad en el atractor de Rossler. (a) Partiendo de un segmento de condiciones iniciales 0 , emplearnos el modelo para generar la dinámica y vemos que se forma una herradura como consecuencia del proceso de estiramiento-plegado cíuacteristico de los sistemas caóticos, (b.c) Si repetimos el proceso, obtenemos herraduras plegadas sobre sí mismas. misma generando una herradura doblada dos veces. Si el proceso continúa, lo que ocurrirá es que el atractor presentará propiedades fractales, tal y como esperaríamos. Existe una segunda forma de explorar este sistema, basada en el empleo de secciones de Pomcare' (véase también el capítulo 4). Supongamos que cortamos el atractor por medio de una sección de Poincaré S tal y como indica la figura 5.32 (a). En esta gráfica ya vemos que la sección de Poincaré intersectará la trayectoria caótica a lo largo de un conjunto cutisilineal de puntos. Supongamos que este conjunto viene dado, considerando sólo las coordenadas según x, por: A (-j) — {xii X2i ^3: ■■■'
■■·}
Ya sabemos que podemos otener una imagen simplificada del fenómeno recurriendo al estudio de la aphcación + i — f^{xn), si es conocida, y que ésta conserva la información relevante acerca del sistema. Si representamos el diagram a de retorno (x„, Xn + i) para esta serie de puntos, el resultado, que se m uestra en la figura 5.32 (b), no es otro que el que esperaríamos de un sistema dinámico discreto unidimensional, descrito por una aphcación cuadrática. Sorprendentemente, nos acabamos de encontrar con que la dinán:úca subyacente a un sistema continuo tridimensional tiene profundas conexiones con un sistema mucho más simple; la fanúlia de aphcaciones uniparamétricas que analizábamos en nuestro estudio del escenario de Feigenbaum, De hecho, podemos obtener una información equivalente representando una serie distinta, obtenida a partir de la secuencia de máximos sucesivos x(M ) = {Mi, M 2, . . , , A/„___}, empleando para ello cualquiera de las variables. Un diagram a (Mn,iV/„4.i) nos dará una parábola similar a la anterior. Si en lugar de representar esta gráfica exploramos los distintos valores de /i y, para cada uno, representamos los máximos sucesivos (obtenidos, por ejemplo, de x(í)), lo que obtendremos (fig. 5.33) no es sino un diagrama de Feigenbaum en el que apreciamos sin dificultad las sucesivas bifurcaciones con duplicación de periodo. Este resultado permite aphcar los resultados anteriores a sistemas reales muy diversos, en los que podemos detectar el mismo tipo de transiciones. En reacciones químicas, por ejemplo, podemos obtener escenarios de bifurcación de distintos tipos.
Caos Determinista
203
x ( i) Figura 5.32: (a) Sección de Poincaré sobre el atractor de Ròssler. (b) Diagrama (xn, -i'n + i) obtenido a partir de los valores que inters^'ctan S.
Figura 5.33: Escenario de Feigt>nbaum obtenido para el atractor de Róssler empleando la serie resultante de considerar los máximos sucesivos en el atractor correspondiente.
204
Orden y Caos en Sistemas Complejos
Para la conocida reacción de Belousov-Zhabotinsky (Scort, 1994) es posible demostrar que la dinámica de los máximos obedece una aplicación unidimensionaJ. Podemos caracterizar estos atractores empleando distintos tipos de medidas cuantitativas ([ue se discutirán, en un contexto general, en siguiente capítulo.
5.20
Caos en sistem as no-autónom os
En todos nuestros ejemplos (y en el desarrollo general) liemos limitado nuestra atención a sis temas dinámicos autónomos, sin una dependencia temporal explícita en las funciones no lineales empleadas. Pero, como podemos imaginar, la introducción del tiempo podría relajar la restricción de una dimensionalidad mínima d = 3 para obtener caos. Ei tiempo actúa como una variable en un sistema bidimensional (en el que por tanto pasamos a tener tres variables, y con ello la posibilidad de caos). Un ejemplo es el modelo del Brusselator forzado periódicamente, ^
= a[l + eos {wft)] —
+ r^y —x
— = , —x 2‘'y dt ^ (Scott, 1984), el cual exhibe escenarios de bifurcación hacia el caos de una gran riqueza. Así, para el sistema no perturbado (a = 0) con a = 0.4, b — 1.2, el Brusselator exhibe un ciclo límite con una frecuencia natural wo = 0.3776 (periodo T = 16.64).Para distintos valores deay de la frecuencia u>^, o más exactamente del cociente w fjw o, el sistema experim enta bifurcacionesde distintos tipos. Otro comportamiento caótico que se presenta en sistema.'; no autónomos está propiciado por la introducción de un tiempo de retardo r, por ejemplo en dx , y\ - = /(x ; í, r ) - y . ( t ) =
A 0^x{t — r) ^ ~ 7 x(<)
que ha sido empleado como modelo de la dinámica de poblaciones de glóbulos rojos ( x (í)) en sangre (Mackey y Glass, 1977). Esta ecuación es biológicamente interpretable en términos simples: las células sanguíneas poseen una vida media y se produce uua renovación constante. Dado (^ue se requieren unos cuatro días para que las nuevas células maduren, existirá un retardo eu la dinámica que controla la producción de glóbulos maduros. Los sistemas fisiológicos de control deben mantener la*^ cantidades de células en nivele.s con stantes (de una forma similar, aunque no igual, a lo que ocurre ron un term ostato). Para tiempos de retardo del orden de r = 2 y parámetros 7 = 1, 0 = 1, A = 2 , el sistema exhibe bifurcaciones sucesivas para valores crecientes de n. parámetro que da uua medida de la no linealidad de la función f{x) del sistema. Por ejemplo, el caso
genera atractores extraños y periódicos, como se indica en la figura 5.34. Estas dinámicas en bis que aparecen excitaciones complejas han sido de hecho observadas en algunas situaciones patológicas, como ciertos tipos de leucemia (Mackey y Glass, 1977). En otros casos, los retardos temporales afectan a la dinánúca de poblaciones de insectos (Gurney ei al., 1980), que exhiben comportamientos complejos, y lo mismo ocurre en algunas poblaciones de mamíferos (May, 1983).
Caos DeterministA
205
Figura 5.34: A tractores correspondientes al sistema con :>;tardo 5.20.1, para (a) n = 7 y (h) n = 10.
Un ejemplo muy distinto procede del estudio de col· ctivos de elementos que interactúan entre sí y se localizan en un ambiente externo del que po^'-en cierta información. Estos ^-leiaentos, conocidos como agentes predictivos evalúan el estado i sistema y de los recurso^ y llevan a cabo una decisión (o predicción) basada en el estado previo del sistema (el pasado sirve para predecir el futuro). Puede demostrarse que, si f{ t) es el númer>i de agentes que emplean un recurso dado, la dinámica del número promedio de agentes obedece una ecuación con retardo (Kephart et al., 1990) - < / ( < ) >1 siendo p{< f*{t) > ) la predicción llevada a cabo por el sistema partiendo del valor de < f i t - r ) >. Estos modelos incorporan de m anera natural retardos temporales en la capacidad de predicción (fiable) y dan lugar a comportamientos muy complej
5,21
C aos hom oclín ico
El atractor de Rossler y muchos otros sistemas dinámicos como las ecuaciones de Lotka-Volterra tridimensionales (se verá más adelante) pertenecen a uu conjunto amplio de sistemas que presentan ciertas propiedades comunes entre las que está implicada la existencia de órbitas homochnicas. Recordemos que una órbita Fo que parte de cierto punto x G R ’^ se denomina komoclíhica respecto al punto fijo xq del sistema dinámico si i —► Xq, para t —» ±oo. La órbita homoch'nica Fo pertenece a la intersección entre las variedades estable e inestable: Fo C [W-(xü)nirM-í^o)]
M ostramos en la figura 5.35 dos ejemplos para sistemas de dimensión dos y tre.s.
Orden y Caos en Sistemas Complejos
206
Figura 5.35: Orbitas homo clínicas en dos y tres dimensiones. Las órbitas homochnica'í de puntos de equihbrio hiperbólicos son de gran interés en nuestro estu dio debido a que presentan inestabihdad estructural. En particular, puede demostrarse (Kuznetsov, 1995) el siguiente lema: L em a. Una órbita homoch'nica Fq perteneciente a un punto de equihbrio hiperbóhco dinámico dx —
= f;,(x ),
xq
del sistema
X € R ”
es estructuralm ente inestable. Este lema implica que podemos perturbar un sistema que posea una órbita homochnica. Fo r<"specto de xq de tal forma que el retrato de fases en las proximidades de Fq U xq es topológic^imiente Tio-equivalente al original. De hecho (Kuznetsov, 1995) la órbita homoch'nica simplemente desa parece genéricamente para perturbaciones del sistema original, lo que representa una bifurcación (capítulo 4). El siguiente teorema, debido a Shilnikov, hace referencia a las implicaciones de la existencia de una órbita homochnica en sistemas dinámicos 3—dimensionales del tipo silla-foco (figura 5.35). T eorem a de Shilnikov Sea el sistem a dmámico
^
= f^(x),
X€
que supondremos puede escribirse en la forma dx — ^ px - wy ^ P[x. y, - ) dy ^ = py + wx i- Q(x, y,z )
Caos Determinista
207 dz . , — = Az + R{x, y, z)
donde P, Q y R son, funciones ansiKticas tales que P (0 ) = Q(0) =: i2(0) = 0 y P '(0) — Q'(0) i?'( 0 ) = 0 en el origen (0 = (0,0 ,0 )). EI origen es un punte fijo del tipo siIla-foc<.. es decir, los valores propios son de la forma A¿ = p ± wz,
A3 = A G
Supongamos que el origen posee una órbita homoclínica Fo- Entonces 1. Si A > - p > O (o si —A > /3 > 0), cualquier entorno de Fq contiene un conjunto numerable de soluciones periódicas inestables de tipo silla. 2. En un entorno de Fq existe un subconjunto de trayectorias que m uestran com portam iento aperiódico, en el sentido de que existe una correspondencia biyectiva con *1 operador cr ( “shift’"') con un número infinito de símbolos. Las consecuencias del teorema son de gran im portancia; se desprende de sus conclusiones que e.KÍstirá (de forma muy general) una relación entre trayectorias homoch'nicas y cao> determ inista. Esperaremos por lo tanto, bajo las condiciones anteriores, observar atractores extraños (del tipo del atractor de Róssler). Existen distinros enunciados alternativos del teorema (véase, por ejemplo, Guckenheimer y Holmes, 1983). Uno de ellos hace referencia al comportam iento de las trayectorias en un entorno próximo al punto xq- Si tomamos una superficie cilindrica So alrededor de xo (figura 5.36), que fuese cubierta, arriba y abajo, por círculos E i, y si indicamos por Üq la parte inferior, podemos anahzar el comportamiento de la aplicación de Shilnikov, n : U ^ So U S ; siendo C So una pequeña superficie sobre el cilindro superior. Podemos considerar U C Eo como un conjunto de condiciones iniciales. Indicamos dos aphcaciones definibles, 'í'o : So —*■ E l que caracteriza el comportamiento local de
xq,
m ientras que la segunda
'í'h : El —► So U S q tiene en cvienta el comportamiento local de los puntos próximos a la órbita hom ochnica F q que no están en las proximidades de XoEl teorem a afirma (en estos términos) que existirá un conjunto numerable de herraduras de Smale definidas por sobre So U S q (indicamos una de éstas por ’Í/,(K )). De forma similar a lo anahzado anteriormente, el empleo de una sección de Poincaré nos permite visualizar el comportamiento en términos más simples, en este caso en ténm nos del sistema de Smale que, como sabemos, es caótico (Guckenheimer y Holmes, 1983; Wiggins, 1990; Kuznetsov, 1995). Un problema altamente no trivial en la aphcación de este teorema reside precisam ente en probar que Fo existe. Aiin así, para sistemas que exhiben caos, podemos explorar la posible aparición de Fo a partir de argumentos cualitativos simples (Arneodo et al. 1980). Consideremos el sistema de Lotka-Volterra definido en general por el sistema n —dimensional
dt
T. -
Orden y Caos en Sistemas Complejos
208
Figura 5.36: Orbitai; homoclínicas y herraduras de Smale en el caos ti])o Shilnikov. que pertenece al conjunto genérico de la forma dNi di para el caso particular todos los hiperplanos
= 7,· —
Estos sistemas presentan la particularidad de que
{A';} = 0, i s J , son globalmente invariantes. En n = 3, y ehgiendo el punto Ni — N 2 = N 3 = 1 como punto central de equihbrio (sin pérdida de generalidad) las ecuaciones pueden escribirse en la forma dN, = N. dt
- A',)
y podemos anahzar su comportamiento para distintos valores de la matriz (a,j). Arneodo tomemos la matriz / 0.5 ~
—0.5
\
M
0.5
0.1 \
—0.1 0.1
0.1 0.1 /
Siguiendo a
en la que sólo o· 13 = p os variable. Para valores crecientes de yu, este sistema experimenta sucesivas duplicaciones de periodo hasta alcanzar el régimen caótico. En la figura 5.37 (a,b) mostramos dos atractores para distintos valores de fi. Arneodo ei al. obtuvieron un argum ento heurístico de validez general (para este tipo de sis temas) que perm ite conjeturar la existencia de una órbita homoch'nica Fq. Supongamos que con sideramos una familia paramétrica de ecuaciones diferenciales tales que 1. Para ¡j, > /.iq, existe un punto fijo xq del tipo silla-foco que satisface las condiciones del teorema de Shilnikov (es decir, A > —p > 0 o —A > p > 0 ) .
Caos Determinista
209
y
X
Figura 5.37: A tractores para los valores; de fj. (a) p. = 1.43 y (b) fi = 1.65 del sistema de Arneodo. (c,d) Conexión entre el ciclo límite (que aum enta de tamaño con //) y el punto siila-foco inestable, (e) Formación de la órbita homoclínica F q y (f) interpretación de F q para ei sistema de LotkaVolterra.
Orden y Caos en Sistemas Complejos
210
Figura 5.38: Ventana de periodo tres, (a) Diagrama esquemático de la estructura de las bifurca ciones en la aplicación logística, (b) Ampliación de la ventana de periodo tres, cerca de la cuíil se da intermitencia. 2. Para p. = ¡jh > sistema experimenta una bifurcación de Hopf supercrítica en otro punto xi, que genera una órbita periódica 7 estable para ¡1 > fin (figura 5.37 (c)). 3. Para p > 4. Si
//
la variedad estable del punto Xo converge hacia 7 cuando ésta es estable.
crece, el tam año de 7 crece con mayor rapidez que ia distancia |(xo
~ X i[|
(fig. 5.37 (d)).
Bajo estas condiciones podemos esperar que la variedad inestable de xq se acerque lo bastante a 7 como para dar lugar a la órbita homoch'nica Fq considerada por el teorema (fig. 5.37 (e)). Este procedimiento heurístico ha dado buenos resultados en varios modelos generales de gran interés, como el modelo de Lotka-Volterra anterior, para ei que representamos en la figura 5.37 (f) la órbita homochnica asociada al sistema para p = L708. El caos de “tipo Shilnikov”, como es conocido también, ha sido detectado en m ultitud de sistemas físicos y biológicos, que van desde láseres hasta, como veremos, la dinám ica cerebral (véase el capítulo 15).
5.22
In term iten cia
El escenario de Feigenbaum que hemos anahzado es una ruta hacia el caos muy im portante, aunque no la única posible. Existen dos escenarios distintos que juegan un papel muy im portante en la aparición de caos en sistemas naturales tan distintos como los fluidos o el tejido cardíaco. Los anahzaremos en esta sección y la siguiente. El primero se conoce con el nombre de intermitencia. La denominación procede de la forma peculiar en la que irrum pe el caos a lo largo de la dinámica temporal del sistema: en la misma evolución temporal se alternan comportamientos regulares (básicamente periódicos) interrumpidos por ráfagas desordenadas más o menos cortas. En esta sección presentaremos un tipo de escenario interm itente (no el único, véase Schuster. 1989) conocido corno intermitencia de tipo-I.
Caos Determinista
211
La aparición de interm itencia tiene lugar, por ejemplo, en sistemas dinámicos discretos que presentan escenario de Feigenbaum. En ei caso de la aplicación logística, esto ocurre en la^ pro ximidades de la ventana de periodo tres que se observa eu el interior del dominio caótico (tigura 5.38) por encima de ßc - ^ + V^· La dinámica de la aplicación logística cerca de //c- o má.'^ explícitanirute, para valores de /i tales que O < /íc — ^ 1· es La característica del régimen interm itente. En la figura 5.39 (a) ventos un ejemplo de esta dinám ica para ßc ~ ~ 0.002. Esta dinámica apareet- como una combinación de oscilaciones cercanas a una órbita de periodo tres, interrum pidas por ráfagas de tipo no-periodico. La explicación para este comportamiento puede obtenerse analizando la figura 5.39 (b), en la que representamos la tercera iteración de //.(x) esto es, frente a x. para uu valor de ß alü,o por debajo de ßc = l + \ / 8 . Si iteramos esta función (recordemos que ahora los puntos fijos representan elementos de la órbita de periodo tres) veremos que, en las proximidades de la tangencia indicada, la dinámica del sistem a pasará muy cerca de la órbita 3-periódica, que es inestable. Tras abau
=Xc obtenemos:
+ (x - Xc)) = siendo ctc y ßc
+ (-r; - Xc) + öc(x - Xof^ +
3 c{ x
-
XcY
constantes definidas por; /
fi^) dx^
/
tir..Tc
\ A f(3 ) d / )
Definiendo y s (x - Xc)/ßc. y o = ac3c > 0. la aplicación Xnri ~ proximidades de Xr, uua expresión: Un + I = Un + ay„
da. en las
^
Y las regiones lam inares se definirán ahora con un criterio intuitivamente claro; las iteraciones consecutivas del sistem a deben cambiar muy poco, lo cual puede indicarse formalmente por la desigualdad |y„i < ^ < 1
Orden y Caos en Sistemas Complejos
212 LO V
10
10
10
t
10
10
10
Figura 5.39: (a) Interm itencia en la ecuación logística: para fj,^ — fj, — 0.002 observ
arctan
yJT fa
~ arctan
Vi
\
A continuación, encontraremos la longitud promedio < l > suponiendo que existe P{yt)< la pro babilidad de que, después de una ráfaga caótica, la órbita sea rem yectada cerca del punto Xc. de forma que se verifiquen las hipótesis anteriores. Esta probabilidad es sim étrica respecto del punto ^c'· PiVi) - P { - y i) , y tendremos: < I > = J ^P (y ,)¡{e ,y i)d y ,=
arctan
í ® ÌÌ Wf/o/ .
y, para /(/a obtenemos una expresión asintotica i>ara la longitud promedio de la región laminar: < / >oc La ley de escala anterior es muy general en estos sistemas. Se ha propuesto además que el mecanismo de intermitencia podría proporcionar un origen para el "ruido 1/ f ’ (Schuster, 1989) distinto del de la criticalidad autoorganizada. descrito en el capítulo 8 .
Caos Determinist.'i
213
Q
.
Figura 5.40: Experimento de Couette-Taylor.
5.23
Escenario d e R u elle-T ak en s-N ew h ou se
Un tercer escenario de bifurcación que desemboca en la generación de caos determ inista tiene relación con la aparición de comportamientos cuasiperiódicos en sistemas dinámicos no-lineales. La cuasiperiodicidad fue estudiada €n eí capítulo 4, ju n to con las propiedades de los .sistemas dinámicos que exhiben ciclos limite. Este escenario fue introducido por primera vez,en 1978 por Ruelle. Takens y Neu-houso. y tam bién es conocido como escenario R T.\. Estos autores analizaron un estudio llevado a cabo por el célebre físico ruso Lev Landau en 1944, concerniente al problema de la aparición de la turbulencia en fluidos (Landau, 1986). La hipótesis de Landau consiste en suponer que el comportam iento turbulento es el resultado de la aparición de un número infinito de frecuencias independientes asociadas a los remcjlinos de distintas escalas que vemos experimentalmente, y que aum entan en número y complejidad a medida que nos adentramos en el régimen turbulento. A medida que la velocidad del fluido aum enta (en alguna forma) aparecen frecuencias de oscilación que van sumándose hasta alcanzar un especrro continuo (capítulo siguiente). Existen algunos experimentos clásicos que pernúten obervar estas transiciones hacia el régimen turbulento. Uno de ellos es el experimento de Couette-Taylor, en el que un fluido se liaUa confinado entre dos cilindros concéntricos (figura 5.40) con el interu.ir trio vil que gira a uua frecuencia ajustable por el experimentador. Si el cilindro gira lentam enre, nada ocurre. Existen varios parám etros que controlan la dinánúca cualitativa de este sistema, como ei cociente rj = í’i/í ‘2 entre los radios del cilindro externo, r 2, y del cilindro interno, /-i. o el numero de Reynolds, que es de hecho el valor explorado habitualm ente. Este número adirnensionai se define como R = ü r id ju siendo Q. la velocidad angular del movimiento del cilindro interno, d = ^2 y u ~ ///p es la viscosidad cinemática del fluido. Dado que los parámetros ri, d y v están fijados, R refleja la velocidad de rotación del cilindro interno. P ara valores de R crecientes aparece, para cierto valor crítico R¿. una ordenación espontánea del fluido en forma de estructuras macroscópicas regulares con dinamica periódica (ciclo línúte)
214
Orden y Caos en Sistemas Complejos
Figura 5.41: Transiciones entre distintos comportamientos dinámicos para el expermiento de Couette-Taylor.
Caos Determinista
215
que, para velocidades algo mayores, presenta una segunda couiponente de oscilación. P ara valores aún mayores, podemos ver una transición súbita (al menos en apariencia) hacia im rornportam iento desordenado: la turbulencia. En la figura 5.41 vemos unos ejemplos de estas dinámicas, medidas experim cntalm ente em pleando un registro de la velocidad local del fluido. El sistema presenta oscilaciones que van ganando complejidad a medida que el número de Reynolds, que presentamos en la forma R¡Re-, aumenta. Estos resultados sugieren que la conjetura formulada por Landan sería parcialm ente válida, aunque ello no es claro a partir de los experimentos, en especial porque la transición hacia el régimen turbulento parece más rápida de lo que esperaríamos a partir de la hipótesis de Landau. Ruelle, Takens y Nevvhouse demostraron que, de hecho, el escenario mediante el que un fluido desemboca en el régimen turbulento puede ser considerablemente distinto. En particular, estos autores (que introdujeron por primera vez el término atractor extraño) demostraron que un com portam iento aperiódico puede obtenerse como resultado de un escenario de bifurcación en el que, tras la aparición de l,is primeras bifurcaciones en las que aparecen imevas frecuencias, los atractores cuasiperiódicos se ‘"rompen” y pueden dar lugar a un atractor extraño. Este escenario ha sido investigado empleando sistemas dinámicos discretos bidhnensionales, que permiten explorar en detalle las propiedades de universahdad de esta transición. En prim er lugar, recordemos en qué consistía el comportam iento cuasiperiódico. En la figura 5.42 vemos un toro en sobre el cual se mueve una órbita que indicamos por una curva. Las dos frecuencias presentes en el toro se indican mediante las variables angulares o y 8. En 5.42 (a) la curva se cierra sobre sí misma (es una órbita periódica). Al cociente entre frecuencias, Q = f i / f ¿ se lo conoce como número de rotación, y cuenta el número de rotaciones eu la coordenada O por cada rotación según é. Para ei caso de la figura, tenemos Í7 — 3. En general, si fí es racional, la órbita se cerrará sobre si misma, m ientras que para valores irracionales, no se cerrará nunca y tendremos cuasiperiodicidad. Como ocurre en otros casos (se ha mencionado en el capítulo 4) el empleo de una sección a través de la trayectoria puede simplificar el estudio de la dinámica resultante. Podemos llevar cabo esta sección tal y como se indica en la figura 5.42 (b). Caüda punto de intersección define un ángulo 8n y podemos analizar el comportamiento de las órbitas anahzando sus intersecciones con E. Empleando la sección de Poincaré podemos definir una aphcación bidimensional asociada al sistema dinánúco en la forma; i - 1 — 9 ii
)
que, para un caso más general en el que el movimiento se desplace en la superficie de un toro deformado (con un radio característico variable), deberá completarse con una iteración para la distancia r. Un sistema diiiáirúco discreto especialmente bien conocido es la siguiente aplicación disipativa sobre el círculo: ^n+i + Q ~ — sin(27T0„) -f- br,i (rnod 1) Ztt = br„ - — sin(27T^„) ¿ir Esta expresión se obtiene (Schuster, 1989) a partir del estudio de una partícula en movimiento circular (en dos dimensiones) golpeada periódicamente. La ecuación de este sistema es:
g =
+ A 7 (o )E í(í-n T , n “O
(con n G Z), y donde o indica la posición (angular) de la partícula, V es la constante de am or tiguam iento y el segundo término de la derecha introduce la fuerza, aplicada de forma periódica (T es el periodo). Un análisis de este sistema dinámico (Schuster, 1989) pernúte reducir este sistema
216
Orden y Caos en Sistemas Complejos
a una aplicación bidimensional que, bajo un cambio de* variables adecuado, nos lleva a nuestro sistema discreto. El parám etro K mide la importancia de la no-linealidad dada por el término sin(27r0n)· Este sistema m uestra cuasiperiodicidad para dguno.s valores de K , en tanto que para valores mayores se produce una transición hacia el cao> a través de la rotura del toro invariante. En la figura 5.42 (a,b) se muestra un ejemplo de est.i transición, para — 0.612 y b = 0.25, donde podemos ver la aparición de cuasiperiodicidad seguida de caos. La deformación del toro es, típicam ente, el anuncio de su rotura y de la consiguiente
fi^n )
~
0^
+ 9.
-
^
sin(27T^n)
(moíí 1)
¿7T
que describe la transición cuasiperiodicidad caos en términos (únicamente) de la variable an gular On- Esta aphcación perm ite estudiar en forma muy simple (pero general) la transición al atractor extraño por rotura del toro invariante. Señalemos que (análogamente a lo que ocurría con la aplicación logística en relación con el escenario de Feigenbaum) la forma particular de la función f{9) es poco relevante (tendremos otra vez universalidad). En particular, f{8) presenta las siguientes propiedades . /( ^ + l ) ^ l + / ( ^ ) • Si ]h\ < 1. f{0) y su inversa existen y son derivables (esto es, f{9) es un difeomorfismo). ♦ P ara
= 1. la inversa se hace no diferenciable, y si |/:| > 1, deja de ser única.
Estos comportamientos quedan ilustrados eu la figura 5.43. P ara í: < 1 tendremos órbitas no-caóticas. Cuando f{d) se hace noinvertible, aparece la posibilidad de hallar órbitas caóticas, corno las que m uestra la figura 5.44. Una enorme cantidad de información acerca de la estructura de las transiciones que tienen lugar on este sistema dinámico (y que nos da nua buena idea de su complejidad) se obtiene explorando numéricamente el valor del exponente do Lyapunov k) para cada par de valores (O, k). Para \k\ < 1, observamos un tipo do estructura característica, en forma de triángulos defor mados, que recibe el nombre de lengua.< de Arnold (figura 5.45). En cada una de estas bandas, el número de rotación es constante y racional. Estas estructuras son densas en el espacio de parám etros y no se cortan, formando un conjunto de Cantor. Los línútes superiores (donde los triángulos se ensanchan) están ligados a l.i transición que convierte a la funciónen no-invertible.
5.23.1
C u a s ip e r io d ic id a d y caos en te jid o c a rd ía c o
Existe un estudio experimental acerca de la aparición de atractores extraños en cultivos de células del corazón que demuestra claramente la aparición de caos a través del escenario RTN (Guevara et al., 1981; Glass et al.. 1984; Rolden, 1987). La existencia de caos determinista en el coraíón humano
Caos Determinista
217
Figura 5.42: Traasición cuasiperiodicidad-caos. (a) El sistema converge a una orbita periódica. Aquí, la superficie representa el flujo de una línea continua de puntos iniciales bajo la acción de la dinániica. (b) Aparece una segunda frecuencia que lleva al sistema a moverse sobre la superficie de un toro, (c) El toro invariante se deforma, sufre rotura, y surge el caos. Observemos que la sección del toro revela con claridad la deformación a que da lugar la transición al caos. En este sentido, las secciones de Poincaré permiten obtener información suficiente acerca de la naturaleza de dichas transiciones (véase texto).
Orden y Caos en Sistemas Complejos
218
- y — ·-·
1 . 0
1 0
/
k
^
O
4
/
. 8
k
^
1
Ü
^
O
.
1
/ /
Q
=
0
. 6
0 . 8
0 , 6
0 . 6
0 . 6
-
0 . 4
'
. 6
/
j
/ / 0 . 4
/
/ / /
O .S
0 . 2
-
/
1
T 1 ( r 1 1 1M
0 . 0 0 . 0
' 5 1 t T r 1 1 t : [ : / i : · 1 M t 1: 11 J : T Tr : - p
0 . 2
0 . 4
0 , 6
0 . 8
: t i m
t m
1 . 0
n
■ -T I 1 1 r - i - i T T T T i
G 0
0
0 . 2
■' - r T
, - “r 0 , 4
0 . 6
0 . 8
1 . 0
Figura 5.43: Com portam iento de la aplicación f{6) para distintos valores de k. Para k > 1, vemos que f{6) se hace no invertible.
Figura 5.44: O rbita cuasiperiódica y órbita caótica en la aphcación circular. Los parám etros son los mismos que en la figura anterior.
Caos Determ inista
219
Figura 5.45: Regiones regulares y caóticas en el espacio param étrico {íl.k} para la aplicación circular. P a ra cada valor (Í2, k) se ha calculado el exponente de Lyapunov. Las regiones negras corresponden a las combinaciones caóticas. En la parte inferior vemos las “lenguas de Arnold’“.
será analizaba en el siguiente capítulo. Los experimentos de Glass y sus colaboradores consisten en estim ular eléctricamente de forma periódica grupos de células de tejido cardíaco. E stas células se unen de form a que “laten"’ espontáneamente, en forma coordinada. El estímulo de estas células se lleva a cabo mediante el empleo de un microeiectrodo, a través del cuai podemos suministrax pequeños pulsos de corriente. Por medio de estas manipulaciones se ha obtenido escenarios de bifurcación muy diversos, que incluyen intermitencia, duplicación de periodo y cuasiperiodicidad. En la figura 5.46 vemos un ejemplo del potencial registrado (periódico) que posee periodicidad Tq junto con una señal súbita que indica la introducción de un estímulo. ¿ unidades de tiempo después del comienzo de un ciclo. Tras ia perturbación, el grupo de células vuelve a su ciclo anterior. Sin embargo, la introducción de secuencias periódicas de pulsos pernúte generar nuevas dinámicas, en particular, caos a través de un escenario de RTN. P ara bajas intensidades del estimulo, se obtiene dinámica cuasiperiódica, como la que se indica en la figura 5.47 (Holden, 1987), en la que la introducción de estímulos se indica por flechas verticales. En (b) se indica un detalle de dicha dinámica. Si represen tamos en un diagrama la aphcación de primer retorno, veremos una secuencia monótona de puntos, casi paralela a la bisectriz. El estímulo periódico da lugar a una transición a la cuasiperiodicidad. Cuando aum enta la intensidad del estimulo, la aphcación (^„,0„+ i) presenta un cambio evi dente: se hace no-invertible (fig. 5.48 (b)) y aparece el caos. Este tipo de comportamiento abunda en sistemas fisiológicos sometidos a estímulos periódicos (Holden, 1987) y muy posiblemente se dan en condiciones naturales. Veromos en el próximo capítulo que incluso el corazón humano m uestra claros signos de caos deternúnista en su dinámica intrínseca.
Orden y Caos en Sistemas Complejos
220
O mv
-50
500
m sec
Figura 5.46; Registro de la actividíid de un grupo de células cardíacas (G uevara eí ai.. 1981). El ciclo intrínseco es de duración Tq, y no se ve afectado por la perturbación.
Ai
I___ I
B
[y
Figura 5.47; (a) Dinánnica cuasipt-riódica. La introducción de estímulos se indica por una flecha vertical, (b) Detalle de la dinámica.
221
Caos Determinista
Figura 5.48: (a) Diagrama (0n,Bn+i) obtenido experimentalmente para el tejido cardíaco sometido a estimulación periódica, que indica la presencia de periodicidad; (b) Dinámica caótica cuando la intensidad del estím ulo aumenta. Vemos cómo la aplicación obtenida experimeiitalm ente se hace ao-invertible.
5.24
A p é n d ic e A: Caos y principios variacionales
En esta sección aphcaremos el formalismo que fue introducido en el primer tem a del libro: el método de la m áxim a entropía. Recordemos que la idea básica era encontrar la distribución (le probabilidad asociada a ciertas restricciones genéricas sobre las propiedades estadísticas del sistema. Calculábamos el valor máximo de la entropía compatible con dichas ligaduras, y el método variacionai nos proporcionaba la distribución más probable. En este caso, nos será útil, entre otras cosas, para calcular el valor del exponente de Lyapunov. Bajo la hipótesis de ergodicidad, podemos suponer que los momentos de orden n de un sis tema dinánúco Xn + i = //i(^n), definido sobre el intervalo unidad [O, 1], están relacionados con su densidad de probabilidad por: < x” > =
f
y’"p{y)dy
Jo áonde p(x i > O para x e [O, 1] y
í p{y)
Jo
La evolución tem poral de la densidad de probabilidad viene dada por -
í Pt{y)á( Jo
para / = O, 1 , y /?o la densidad inicial. La densidad de probabilidad asintótica se sigue de la resolución de la ecuación integral de Perron-Frobenius, definida por:
piy)
•r
p(x)¿(y - f{x))dx
Orden y Caos en Sistemáis Complejos
222
que, como hemos visto, da rt^siiU.ados anahticos para algunos ejemplos de interés. Por otra parte, si la densidad de probabilidad es conocida, podremos evaluar el exponente de Lyapunov A/, mediante \
dx - I />(-c)ln di' 'o
l
Podemos emplear el principio de máxima entropía para obtener p{x) empleando como ligaduras .V momentos de la distribución. Siguiendo el estudio de Steeb (Steeb et ai, 1994), emplearemos iV = 2. Como vimos previamente, la entropía de Boltzmann continua era H -
f p(z)ln[p(x)]c¿j Jo
Tomaremos los momentos de orden inferior de las variables dinárrñcas que, para sistemas ergódicos, son iguales a los momentos de la distribución de probabilidad para la evolución tem poral. Siguiendo los pasos habituales, tendremos, para el caso general, una ecuación variacionai asociada a: =
-J
p{x)
[ p{x) ]dx + 3o
N
/
+
(^1 - j
+
p{x)dx
,1 < r” > - /
x^p{x)dx
siendo Pn el conjunto habitual de multiplicadores de Lagrange asociados a las ecuación variacionai nos da en este caso: p{x) - e x p í - 1 \
Aquí Z = de forma que
+ 1 ligaduras. La
h ^ e x p í^ n^O
/
\n=0
/
queda determinada mediante la normalización de la densidad de probabilidad, 1
— / exp -^0
i^
\
Vn=.0
/
dx = 1
Los restantes multiplicadores de Lagrange se obtienen resolviendo el conjunto de ,V ecuaciones iio-Iineales acopladas: ■1 / \ dx < \ n —o / para m = 1, 2 ..., N . Consideremos dos ejemplos resolubles analíticamente. El primero será la aplicación triangular, con p = 2. Este sistema dinámico es nuxing y ergòdico. La distribución exacta de probabilidad es p{x) = 1, a-sí que sus momentos asociados son I
n+ 1 Tomando los dos primeros momentos, < x > — 1/2 y <
>— i/3. la distribución será
P{^) = ^ e x p -/3iX - 52X‘
Caos Determinista,
223
Debemos entonces resolver his ecuaciones ao lineales: 1-
/ exp - 1 - (^0 Jo
\
1
2=70
1-
- P-2-
3o - f Í \ X
= I
- 323'’
di
di ^d/32 3 io para hallar los multiplicadores de Lagrange. Se obtiene /3o — —1, /3i^n:0, /?2 = 0. Así que obtenemos p{x) = 1, en concordancia con la solución exacta. Finalm ente, tomemos la aphcación logística para /x — 4. La densidad de probabilidad es (Schuster, 1989),
i = r x'^ exp - 1 --/3 o - A i· - A: -2
^
p{t) =
7r> /x(l -
z)
Los m omentos toman ahora la form a 22-· \ r , ' n ' . J
Luego los primeros momentos serán < x > = 1/2 y < r* > = 3/8. Las nuevas ecuaciones son ahora: 1= y
e .x p |-l - 3o - f^h^: - 32X‘
\ = L
r
exp í3q ~ -8 = Jo Resolviendo numéricamente, encontramos los valores
- /32X^
¿3o = +2.69242 3i - -6.76825 3-2 = Empleando estos valores, la integración numérica de la expresión integral para el exponente de Lyapunov nos da un valor — 0.72, muy próximo al vaíor *’.xacto.
5.25
A p én d ice B: D erivación de las ecuacion es de Lorenz
Siguiendo la exposición presentada por Schuster (Schuster, 1989) describiremos aquí el procedi miento básico de obtención de ias ecuaciones de Lorenz a partir del modelo basado en las ecuaciones básicas del movimiento de uu fluido convectivo. La idea de partida, descrita por el famoso experimento de Bénaid, es estudiar eí compor tam iento de una capa de fluido emplazada entre dos superficies planas y paralelas, separadas una distancia h (en el eje vertical, figura 5.49. Si calentamos homogéneamente por debajo, se pro ducirá un transporte de calor entre esta superficie y ia de arriba (que estará más fría), el cual, en principio, tendrá lugar por conducción. Sin embargo, si esta diferencia aum enta se produce un
224
Orden y Caos en Siséemas Complejos
Figura 5.49: Fluido convectivo: aparecen rollos convccfcivos de forma espontánea. nuevo fenómeno de autoorganización: el fluido presenta transporte convectivo y junto a éste se da la organización espacial en forma de rollos convectivos. Si la tem peratura sigue subiendo, esta situación se hace inestable y aparecen nuevas frecuencias que, eventualmente, desembocan en el caos. El fluido estará caracterizado por un campo de velocidades v(r, í) y un campo de tem peraturas, T {r,f). Las ecuaciones básicas que describen el modelo serán: La ecuación de Navier-Stokes: dv
= F - Ví> + /iV^v
La ecuación de Fourier para la conducción de calor: di dt La ecuación de continuidatl:
con las condiciones de contorno: T{x·, y, i: —O, ¿) — To + AT T (x, y, z = h J ) = Tq Siendo p la densidad del fluido, // su viscosidad, p la presión, k es la conductividad térmica y F indica la fuerza asociada a la gravedad, dada por F = pgk. siendo k el vector unitario en la dirección negativa del eje c. Las iio-linealidades de este sistema de ecuaciones provienen de la ecuación de Navier-Stokes (que es cuadrática en la velocidad).
Caos Determinista
225
Supondremos a continuación que el sistem a es invariante bajo traslación en l i dirrt ción y, de majiera que asumimos que los rollos de convección sou de longitud inftnit.a. Supondr^'mos adicional mente que todo.s los coeficientes son constantes, excepto la densidad, (pie dt pend*· line
La ecuación de continuidad será entonces: du dvü dx dz con w = Vi y u — Vx-, Podemos introducir la función
tal que:
dtp dtp ^ ~~d^ ’ " "d^ que satisface autom áticam ente las anteriores igualdades. El paso siguiente es introducir una perturbación 6 (x, z j ) del campo lineal de 'rm peratura, por medio de la expresión; T ( x .z .t)
= T o + A T -
h
+
lo que nos lleva al siguiente sistema de ecuaciones; -----— + z/V > + ga — d {x,z) dx
dt
dt
o(z, z)
h dx
Siendo i/ = p./p* la viscosidad cinem ática y en las que hemos empleado la si¿;uienfe notación abreviada: a(g, b) ^ d[x, z) ~ dx dz dz dx Asumiremos finalmente las condiciones de contorno empleadas por Lorenz: 0(0. O, O = BiU.hA) ^ 1/^0, O, í) ^ M J i . t ) = V^t/^íO.O.í) = V - ^ J t . t ) y, llevaxido a cabo un desarroUo de Fourier para f y 9, retendremos solo ios teraiiu'ts de orden inferior y emplearemos las relaciones:
Donde ahora R ^ {gcth.·^/u):\T es el número de Rayleigh, a está definida po; la fig'.ira 5 49 (expresa el tam año horizontal relativo del rollo convectivo respecto del grosor del hquido) y R¿ ^ 7r'*a“ ^( 1 + G^)^. Insertando las relaciones anteriores en las ecuaciones reducidas para c y O, obtenemos finalmente el modelo de Lorenz; dx -
=
-a(x-
-
y)
226
Orden y Caos en Sistemas Complejos dy — = rx — y - x z dt ^ dz -¡¡ = iz + xy
donde las derivadas se llevan a cabo en realidad sobre el tiempo normalizado. —4(1+ a ^ ) “ ^ y r = es el parám etro de bifurcación que hemo·- explorado al principio y que es proporcional a la diferencia de tem peratura.
B ibliografía 1. A. Arneodo, P. Coullet y C. Tresser, Occurrence of strange attractors in three-dimensional Voltcrra equations. Phys. Lett A 79 259 (1980). 2. H. Bai-Lin, Elementary symbolic dynamics. World Scientific, Singapore, 1989. 3. .J- Banks, J. Brooks, G. Cairns, G. Davis y P. Stacey, On Devaney’s Definition of Chaos. Am . Math. Montly 332., Abril 1992. 4. P. M. Binder y R. V. Jensen, Simulating chaotic behavior with finite-state machines. Phys. Rev. A 34 4460 (1986). 5. R. H. Dalling y M. G. Goggin, Chaos is not an artifact of finite-digit ariimethic. Am . J. Phys. 62 563 (1994). 6 . R. L. Devaney, An Introduction to chaotic dynamical systems, Benjamin Cummings Publ.,
Menlo Park, 1986. 7. M. Feigenbaum, Quaniitaiive universality for a class of non-linear transformations. J. Stat. Phys. 19 25 (1978). 8 . ,T. Ford. Hov) raridom is a coin toss? Physics Today Abril 1983.
9. N. S. Glance y B. A. Huberman, Dynamics with expectations. Phys. Lett. A 165 432 (1992). 10 . L. Glass, M. R. Guevara, J. Belair y A. Shrier, Global bifurcations of a periodically forceed
biological oscillator. Phys. Rev. A 29 1348 (1984). 11. C. Grebogi. E. O tt y J. Yorke, Chaos, Strange Attractors and Fractal Basin Boundaries in Nonlinear Dynamics. Science 238 632 (1987). 12. J. Guckenheimer y P. Holmes, Non-linear oscillaiioTi.-i. dynamical systems and bifurcations of vector fields. Springer-Verlag, New York, 1983. 13. M. R. Guevara, L. Glass y H. Shrier, Phase-locking, period-doubling bifurcations and irregular dynamics in periodically stimulated cardiac cells. Science 214 1350 (1981). 14. VV. S. C. Gurney, S. P. Blythe y R. M. Nisbet, Nicholson's blowflies revisited. Nature 287 17 (1980). 15. M. Hénon. A two dimensional map with a strange attractor. Commun. Math. Phys. 50 69 (1976). 16. A. V. Holden. Chaos. Manchester U. Press, Manchester, 1987.
Caos Determiüisía
227
17. R. A. Holmgren. A firsí course in discrete dynamical systems. Springer-Verlag, New York, 1994. 18. B. A. Huberman, The ecology of computation. North-Hollaud, Amst.erdam, 1988. 19. E. A. Jackson. Perspectiv<-s of Nonlinear Dynamics. (2 vols.) Cambridge U. Press, Cam bridge. 1991. 20. H. Kaplan, A carioon-assiated -proof o f Sarkovskii’s theorem. Am. J. Phys. 55 1023 (1987). 21. J. O. Kephart. T. Hoff y B. A. Huberman, Collective Behavior of Predictive Agents. Physica D 42 48 (1990). 22. Y. A. Kuznetsov, Elements of Applied Bifurcation Theory. Springer Series in Applied Math ematical Sciences, vol. 112, New York, 1995. 23. L. D. Landau y E. M. Lifshitz, Mecánica de Fluidos. Ed. Reverte (1986). 24. E. N. Lorenz, La esencia dei caos. Editorial Debate, Madrid, 1995. 25. M. C. Mackey y L. Glass, Oscillaiions and chaos in physiological central systems. Science 197 287 (1977). 26- M. A. Martin, M. Moran y M. Reyes, Iniciación al caos. Editorial Síntesis, M adrid, 1995. 27. R. M. May, Simple mathematical models with very complicated dynamics. Nature 261 459 (1976). 28. R. M. May, Nonlinear problems in ecology and resource management, en '‘Chaotic behavior in deterministic systems” , North-Holland, 1983. 29. J. L. McCauley, Chaos, dynamics and fractals. Cambridge University Press, Cambridge, 1994. 30. N. Metropohs, M. Stein y P, Stein, On finite lim it sets for transformations on the unit interval. J. Combinatorial Theory 15 25 (1973). 31. H. Peitgen, H. Jurgens y D. Saupe, Chaos and Fractals. Springer-Verlag, New York. 1992. 32. O. E. f^5ssleΓ. An equation for continuous chaos. Phys. Lett. A 57 397 (1976). 33. D. Ruelle y F. Takens, On the nature of turbulence Commun. Math. Phys. 20 167 (1971). 34. H. G. Schuster, Determimstic Chaos. Springer, Berlin, 1989, 35. S. K. Scott, Chemical Chaos Oxford University Press, Oxford, 1994. 36. C. Simó, On the Hénon-Pomeau attractor. Jour. Stat. Phys. 21 465 (1979). 37. R. V. Solé, J. Vails y J. Bascompte, Spiral waves, chaos and multiple attractors in lattice models of population dynamics. Phys. Lett. A 166 123 (1993). 38. S. Wiggins, Introduction to applied nonlinear dynamical systems and chaos. Springer-Verlag, New York, 1990.
C ap ítu lo 6
A n álisis de Fenóm enos C aóticos Hemos definido con anterioridad el concepto de atractor extraño y vimos que la geom etría de estos objetos es, al menos en parte, resultante de la sensibilidad a las condiciones iniciales. El carácter disipativo de la dinámica garantiza la convergencia de las trayectorias dentro de la cuenca de atracción hacia cierta región acotada del espacio de las fases que define la dinámica del sistem a y nos da una imagen del orden (y del determinismo) subyacente. Por otra parte, la sensibilidad a las condiciones iniciales hace que dos puntos iniciaimente próximos situados sobre el a tra c to r se alejen de m anera exponencial con el paso del tiempo. El resultado de ambas tendencias da lugar a un proceso de estiramiento-y-plegado que origina las propiedades fractales ya com entad 2is. Veremos ahora cómo cuantificar, desde el punto de vista de la dinámica del sistema, la divergencia (y por tanto la inestabihdad loccd) de las trayectorias. Ya hemos visto que podemos calcular la dimensión fractal de los conjuntos atractores, al menos en algrmos casos. Hemos obtenido tam bién expresiones para los exponentes de Lyapunov. Ahora bien, la im portancia dei caos determ inista sería reducida si no fuéramos capaces de aphcar las ideas anteriores a la reahdad. Y, aunque ciertamente las m atemáticas son el lenguaje del universo, la realidaxi no se presenta anunciándose con ecuaciones diferenciales. Aunque seamos capaces de intuir cierto orden bajo el azar aparente, debemos medir cantidades relevantes o bien extraer el orden intrínseco mediante procedimientos formales adecuados. Eu algunos casos podemos aphcar de forma directa algunas ideas ya expuestas. Así. la di mensión fractal de un atractor extraño generado por una aphcación bidimensional puede ser cal culada m ediante el procedimiento de box-counting (ver capítulo 3). Este hecho sugiere que tal vez podríam os emplear la medida de forma general para cualquier conjunto atractor, pero de hecho se ha probado que no es así (Greenside et al., 1982). Para sistemas dinámicos con tres o más grados de libertad, la convergencia de estas medidas suele ser mala, si la hay. Dcbemo.s emplear nuevas medidas de dimensión fractal. Pero esta no es la mayor dificultad. Los problemas vienen del hecho ya indicado de que no todas las variables son conocidas o accesibles. Imaginemos una población de depredadores de la que conocemos (mediante estim as de algún tipo) su dinánúca (fig. 6.1). Este sería el caso de las fluctuaciones de las poblaciones de los linces del C anadá, registrados por la Hudson Bay Company, que comerciaba con sus pieles. A lo largo de casi 200 años, el número de pieles contadas permitió disponer de una estimación de las fluctuaciones poblacionales. Los linces no son, sin embargo, un sistema aislado. Se ahm entan de liebres árticas y éstas a su vez lo hacen de la vegetación. Al menos tres variables (si no más) se hallan en juego. Aunque existen también algunos registros de las fluctuaciones de liebres, que tam bién exhiben ciertas periodicidades, no disponemos de series temporales equivalentes de todas las variables. Sólo de una. Hay casos aún más dram áticos, como es el cerebro. Hace mucho tiem po que se emplean los electroencefalogramas como fuente de información para el diagnóstico médico. En la 229
230
Orden y Caos en Sistemas Complejos
tie m p o Figura 6.1: Oscilaciones temporales de la población de linces del Canadá {Lynz canadiensis). Se observa una periodicidad de unos Ι Ο Ί ! años con una gran víiriabilidad en la am plitud.
Figura 6.2: Oscilaciones temporales de la actividad cerebral registradas a partir de medidas de potencial en un punto del cuero cabelludo.
Análisis de Fenómenos Caóticos
231
figura G.2 vemos algunos ejemplos de esta* señales, obU’uidas mediante electrodos colocados sobre el cuero cabelludo. Estas señales son irregulares aunque, desde luego, no totalm ente aleatorias. ¿Podrían estar asociadas con un fenómeno caótico? De >er así, parece difícii dem ostrar semejante hipótesis, ya que no disponemos de una idea a priori de cuántas variables están implicadas y ni siquiera la medida que ISevairios a cabo nos perm ite saber exaictamente qué tipo de variable estaznos manipulando. Estos ejemplos nos dan una idea clara de las dificultades a que nos enfrentamos. Nos preguntamos ahora ¿es posible extraer información de estas medidas? o, más explícitamente, ¿podemos conocer cuántas variables están implicadas y deducir la presencia de un atractor? Por sorprendente que parezca, la respuesta es afirmativa. En primer lugar estudiaremos en este capítulo el análisis de datos mediante la función de autocorrelación y la transform ada de Fourier. A continuación veremos cómo resolver el problema de medir la dimensión fractal de un atractor extraño cualquiera. Posteriorm ente discutiremos cómo estim ar el exponente (o exponentes) de Lyapuno\· de un sistema dinámico sin recurrir a sus ecuaciones y finalmente veremos cómo es posible reconstruir la dinám ica subyacente y determinar el número de dimensiones de un sistema experimental partiendo de una sola variable.
6.1
Función de autocorrelación
Una prim era medida, fácilmente reahzable, y que nos da cierta información acerca de la serie, obtiene a partir de la llamada función de autocorrelación C { t ) . Supongamos dada una serie tem poral de datos S = {xi, · ■ · ■ , Sea ¿i = < x >■ Entonces, la función de autocorrelación de la serie se define en la forma se
.v-i
jV -l
<=0
1-0
donde, para una aphcación unidimensional, en la que
= // j (^ í ) i se tendría
JV-l N— ‘OO
i =0
De esta definición se sigue que la función de autocorrelación proporciona una medida de la irregularidad de la secuencia de valores de la serie S. En la definición vemos que se emplean los productos de las desviaciones respecto de la media < r >. luego si la serie es periódica veremos que, para ciertos valores de r, en los que el sistema presenta correlaciones (productos dei mismo signo), tendremos máximos/minimos en el valor estadístico de C[r). Si disponemos de una densidad de probabilidad invariante p{x) para la aphcación dada (sobre el intervalo unidad), la función de autocorrelación puede escribirse en la forma: <^(7·)= /
Jo
p { x )x fl,(x )d x -
/ p{x)xdx Jo
P ara la aphcación triangular, por ejemplo, se tiene: C (r) = í x fj;(x )d x Jo "
(
i
' +
5
xdx
í =
232
Orden y Caos en Sistemas Complejos
1 . 00
200
o
25
100
125
150
175
200
k
-0 .5 -
-
1.0
O
“T —] I [—r'l—r~r 25 50 75
“ T—
— r— r " f ■
100
T r— t— r— [ : ■ i— r—
125
150
175
—i "t ' ]
200
k Figura 6.3: Función de autocorrelación para (a) una serie temporal obtenida a partir de la aplicación logistica con /í — 3.8 y (b) electroencefalograma patológico (enfermedad df CreutzfeldJacob).
Análisis de Fenómenos Caóticos
233
y por lo tanto las iteraciones están delt a-cor r»‘lación ad as. En la figura 6.3 se mue^rran dos ejemplos de funciones de autocorrelación obtenidas para la ecuación logística en ol dominio caótico y para una serie tem poral de un electroencefalograma,
6.2
T ransform ada d e Fourier
Cualquier señal (o serie tem poral, que podemos imaginar como un muestreo de cierta función) puede ser representada como la superposición de un número infinito de funcione.^ periódicas. Para ser más explícitos, si /( t) es una cierta función del tiempo, admite una representación en la forma: oo
Og
^ \
f{ t) - Y + X ]
,
e
/ K7T \
o
s
.
,
+ bk sin
f K7C
conocida habitualm ente como sene de Fourier. Los térrrúnos dentro de los paréntesis asociados a las funciones trigonométricas introducen los valores de las frecuencias asociadas a cada modo de Fourier, siendo los coeficientes de Fourier ak y bk las amplitudes asociadas a dichos modos. En cierta forma, estas amplitudes nos dan una medida de la im portancia del te'rmino periódico al que están asociadas (véase el capítulo sobre neurodinámica). Los coeficientes de la serie pueden determinarse a partir de las integrales definidas por: ak = J
c o s ^ ~ t'^ f{ t)d t
¿' = 0 , 1,...
•+X
La descomposición de una función en serie de Fourier admite una representación compleja que es la empleada habitualm ente. De la notación anterior, podemos ver que: ^ ^ikx
I ^-ikx\
Ofc cos(fcx) + bk sin(fca;) = ak
( ^ikx
+bk
\
\
- e’—«fcí'X = Cke^^^ 2i
donde (su¡>oniendo 6o —0 ) se tiene «jt — ibk Cit = ---- -----cou lo cual
1
ak + ibk c-k - — -----
f
1
f
Jo
27f
Jq
Ck = — I {eos kt — iíiin kt)f{t)d t = — c -k =
¿
I f{t)e ~ '^‘dt
kl + ¡ sin kt)f(t)dt = ~
Podemos resumir lo anterior en una sola expresión, >2 ir
<■» = i
/
¿TT J q
í ( t y - ‘ '“ dt
t = 0,±l,±2,...
Señalemos que. si f{x) es una función real, entonces ajt y bk son reales y los números c*, en general complejos, m utuam ente conjugados.
serán
234
Orden y Caos en Sistemas Complejos
f Figura 6.4: Espectro de Fourier para el atractor de Lorenz. Pese al carácter determ inista de la dinámica, aparecen infinitas frecuencias representadas en forma de una banda continua, que sugeriría en primera instancia algún tipo de ruido. El método de la transform ada de Fourier (TDF) ha sido descrito en numerosos textos especia lizados y aquí nos limitaremos a una revisión somera. Para una descripción más detallada, y en el contexto del caos determinista, recomendamos la lectura del capítulo III de Bergé et ai (1988). Para el planteanúento detallado del calculo numérico del problem a,'véase Press ei a i (1992). La idea básica que subyace a la aphcación de este método es la posibilidad de detectar, a p artir de un conjunto de medidas temporales, las frecuencias básicas que participan en el fenómeno y su im portancia relativa (en términos de la am plitud asociada). Si el fenómeno es totalm ente periódico y sólo aparece una frecuencia, como sería el caso de una señal sinusoidal, entonces esta frecuencia nos da la iuformación básica acerca de la serie en relación a su periodicidad. Si la serie es biperiódica. tendremos dos frecuencias, aunque cada una puede poseer una amplitud asociada distinta. El método de la transformada de Fourier nos dará los valores de las frecuencias y su im portancia en relación con las amplitudes. En ocasiones, debido a la naturaleza “ruidosa” de la señal, el método pernrúte detectar frecuencias no evidentes. En otros casos, no aparecen frecueixcias características sino una distribución continua de éstas, lo que puede estar asociado a ruido o a cííos. Supongamos una serie temporal (obtenida a partir de una señal dada) {¿'(íj)} siendo ij = A i, {j = 1.2,.... .V). La cantidad Ai es el intervalo de medida con el que se ha muestreado la señal (o en su caso el intervalo de integración numérica de las ecuaciones) o bien el tiempo característico asociado al sistema, como el que tenemos en sistemas dinánúcos discretos. Los inversos de los tiempos, esto es, f = son frecuencias, y una de ellas, la frecuencia de Nyquist, f = J_ 2At juega un papel especialmente importante. Si las frecuencias características del fenómeno estiidiado se limitan a valores inferiores a /^, puede garantizarse que la serie finita contiene la información suficiente acerca del problema (eu cuanto a sus periodicidades). Dicho de otro modo, la serie incluye el máximo periodo dentro del cual la dinámica se repite. Si la serie no incluye una m uestra lo bastante completa o bien si el muestreo que se reahza se hace con un A t demasiado grande.
Análisis de Fenómenos Caóticos
235
tendremos una serie distorsion^ida por los componentes de !a señal no representados en {x(í^)}. Esta distorsión se denomina aliasing y puede detectarse por el hecho de que la TD F, que definiremos algo más adelante, no tiende a cero para / —► fc- En caso de darse esta situación, la serie tendrá poca utihdad, aunque existen formar· de salvar este obstáculo, al menos en algunos cansos. La TDF de un conjunto finito (x(í^)} (en el que el tiempo está m uestreado eu U forma: tj = j A t, (j = 1, 2 , N )) se define a partir de la relación 1
fc= l
(i =
Aqui (¿fe} es la TDF del conjunto {x(í^)}. Si empleamos el hecho de que: N E
XkC,^>2Kkj/N L
= NSky
(G.2.1)
(donde el asterisco índica la función compleja conjugada), podremos escribir la expresión de la TDF a partir de la serie de partida: í 2irfc(j7 .V| i'. = E xjte k -l y tenemos ademas, de 6.2.1 la siguiente identidad (teorema de Parseval)
= l í E l" " * ! '
j =i
Si empleamos ahora la función de autocorrelación, N Cy — y ^ x{tj )x{tj +r , puede demostrarse que C . es:
c, = fc=l
y la inversa de esta relación nos da una expresión de gran urilidad:
r= l
La gráfica de P {fk) — en función de la frecuencia asociada = k / { N A t ) se denomina espectro de potencia y es el mas habitualm ente empleado. La denominación viene de la asimilación de P { f) a una potencia, esto es. a cierta cantidad de energía por unidad de tiempo. Consideraremos a continuación algunos ejemplos típicos. El espectro de Fourier, igual que la función de correlación antes introducida, no es una me dida apropiada para establecer si un fenómeno dado es o no caótico. Los sistemas que exhiben estocasticidad (cierto tipo de aleatoriedad) también exhiben espectros con una banda am plia de frecuencias, así que esta observación (por otra parte cualitativa) por sí sola es poco inform ativa. Sin embargo, para explorar sistemas experimentales bien controlados, en los que los efectos del
Orden y Caos en Sistemas Complejos
236
50n
40-
\t
20-
10^
rT^ M^fVr
'r I T I 1 1 r i r'j'Tn
300
O
100
200
/
Figura 6.5: Espectros de Fourier el modelo discreto de Lotka-Volterra, con distintos valores del parám etro de bifurcación. Para las órbitas que exhiben, cierta periodicidad, obtenemos espectros de potencia con picos bien definidos, mientas que para los atractores caóticos obtenemos bandas de frecuencia casi continuas.
300
Anáusis de Fenómenos Caóticos
237
CJ
o
TIME
M >H < B a; M E“' C/] ^ S W [i3 0 Q CO Cd CJ S - 20 01 o o •J - 4
Wi
(¿)
(t/T)
ttí-
.
0.8
1.6
2.4 FREQUENCY
3.2 (cj/Q)
Figura 6 .6: Serie temporal y espectro de Fourier obtenidos de experimentos de dinám ica de fluidos (Couette-Taylor). La aparición de nuevas bifarcaciones va acompañada de la aparición de nuevos armónicos. En esta figura estamos en las proximidades de la transición hacia el caos (régimen cuasiperiódico). Se indica tam bién una sección de Poincaré (Brandstater y Swinney, 1987)
238
Orden y Caos en Sistemas Complejos
T IM E
< Qi E-t u M rw s oa, O O
(t/T)
H M in 2; W Q
"‘"ÉÁÍiihlíáljiJd^ -4
----------------- 1----------------- 1----------------- 1------------------ 1----------------0.8
1.6
(O
2.4 FREQUENCY
3,2 (oj/Q)
.•A '-;·. · V -,-'* '· '· · · .
.
A
·
«·
«» < · · . ···
'
t
Figura 6.7: Serie temporal y espectros de Fourier corresp>ondientes al experimento de CouetteTaylor. ya en la zona de caos desarrollado (compárase con la figura 6 .6 ). La apéirición de nuevas bifurcaciones va acompañada de la aparición de nuevos armónicos y de una banda continua de fre cuencias. La sección de Poincaré indica la destrucción del toro invariante (Brandstater y Swinnev, 1987).
Análisis de Fenónienos Caóticos
239
Figura 6 .8 : Partiendo de un toro (izquierda) y deformándolo de forma suave y progresiva, podemos obtener distintos objetos topológicamente equivaientes. ruido sean conocidos, la aparición de bifurcaciones puede ser adecuadamente carax:terÍ2ada y pro porcionar información útil. Un trabajo clásico en esta dirección lo llevaron a cabo Harry Swinney y sus colaboradores en relación con la aparición de caos en fluidos turbulentos. Empleando un sistema de estudio estándar, conocido como el experimento de Couette-Taylor, en el que un fluido gira entre dos cilindros concéntricos en rotación (B randstater y Swinney, 1987; capítulo 5) estos físicos analizaron las series temporales obtenidas a partir de las medidas de velocidad del fluido, que vemos en la figura 6 .6. La evolución hacia el caos sigue, como ya vimos, un escenario de Ruelle-T£ikens. Los espectros de Fourier correspondientes se m uestran a la derecha. La aparición de armónicos sucesivos nos indica la aparición de dinámicas más complejas con un espectro de Fourier que m uestra una banda continua de frecuencias junto a los armónicos dom inantes.
6.3
T eo rem a de W h itn e y y recon stru cción
Hasta ahora hemos supuesto casi siempre que la serie tem poral que anahzamos proviene de un sistema dinánúco conocido, con variables también conocidas de antemano. Sin embargo, lo más probable es que, ante un problema dado, sólo uno de los componentes del sistema completo sea accesible a nuestro conocimiento. Así ocurre en los ejemplos de la introducción. En el primero, en el que m ostrábam os la serie de cambios temporales de ias capturas de linces en Canadá, disponemos de información acerca de uno de los componentes de una cadena trófica compleja. Podemos conjeturar al menos dos variables adicionales: las presas (básicamente liebres árticas) y la vegetación de la que éstas se alim entan. Si sólo disponemos de una variable, ¿cómo se puede extraer información relevante acerca del sistema dinánúco completo? En algunos casos, la situación es aún [leor: la medida de los potenciales locales en el cerebro nos proporciona una serie de tem poral para la que ni siquiera tenemos una variable o conjunto de variables do referencia bien definidas. Si no existiera alguna forma de extraer propiedades relevantes a partir de estas series, que serán las que encontraremos en nuestros experimentos o medidas de campo, poco sería lo que pudiéramos decir acerca del caos determinista. Existe, sin embargo, un procedimiento efectivo para recuperar, a partir de la serie temporal única, las propiedades relevantes del sistema completo y, lo que es aún m ás im portante: de conocer cuántas variables precisamos para describirlo. Antes de introducir este procedimiento, detengámonos a definir un concepto m atem ático que emplearemos más adelante; la idea de equivalencia topológica. Supongamos que partim os de un objeto fí C tal y como un toro (figura 6.8 ). Imaginemos que podemos deformarlo de forma continua (sin cortar ni pegar) hasta convertirlo en fi'. Este segundo objeto comparte con el primero su superficie suave, continua, y un agujero. Podríamos seguir deformando Q' hasta obtener Cl" (figura 6 .8 ), que sigue manteniendo las mismas propiedades. Está claro también que podemos ir
240
Orden y Caos en Sistemas Complejos
Figura 6.9: Botella de Klein: los objetos como éste, que poseen una sola cara, no pueden sumergirse en (no existe una inmersión) sin intersectaxse a sí mismos. Puede demostrarse, sin embargo, que dicha inmersión existe en R'*. de un lado a otro de forma reversible. Los objetos Q, 0/ y Q." (y todas sus formas intermedias) son topològicamente equivalentes. Un toro y una esfera, por ejemplo, no son topològicamente equivalentes: no podemos transformar ei uno en otro en la forma indicada. Más formalmente, la equivalencia topológica se define, como veremos, por medio de un difeomorfismo que describe en términos m atem áticos la transformación de un objeto en otro. Los atractores extraños son objetos geométricos a los que podremos aplicar esta idea. Supongamos dada una serie de N datos ordenados cronológicamente y correspondientes a una sola variable, digamos: r ( Í V ) = { ! ( < . ) , x ( Í 2 ) ........ X Í t N Í ]
La idea intuitiva que analizaremos a continuación es relativamente fácil de explicar. La serie de puntos anterior corresponde a una de las variables (digamos la ésima) del sistem a J9—dimensional subyacente. El com portam iento de los puntos del conjunto F(A^) es el resultado de la interacción con las restantes {D ~ 1) variables luego, de alguna forma, la información contenida en r(A ') debe retener las propiedades del sistema í?-dim ensional. Construyamos un nuevo conjunto de puntos a partir de r(A '), de dimensión D: T(N , D,
t
)
=
{ x, - ( x ( í , ) ,
x{ti
+ r ) , .... x(¿i
+ {D
-
1)t-))}
siendo r > 0. La elección de r y £? es por ahora arbitraria, si bien veremos que existen crite rios para determ inar su valor adecuado. La nueva serie de pimtos D—dimensional r(A ’, D, r) se obtiene por tanto tomando como coordenadas de los valores de x(ti) y los correspondientes r-desplazamientos. Parece intuitivamente claro que el valor de x[t¡ + nr) y el correspondiente x{ti + (n + I)r) se hallarán correlacionados, puesto que ambos han sido generados a través de cierta ley determ inista. También parece claro que r no puede ser en la práctica totalm ente ar bitrario: si T es muy reducido, los puntos x[ti -i- nr) y x(f, + [n + l)r) se haUarán trivialmente correlacionados (con una clara dependencia lineal) y si r es excesivamente grande, la correlación entre ambos puntos puede ser de hecho nula. Lo que se desprende de lo anterior es que existe una relación topológica entre el conjunto r(A \ Z?, r) y el correspondiente (y desconocido) conjunto P(I?) ^ {x,· = (x i(í,),x 2 (¿.), ···, ^d(Í:·))} que obtendríamos de conocer las ecuaciones del sistema. Existe de hecho la equivalencia r(,V ,D ,r) <=> F(D)
Aíjáiisjs de Fendmenos Caóticos V se
241
en un teorem a de la topologia algebraica conocido corno teorema de Whitney.
Teorema ( Whztney) Si ili es una variedad
dimensional, existe una inmersión
(\'éase Takens, 1980). Por inmersión se entiende un difeomorfismo ^ que aphca M sobre una variedad compacta A'—dimensional, M ' C (Un ejemplo trivial de inmersión nos lo da un círculo; se tra ta de una variedad 1-dimensional que puede sumergirse en R^ pero no en R S otras dificultades pueden aparecer en función de las propiedades geométricas del objeto, como es el caso de la botella de Klein (figura 6.9). La versión dada por Takens posteriormente es (Takens, 1980): Teorema (W hitney-Takens) Si M es un conjunto compacto y ^ :M ^ tal que «í» G C^, entonces
genéricamente, es una inmersión.
De forma más general, si el objeto en cuestión es un atractor generado a partir de un sistem a dinámico y en consecuencia podemos hablar de un campo vectorial (definido por el flujo del sistem a dinámico), diremos que dos campos C’’-vectoriales F, G son C*^-equivalentes (donde k < r) si existe un C*·'-difeomorfismo $ que transforma las órbitas 4>t(y) de F en órbitas de G de forma que preservan la orientación. De forma intuitiva, podemos imaginar como uu cambio de coordenadas invertible y (posiblemente) no-hneal que, aunque distorsiona el flujo, lo hace de forma suave y no confunde el orden en que las trayectorias visitan distintos puntos del atractor. A partir de este resultado, se desprende de lo anterior que, dado un sistem a dinámico ^
= F ^(x ( 0 )
con X € R ^ . y siendo r^(Z)) = {x =: ( r ^ ,..., x¿))}, si tomamos la j —ésima variable y la se rie correspondiente = { x f c ( / i X ( , . ( ¿ r , ) , é s t a nos permite la construcción de la serie dimensional 7 f*^í(D) definida por: +
r),..„ x ,(í,
+ { D -
l)r))} C R ''
que es topologicamente equivalente a T^(D ). Este resultado es de una im portancia trascendental. Si el sistema dinámico que subyace a la serie temporal es caótico y posee un atractor extraño de baja dimensión, las propiedades de éste se conservarán en el atractor reconstruido empleando el método descrito. Podremos, en consecuencia, disponer de una fuerte evidencia de caos determ inista partiendo únicamente de la serie tem poral medida. Podemos ilustrar este resultado empleando como ejemplo el atractor de Róssler, que ya hemos analizado con anterioridad. En ei doimnio caótico, este atractor presenta una topología bien definida, confinada (aproximadainente) a una superficie bidimensional en la que tiene lugar el estiram iento que produce la sensibilidad a las condiciones iniciales y el plegamiento que per mite confinar las trayectoriztó y generar la fractalidad. En la figura 6.10 indicamos este sistem a completo, en el que vemos la proyección en el plano (x, y) y la geometría básica. Podemos recons truir el atractor empleando la variable r(í), que nos permite reconstruir el atractor en el espacio (x(¿), x(t + r), r(¿ -f2 r)). El resultado de esta reconstrucción se indica debajo; la proyección sobre el
?A2
Orden y Caos en Sistem ai Complejos
Figura 6.10:^ Equivalencia topológica entre (a) el atractor de R5ssUr (indicamos su proyección y su topología tridimensional) y (b) su contrapartida reconstruida. Pese a las diferencias, es evidente que poseen la misma estructura topológica, que, entre otras cosas, refleja la e.^dstencia de un plegamiento que origina ia fractalidad estadística del atractor.
Análisis de Fenómenos Caóticos
243
Figura 6.11: A tractor reconstruido a partir de la serie tem poral de las capturas de linces del Canadá (figura 6.1). Se emplea un espacio tridimensional {L{t), L{t r), L{t + 2r)} con un retardo r de tres años, (b) Topología asociada al atractor reconstruido.
plano (x(í)i + ') ) es claramente consistente con la anterior proyección, y la topología del atrac tor reconstruido nos muestra las mismas propiedades que el original: divergencia de condiciones iniciales en una región y plegamiento. Ambos atractores son topològicamente equivalentes. Volviendo al ejemplo de los Unces del Canadá, W illiam SchafFer realizó estudios pioneros acerca de la reconstrucción de atractores basada en esta idea. En la figura 6.11 m ostram os el resultado de reconstruir la serie anterior en un espacio tridimensional de coordenadas
{L(0 , i ( í + r),X (í + 2 r)} siendo r = 3 años (SchafFer. 1984). Esta reconstrucción sugiere la existencia de un sistem a deter m inista de baja dimensión. El estudio de Schaffer indica, de hecho, que las evidencias apuntan hacia un atractor extraño. En la misma figura indicamos la topología del atractor sugerida por la reconstrucción. Como vemos, aparece la estructura del atractor de Róssler. Este tipo de tratam iento ha sido extensamente empleado en muchos sistemas, algunos de los cuales se analizan en este texto, üno de los problemas im portantes a tener en cuenta consiste eu elegir adecuadam ente el espacio en ei que se reconstruye el atractor así como el v'alor adecuado del tiem po de retardo r. El primer problema requiere conocer la dimensionahdad del sistem a bajo estudio (problema que se analizará algo más adelante). El segundo se anahzará en la siguiente sección, pero podemos adelantar algunas ideas. En la figura 6.12 indicamos algunos ejemplos de reconstrucción del atractor de Lorenz. empleando como variable x(t). Vemos que el efecto de r sobre el aspecto del atractor reconstruido es considerable. Para valores de r muy pequeños, los puntos están muy correlacionados, de forma que tenderán a tomar v'alores nnuy similares, y el atracto r resultante quedará confinado a un dormnio longitudinal muy reducido. Paca r muy grande, los valores de x(^) son prácticamente independientes (no olvidemos que se tra ta de un sistema caótico) y como resultado la serie presenta valores descorrelacionados. E stá claro por tanto que deberemos emplear valores intermedios de r tales que permitan un desacoplamiento significativo entre los valores consecutivos sin llegar a su independencia completa.
Orden y Caos en Sistemas Complejos
244
T O .U
Tau - 60
Tau ^ 20
= 5
Figura 6.12: Reconstrucción del atractor de Lorenz empleando varios valores de r (expresado como múltiplo del intervalo de integración numérica Ai). Los valores pequeños nos dan atractores comprimidos en una zona estrecha y los valores grandes indican claramente la descorrelación de la serie a grandes distancias temporales.
6.3.1
E lección d e r p a r a r e c o n s tr u ir
Ya hemos visto que la calidad de la reconstrucción depende de la elección del tiempo de retardo r. Debemos disponer de un criterio claro de elección del intervalo de retardo que no se base en argumentos cualitativos y en esta sección veremos cómo estimar r a partir de argumentos basados en la teoría de la información (Abarbanel, 1993). Ya vimos con anterioridad cómo dehnir la información m utua entre dos (sub-) sistemas A y B. En un contexto general, podemos llevar a cabo un conjunto de medidas a, £ A y bj G -B. Si podemos obtener una distribución de probabilidad para las medidas sobre A y B, esto es, P ^(a,), P g ( 6j) así como para las medidas simultáneas, b j} ^ /^[a¿ € .4 n bj € B\ entonces, como sabemos, la información conjunta / = /(A , B) puede calcularse a partir de la información acerca de una medida de a, E A y bj G B, esto es, 7 ( a , , í>j) - l o g .
PA{ai)PB{bj]
(que es obviamente simétrica). La información m utua será el promedio sobre estas cantidades,
a.^Á b,cB
coincidente con las definiciones de información dadas anteriormente. Si es posible definir una distribución continua, entonces se tiene una expresión integral,
P{x)P{y)
dxdy
Anáüsis de Fenómenos Caóticos
245
Dobenios irasíadar ahora esta (icñnición al problema de observaciones reahzadsLs sobre un sistema cuadquiera del que poseemos información temporal en forma do una serie de valores {¿'(í)}. Ahora, llamaremos A = y B = (s(< + r)}. La información m utua será la información asociada a las observaciones realizadas en t con las obtenidas en í + r. Asi. para un r dado, tendremos: N I[t) = J 2 PíAt),Ht + r))\os, t-l
Esta medida constituye de hecho una generahzación, ahora para cualquier sistema no-lineal, de la función de correlación (empleada típicam ente en sistemas lineales). Está claro que si las medidas temporales son independientes tendremos J (r) = 0 . Para evaluar / ( r ) = O a partir de (s(í)}, calcularemos en primer lugar el histogram a con una precisión € para las frecuencias de aparición del suceso s(í). Si la serie es lajga y podemos conjeturar estacionariedad, tendremos P{t) - P{t 4- r). Para obtener la distribución conjunta, contarem os las frecuencias de aparición de los pares (s(í), s{t + r)) según el mismo criterio. El problema a continuación es decidir qué propiedad de /{ r) deberíamos emplear para establecer el valor de r más adecuado. Como criterio, Fraser y Swinney (1986) propusieron emplear el primer mínimo de /( r ) como valor adecuado del retardo temporal.
6.4
D im en sión de correlación
Llegamos en esta sección a otro punto de enorme im portancia en nuestra discusión: estim ar el número de dimensiones d noínimo necesario para caracterizar nuestro sistema caótico. Una vez más, partimos de nuestra serie tem poral única. Aunque hemos visto que es posible extraer una primera información cualitativa acerca de la posible existencia de caos por medio del m étodo de reconstrucción, no sabemos en reahdad cuántas dimensiones debemos emplear. Este problem a es clave: si pudiéramos conocer el valor de d y este valor fuera reducido, dispondríamos de la evidencia necesaria para atacar el problema de construir un modelo. En definitiva; la existencia o no de una baja dimensionalidad marca el punto de inflexión que decide si existe o no un modelo simple del fenómeno. Como veremos, el método de reconstrucción nos perm itirá abordar este problem a y resolverlo satisfactoriam ente. El método que describiremos en esta sección fue desarrollado por Grassberger y Procaccia (G. y P., 1983a) y es aplicable (bajo ciertas restricciones que estudiaremos) a cualquier sistem a dinánúco (i-dimensional. Señalemos antes de continuar que el método de ‘‘box-counting” , que se introdujo con anterioridad, no es en general aphcable para dimensiones mayores que d = 2 (Greenside ei a i, 1982). Esta medida constituye una cota inferior de la dimensión fractal previamente definida y es fácilmente calculable a partir de un conjunto de puntos. Sea dado este conjunto de puntos d —dimensional: Qj = {X, € R '', i = donde suponemos que los X_, se hallan sobre el atractor. La integral de correlación para r > Ü se define como N ( N - 1) ^ ^ ’ «
Orden y Caos en Sistemas Complejos
246
Figura6.13; (a ) Determinación de C (r) sobre el atractor de L otka-\ólterra. (b) Det ai le del método. euclidea es inferior a r. Esta condición vendrá dada por tanto por 1/2
|X i - X , || =
E
< r.
L f c = l
Para un objeto dado, el comportamiento de C (r) con r sigue una ley exponencial, C(r) ^ r - " siendo el exponente v la magnitud que denominaremos dimensión de correlación, estrechamente relacionada con D. Se define como: ln (C(r))
- hm ■ , r^o In(r)
Nuevamente, se evalúa u trazando la curva definida por los pares de puntos (log(r), log(C (r))) y se estima la pendiente en la región lineal (si esta existe) tal y como se Índica en la figura 6.14. En esta zona lineal, las propiedades de invariancia de escala se ponen claranien^^e de manifiesto. Los experimentos numéricos demuestran que u se haüa en general por debajo de D si bien se aproxima mucho a su valor. Supongamos que cubrunos nuestro atractor dado por el conjunto de puntos Qj con d —hipercubos de lado €. Si se tra ta de un objeto fractal, el número de cubos N{€) de esta¿ dimensiones que contienen puntos del atractor sigue una ley A'(.)
.-D
Llamemos n, [i = 1, 2 , A") al número de puntos de Qd que se hallan en el interior del cubo no vacio. Podemos escribir aproximadamente
1=1
ésimo
Análisis de Fenómenos Caóticos
247
Figura 6.14; Función de correlación C (r) para el modelo de Lotka-Volterra discreto. siendo < > el promedio sobre todos los hipercubos ocupados. Empleando la desigualdad de Schwarz, se tiene: 1
E " .
.-D
M { e ]
L t = i
donde hemos empleado el hecho de que M(c) A' =
E
«■=1
"■
De este último resultado se sigue, como queríamos ver, que: 1/ < D
P ara entender mejor la relación anterior, introduciremos una vez más la entropía de Boltzinann, dada por M(0
siendo € la precisión (como antes). Aquí p, es la probabilidad de que un punto pertenezca al i —ésimo (hiper-)cubo. Es decir. _ ‘’■ - Ñ para N oo. Para un recubrimiento uniforme del espacio de fases, tenemos 1 M (e)
248
Orden y Caos en Sistemas Complejos
y la entropía será en este caso particular, como ya sabemos, 5o(f) = log(M(f)] = C - £> log(f) Pero en general tendremos que S(t) < 5o(€)· Si suponemos que ia entropía puede escribirse m la forma: S(e) = 5o - crlog(f) (cr se denomina dimensión de información), obtenemos: a
Definamos ahora
lüí
como
= E p^ •€j
= (^iPj. de donde se sigue que
De acuerdo con la ecuación para C(f) previamente obtenida, se obtiene (a primer orden): A/(2e)
M(()
c(€] t= l
y si asumimos que
1= 1
i€ j
es independiente de eje) _ <
>
C{2€) “ < oj > Si calculamos la diferencia entre las entropías correspondientes a las dos particiones, vemos que S ( 2.) - S(c) = j
y si definimos W =
uj/
«
< u; >, podemos emplear la desigualdad <
> > exp[< X log(r)]
para ver que, efectivamente, u < <7. Combinando a la vez u y £), obtenemos una excelente estimación del contenido en información del atractor por medio de las desigualdades 1/ <
(J <
Z)
con igualdad sólo para el caso trivial de recubrimiento uniforme. Tal y como han hecho notar Grassberger y Procaccia (1983) el valor de tiene un iiitere» suplementario: es en cierta medida una cantidad más interesante que D. ya que es sensible al proceso dinámico subyacente. Remitimos al lector al articulo original para uci estudio más detallado de la cuestión. Queda un punto abierto en este apartado: la aplicación de esta medida a un conjunto de puntos experimentales arbitrario si desconocemos la mayoría de las variables que intervienen o úuicaaiente disponernos de una de ellas.
Análisis de Fenómenos Caóticos
249
500
400
il ■
•
300
■ 200
I: j ¡
■ 100
-
/
,/
’\
<
b
■ -100
1— 100
200
300
400
Figura 6.15: (a) Estructura básica del corazón humano, (b) Patrón normal de actividad cardúica, con el complejo típico de ondas de despolarización-repolarización.
6,5
A tra ctores extrañ os en electrocardiogram as
Los ejemplos de sistemas reales en los que se ha detectado caos determ inista por medio de los métodos antes descritos son muy numerosos e incluyen turbulencia débil en fluidos (B randstater et tt/., 1986), reacciones químicas caóticas (Roux, 1983),· láseres (Ikeda, 1980; Haken, 1975), epidemias (Schaffer y Kot, 1985) y dinámica de tejido cardíaco (Guevara ei a i, 1981). Entre los muchos ejemplos a considerar, está el caso de la dinámica del latido del corazón así como sus distintas patologías. Si bien el estudio de los electrocardiogramas (ECG) tiene una larga tradición en medicina, la exploración detallada de la dinán:iica no-lineal del corazón no se inició hasta la aparición de la teoría del caos (véase Glass y Mackey, 1988, para una revisión de éste y otros sistem as fisiológicos de interés). La fisiología del latido cardíaco es bien conocida. En el corazón humano (figura 6.15 (a)) encontram os cuatro cavidades: dos aurículas y dos ventrículos. La sangre venosa entra por la aurícula derecha, de ésta se desplaza al ventrículo derecho que, al contraerse, ia envía a los pulmones eu los que se llevará a cabo el intercambio gaseoso. A continuación esta sangre arterial volverá de nuevo a la aurícula izquierda, al ventrículo izquierdo y de éste (por contracción) a todo el cuerpo. El mecanismo de contracción muscular viene controlado por un marcapasos situado en la aurícula derecha, llamado nodo senoauricular. Es en reahdad una pequeña tira de músculo especializado en la que se originan los potenciales de acción que se transnúten hacia las aurículas. La contracción de éstas se aprecia en la onda dei electrocardiograma sano y se denomina onda P (figura 6.15 (b)). Esta onda alcanza entonces un segundo rnarcapasos, llamado nodo aurículo-ventricular a partir del cual se propaga la onda a continuación a trav^és del haz de Hiss-Purkinje (cuya estructura es fractal) dando lugar a la contracción de los ventrículos. La onda se transm ite desde la cara interna hacia la periferia. La contracción ventricular es la que da lugar al llamado complejo QRS (figura 6.15 (b)) que incluye tres ondas distintas de despolarización. La relajación posterior del ventrículo introduce el último elemento en la dinámica: la onda T de repolarización. Las distintas cardiopatías darán lugar a modificaciones im portantes de esta situación. Parece
250
Orden y Caos en Sistemas Complejos
evidente que la situación normal, < j u e identificamos con u u corazón sano, cor responde a u n sistema totalm ente periódico. Esta regularidad está por supuesto presente pero, de hecho, ol corazón sano es caótico. Este cíios determinista puede detectarise de dos formas básicas, que veremos a continuación. Pero antes, veamos cómo aparecen los atractores reconstruidos a partir de distinta^ señales obtenidas de u n sujeto s a n o a.sí ctnno de enfermos que padecen distintas cardiopatías (figura 6.16). Cualquier cambio en la transnusión del impulso a tríives del corazón puede dar lugar a modi ficaciones que alteren la forma de las ondas del electrocardiogrania. En ocasiones estos cambios tienen que ver con lesiones del tejido, pero también pueden producirse por arritm ias de diverso origen, como el debilitamiento de miocardio. El electrocardiograma puede llegar a ser enormemente desordenado, como ocurre en la fibrilación ventricular, en la que se observan cambios irregulares espasmódicos de los potenciales. Si anahzamos el ECG normal, podemos aplicar las técnicas antes mencionadas para determ inar su dimensionahdad. Partiendo del registro, llevamos a cabo la reconstrucción del atractor (tal y como se muestra en la ftgura 6.16 (a) para = 2). Aunque la pe riodicidad está claramente presente (tenemos un órbita compleja que se repite) esta representación ya sugiere cierta variabilidad que podría indicar la existencia de una dinám ica más compleja que un simple ciclo límite deformado. Babloyantz y sus colaboradores (Babloyaiitz y Destexhe, 1988) estudiaron este sistema y ob tuvieron como resultado una clara prueba de caos de baja dimensionahdad en la dinámica deí corazón sano. Explorando mediante las técnicas anteriores los electrocardiogranias de individuos sanos, encontraron que los atractores reconstruidos daban un valor de dimensión de correlación G (4, 5) y otras medidas (incluyendo los diagramas de Poincaré) eran consistentes con dicho resultado. Una segunda evidencia en favor de dinámicas complejas en el corazón nos la da el estudio de una serie de tiempo distinta: la que obtenemos a partir de los tiempos entre latidos, y que se denomina frecuencia cardíaca, ün ejemplo de esta serie para un corazón sano, m ostrada en la figura 6.17, indica la existencia de autosimilaridad en su estructura tem poral (confirmada por distintas medidas). Incluso en situación de reposo, el ritm o cardíaco fluctúa de forma irregular, lo que contradice la apariencia de regularidad que antes mencionábamos. El estudio demuestra que las propiedades dinámicas del corazón sano son consistentes con un sistema débilmente caótico. El espectro de Fourier da una señal del tipo P [ f) oc f~ ^ siendo 3 s» 1, lo cual, como veremos, tiene imphcaciones considerables en el estudio de los sistemas complejos. Por el contrario (y en contra de lo que sugiere la intuición) numerosas cardiopatías dan lugar a situaciones dinámicas de alta periodicidad. La muerte súbita es un ejemplo claro de esta situación, en la que el corazón se desplaza de una situación de caos a una situación periódica que, en este caso, es patológica desde el punto de vista fisiológico. Estos resultados han sido extendidos a otras situaciones relacionadas con la fisiología humana y distintas patologías (Glass y Mackey, 1988). El hecho de que podamos caracterizar mediante sistemas dinámicos simples situaciones patológicas aparentemente complicadas ha hecho acuñar el término enfermedades dinámicas a los autores de estos estudios. Existen numerosos ejemplos que van desde las fluctuaciones de glóbulos blancos en sangre en ciertas leucemias hasta desórdenes respiratorios como la conocida por respiración de Cheyne-Siokes en la que el ritm o de ventilación se hace muy irregular.
6.6
Lím ites fundam entales e n u y \
l
Desde ei inicio de los estudios acerca de la existencia de caos determ inista en sistemas reales (especialmente medieinte técnicas de reconstrucción) los análisis de series tem porales han sido nu merosísimos. En un buen número de casos, corno los sistemas químicos, láseres o electrocardiogra-
Análisis de Fenómenos Caóticos
251
006 .0 2 0
C V
.0 0 5
0.00
0 05
OT
000
oos
0,0
0,00
305
Oü
0 1
-0.1
<1,05
V ftltsx le-2
b
'f -í
N'fillSNlf-4
Figura 6.16: Atractores reconstruidos a partir de electrocardiogramas obtenidos (a) de un sujeto sano (b) de un sujeto con una cardiopatia congenita (c) durante una taquicardia ventricular y (d) de un sujeto que ha padecido en alguna ocasión una taquicardia ventricular.
252
Orden y Caos en Sistemas Complejos
Figura 6.17; Serie temporal de los intervalos entre latidos consecutivos para un corazón sano. Posee características fractaJes.
Figura G-18: Serie temporal del cociente 0^®/0^® (obtenido por interpolación de Grassberger (1986).
Análisis de Fenómenos Caóticos
253
Cj
I
ó
I I I I I I I I I I 1—r I 1~ r i ' I I I I |· I I I I I I I I
1
2
3
4
5
6
7
Figura 6.19: (a) Función de correlación C (r) ¡)ara la serie anterior y (b) saturación aparente de i/. mas, los resultados han sido muy claros. Pero estos resultados no siempre han sido transparentes, debido a la longitud de las series (a menudo muy sugerentes, pero claramente insuficientes), al ruido asociado a éstas o a ambos factores. Un caso particularm ente confuso nos lo dan los estudios de Nicolis y Nicolis (1988) acerca de la existencia de un atractor de baja dimensión en la dinámica a gran escala dei clima terrestre. Para obtener la información necesaria, se emplearon los registros de las m uestras de profundidad de hielas polares. A partir de éstas, se estimó el cociente entre isótopos de oxígeno, que proporciona una estimación del volumen de hielo total e indirectamente del calentam iento global del planeta. En la figura 6.18 se m uestra un ejemplo de estas series (de unos Ó00 puntos en los trabajos de Nicolis y posteriores) que nos da las fluctuaciones a lo largo de unos 8 x 10^ años. La serie tem poral es irregular, pero por otra parte observamos algunos signos de regularidad que sugerirían algún tipo de estructura subyacente. Podemos reconstruir el posible atractor, y a continuación estim ar la dimensión fractal del conjunto. P ara los datos anteriores, el diagrama (log(C(r)) - log(r)) asi como la relación entre u y la dimensión de inmersión se dan en la figura 6.19. Vemos una aparente saturación hacia u ^ 3.1. El estudio de Nicolis y Nicolis concluía en que sus resultados eran compatibles cou un atractor de baja dimensión. De ser váhdo, este resultado indicaría que las propiedades esenciales del chma a gran esceJa quedarían adecuadamente descritas m ediante un sistema dinámico con cuatro grados de libertad. La conclusión es fuerte, pero el número de datos es reducido. Los análisis posteriores (ver Grassberger, 1986) cuestionaron la vahdez absoluta de estos resultados, especialm ente la existencia de una adecuada saturación en i>. No basta con que la gráfica i/ — d^ se desvíe claram ente de la esperada por un sistema con ruido, sino que debemos exigir una clara saturación. De forma general, necesitamos de un criterio para disponer de una cota en el número de puntos empleados y las dimensiones estimables. Eckmann y Ruelle (1993) propusieron una estimación de los línútes fundam entales asociados al cálculo de u y del mayor exponente de Lyapunov A¿. Expondremos aquí su argum entación básica. Supondremos que se tiene una serie temporal { ri,X 2i ■··, sobre la que se aplicará el método de reconstrucción. En — m, tenemos una trayectoria m —dimensional dada por el conjunto de vectores Xn —(-^n' + ■·*■> —l)
254
Orden y Caos en Sistemas Complejos
El método de G P consiste, como ya sabemos, en calcular la función de correlación C (r) que está acotada según O < C(r} <
- rn){N - rr) + 1) sí ^
y a continuación estiniainos i/. El método asume la relación C (r) % diámetro del atractor reconstruido, tendremos aproximadamente:
, y por tanto si
C(da ) Sí — — luego
Como hemos visto, la estimación de la pendiente de log[C(r)] se lleva a cabo para valores pequeños de r, comparados con da- Por otra parte, C(r) debe ser grande así que debemos imponer: r \ da /
> 1
Tomando logaritmos, obtenemos finalmente la restricción: 2 log (A’’) > ¡ylog V
Si tomamos el caso líniite (la igualdad) se sigue que eí algoritmo GP no perm ite estimar dimensiones u mavores que 1/ = -
lo g ( ^ ) Empleando logaritmos decimales, y si p — 0.1, vemos que para d^ < ^ necesitaremos N ~ 10^, mientras que para d^ < 10 serán necesarios N ^ 10^, Un argum ento similar puede extraerse para el exponente máximo de Lyapunov, Cualquier método que se emplee para estimar A¿ requiere que cerca de ciertos puntos X „ puedan hallarse otros puntos Xn+fc (para algún k) de forma que pueda llevarse a cabo una estimación de la divergencia promedio de las órbitas. El número de puntos en una bola de radio r alrededor de A' es A'"(r) ítí r'^ con M[da) — A\ luego tenemos que
Este resultado nos lleva nuevamente a imponer las desigualdades, / N ■
r d„
i )
Análisis de Fenómenos Caóticos
255
Debemos por tanto exigir que log(iV) > i/log
= jylog
lo (jue nos lleva al resiilt.ido de que el núraero de punto.s N necesarios para estimar es aproxi m adam ente la raíz cu-xdrada de los empleados en el cálculo de u. Finairnente, deijemos hacer notar que las desigualdades previíis son fuertemiMite restrictivas, y so han desarrollado métodos de estimación adicionales de i/, con el objetivo de reducir los requerinúentos en el número de datos manejados (Abraham et al, 1986; Ellner, 1988). Siempre que sea posible, deben aphcarse todos los métodos aquí anahzados, unidos al mayor conocimiento accesible del problem a en cuestión. Los modelos, si se contruyen con la información suficiente, pueden ser valiosísimos y complementar en mayor o menor grado las carencias de datos.
6.7
E x p o n eiite s de L yapu n ov : m éto d o d e W o lf
Una m edida adicional que podemos llevar a cabo es la estimación numérica de los exponentes de Lyapunov a partir de una serie temporal. Supongamos que nuestro sistema dinámico posee dimensión d (ya sabemo.s cómo determ inarla). Si el sistema es CcuStico, al menos uno de los d exponentes de Lyapunov será positivo. Si los ordenamos de mayor a menor, un exponente máximo de Lyapunov positivo nos dará evidencia adicional de caos. Existen distintos métodos de cálculo de exponentes de Lyapunov (ver O tt et al,, 1994) y aquí sólo nos detendremos en el más simple, desarrollado por Wolf y colaboradores en 1985. Supongamos que nuestro atractor í) (típicam ente reconstruido en un espacio de dimensión d a partir de una serle temporal) está formado por un conjunto de puntos X(í) 6 Tomemos uno de estos puntos Xi(0) € íí y busquemos el punto más cercano X2(0) tal que su distancia sea
Z(0) = ||Xi(0)-X2(fl)||>í esto es, ei punto más cercano por encima de cierta separación mínima e que corresponde a la amplitud del (posible) ruido asociado a la medida. Dado que a menudo este valor no se conoce, el método requiere ciertas j^ruebas empíricas (Wolf et al.. 1985). A continuación, calculamos la distancia entre las imágenes obtenidas al cabo de cierto tiempo T. esto es, L {T ) = \\X ,{ T )-X 2 { T )\\ a partir de las cuales podemos calcular la divergencia L{T) m que será positiva si las trayectorias divergen. El proceso se repite a continuación empleando X i(T ) y buscando otra vez el punto más cercano, etc. Promediando, se obtiene la estimación del exponente de Lyapunov ,
|i X i ( t + T ) - X 2(< + T )||
"
|iXi(í)-X2(í)ll
promediado sobre r parejas de puntos que cumplen las desigualdades antes indicadas. El m étodo de Wolf posee algunos inconvenientes, entre ellos el hecho de que precisa de va rios parám etros para ser empleado. En otros métodos más sofisticados estos parám etros quedan reducidos a unos pocos.
Orden y Caos en Sistemas Complejos
256
Figura 6.20: Estirainiento-plegado de U.
6.8
La conjetura de Kaplan-Yorke
Los atractores extraños, como hemos visto, presentan típicamente propiedades geométricas propias de objetos fractales. Este resultado se sigue de ia coexistencia simultánea de los procesos de estirado y plegado. La disipación conlleva el plegado y la sensibilidad a las condiciones iniciales el estiram iento. Los exponentes de Lyapunov miden el estiram iento de las trayectorias y la dimensión fractal las propiedades geome'tricas resultantes de ambos procesos. Parece natural esperar que exista una relación (tal vez exacta) entre ambas cantidades. De ser así, podría ser muy útil en el estudio de sistemas experimentales a la vez que perm itiría comprobar el resultado de ambas medidas. En esta sección daremos argumentos cualitativos que conducen a dicha relación, que ha sido form ulada como una conjetura (Jackson, 1991). Condsideremos para empezar una aphcación bidimensional ffi{x',y) (que supondremos en el dominio caótico) y que aphquemos ésta al conjunto de puntos U definido por el cuadrado unidad U - [0,1] X [O, 1] El resultado de aplicar una vez /^ (x , y) a U es un nuevo conjunto Si G U en el que se ha producido estiram iento en una dirección y plegamiento en la otra. Obtenemos así un nuevo objeto con dimensiones características dadas por ¿ i > 1 (dirección de estiramiento) y ¿2 < 1 (plegado), como se indica en la figura 6 .20 . Asumiendo disipación, tenemos que < 1- El área por tanto decrece y obtenemos una "herradura'’ dentro de U (recordemos la transformación del panadero, estudiada en el capítulo anterior). Podemos recubrir 5i con cuadrados de lado L-2 . El número de éstos será; .V (Í 2) =< ^
¿'2
Al repetir de nuevo ía operación, obtenemos una nueva herradura de longitud L \ y grosor L^· Ahora necesitaremos cuadrados de lado L\ para recubrir el nuevo conjunto S 2 ', su numero será ahora: 'L l
■¿1
Para la À:—ésima iteración, obtendremos N[L^:
'h i [ Í 2.
Análisis de Fenómenos Caóticos
257
elementos. Consideremos ahora la conocida expresión para la dimensión fractal, dada por Uui A'(€] <—0 De esta obtenernos, empleando -D ¿2
una relación para la dimensión fractal y los valores L i, L 2 ’ 1+
lo g ic i) lo g (Í 2 )}
y, puesto que los Lk como sabemos están relacionados con los exponentes de Lyapunov por €^‘‘, se sigue la relación earre dimensión y exponentes de Lyapunov 1+
=
IA2 Í
E sta sería una expresión particular de la conjetura K-Y. ¿Es este resultado general? Kaplan y Yorke propusieron en 1979 que efectivamente así era. Podemos esbozar el razonam iento como sigue (Jackson, 1991). Si ordenamos los exponeates de Lyapunov en orden decreciente, esto es > ^2 > ··■ > y £ Z es el mayor entero tal que M j =l (que equivale a decir que L i L ^ - L m > 1). Kaplan y Yorke conjeturaron que la dimensión del atractor sería
+ 11
E sta igualdad es clara en ei caso 2-dimensional, donde Ai + A2 < O, M — 1 y por tanto D^y = D. P ara ver que la igualdad es cierta para otros casos (aunque no en todos, como demostraron Grassberger y Procaccia. 1983b) analizaremos el caso tridimensional. Sean ahora las longitudes características ¿ i. ¿ 2 , L 3 y supongamos que L iL ^L s < i. de forma que L 3 < l. Consideraremos el caso L\ > L 2 > I de manera que tenemos expansión en dos direcciones. Un ejemplo de este caso se mue.st.ra en la figura 6.21. Para recubrir el atractor con cubos de lado ¿ 3, precisaremos A'(Í3) = cubos. Si iteramos k veces, necesitaremos A-(I‘ ) = cubos. En el límite para k —» oc, se obtiene
Ll
L2
M.
M.
Orden y Caos en Sistemas Complejos
258
Figura 6.21: Caso 3D, con h > L 2 > I (véase el texto).
L 1L2
j¡\-n = (¿ 3 )
y de aquí, D = 2+
|lo g ( l 3)|
jAaj
Ahora bien, dado que + A2 + A3 < 1, tenemos M = 2 y por tanto D^y — D. Ahora consideremos una argumentación adicionai para la conjetura KY. Consideremos un sub espacio JW-dimensional de R ” que se expande y hacia el cual convergen todas las trayectorias. La dirección de aproximación más lenta se da a lo largo del eje M + 1, luego si tomamos hipercubos de lado podremos recubrir el atractor empleando un número N ik ) = Si utihzamos este N(h) para estimar el número minimode cubos necesario para recubrir el atractor, entonces tendremos k
1) =
f rfc
1
Hay una fuente posible de error al reahzar la estimación, que se da debido al hecho de que podríamos encontrar una colección de hipercubos capaz de recubrir el atractor y tal que su número fuera inferior a A'ky. Que ello sea así o no dependerá de cómo tenga lugar el plegamiento definido por la dinámica, ün ejemplo simple (Grassberger y Procaccia, 1983b) nos lo da el caso Li > 1 > L 2 > 1 3 . En la figura 6.22 vemos el plegamiento en la dirección 3. Es obvio que los L2 -cubos pueden incluir muchas capas generadas en el proceso de plegamiento a lo largo de la dirección 3. Tendríamos así iV (Í 2 ) < esto es, Dky > D-
6.9
D e te c c ió n de d eterm in ism o
En presencia de una serie temporal irregular (con un espectro de Fourier sugerente de aperiodicidad de algún tipo) una posible forma de detectar caos determ inista y distinguir el fenómeno de ruido,
Análisis de Fenómenos Caóticos
259
Figura G.22: Contraejemplo para la conjetura KY (véase texto).
Figura 6.23: Gráfica del error medio de traslación con respecto a la dimensión de inmersión E para el atracto r de Hénon caótico y para ruido blanco Gaussiano. Aquí r ~ 2, k = 4. Nr = lOÜ. consiste en comprobar simplemente si la serie está o no generada por un sistema determ inista. La detección de determinismo puede llevarse a cabo de distintas formas (Kaplan y Glass. 1991: VVayland ei a i, 1993) pero todas ellas descansan en la hipótesis de continuidad de ias órbitas en el espacio de fases. Este hecho se considera en estos métodos como evidencia de determinismo. Supongamos que partimos de una serie temporal {x(í)} t = 1,.... N . Construimos en primer lugar la serie £'-dimensional X 0 ) = { x ( i ) , i U + r ) ..... i ( j + ( r - l ) ^ ) } que, como sabemos, quedará adecuadamente aproximada por cierta función continua / (c[ue rep resenta el campo vectorial asociado al sistema dinámico, si éste está definido). Para un X{¿) dado arbitrario, un método de detección de determinismo (Wayland ei al.. 1993) es buscar k vectores {X (j)} tales que ||X ( t ) - X ( ; ) | | < 6
261)
Orden y Caos en Sistemas Complejos
ni.i.s concretamente, el conjunto de k puntos más cercanos (según un entorno de radio e) a X (/). A continuación calculamos las imágenes de estos puntos, que llamaremos Y { j) y calcularemos el tor desplazamiento: V (J) = Y u ') -
X (i)
Si el sistema es determ inista, deberíamos esperar que estos vectores fuesen aproxim adam eate Iguales. Si < V > es la media de estos desplazamientos,
< v > ~ í: v ü ) J =0 finalmente, podemos calcular el error de traslación e*, definido por: ,
^
1
Y - l|V Q ·)-<
V
> l|·^
(empleamos la distancia euclídea). El error de traslación mide la dispersión experim entada por X 'í) relativa al desplazamiento promedio < V >. Si la serie temporal es determ inista, los V (í) serán aproxim adam ente iguales y el error de traslación muy pequeño. En la figura 6.23 vemos uu ejemplo de cálculo de Cf, donde se ha promediado sobre AV puntos elegidos ai azar sobre el atractor de Hénon (parám etros estándar) y para una serie de ruido blanco. El promedio < Cj > se ha calculado empleando N = 1024 puntos, con r = 2, k ~ A y = 100 puntos al azar sobre cada serie. El sistema de Hénon exhibe un crecimiento exponencial en < et > al aum entar E, mientras que se mantiene aproxim adam ente constante para un sistema aleatorio. Existen otras medidas de interés que permiten descubrir la presencia de caos determ inista en series temporales. Algunas de ellas se basan en representaciones apropiadas del sistem a dinámico empleando gráficas que perm itan detectar las recurrencias del sistema (Eckmann ei al., 1987). Otro.s, de enorme interés, se basan en la existencia de predictibilidad a corto plazo característica de los sistemas que exhiben caos determinista. Uno de los métodos más interesantes es el método de predicción no-hneal, desarrollado por G. Sugihara y R. May en 1990. Consiste en dividir la serie tem poral en dos m itades, emplear la primera como fuente de datos conocidos y a partir de esta primera mitad llevar a cabo la predicción sobre la segunda parte. P ara cierta dimensión de inmersión dada reconstruimos el atractor del sistema y, siguiendo una filosofía similar a la del método anterior, tomamos puntos de la segunda m itad de la serie y buscamos aquellos de la primera m itad que están más cerca (con cierto criterio de proximidad). La proyección posterior en el tiempo de estos puntos (empleando un criterio geométrico dado) se compara con el valor esperado conocido en i.-i segunda mitad de la serie. La bondad de la predicción de mide y promedia. Este método se aphcó con muy buenos resultados a algunas series bien conocidas de epidemias, confirmando la existencia de caos que ya se había conjeturado por otros métodos. Existen diversas monografías acerca de estas (y otras) aproximaciones (O tt et al., 1994; Abar banel et al., 1993; Bascompte, 1995), que aquí sólo nos hemos limitado a resumir.
6.10
C ontrol d e l caos
Tras haber anahzado una cantidad considerable de sistemas caóticos, probablemente se haya llegado a la conclusión de que la dinámica caótica es en cierto sentido mucho más desordenada que la dinámica periódica o cuasiperiódica. Por ejemplo, si consideramos un péndulo simple no disipativo, sabemos que éste oscila eternam ente con ana amplitud fijada que depende de la condición inicial. Si variamos ligeramente la posición o la velocidad iniciales, el péndulo cam biará su amplitud. Y
Anáüsis de Fenómenos Caóticos
261
nada más. Si contemplamos su espacio de fases, veremos que antes se movía en una órbita y ahora io hace en otra. Amba.s órbitas son estables e independientes. Dadas las condiciones iniciales, td movimiento siempre tiene lugar en un lugar del espacio de fases lim itado, y no se puede acceder al resto. El movimiento, efectivamente, es altam ente ordenado e infinitamente predictible, y pequeños cambios en las condiciones iniciales únicamente inducen pequeños cambios en U dinámica a largo término. Pensemos ahora en un sistema caótico. Para empezar, si un sistem a es cacStico resulta que pro bablemente tam bién será ergòdico, con lo cual su trayectoria puede acabar visitando todo el espacio de fases del sistema. Si variamos ligeramente la condición inicial, ya sabemo.s que obtendremos divergencia exponencial de las trayectorias, pero los lugares del espacio de fases visitados por el sistema serán los mismos. El sistema, ciertamente, puede parecer mucho más desordenado, pero también es mucho más flexible. Si en este sistema reahzamos un cambio arbitrariam ente pequeño en las condiciones iniciales, la dinámica a largo término sufre un cambio enorme, que de hecho im posibilita la predicción. En este sentido, el estudio de la respuesta de un sistema dinámico a pequeñas perturbaciones puede ser una medida de la existencia de dinám ica caótica en el sistema. Recordemos el escenario de Feigenbaum hacia el caos. La dinánúca del sistema, variada en función de un parám etro, presenta una serie de bifurcaciones sucesivas que tienen un punto de acumulación, a partir del cual la dinámica es caótica. En cada una de estas bifurcaciones, una órbita de periodo p se inestabiliza (no desaparece, sino que ya no es un atractor estable de la dinámica) y da lugar a una órbita de periodo 2p. Cuando nos adentram os en el dominio caótico, las órbitas periódicas aún existen, pero son inestables. En particular, un atractor extraño puede ser caracterizado mediante estas órbitas periódicas (Lathrop y Kostelich. 19S9), y debido a la ergodicidad del sistema, puntos infinitamente cercanos a cualquiera de ellas van a ser visitados por el sistema, en un cierto tiempo característico que puede ser estimado. Más que eso, arbitrariam ente cerca de cualquier punto del espacio de fases, existe una órbita periódica. Esto es, las órbitas periódicas son densas en el atractor extraño. La flexibihdad de los sistemas caóticos posibiliía el uso de técnicas de control que estabilicen alguna de las infinitas órbitas periódicas presentes en un atractor extraño, mediante pequeñas perturbaciones en las variables o en los póU’ámetros del sistema. E sta es la esencia de la teoría del control del caos. Los primeros pasos los dieron en 1990 E. O tt, C. Grebogi y .1. Yorke, quienes introdujeron lo que actualmente se conoce como método OGY, y q\ie se basa en la variación controlada de los parám etros del sistema. Para la aphcación de este método es necesario conocer la expresión anah'tica de la órbita que se desea estabilizar, o cuanto menos el punto por donde intersecta la sección de Poincaré (el punto fijo de la aphcación correspondiente). También es posible el cálculo a partir de precisas estimaciones numéricas, con lo cual en principio no es necesario conocer a priori la dinámica del sistema de forma analítica. Rápidamente se intentó aphcar este tipo de control a dispositivos experímerítales, y los resulta dos interesantes no se hicieron esperar. Los ejemplos más inmediatos fueron sistemas clasiftcablcs dentro de lo que llamaríamos osciladores caóticos, senciUos de recrear en el laboratorio y también (como se vio) sencillos de controlar (D itto, Rauseo y Spano, 1990; Singer, Wang y Bau, 1991). Un segundo método de control, que relajaba las condiciones exigidas por el método OGY. fue propuesto por Güémez y Matías [método GAÍ) en 1994. En este caso, era posible llegar a estabilizar órbitas de periodo arbitrario p en un sistema caótico aphcando perturbaciones periódicas con este mismo periodo. La ventajado este nuevo método es que no es necesario conocer a priori la dinárrúca del sistema, ni anah’tica ni numéricamente. Veamos estos métodos y sus aplicaciones.
6.10-1
El m é t o d o O G Y
Seguiremos en esta sección básicamente el artículo de F. J. Romeiras ei al. (1992), ya que es la referencia en donde este método está más ampliamente exphcado.
262
Orden y Caos en Sistemas Complejos Consideraremos, pues, sistemas diriámico.s discretos del tipo x,+ j = F(x¿,p)
(6.10.1)
donde p es el parámetro variable del sistema, de valor real pero restringido a un intervalo rela tivamente estrecho en este raso. En principio podríamos tratar con sistemas continuos, pero nos restringiríamos a su sección de Poincaré, con lo cual estos sistema se incluyen en el caso 6.10.1. El valor de p está restringido porque es el parámetro que se utihzará para controlar el sistema, así que únicamente se perm itirán pequeñas variaciones alrededor del valor p, que es el que da la dinánúca real del sistema, |p —p¡ < ^ Supondremos que trabajam os en el régimen caótico, y por tanto cuando p = p debemos obtener un atractor extraño con infinitas órbitas periódicas inestables arbitrariam ente próximas a cualquier punto. Debemos decidir en primer lugar cuál de estas órbitas inestables deseamos estabilizar. Será necesario considerar la aproximación de primer orden (lineal) del sistema alrededor del punto fijo de la aphcación de Poincaré (correspondiente a la órbita periódica). Entonces, de forma local, en un entorno de este punto, se aphcará el método de control. La dinánúca caótica implica que el sistema entrará en este dominio en tiem po finito. Nos centraremos en la estabilización de órbitas de periodo 1, como ejemplo de ia forma de trabajar con el método de control OGY. Llamemos x*(p) al punto fijo inestable de la sección de Poincaré. P ara vedores de p cercanos a p y ec un entorno del punto fijo x*(p), la aplicación 6.10.1 se puede aproximar linealmente por x,+ i - x*(p) ^ A [xi - x*(p)] + B (p - p) donde A es una matriz jacobiana n
(6.10.2)
n y B es un vector n —dimensional,
x
A = D x ,F (x ,p ),
B = D pF (x,p) _
con las derivadas parciales evaluadas en los puntos fijos, x* (p) y p. Supondremos que el parám etro p es una función lineal de la variable x, (así es como se introduce el control en el sistema) de la forma P
_
P
=
_K ^ [x, _ x*(p)]
(6.10.3)
La matriz 1 x n —dimensional debe de ser determinada de forma que el punto fijo x '(p ) sea estable. Sustituyendo 6.10.3 en 6.10.2 se obtiene x.+ i - x*(p) = (A - B K ^) [x, - x*(p)]
(6,10.4)
que m uestra que el punto fijo será estable si la matriz A — B K ^ es asintóticam ente estable, es decir, como se ha visto en el capítulo 2 , si todos sus valores propios tienen módulo menor que la unidad. Técnica del em plazam iento de los polos El problema de deternúnar el valor del vector para que la matriz A — B K '' tenga valores propios previamente especificados se soluciona mediante la técnica conocida como emplazamiento de los polos. Los valores propios de la matriz A —B K ^ se denominan polos reguladores. Si suponemos que deseamos obtener el conjunto de valores propios para la ma triz A — B K ^ , los resultados que siguen garantizan la existencia y la unicidad de la solución, y proporcionan el método para obtenerla (método de Ackermann).
Anáüsis de Fendmenos Caóticos
263
1. Eì problema del emplazanùeuto de lus polos tiene una solución única si y sólo si la m atri n Xn
C = (B:AB:A^B; . . ;A "''^B ) es de rango n. C se llama matriz de controlabilidad. 2. La solución al problema del emplsuamiento de los polos está dada por
con T = C W , y / ^n —1 —2 Qn-2 a „_3
Ol
1
1\ 0
W =
\
Qi 1
0 0
0 0/
donde {01 , 02 , . . .,an } son los coeficientes del polinonúo característico de A, j-sl —A¡ =
+ ois" ^ + · - · + On
y {cti, Q2, ... ,On} pon finalmente los coeficientes del polinomio característico de A —B K ^, n P J (s —
) = 5” + a i s ” * + . . . + Qfi
El parám etro del control H asta el momento, se ha lim itado la aphcación del control a un entorno del punto fijo x “. Por o tra parte, dado que se ha lim itado el rango en el que se puede variar el parám etro de control p. obtenemos una restricción K ^ [x , -x -(p )]l < 6
que define una franja de anchura 26¡\K ^\. Se activará el control sólo para valores de x, en el interior de este donünio, y el parám etro tendrá el valor real p cuando el sistem a se halle fuera de la franja deterrrúnada. En resumen, se determina el control por p - p = - K ^ [x¿ - x*(p)] x u ( é - iK^[x. - x'(p)]l) para valores arbitrarios de x,·, no necesariamente cercanos al punto fijo, y donde u es la función escalón o de Heaviside (ya vista). En principio, cualquier elección de los poios reguladores en el interior del círculo unidad sería válida. Sin embargo, si se conoce el punto fijo y el valor de los vectores propios que definen las direcciones de las variedades asociadas a este punto fijo, se puede imponer por ejemplo que el vector tenga dirección paralela a la variedad estable, lo cual optimiza el tiem po de estabilización necesario.
264
6.10.2
Orden y Caos en Sistemas Complejos
C o n tr o l d e la aplicación d e H é n o n p o r el m é to d o O G Y
Describiremos explícitamente cómo calcular las magnitudes anteriores en el caso concreto de la aplicación de Hénon (véase el capítulo sobre caos). Recordemos que esta aplicación 2—dimensional está dada por x„ + i = a - x/, + hy Vn+l = Xn
(6.10.5)
Fijaremos el valor del parám etro 6 = 0.3 y consideraremos pequeñas variaciones alrededor del valor de d = 1.4 a fin de controlar la órbita periódica del sistema. El punto fijo de la aplicación es
x“ = (-ío,yo) = í(l, 1),
q= ~c + {c'^ +
c = i ( l - 6)
para a > —c^. La m atriz jacobiana del sistem a es D x ,F ( x < ) = ( - f
l)
La estabilidad del punto fijo está determinada por las raíces de la ecuación característica lDx.F(x*,a)-5li-0 El punto fijo será estable si — < a < 3c^ e inestable si a > 3c^ (por tanto inestable cuando b = 0.3). Las cantidades relevantes que necesitamos son, calculadas a partir de las definiciones dadas sn la sección anterior,
xo Al ■ ^ _= (/ 2“7 ~ W
oj
T = ( J ¿1
K’· = (>>,-01,0,-02)
donde ai = 2q — ~(Au + A,),
«1 - -(^ 1 + (-Í2),
a^ - - 6 = AuA,
«2 ~
Los valores propios de la matriz A son A^, y A^, correspondientco a laí; soluciones positiva y negativa, respectivamente, de ~ -q ± Las cantidades
y /U2 son los polos reguladores. Üna posible elección de estas dos cantidades es AÍL = O,
/^2 = A,
y en este caso controlaremos el sistema privilegiando la dirección de la variedad estable. La m atriz será K^· =
Análisis de Fenómenos Caóticos Cuando el sistema entra
265
la zona
|K^x, - x‘(á)l < ¿ activamos el control. El tiempo qu<' el sistema tarda en estabilizarse e n la ó rb ita elegida es mínimo para la elección realizada de los polos reguladores.
6.10.3
El m é t o d o G M
El método de Güémez y Matías (GM) de control del caos es más sencillo de aplicar que el anterior, ya que no implica ningún conocimiento sobre las órbitas periódicas del sistema. La idea es muy sencilla: si deseamos estabilizar una órbita de periodo p en un sistema caótico, debemos perturbar el sistema con pulsos periódicos proporcionales al estado que el sistema presenta. Para algún valor de la intensidad de la -perturbación., que debe ser deternúnado en cada caso y para cada sistema, la órbita deseada se estabiliza. En principio, si se varía la intensidad de 1a perturbación, 7 , se obtiene todo un diagram a de bifurcación. Para algún valor de 7 , en particular, será posible obtener la órbita del periodo deseado. Este método es más apropiado para controlar sistemas en los que no se conozcan los parám etros que los guían, pero en los que se pueda realizar una medida sobre las variables. Conociendo las variables y actuando sobre ellas se estabiliza el sistema. En particular, podemos pensar en sistemáis químicos, sobre los que se podría añadir fácilmente un reactante externam ente, o en ecosistemas, con parám etros difíciles de localizar, pero en los que se pueden evaluar adecuadam ente las densidades de población, por ejemplo. La aplicación del método es muy sencilla. Consideremos una aplicación n —dimensional del tipo Xn + l -
F (X n ,íi)
donde /i es un parám etro del sistema. Si se desea estabilizar una órbita p —periódica, aplicaremos una perturbación a intervalos regulares, en la forma que se ha dicho, y de hecho tendremos una nueva aphcación de la forma ^j + i
J =
- 1,¿ +
x.+ i = F,(xfc, Ai) X (1 + 7<^>\p) donde como se puede ver la p)erturbación se aphca a una sola de las variables, y 7 es un parámetro en esta nueva aphcación. La variación de este nuevo parám etro puede inducir, como ya se ha comentado, una cascada de bifurcaciones sucesivas hacia el caos. El término é,,p sigaiftca que sólo debemos m ultiplicar el estado actual del sistema por 1 + 7 cada p pasos de tiempo.
6.10.4
C o n t r o l de la ap licació n d e H é n o n p o r el m é t o d o G M
Consideremos de nuevo la aphcación de Hénon 6,10.5 y aphcaremos esta vez el método GM para controlar una zona caótica de esta aphcación. Tomaremos en particular los mismos parám etros que en la sección 6.10.3, a = 1.4 y &= 0.3, pero ahora perturbarem os periódicamente una de las variables. Hemos escogido la variable r , que será perturbada cíida paso de tiempo, con lo cual tenemos ahora la aphcación J-..+1 = (a -
+
iy) X (1 + 7 )
! /„ + .= ! „
( 6 . 10 .6 )
266
Orden y Caos en Sistemas Complejos
Figura 6.24: Control de la aplicación de Hénon según el método GM. Los parámetros de la apli cación original son a = 1.4 y 6 = 0.3. En el eje x se varía el valor del parámetro perturbador 7 , lo cual pernúte recuperar un diagram a de bifurcación completo.
Donde —1 < 7 < O, para m antener las variables dentro de su dominio de definición y evitar divergencias- Obsérvese en la figura 6.24 el nuevo diagram a de bifurcación correspondiente a la aplicación perturbada 6 . 10 .6 . Ccmo se puede ver, distintos valores del parám etro 7 provocan la estabilización de órbitas de diferentes periodos. Por ejemplo, podríamos estabilizar una órbita de periodo 2 utilizando valores de 7 entre -0.4 y -0.2, aproxim adam ente (figuras 6.24 y 6.25).
Los sistemas caóticos son controlables mediante pequeñas perturbaciones, precisamente porque son caóticos. Un sistema periódico, más regular, no posee esta flexibilidad. El control de sis temas regulares implica grandes perturbaciones, tan grandes como el efecto que se desea obtener. Parece claro que esta propiedad será una nueva característica a explorar y explotar en los sistemaos caóticos. También funcionará el caso contrario, la desestabilización de dinámicas periódicas. En una dinánúca originariamente caótica que haya sido estabilizada por algún tipo de malfunción, se puede tornar al caos original medíante pequeñas perturbaciones. Aunque es quizá demasiado pronto para haber obtenido resultados espectaculares, la idea del control del caos debería de tener amplia aphcación en medicina: nuestro sistema nervioso y nuestro corazón, los dos motores princi pales de nuestro cuerpo, son débilmente caóticos. Veremos que la periodicidad puede ser patológica (véase el capítulo sobre neurodinámica). A nivel teórico se ha iniciado la aphcación de los métodos de control a redes neuronales, ya sea en sistemas continuos (Sepulchre y Babloyantz, 1993) o discretos (Solé y Menéndez de la Prida, 1995), en cualquier caso con resultados espectaculares y muy prometedores. A otro nivel, ya se empieza a hablar de la esperanza que estos métodos ofrecen a disfunciones periódicas, como la epilepsia (Glanz, 1994). Los primeros experimentos de control en sistemas experimentales ya se han sucedido: se ha ehminado la turbulencia (m anteniendo por tanto el régimen laminar) en fenómenos de convección térm ica (Singer et a i, 1991); se ha estabilizado un oscilador sometido a la acción gravitatoria y a una fuerza magnética (D itto ei a i, 1990); se han ehminado arritm ias quínúcamente inducidas en
Anáiísis de Fenómenos Caóticos
267
1.5ll
1 1 J
ll
.|
il
ill
-1 '^ ' ' I ' ® 1.' . 1
O
1
-
- 0. 5 - i;
i
I'
-1.5 r 5 0
100
150
200
;50
Figura 6.25: Estabilización de una órbita de periodo 2 en la aplicación de Hénon mediante el método GM. El valor de la perturbación (aplicada cada paso de tiempo) es ' = —0.2. Se coinienza a perturbar eii el paso ti = 100, y se elimina el control en Í 2 = 200 . el ventrículo de un conejo (Garfinkel ei al., 1992), e incluso se ha empezado a trab ajar ya en tejido neuronal cultivado in vitro (Schifi et al, 1994). Sin duda, estos ejemplos representan la punta del iceberg.
Bibliografía 1. H. D. Abarbanel, R. Brown, J. J. Sidorowich y L. Sh. Tsirnring, The analysis o f observed chaotic data in physical systems. Rev. Mod. Phys. 65 1331 (1993). 2. N. B. Abraham, A. M. Albano, B. Das, G. de Guzman, S. Yong, R. S. Gioggia, G. P. Puccioni y J. R. Tredice, Calculating the dimension o f attractors from small data sets. Phys. Lett. A 114 217 (19S6). 3. X. Babloyantz y A. Destexhe, Low-dimensional chaos in an instance of epilepsy. Proc. Natl. Acad. Set. USA 83 3513 (1986). 4. A. Babloyantz y A. Destexhe, Is the normal heart a periodic oscillator? Biol. Cybem. 58 203 (1988). 5. J. Bascompte, Buscani Vordrt oculi dels sistemes biologies, en: “Ordre i Caos en Ecologia”. Publicaciones U. de Barcelona, (1995). 6 . P. Bergé, Y. Pomeau y Ch. Vidal, L'ordre dans le chaos. Hermann, Paris. 1984.
7. A. Brandstater, J. Swift, H. L. Swinney, A. Wolf, J. D. Farmer, E. Jen y J. Crutchfield, £ow-di?nensional chaos in a hydrodynamic system. Phys. Rev. Lett. 51 1442 (1983), 8 . W. L. Ditto, S. N. Rauseo y M. L. Spano, Experimental control of chaos. Phys. Rev. Lett.
65 3215 (1990). 9. J.-P. Eckmann, S. Oliffson Kamphorst y D. Ruelle, Recurrence plots of dynamical systems. Europhys. Lett. 4 973 (1987).
268
Orden y Caos en Sistemas Complejos
10. J.-P. EckmaJin y D. Ruelle, Fundamental limitations for estimating dimt.nsions and Lyapunov exponents in dynamical systems. Physica D 56 185 (1992). 11. S. Ellner, Estimating attractor dimensions from limited data: a new method, with, error estimates. Phys. Lett. A 133 128 (1988). 12. A. Fraser y H. Swinney, Independent coordinates for strange attractors from mutual infor mation. Phys. Rev. A 33 1134 (1986). 13. A. Garfinkel, M. L. Spano, W. L. Ditto y J. N. Weiss, Controlling cardiac chaos. Science 257 1230 (1992). 14. J. Glanz, Do chaos control techniques offer hope for epilepsy? Science 256 1174 (1994). 15. L. Glass y M. C. Mackey, From clocks to Chaos. Princeton Ü. Press, New Jersey, 1988. 16. A. L. Goldberger y D. R. Rigney, Sudden death is not chaos, en: “'Complex P atterns in Dynamic Systems'”, World Scientific Publ., New Jersey, 1988. 17. P. Greissberger e I. Procaccia, Characterization of strange attractors. Phys. Rev. Lett. 50 346 (1983a). 18. P. Grassberger e I. Procaccia, Measuring the strangeness of strange atiractors. Physica D 9 189 (1983b). 19. H. S. Greenside, A. Wolf, J. Swift y T. Pignataro, Impraciicaliiy o f box-counting algorithm for calculating the dimensionality of strange attractors. Phys. Rev. A 25 3453 (1982). 20. M. R. Guevara, L. Glass y A. Shier, Phase locking, period-doubling bifurcations and irregular dynamics in periodically stimulated cardiac cells. Science 214 1350 (1981). 21. H. Haken, Analogy between higher insiabilities and fluid and (1975).
lasers. Phys.Lett. A 53 77
22. K. Ikeda, H. Daido y D. Aikmoto, Optical turbulence chaotic behavior of transmitted light from a ring activity. Phys. Rev. Lett. 48 617 (1980). 23. E. A. Jackson, Perspectives in nonlinear dynamics., vol. II, Cambridge University Press, 1991. 24. D. KaplaJi y L. Glass, Understanding nonlinear dynamics. Springer, New York, 1995. 25. D. P. Lathrop y E. J. Kostehch, Charactenzation of an experimental strange attractor by periodic orbits. Phys. Rev. A 40 4028 (1989). 26. M. A. M atías y J. Güémez, Stabilization of chaos by proportional pulses in the system vari ables. Phys. Rev. Lett. 72 1455 (1994). 27. C. Nicolis y G. Nicolis, Is there a climatic attractor? Nature 311 529 (1984). 28. E. O tt, C. Grebogi y J. Yorke, Controlling chaos. Phys. Rev.Lett. 64 1196
(1990).
29. E. O tt. T . Sauer y J. A. Yorke. Coping with chaos. John Wiley L· Sons, 1994. 30. D. Peak y M. Frame, Chaos under control. The art and science of complexity. W, H. Freeman and Company, New York, 1994.
Aná/jsis de Fenómenos Caóticos
269
31. W. H. Press, S. A. Teukolsky, W. T. Vetterling y B. P. Fleimerly, Numerical Recipes. Cam bridge University Press, 1992. 32. F. J. Romeiras, C. Grebogi, E. O tt y \V. P. Dayawaiisa. Controlling chaotic dynamical system s. Physica D 58 165 (1992). 33. J. C. Roux, Experimental studies of bifurcations leading to r/ioo.s in the Belousov-Zhabotinsky reaction. Physica P 7 57 (19S3). 34. D. Ruelle, Deterministic chaos: the science and the fiction. Proc. R. Soc. Lond. A 247 241 (1990). 35. W . M. Schaffer y M. Kot, Nearly one-dimensional dinamics in an epidemic. J. theor. Biol. 112 403 (1985). 36. W . M. Schaffer, Stretching and folding in Lynx fur retanu^: evidence for a strange attractor in nature? Am . Nat. 124 798 (1984). 37. J. A. Sepulchre y A. Babloyantz. Controllmg chaos in a network of oscillators. Phys. Rev. E A S 945 (1993). 3S. S. J. SchifF, K. Jerger, D. H. Duong, T. Chang, M. L. Spauo y W. L. Ditto, Controlling chaos in the brain. Nature 370 615 (1994). 39. T. Shinbrot, C. Grebogi, E. O tt y J. A. Yorke, Using small perturbations to control chaos. Nature 2GZ 411 (1993). 40. J. Singer, Y.-Z, Wang y Haim H. Bau. Conirolling a chaotic system. Phys. Rev. Lett. 66 1123 (1991). 41. R. V. Solé y L. Menéndez de la Prida, Controlling chaos in discrete neural networks. Phys. L ett. A 199 65 (1995). 42. G. Sugihara y R. M. May, Nonlinear forecasting as a way of distinguishing chaos from mea surem ent error in tim e series. Nature 344 734 (1990). 43. F. Takens, Detecting strange attractors in turbulence. En: Dynamical systems and turbulence. (D. Rand y L. Young, eds.) Lecture Notes in Mathematics. 898 Berlin, Springer. 44. R. Wayland, D. Bromley, D. Pickett y A. Passam ante, Recognizingdeterminism series. Phys. Rev. Lett. 70 580 (1993). 45. A. Wolf, J. B. Swift, H. L. Swinney y J. tim e series. Physica D 16 285 (1985).
in a time
A. Vastano,D eitnnim ng Lyapunov exponents from
Capítulo 7
F e n ó m e n o s C ríticos En capítulos anteriores henios explicado la existencia de comportamientos dinámicos de distintos tipos. Hemos encontrado soluciones periódicas, cuasiperiódicas y caóticas, de orden y desorden. Ya en la introducción conjeturábamos que la complejidad debía ser un fenómeno emergente a medio camino entre las estructuras ordenadas y las desordenada.s. Diversas propiedades clave, como son la existencia de fractalidad, una elevada capacidad de transferir información o la habilidad de algunos sistemas para responder a un entorno variable, necesitan cierto grado de orden y cierto grado de desorden. H asta ahora no hemos profundizado en el problema de delim itar (si lo hay) el dominio en el que la complejidad aparece más a menudo. Una primera aproximación, enormemente vahosa, nos la proporciona la teoría de los fenómenos críticos. Los fenómenos críticos representan un caso particular de las denominadas tra.nsiciones de fase. Siempre que un sistem a físico pasa de una fase, o estado, a otra, decimos que experimenta una transición. En ésta, las propiedades físicas del sistema Ccimbian. En la vida cotidiana observamos numerosos ejemplos de transiciones de fase: el agua que hierve, la naftalina que se evapora, ei hielo que se funde. E stá claro en estos casos que la geometría de nuestro sistem a y sus propiedades cambian debido a la transición. Las dos fases del sistema (por ejemplo, agua líquida antes y vapor de agua después), están claramente diferenciadas, si la transición se realiza en condiciones cotidianas, habituales. Podemos encontrar unas condiciones habituales en la cocina de casa, donde, si la presión es de una atmósfera, el cambio tendrá lugar a ana tem peratura de lOO^C. Como el vapor de agua es menos denso siempre se coloca sobre el agua líquida. A fin de que la transición tenga lugar debemos suministrar una cierta cantidad de energía al agua líquida. Esta energía se emplea en dotar a las moléculas de energía cinética, de modo que puedan romperse los enlaces por puente de hidrógeno, responsables del estado líquido habitual del agua. Esta energía sum inistrada se denomina en este caso calor latente de vapoHzación, y está claro que será una cantidad no nula en las condiciones habituaies. Supongamos ahora que, paulatinamente, vamos aumentando la presión a la que se produce la transición. Si la presión es superior a 1 atmósfera, la tem peratura a la que el agua hierve aum enta a su vez. El gas es mucho más compresible que el agua, así que su densidad aum entará rápidam ente cuando se lo som eta a presión. ¿Qué sucede si aumentamos aún más la presión, hasta el punto en que gas y h'quido presenten la misma densidad? Esto es posible, y cuanto más nos acercamos a este punto, más se asemejan las dos fases. Cuando las densidades se igualan, gas y líquido no son dos fases aisladas y distinguibles, sino que se hallan íntimamente mezcladas: hay burbujas de h'quido dentro del gas, que contienen a su vez más burbujas de gas menores, rellenas de pequeñas burbujas de líquido... y así hasta el nivel molecular. En este punto, para estas condiciones, donde la tem peratura es de T\. — 647'^C y las densidades se han igualado a pc = 0.323g/cm^, ya no es necesario absorber calor para pasar a la fase gaseosa, así que el calor latente de vaporización se 271
Orden y Chos en Sistemas complejos
272
Figura 7.1: Diagrama de fases del agua. Las líneas continuas representan las zonas de coexistencia entre fases. La línea de coexistencia líquido-gas acaba en un punto crítico. Rodeando esta zona se puede obtener un cambio de fase continuo (línea de puntos, entre A y B). anula en este punto. Aquí es donde se produce una transición crítica entre las dos fases. En la figura 7.1 se puede ver el diagram a de fcises del agua. En el caso de la transición sólido-líquido para el agua, la coexistencia crítica de las dos fases (donde el calor latente de fusión sería nulo y las densidades se igualarían) no se produce para ningún valor de la presión. Todas las transiciones de este tipo son denominadas de prim er orden, con calor específico de fusión no nulo y separación explícita de las fases. El ejemplo de la transición crítica líquido-gas del agua nos sirve para introducir las medidas cuantitativas que pueden ser aplicadas a las transiciones de fase y, en particular, las utilizadas en el caso de los fenómenos críticos.
Transiciones de fase de primer orden Calor latente 0 Variables del sistema discontinuas Reordenación radical de la estructura del material
Transiciones de fase de orden superior (críticas) Calor latente = 0 Las variables del sistema cambian suavemente (las derivadas no) Reordenación suave de la estructura (p. de orden)
En la tabla anterior se resumen esquemáticamente las diferencias entre las transiciones discon tinuas o de primer orden (calor latente, reordenación del m aterial,...) y las transiciones continuas, críticas o de orden superior (calor latente nulo, variaciones suaves,...). Una de las variables im portantes del sistema, que ayuda a definir el tipo de transición, es en este caso la diferencia de densidad entre la fase líquida {pi) y la fase vapor {pg), A p = p¡ ~ pg. Esta diferencia, finita antes de alcanzar el punto crítico, se anula al llegar a éste, y sigue siendo cero después de la transición (para tem peraturas superiores a Te). La m agnitud que provoca el cambio puede ser la tem peratura o la presión, pero obsérvese que en cualquier caso nos moveremos sobre la curva de coexistencia de las dos fases. La m agnitud Ap es el primer ejemplo de lo que se denomina parámetro de orden. Como su nombre indica, es una especie de m edida del orden
Fenómenos Críticos
273
Figura 7.2: Comportamiento cualitativo del parámetro de orden en la transición líquido-gas del agua, en función de la texiiperatura.
existente en el sistema. Siempre tiene valor cero antes de la transición y se hace positivo de forma continua después (o viceversa). Xo existe, sin embargo, ningún método que nos indique cómo haUar, en general, un parám etro de orden. Para la transición líquido-gas del agua, el parámetro es la diferencia de densidades. Veremos que para los fenómenos param agnéticos juega este papel la magnetización, pero para otros sistemas haharemos una enorme variedad: el número de celdas en la m áxim a agrupación para una transición del tipo de la percolación (se verá m ás adelante), la am plitud cuántica de un cierto suceso para una transición a la superconductividad o la diferencia entre ciertas densidades molares en las mezclas de fluidos binarios, entre otros muchos. R esulta esencial en la descripción y comprensión de los fenómenos críticos el estudio del com portam iento de ciertas m agnitudes en el tiempo y en el espacio. Ya hemos visto que las dos fases líquido-gas del agua, antes de la transición crítica, están perfectamente diferenciadas. Sin em bargo, en la transición y después de ésta, están fuertemente mezcladas. Está claro que ha habido un cambio en la geometría, en el típo de homogeneidad que el sistema presenta antes y después. En particular, justo en el punto en que tiene lugar la transición, la coexistencia de las dos fases presenta una geometría fraciaL únicamente limitada por la escala molecular, por un lado, y por el tam año del sistema, por otro. La coexistencia de las dos fases en el punto crítico es una co existencia dinámica. Existen fluctuaciones que abarcan todas las escalas de tiem po y también de espacio. En este sentido. >e hace terriblemente diñcil establecer valores exactos promediados, sea en el tiem po o en el espacio, debido a estas fluctuaciones tan violentas. Por ejemplo, en el caso de la transición crítica del agua, se produce un fenómeno óptico conocido con el nom bre de opalescencia crítica. El agua pierde su aspecto transparente debido a la dispersión de la luz provocada por las fluctuaciones de todos los tamaiños (dominios de gas o líquido que pasan de una fase a otra), las cuales le otorgan una apariencia turbia. De ahí el nombre de opalescencia. Este tipo de geometría autosinúlar es lo que confiere a los sistemas críticos su mayor interés. No hay ni un tiempo ni una longitud característicos en el sistema. Los sucesos espaciales y temporales se repiten a cada escala a la que estos sistemas responden. En Izis secciones siguientes formalizaremos todas las ideas descritas y vetem os cómo precisa mente los valores de los exponentes que caracterizan las leyes de escala, los llam ados exponentes críticos, perm iten agrupar bajo clases comunes diversos fenómenos críticos que se producen en sistemas muy diferentes a nivel elemental, y que no podrían ser comparados lejos de estas transí-
274
Orden y Caos en Sistemas complejos
Clones críticas tan particulares. Est<* hecho será de gran importancia en nuestro intento de hallar propiedades generales comunas a distintos sistemíis complejos.
7.1
El M o d elo de Ising
El modelo de Ising repre.senta, sin duda alguna, el eje uípío más utihzado para describir una tr;insición crítica, en este caso entre un estado (o fase) paramagnetico y otro ferromagnetico. Fue ideado por W. Lenz en 1920, pero la prim era solución exacta, para el modelo en una dimensión, la dio E. Ising en 1925. Et modelo en dos dimensiones no fue solucionado hasta 1944 (Onsager), y a pesar de casi 80 años de esfuerzo, el modelo en tres dimensiones no ha podido ser resuelto exactamente. Cuando hablamos de "'resolver via modelo’’ nos estamos refiriendo, en este caso, a hallar, analíticamente y de forma exacta, su función de partición. A partir de ella, se calculará el punto en que tiene lugar la transición (en caso de que exista) y los exponentes críticos que la caracterizan, si esto es posible. Resolveremos exph'citamente el modelo en una dimensión (veremos que no presenta transición crítica) para introducir ias ideas básicas de las técnicas de la re normalización. Estas técnicas aprovechan la invariancia de escala que ei punto crítico presenta para plantear ecuaciones de re currencia, precisamente a escalas diferentes. Si se pueden solucionar, el punto fijo de la recurrencia proporciona el punto invariante de escala, el punto crítico. Por desgracia, estas ecuaciones son en general no resolubles, aún en el caso de tra tar con modelos (como el de Ising) extrem adam ente simplificados.
7.1.1
El M o d e lo de Ising
Consideremos una red en n —dimensiones, y coloquemos en el centrti de cada una de sus celdas un ’’espín” . La representación más simple de este espin consiste en asigneir un estado 5,· = ±1 a la celda. Se supone que la configuración de energía menor se obtiene cuando todos los espines están alineados en la misma dirección, paralelos (esto es con idéntico valor). Sin embargo, esta ordenación sólo sería posible en ausencia de agitación térmica, a tem peratura cero. En general, el estado observado del sistema representará un compronoiso entre la situación de mínima energía (espines paralelos) y las fluctuaciones provocadas por el hecho de tener tem peratura no nula. Al sistema se le puede añadir un campo magnético externo en el caso más general, con lo cual se m arca una dirección preferente de orientación. El tratam iento anahtico del sistema comienza plaxiteando su hamilioniano [H). Siempre que trabajem os con sistemas conservativos, el hamiitoniano coincide con la energía del sistema, y eu ei caso del modelo de Ising esta función es ^ —2 53 *,] .7 O
B
Si '
si i y j S07Ì vecinos en otro caso
con / < O, como corresponde a un sólido ferromagnetico (la mínima energía se obtiene con espines paralelos) El caso / > O representaría un sólido anti-ferromagnético. El cambio no aporta nada nuevo, ya que las propiedades termodinámicas son idénticas al anterior. ^ Los p r o d u c to s e n tre vectores s,sj y B.
Fenómenos Críticos
275
Figura 7.3: Ejemplo de ordenación de los espines en el modelo de Ising 2'dimensional. Se ha marcado ei mayor dominio correlacionado en la dirección del campo B según el vecinaje de von Neumann. El número de vecinos en el modelo de Ising es de 2 en una dimensión (derecha e izquierda), los cuatro conectados por las aristcis en dos dimensiones (vecinaje de von Neurnann). y serían 6 en tres dimensiones. B representa el cam po externo que tenderá a alinear los espines en su dirección. A partir de H definimos la función de partición del sistema. En general, se define la función de partición Z como -(ÌH
~3E,
{es ta do s}
0 =
1 ícbT
ke es la constante de Boltzmann, T es la tem peratura, y la suma se extiende a todos los estados o configuraciones del sistema, caracterizados por una energía Ei A partir de Z se pueden derivar todas las funciones termodinámicas del sistema. Para el modelo de Ising.
donde {s, } indica que la suma debe ser reahzada sobre todas las posibles asignaciones ±1 a ias celdas del sistema.
7.1.2
E x p o n e n t e s críticos y universcdidad
Ya hemos comentado la competencia existente en el sóhdo ferromagnetico entre la tendencia a la núnima energía (alineación de los espines en una sola dirección) y el desorden introducido por la agitación te'rmica. E stá claro que tenemos dos casos extremos: para T = OA" el orden es total: todos los espines m iran hacia “arriba” o hacia “abajo”. Por otra parte, si la energía térm ica es suficientemente grande, el sistema presentará una estructura muy desordenada, aleatoria, en la que el estado de una celda no proporcionará ninguna información sobre el de sus vecinas. Existe una tem peratura (Te), la tem peratura de Curie, entre estos dos extremos, para la que tiene lugar una ^Cori fre cu e n cia se h a b la de H como d e l a e n erg ía de un sistem a, y en ocasiones se t r a t a al h a m ílco n ia n o c om o si lo fuese. De h ech o, p a r a ser rigurosos, d e b e n am os diferenciar e n tre am bas cosas, y h a b la r de H com o d e un o p e ra d o r m a te m á tic o , d e l c u al las c a n tid a d e s E , son los valores propios, los observables.
276
Orden y Caos en Sistemas complejos
trcinsición crítica, según la fenomenología descrita en la introducción. En este caso, el parám etro de orden en general), es una magnitud bastante intuitiva. Observemos: para T pequeñas, de hecho simplemente por debajo de la tem peratura crítica Te- existe una magnetización neta en el sistem a, el orden gana al de.sorden y haUamos una mayoría de espines apuntando en una de las dos direcciones, -f-1 o —1; para tem peraturas elevadas, cou viu si.stema aleatono, la magnetización total se anula. Es sencillo, pues, definir el parámetro de ord< ri como la magnetización normalizada del sistema a cada tem peratura
I
N es la medida lineal dei sistema, y d la dimensión del espacio en que trabajem os. Se observa experim entahnente que el parám etro de orden se hace cero como una potencia de la tem peratura reducida
~
T~T, T.
la cual mide la desviación de la tem peratura respecto de su valor crítico: ^ oc
[t < 0 )
P ara todo sistema crítico, se define el exponente 3 como el que caracteriza la forma en que el parám etro de orden tiende a cero. Otras magnitudes presentan singularidades, o divergencias, cuando T Te·, o bien en el mismo punto crítico. Por ejemplo, el calor específico tiene una singularidad del tipo C b CC lo cual define un segundo exponente crítico, a. Definamos la longitud de correlación, como la medida de la dimensión lineal típica de la pieza más grande correlacionada en el sistema. Por “pieza correlacionada’’ entenderemos que todas las celdas que la constituyen están conectadas (siempre según el criterio de vecinaje que se tom e). Obsérvese en la figura 7.4 cómo aum enta esta longitud a medida que nos acercamos a la tem peratura crítica. De hecho, también presenta una singularidad, caracterizada por un tercer exponente:
La longitud de correlación proporciona el tamaño má.KÍmo hasta el cual el sistema tiene propiedades autosimilares. El hecho de que sea una cantidad divergente en el punto crítico implica que la autosim ilaridad se puede extender al sistema completo. Un cuarto exponente, v, corresponde a la función de correlación conexa de dos puntos, Para el caso de un espín s,, la función de correlación de dos puntos se define como
donde < > indica un promedio térnúco sobre la pareja de espines situados en las posiciones i y j. En general, se define en función del parámetro de orden $ (r) ^ como ^E1 p a r á m e t r o d e orden no es n e ce sa ria m en te a n a can tid ad e scalar. En general, te n d rá dim e n sió n D , y siem pre p u e d e ser definido localm ente. De a h í la d e p en d e n cia explícita a n te r io r del p u n to del e spacio co n sid era d o .
Fenómenos Críticos
277
Figura 7.4: Divergencia del tamaño medio de las agrupaciones en la transición de percolación. El tam año medio S es proporcional a la longitud de correlación ^ (véase la sección 7.3). En el caso teórico la divergencia es estricta. En ei caso experimental, se convierte en un máximo debido al corte impuesto por el tam año finito del sistema.
=< í(0 )# (r) > A partir de aquí, la función de correlación conexa de dos puntos, que sólo considera las fluctuaciones en el parám etro de orden, es: GÍ2)(r) = < $ ( 0 ) $ ( r ) > - i < # (r) > p
Cuando T = Te. se observa expe rim entalmente que G Í^ \r) presenta la forma asintótica 1 OC
-pd— 2+T}
para distancias r grandes comparadas con las distancias entre elementos, siendo d la dimensión del sistema. Gc^^(t’) se relaciona con la longitud de correlación oc
exp <¡ -
para r grande, y
El parám etro de orden fluctúa en bloques de todos los tamaños hasta í. Las fluctuaciones divergen cuando T —+ T^-. Se pueden definir dos exponentes más aparte de los cuatro presentados. Se define la suscepti bilidad térnúca de un m aterial como la variación de la magnetización cuando se varia un campo externo a tem peratura constante: X T oc
í\ d-Bi Í j
Orden y Caos en Sistemas complejos
278
se observa que x t diverge en el punto crítico según un t'xponente 7 - Por otra parte, si el campo B aplicado no es nulo pero es pequeño, se puede calcular el valor de 771 cuando 5 —» O, y se encuentra que, para T = Te, y
rn oc
lo cual define un sexto y último exponente crítico, ó. En la tab la siguiente se resumen todos los exponentes que caracterizan los sisterncis magnéticos. Obsérvese que todos se definen para un valor nulo del campo magnético {B = 0), excepto 6.
Definición
Exponente CB
-1
T-Tr-
B := d Tc moc { T c - r y , T ^ T - , B = Q XT oc 1T - T , 1-^ . T - . T,, B = 0 m oc 5 ¿ , B O, T = Te ^ c < |T - T ,] - - , B ^ Q G^^Hr)oc T = T ., B = 0
OC a
Los exponentes anteriores no son todos independientes. V'erifican relaciones que hacen que sea suficiente conocer dos de eUos para determinar todos los demás. Las relaciones que cumplen son las siguientes • a -f 2/3
y = 2 (Ley de Rushbrooke)
• a + P{6 + 1) = 2 (Ley de Griffiths) • ud = 2 — a (Ley de Josephson) • (2 — 7/)z/ = 7 (Ley de Fisher)
Los exponentes críticos caracterizan totalm ente el com portam iento de las m agnitudes del sistema cuando nos acercamos al punto crítico. Estos e.xponentes, de forma rigurosa, sólo estarán bien definidos en el límite termodinàmico, cuando el tamaño del sistema tiende a infinito. En cualquier tipo de simulación, está claro que será necesario restringir esta condición y trabajar con sistemas finitos Entonces, las divergencia,s se suavizan y pasan a convertirse en máximos, y el parám etro de orden resulta ser una función suave, con deriv^ada continua, a diferencia del caso lím ite. Existen técnicas que permiten esquivar esta dificultad y proporcionan muy buenas estimaciones numéricas. El análisis del sistema a tamaños finitos pero a muchos diferentes, la introducción de funciones de corte que simularían el efecto de las fronteras, o la idea de utilizar escalas diferentes en una representación deternúnada del sistema son algunas de estas técnicas. También se han hecho apro ximaciones analíticas (grupo de renormalización) que en ocasiones han pernútido calcular tanto el punto en el que se produce la transición como los exponentes que la caracterizan exactam ente, y en otras con gran aproximación. Daremos algunos ejemplos en las secciones siguientes. "'A u n qu e e n aJg\mas sim ulaciones se h a llegado a t r a b a j a r con redes de t a m a ñ o h a s ta 10® x 10^, e sto aúti q u e d a m u y lejos d e in fin ito . E n m ecán ica e sta d ístic a p u ed e considerarse que el infinito se alcanza cuaindo el n ú m e ro de p a rtíc u la s es d e 10^^.
Fenómenos Críticos
279
El hecho d«· qu»· sean los exponentes críticos los que c¿irarterizan estas transicion<'s ha perm itido dt’ftnir lo que se conoce con el nombre de universalidad. Se ha constatado que estos exponentes tienen valores que son marcadamente insensibles a los detalles específicos del sistema. Por ejemplo, los exponontes no dependen de la topología de la red sobre la que coloquemos ei sistem a: triangular, cuadrada, hexagonal ... pero sí de su dimensión. La insensibilidad llega a tal punto en ciertos casos que, por ejeiui)lo. sistemas hidrodinámicos y sistemas magnéticos presentan los mismos exponentes, dentro del margen de error con que pueden ser determinados. Cuando esto sucede, se dice que los sistem as pertenecen a la misma clase de universalidad: cerca del punto crítico se comportan del mismo modo, y por tanto nos encontramos ante una ^física universal”, en la que los detaUes microscópicos se hacen irrelevantes debido a la aparición de la estructura a gran escala, emergente, que el sistem a presenta.
7.1.3
Ising en 1 d im en sió n : G r u p o de R e n o rm a liz a c ió n
Hasta principios de la década de los 70 no se había conseguido ninguna teoría exacta que posibilitase la descripción de un sistema cerca de su punto crítico. Se había usado descripciones aproximadas (principalm ente teorías de campo medio, como la de van der Waals o la de Landau) que fallaban cerca de las transiciones críticas. Sin embargo, en 1966, KadanofF publicó un articulo en donde daba las ideas generales que, argum entaba, permitirían el cálculo de los exponentes críticos de un sistema sin necesidad de conocer exactamente su función de partición, Kadanoff puso el énfasis en las configuraciones del sistema, en su aspecto, y en cómo la invariancia de escala podía ser utihzada para la extracción de los exponentes críticos. Las ideas de Kadanoff tomaron cuerpo m atem ático en un trabajo posterior de Kenneth G. Wilson (1971) y más tarde gracias a la aparición de las técnicas del ahora llamado grupo de renormaiización (Wilson y Kogut, 1974). Actualm ente, se divide a estas técnicas en dos subgrupos: unas se aphcan directam ente al espacio real y utilizan las coordenadas naturales que lo describen (más en la línea de las ideas originales de KadanoíT) y otras se aphcan en el “A—espacio” , y son más usadas en teoría cuántica de campos, donde utihzan como variables de descripción no las coordenadas, sino los momentos (k). Cuando utihcemos las prim eras hablaremos de renormaiización en el espacio real. El grupo de re normalización (GR) tiene como propósito calcular exactamente los exponentes que caracterizan una transición crítica, a y /?, por ejemplo. Sería también interesante poder obtener la función de partición Z a cualquier tem peratura, aunque esto no es en general posible. Sin em bargo, un caso especial, el modelo de Ising en una dimensión, puede ser totalm ente resuelto utihzando la*s herramientas que el G R proporciona. Consideremos la función de partición para el caso unidimensional en ausencia de campo externo (esto es, B = 0} Z = J^exp K ^ l·'.} donde la suma se reahza sobre próximos vecinos y K = —QJ¡2, llamada constante de acoplamiento. Si desarroUamos la suma Z —
exp [Ar(. . . + Si52 +
+ 5354 +
S 4S5
.
.)]
y escribimos 2
^
g
152+-«2«3)^A'(í Jí 4+ í ■<
aparece linicamente en la primera exponencial. Sus dos estados posibles son ±1, así que podemos efectuar la suma sobre este espín en concreto:
Orden y Caos en Sistemas complejos
280
Figura 7.5: Ilustración de cómo se produce la reducción del número de espines en 1 dimensión según las ideas del grupo de renormaiización.
Podemos seguir sumando sobre todos ios espines pares, y obtener ^
f,K{3i+>3)
^-K{»i+S3)
g K ( í 3 + S s ) _j_ g - / C r ( j : s + Í 5 )
La suma queda ahora planteada únicamente sobre espines impares. La idea siguiente, ya propia del grupo de renormalización, es tratar de encontrar un nuevo valor para la constante de acoplamiento, K \ y una función / tales que g/íT(íi+J3)
g-/sT(ji+j3) ^ f ( K ) e ^ ‘
para todos los valores posibles de y 53. f[ K ) es independiente de los espines. Consideremos los casos particulares = s 3 = l y s i = —5 3 = :! (los otros dos son análogos). Entonces = n K )e “' 2 = f ( K ) e - ’'"
Dividiendo las dos ecuaciones obtenemos K ' = iln [ c o s h ( 2 A ') ] y sustituyendo en la segunda f{ K ) ^ 2 cosh^( 2 A:) Así que ahora podemos escribir la función de partición como
Esta es la misma función de partición anterior si hubiésemos tenido solamente N /2 espúies y la constante de acoplam iento fuese K '. Así obtenemos la relación Z(A’,A-) = / ( A - ) í z f ^ , A · ' V^
(7.2.1)
Fenómenos Críticos
281
Figura 7.6: Flujo hcicia o desde el punto crítico en el que podría ser el espacio de parám etros («i y «>, en este caso) de un sistema. Las ecuaciones del grupo de renormaiización llevan al punto fijo. Si se invierten, la estabilidad de lo.s puntos críticos se intercambia. La ecuación de recurrencia para K proporciona únicamente dos valores triviales para el punto fijo [K = K ’ = K^y. K { = o,
K *2 ^ oo
Si recordamos que K oc \ vemos que el modelo de Ising en una dimensión no presenta transición crítica para ningún valor finito de la tem peratura. La función de pariición puede ser calculada en este caso, sin embargo, con notable precisión. Recordemos que la energía libre F en un sistema tcrmodinámico es una función directamente proporcional al tam año del sistema y. excepto una constante, igual al logaritmo de la función de partición. Así, InZ = iVC donde C depende de K pero iio de N . Por sustitución en 7.2.1, C(A-) = i ln [/(ír)] + i c ( r ) Invirtiendo la relación y sustituyendo f{ K ) por su valor. C(A'0 = 2 C { K ) - \n 2 cosh^(2A'
7.2.2)
Esta ecuación, ju n to con 2K'
’.2.3)
son los resultados básicos del grupo de re normalización. Son ecuaciones de recurrencia que permiten calcular el punto fijo K ' (trivial en este caso) y la función de partición C (excepto una constante) con precisión arbitraria. Ahora, dado cualquier valor de A, la ecuación para C, proporciona el valor de la función de partición. La iteración sucesiva alternada de las dos ecuaciones define además un “flujo” en el espacio (C, A'), que se mueve hacia un punto fijo, hacia el punto crítico invariante por la transformación.
282
Orden y Caos en Sistemas complejos
Veamos cuai sería la forma de proceder Si A'' es muy pequeña (digamos K ' ~ 0.01), eso implica una tem peratura elevada, y una gran agitación tériiuca en el sistema. La interacción entre los espines es despreciable y en ese caso la función de partición corresponde al número de estados diferentes que el sistema puede presentar:
núentras que C (0.01)~ln (2) Ahora calculamos K partiendo de la ecuación 7.2.3, K = 0.100334. Sustituyendo en la expresión 7.2.2 obtenemos = 0.698147. Repetimos ahora el proceso con K ' = 0.100334, que proporciona ( = 0.745814, y de nuevo K ' = 0.327447. .-Vsí podríamos seguir indefinidamente. Las ecuaciones del grupo de renormalización llevan a K ' y a a los valore? que les corresponden en el punto fijo. Como sólo K ' = 0,00 son valores invariantes de las ecuaciones, acabaríamos en K* = oc, dado que la ecuación utihzada provoca un flujo desde O hacia oc. Si realizásemos las iteraciones aislando A'' en lugar de AT, el flujo nos llevaría en sentido contrario, hacia A'* = 0 . Para cada valor de K que hayamos ido colocando en las ecuaciones, correspondiente a una cierta tem peratura, habremos obtenido el valor de ^ asociado. Estos valores de (|, aunque no corresponden al punto fijo, proporcionan el valor numérico de la función de partición con una precisión 10~® respecto de su valor exacto. Este valor se calcula mediante la solución exacta de Ising, N
2 cosh
7.1,4
keT
I s in g en 2 d im e n sio n e s: T eoría de C a m p o M e d io
A diferencia del modelo de Ising en una dimensión, el modelo en dos dimensiones sí presenta transición de fase. No obstante, su solución tardó 20 años en llegar (respecto a la del modelo en una dimensión, lo cual debe proporcionar una idea de la dificultad que entraña el aumento de dimensión), y fue dada por Onsager en 1944, quien halló que el valor del umbral de transición era Kc = ^ .sin h -‘(l) = 0.44069 No es seiiciho derivar la solución exacta de Onsager. así que tratarem os el modelo en dos dimensiones de forma aproxim ada (en esta sección) y daremos una guía para ei posible tratanúento numérico (míís adelante). Comenzamos introduciendo la-=í teorías de cmnpo medio y aplicándolas en particular al caso que nos ocupa. La idea básica de las teorías de campo medio consiste en eliminar los términos interactivos a nivel local, y que dependerán de cada punto en el sistema, para sustituirlos por cantidades medias que consideren la influencia global de toda la colectividad sobre cada uno de los elementos que la forman. De hecho, cualquier teoría de campo medio es equivalente a considerar que la interacción entre los componentes del sistema tiene alcance infinito (cuando en la m ayona de los casos simplemente se estará considerando que la interacción es local y a primeros vecinos). De hecho, durante mucho tiempo se pensó que la teoría de campo medio era exacta en esencia, debido a poderosos argumentos de L. D. Landau (1908-1968). Ahora se sabe que esto no es así, excepto para sistem as que efectivamente tienen alcance infinito, o cuando la dimensionalidad de estos es suficientemente grande. La técnica del campo medio fue ideada por P. E. Weiss (1865-1940) como
Fendmenos Críticos
283
teoría del magnetismo, y durante mucho tiempo fue la única que se tenía para las transiciones de fase. La teoría de campo medio es la aproximación más simple a un modelo de modelos, o meiamodelo llam ado de Ginzburg-Landau, el cu<'ü contiene toda la descripción de la física <}ue acontece en una transición de fase continua. Considcremo.s el modelo de Lsing sometido a un canuco externo uuiforuie B Calculemos el promedio térmico de un cierto e.spín .s,; exp exp / = —tauh
/j El num erador pesa la probabilidad de que s¡ sea positivo o negativo, y el denominador normaliza el valor resultante (la función ^tangente hiperbólica’' está comprendida entre -1 y -1-1)· Ahora deberíamos continuar el proceso de cálculo dei promedio téririico considerando los valores que los vecinos Sj irán tomando, promediar, y considerar de nuevo los vecinos de lo.s ... A fin de romper esta serie infinita se toma una aproximación simple. Escribamos
- B /
\ j
La ceuitidad entre paréntesis actúa simplemente como un térnúno efectivo para la interacción del espín Si- Simplifiquemos el térm ino de interacción considerando únicamente el promedio espacial de los valores de sj 1
AT
con lo cual í
\ > -B
\ J
/
Definamos — Jo?
i donde q es el número de coordinación, de próximos vecinos, y tendremos £T = ^
fí. = - ^ ]
s,· [qJo < Sj > -}-B] i
El promedio térmico sobre s, queda ahora ^E1 f a c to r t ¡2 que ap are ce e n e[ térn iin o de int-eracdori en el h a m iito n ia n o puede ser re a b s o rb id o en la definición d e la c o n s ta n te ® E sta s u s titu c ió n es la que d a a la teo ría de cam po m edio su nom bre.
Orden y Caos en Sistemas complejos
284
m Figura 7.7: Solución gráfica de la ecuación m = tanh [3qJom). Cuando ¡3qJo < 1, la única solución es m = 0. Cuando (iqJo > 1, existe otra solución no nula, dada por la intersección de lai dos funciones y = m, y = tanh [dqJom).
< s, > = taiih[/3(QJo < Sj > +B)] o en términos de la magnetización, m = tanh [¡3 [qJom + B)] ya que m = < s,· > —< Sj >, dado que el sistema es invariante .por traslación y únicamente consideramos promedios. Esta ecuación trascendente puede resolverse numérica o gráficamente. Consideremos el caso -0 = 0. La función tangente hiperbóhca tiene pendiente menor que 1 cuando el coeficiente (/?g/o)
b = 3B
rn = tanh
(¡ih-)
(7.2.4)
Fenómenos Críticos
285
Donde se utiliza que 0cQJo = 1· Examinemos ia magnetización espontánea (n?) en aus<'iiria de campo (6 = 0). El argumento de la función tanh es pequeño, para T ^ y podemos considerar un desarrollo de la forma tanh (r) = X —
+ 0(3:^)
Así que 3
m
l-t,
La solución no nula corresponde a = - 3 í( l - /) ^ y por tanto, cuando ¡íj fü O, r/i oc lo cual proporciona el valor ¿3 = 1/2 para el expoiu.'ute c[ue caracteriza el parámetro de orden. Calculemos ahora la susceptibihdad térmica para campo cero. Consideremos un desarrollo de tanh(x) a primer orden para T > Te (suficiente, yaque impondremos B = O, y m es nula) para obtener m y la susceptibihdad x 1
a db 6=0 t lo cual proporciona un segundo exponente, 7 = 1. -Para T < Te debemos considerar tam bién el térm ino de tercer orden en el desarrollo, y sustituir el valor de m, que ahora no es nulo, para obtener 7 ' = 1, también. La magnetización que resulta justo en el punto crítico cuando se aphca un campo B .se obtiene desarrollando a tercer orden la ecuación 7.2.4, m — m + b — -m ^ — + 0 (m^. ¿^) ó O con lo cual, para m y b pequeños, b
Orden y C¿ios en Sistemas complejos
286
la solución de Onsager), m ientras que los del modelo 3-dimensional son aproximados. De ahí que estén acompañados de un error. Compárense estos últimos con los exponentes obtenidos para un sistema real, una pieza de hierro, de forma experimental.
: Exponente
C. Medio
Ising í/ = 2
O 1/2
1/8
O 7/4 15 1/4
1/2
7.1.5
0.119 ±.006 0.326 ± .004 4.80 i . 05 0.024 ± .007 0.627 ± .002
Fe -0 .0 3 ± .12 0.37 ± .01 1.33 ± .015 4 .3 ± .1 0.07 ± .0 4 0.69 ± .02
El m o delo d e G in z b u r g - L a n d a u
Esta sección y la siguiente pueden resultar excesivamente áridas para el lector que no esté fanúliarizado con los métodos de la mecánica estadística e incluso de la teoría de transiciones criticas. Con ellas se pretende dar una exphcación anah'tica a estas transiciones, pero si el lector lo cree conveniente puede ignorarlas y saltar sin mayor problem a a la sección 7.2.8. Describiremos brevemente en qué consiste este metamodelo, y cómo incorpora detalles que no estaban considerados en las teorías de campo medio. La esencia del modelo es la introducción de las fluctuaciones en el parám etro de orden. Se hace explícita en este modelo la dependencia de la dimensión d del espacio de trabajo y también de la dimensionahdad D del parám etro de orden, m ientras que los detalles topológicos de la red, por ejemplo, no aparecen como elementos relevantes en la transición. El modelo de Landau-Ginzburg (LG) considera que el parámetro de orden es un campo continuo de D componentes, $(x): una magnitud vectorial que depende (en principio) de cada punto del espacio. De esta forma será capaz de considerar las fluctuaciones locales. Vayamos introduciendo modificaciones que nos conducirán finalmente al modelo de LG. Consideremos en primer lugar un problema de magnetización en dimensión d arbitraria. El parámetro de orden ^ será ia magne tización local media, y entenderemos que trabajam os con un volumen de tam año menor que la resolución que sea posible conseguir con un cierto aparato de medida, pero que es capaz de con tener muchos átomos (en ocasiones se denomina a esta escala de trabajo “escala (o aproximación) mesoscópica". entre macro y microscópica). En general $ es un vector que puede apuntar en cualquier dir<^cción. Si $ no varía de punto a punto, entonces la energía del sistema sólo dependerá del módulo de así que se podrá expresar la densidad hamíltoniana " como
donde ¡x' y A' son parámetros a determinar. Si, de forma más general, ^ varía de punto a punto, aparecerán términos dependientes del módulo de su gradiente espacial, |V ^ p . Esta dependencia se puede incluir en ho\ 1 ^Se lla m a a la expresión sig uien te de nsidad p o rq u e a p a re c e rá in te g ra d a sobre to d a s las c o nfiguraciones del siste m a en la exp resió n de la p ro b a b ilid a d de cierto suceso.
Fenómenos Críticos
287
douv'ie a ' cs una constante real. Tomando los primeros tériiiinos de los desarrollos anteriores podemos expresar la energía H de un microestado compatible con ^ (x ) como
H=Jd'>xh(x) =J d'‘x ja'|V$|2+lA'd'f'r'P De liemos ahora sumar sobre todos los microestados compatibhvs con ^ (x ). El número A' de tales microestados es la suma sobre todos los volúmenes para los que está definida la magnetización media ^ de las posibles ordenaciones dentro de estos volúmenes que dan como resultado. Este número es
Si desarrollamos n\ u;(¡$P) = ct + Í íí’2 |^ P + ~W4(1^Í')^ + · · · Tomando sólo los primeros térnúnos de este desarroUo se puede expresar la probabilidad de cierto canipo de magnetización media, $ (x ) como
P[^] oc exp
J
(0^ — ly)
a exp
—J d^~x Ti
donde Tí l g , el hanniltoniano de Landau-Ginzburg es
a = \/0a'\
= ¡3^' —tu2 ;
A ^ JA' - W4
Podemos además generahzar para incluir un posible campo externo, el cual dará lugar a un incre mento — en la densidad de energía, H lg = i a 'I V Í p +
+ ÍA(|
El funcional de probabilidad P[^] y la densidad hamiltoniana anterior definen el modelo de Ginzburg-Landau. Se observa la dependencia de tres parámetros fenomenológicos: o. una lontrítud característica que determ ina la importancia del térm ino gradiente; cuya variación conduce a la transición crítica, y A (que debe ser positivo para que P sea normaJizable). A través de este modelo se puede ver que la clase de universahdad de un sistema depende de su dimensión, d, y de la dimensión del parám etro de orden, D, pero, además, tam bién de los grupos de sim etría bajo los que 'Hlg sea invariante. Por ejemplo, la introducción de un térnúno de la forma D
Q -
1
que no es invariante cuando $ es rotado en su espacio £)—dimensional podría provocar un cambio en alguno de los exponentes críticos.
Orden y Caos en Sistemas complejos
288
Figura 7.8; Comportamiento de la energía lil>re en función del parám etro « 2· De izquierda a derecha. 02 < 0. «2 = O y > 0.
7.1.6
L a te o r í a de L a n d a u
La teoría de Landau para las transiciones críticas puede ser derivada de la densidad ham iltoniana de Ginzburg-Landau. Es suficiente con considerar en la función de partición de este modelo,
el valor de «1*0; minimiza la integral en la exponencial, y suponer que la integral sobre está totalm ente dominada por el valor máximo. Es decir: Z iG ^ c t Zl ,
Z l ^ exp
J d^x7ÍLG
El caso ^ = ct {esto implica que = 0) hace la integral mínima, así que ya podemos prescindir directam ente de este término. Además, si suponemos que la dirección de $ está determ inada por B, entonces podemos fijarnos únicamente en el módulo, é ~ con lo cual
/
d^yi ? ílg (^ o ) - V
( *
i.
En ausencia de cajiipo externo podemos escribir la energía libre del sistema como / —fo + o,2r7i^ +
( G2 =
2/3’
A 4\¡3^
Consideremos la energía libre como función de 02 - Si ú 2 > O, resulta que el rm'nlmo de / está en O (fase paramagnètica). Si 02 < O, el mínüno de / se da para un valor finito de m, mo (de hecho, de form a simétrica, para ±mo, lo que refleja ia rotura de sim etría para privilegiar una u otra orientación), con lo cual estamos en una fase ferromagnètica. 02 = O corresponde a la tem peratura crítica a la cual aparece tuia magnetización espontánea. Escribamos 02 -- ¿ 2^ es de nuevo la tem|>eratura reducida). Como resulta que la magne tización se anula de forma continua, estamos ante una transición crítica, y podemos calcular los exponentes que la caracterizan.
Fenómenos Críticos
289
La magnetización de equilibrio corresix)!ide al mínimo de /:
VIII
2á-2tm +
= O
Cuando ('stamos en la zona i < O, resulta m oc (— y por tanto obtenemos un primer exponent·-, i3 — 1 / 2 . Obtendremos a derivao
dm
o . . . . 3 _ - —h +, 2á2Ím + Aa^m = O
y sobre la isoterma critica f = O, con lo cual oc /i y resulta ¿ — 3. También se obtiene 7 I. y los restantes exponentes idénticos a los de ia teoría de cam po medio que ya hemos visto. La teoría de Landau es, en consecuencia, una teoría de campo medio, y no resultaría complicado establecer la correspondencia exacta que existe entre ambas.
7.1.7
Isin g en 2 d im en sio n e s: R e n o rm a liz a c ió n en el E sp acio R e a l
Las técnicas de re normalización en el espacio real sólo se aplican a modelos realizados sobre una red que posea ciertas características geométricas: debe presentar sim etría discreta de escala. Esto significa que, si la mñamos a diferentes resoluciones (con un aumento 6 discreto) debemos observar el mismo tipo de geometría que en la red original. Si reahzamos bloques iguales con las celdas unidad, y reemplazamos estos bloques por nuevas celdas, ahora a otra escala (superceldas) debemos obtener una red idéntica a la de partida, excepto por el incremento producido en el parám etro a de la red (distancia entre celdas), ya que a
= ha
El proceso de renormaiización en la red acaba cuando todas las magnitudes han podido ser rfdefinidas de acuerdo con el factor h. La sección 7.3.4 m uestra dos criterios de renormaiización. uno para una red triangular y otro para una red cuadrada. En general, si agrupamos p celdas para formar una supercelda, e¡ factor do escala h es h ~ .yp, donde d es la dimensión del espacio de trabajo. Veamos cómo definiríamos eu el caso del modelo de Ising en dos dimensiones unas variables sobre los bloques, y cómo la invariancia de su distribución (por ejemplo) nos señala el lugar exacto del punto crítico del sistema (punto fijo del proceso de renormaiización por bloques). Fijemos ideas considerando un modelo las variables del cual sean espines, definidos en cada celda de la red. Supongamos que agrupamos p celdas en un bloque para el cual definiremos una nueva variable, (variable de bloque) en función de los espines £,· de las p celdas que contiene. Si 5fc es el conjunto de p celdas en el bloque fc, tendremos en general que Vi € Tras ia aphcación de esta transformación llegaremos a la misma red original, excepto por el hecho de que tendremos N /p celdas, en lugar de las N de partida. De forma recursiva es posible seguir
290
Orden
Caos en Sistemas complejos
definiendo variables para ios bloques en cada nueva escala, (¡ue vendrá determ inada por factores b, 6^, 6^, . , í)” , 0” + ^ . . . según
Existen diversas formas de escoger la función f(x ), que en cualquier raso debe ser representativa de los p espines 5, que el bloque k cotitlene. Uu criterio habitual es la llam ada regla de la mayoría:
\
+1 o - 1
si
= (I
La variable vale +1 si la suma en la iteración anterior es positiva (mayoría de espines + 1 ) o bien -1, si la suma es negativa. En el caso de qu<‘ la sum a de los espines en el bloque sea O (tantos en un estado como en el opuesto) entonces se le asigna aJeatoriaiiiente uno de los dos valores. Otro criterio adecuado en ocasiones consiste en escoger arbitrariaiaente el valor de uno de los espines del bloque de la iteración anterior (“rfiezmocion” ) = a ;- ',
i G Sk
Aunque estadísticam ente los más abundantes siempre estarán más representados cuando la m uestra sea suficientemente amplia, en ocasiones este criterio da resultados [lotablemente peores que los obtenidos con la regla de la mayoría, por ejemplo. Una definición adecuada en ocasiones puede ser la de considerar el valor medio de los elementos en cada bloque: (n + l)
1 ST" (n)
.^ c
Si utihzamos en el caso de tener sólo los estados ±1 esta definición, está claro que obtendremos nuevos estados que no aparecían en la red original, lo cual podríamos pensar que es un problema, en principio. Sin embargo, este criterio es capaz de agrupar todos los sistemas magne'ticos, con valores arbitrarios para el estado de los espines, en el mismo punto crítico. Considerando la distribución de los valores de los obtendríamos una curva invariante, con un pico en el valor +1 y otro en el valor - 1, que no depende del espín original del sistema. Esta distribución invariante refleja precisamente la pertenencia de todos estos sistemas a la misma clase de universahdad. Otrcis reglas adecuadas, que reflejen el estado de los espines y la invariancia de la red pueden ser utihzadas. No existe un criterio universal, y únicamente debemtfs pensar en el estado de los elementos del sistema * y en las propiedades que queremos preservar.
7.1.8
S im u lació n del m odelo de Ising
Daremos finalmente unas ideas sobre la Implementación de un algoritmo que permite simular en un ordenador la dinánúca del modelo de Ising. Es interesante constatar que, a pesar de la gran dificultad que entraña el tratam iento analítico de las transiciones críticas, algunas simulaciones sencillas nos acercan notablemente a los resultados exactos. En este caso, el problema se reduce ^N o ú n ic a m e n te apU caretnos este tip o de r e ^ a s a espines con e stad o s discretos y t a n t o p o sitiv o s com o neg ativ os. P o d e m o s te n e r to d o u n c o n tin u o de estado s, y en p a rtic u la r p o d r ía n ser todos positiv os. E n c a d a caso, la definición d e b e de a ju s ta r s e al siste m a .
Fenómenos Críticos
291
«f l · 9 mm m m m m m m m m m m m m m m ■ ■ ■ ■ ■ ■ m m m mrnm m mm m m m m m m m m m mmm m mm mm m mm mmm
!■■■ mmmm m ■ ■ ■ * mmmmmm mmmmm m
■■■ ■■■■
■■
■
i«
■
Lm WTI· mmmm
fmlm ml mi-m l —wr mm
■■
mm mm m m m mm m m m m m m m m m mmm mm m m ~ 9mm ,g-i
■ i mmt mmmmmm ai i · ■■ Fmmm « mI m m ■ ■ ■ m 9«E m mm 9 m m ■ ■ ■ ■ ■ ai ■ ■ mm m t mm m ■ ■ ■ p· ■ ■ I mmmmm mmt ■ ■ m mmmm ai
a« mm mmm mmm m ■ ■■■ mm mm
·
m mm m m m
m m
PI
99_^mmmmmmmmmmt mm i i É · m ■ ■ ■ ■ mmmmmmmmmmmmmm ■ ■ mmmmmmmmmmmmm ■ ■ ■ ammmmmmmmmmmmmmmm mmmm mmmmm ■ ■ ■ ■ ■■« ■■■■■« « ■« ■■·« * mmmmmmmmmmmm m ■ ■ m B · · · mm mmmm a mmm mmmmm
mmmmmmmmmmmmmmmmm mmmmmmmmmmmmmmmmm mm mmmmmmmmmm m mmmm ■ ■ ■ ■ ■ ■ ■ ■ ■ « m mm mmmmmmmmm mmmm m m m m m m m m m m m m m mmm
mmmmmmmmmmmmmmmmm
H H ·
H W · ·
« m a a
a ■ ■ mm m m m m m aaa aa ■a aa a a· ■ aa a ■ taaaaaaa I a a Maa ta a a a a a a ■■ aaa a
iia i------« ■
~Wt— i i · · * a i i ««k* a aaaaaaaaa a a ■■a a a « a aa a a B aaa aa ■ «aaaaa* a a a aaa a a ~ ~ ■ aa a a a a ______ a saana a ««« a a a ·· fea a aaai^ aa a «a a «a immmmmm mmmmm m a aaaaa a a a aaaaaq ■ a aaaa aa *
mmmmmmmmrnmmmmmmm mmmmmmmmmmmmmm ■ ■ mmmmmmmmmmmmmmmmm * ■■■ mmmmmmmmmmm
- ■ ■ ■ ■ ■ ■ ■ ■ ■ ■ ■ ■ JU éúá^U rnéémmUmmmmñm mmmmmmmmmmmmmmmmm
mm ■m ■ a■m ■· ■· ■m ■ ■ m■ ■■ ■ ■■ ■ ■■ ■ ■ ■ ■ I ■ ■ ■ ■ ■■ ■ ■ ■■ ■■ ■■ ■ «mt «a
a ■ «■«
u ■■·« M ■ ■ ■ ■« ■·■ ■ i · · « « ■■
a a
■■ 1 ■■■
i l l l '■
mmmm a a s ■ m m m m ■ ■ mmmmmm mmmmmmm m mmmmmmmmm m m mm m m m ■ ■ ■ mmm m mmmm mmmmmmm m m m m m m m m m m m m m m m mm m mm m m m m m m mmmm ■ mmmmmmmmmmm mmm m m m m m m m m m mm
■a
i
■ a a a aa aaaa aa a a aaa a « aa aa a a a a a la a a a a i■ a a a a aaa aaa a aa· aai■aa a r a a a a a ai ■ a a a a a a a aaaai■a a a a a aa ! ■ ■ ■ ■ ■ ----■■· ■ ■ a ■■ ■■a aaaaaa ■ aa a
aaaa«··· ■ ■
V
·
o
■ aaa a r a aaa h a a a
aaaaaaaaaaa aa a a i a aa a a a i a aa a aaa a aa a aa « a · mm a a a a a aa a m m mm a a a ai a aaa·· ■ ---- ■ * ___ u -----
laaaa aaa a ■aaaa aa a i a · aai
C ■
r
■
Figura 7.9: Renormalización por bloques para una cierta configuración de percolación antes, cerca y después del punto crítico. Se ha utihzado la regla de la mayoría. Se representa en cada caso una porción de tam año 25 x 25 de redes de lado 400, 200, 100 y 50, de arriba a abajo. La probabilidad de ocupación, de izquierda a derecha, es p = 0.8, 0.59 y 0.2.
292
Orden y Caos en Sistemas complejos
a considerar, para cada uno de los espines del sistema tratado, la influencia que sobre él ejercen sus vecinos, lo que se denomina su campo local. Considerando además la tem peratura del sist(;ma podemos definir una probabilidad para cada espín de hallarse en el estado +1 o en el - 1, con lo cual, mediínite algún método de generación de números aleatorios, y escogiendo espines al azar }>ara su actualización, podemos observar la relajación del sistema hasta el estado vie equilibrio (estadístico) y evaluar las fluctuaciones en este estado. Consideremos de nuevo el hamiitoniano dei modelo de Ising, y supongamos que representa electrones, los estados de espín de los cuales únicamente pueden ser s, = 4-^ “ 2 ’ H ~ —J ^ StSj + 7 B Si <»,j> » y ahora nos fijaremos en e! valor exeicto de los parámetros y en su dimensión, para cuantificar exactamente los resultados. El valor del campo magnético se dará en T (teslas), 7 = ek/jn^., donde e = 1.602.10“ ^^ C es la carga del electrón, h = /?/27t, con la constante de Planck h = 6,G2G.1Ü"^'* J.s y = 9, 109.10~^* kg es la masa del electrón. Para J se puede tomar un valor del orden de J = 17.¿'5 [ J /k s = 17A"), lo cual concuerda bastante bien con la interacción estim ada en casos reales, kn — 1, 381.10“ ^^ J /A es la constante de Boltzmann. Los valores exactos de los parám etros no son necesarios para calcular las probabilidades de cada estado de espín. la magnetización media, las correlaciones entre estados o la información conjunta, magnitudes todas ellas que veremos seguidamente. La energía del espín z~ésimo es Ei[s,) = donde la sum a j se extiende a los vecinos próximos (cuatro si d — 2, seis si (í = 3). La probabilidad de que la celda i tenga componente de espín es proporcional al factor de Boltzmann,
a tem peratura T (en Kelvin). Modehzaremos el sistema comenzando con una red de asignados al azar. El caimpo de interacción H, = J Y ^ S j j
elementos con estados de espín
B
debe ser evahiado para cada celda, utihzando condiciones periódicas de contorno (los vecinos por la derecha de las celdas A' son las celdas 1, y viceversa) para minimizar el efecto de la frontera. Se evalúan entonces las probabilidades relativas, exp
[ksT]
n (5 .) = T ..' exp
(^ )
El intervalo [O, 1] se divide entonces en dos subintervalos (correspondientes a. s¡ — 1/2, s, =: —1/2) con longitudes iguales a las probabilidades de cada estado de espín. Se elige un núm ero aleatorio entre O y 1 y se asigna a la celda el valor del espín determinado por este número. El proceso se repite hasta que se alcanza el equihbrio terinodinánúco. Si actucdizamos una celda en C c id a iteración, son necesarias unas iteraciones para alcanzar el equilibrio. Si T Te. el número
Fenómenos Críticos
293
Figura 7,10: Fluctuaciones en la magnetización media de los espines en el modelo de Ising en dos dimensiones cerca del punto crítico. El tamaño del sistema es = 90. de iteraciones requerido puede ser mucho mayor, debido a las enormes fluctuaciones que aparecen cerca de la transición crítica, ü n a vez alcanzado el equihbrio se pueden calcular todas las variables termodinámicas del sistem a. Por ejemplo, < m >, ia magnetización media será simplemente < m>.
1 f 1= 1
y debemos obtener < m > rí O para T > Te y < m d para T < Te, con lo cual podemos estimar el punto de transición. Si llamamos < > a la media de las correlaciones entre vecinos,
<',J>
donde el factor l / d descuenta las parejcis repetidas, tenemos que la energía interna por celda será ■Jd < Ule > + 'fB < m > ks d incluye ahora el hecho de que tenemos N celdas, y cada una tendrá 2d vecinos, así que existen dN parejas distintas de vecinos < i, j > Si reahzamos además medidas a diferentes tem peraturas, podremos calcular < C b >, el calor específico por celda a B = cf. < u> =
< C
b
> -
(d < u > \ [ dT J
la entropía media por celda.
dT
y la energía libre de Helmholtz por celda, < / >=< u > -T < s > ®A u n q u e p o d ríam o s h a b e r c an c ela d o este fa c to r d con el que Aparece en la definición de la fu n c ió n < rn¡; > , a q u ella es su definición c o r r e c ta , a sí que hem os considerado o p o rtu n o e x p licitar la d e p e n d e n c ia .
Orden y Caos en Sistemas complejos
294 La Información Conjunta
Existe otra medida interesante que puede ser realizada no sólo en este sistema, sino tam bién en cualquier otro en el que podamos conocer los estados por los que pasan los elementos del sistem a a lo largo del tiempo. Es la llamada información conjunia, que se define como L = donde 5 ,·, Sj son las entropías asociadas a los estados que i y j (vecinos mutuos) presentan a lo léirgo del tiempo, y cs la entropía asociada a los estados conjuntos de estos dos mismos elementos. En general, Sk = - " Y Pe iog pe
e donde e indica sum a sobre todos los estados que el elemento Sf¡ presenta a lo largo del tiem po, y Pe representa la probabilidad de cada uno de estos estados. Para la entropía conjunta, Ski = - ^ p e j o g p e . Ce donde es ahora la probabilidad de cada estado o configuración simultánea de la pareja de vecinos. La suma se extiende a todas las configuraciones que se han presentado a lo largo del tiempo. Pongamos un ejemplo. Supongamos que hemos obtenido la siguiente secuencia para dos espines que son vecinos próximos: t
1
2
3
4
5
6
7
8
9
5,·
1 1
1 -1
1 -1
-1 -1
-1 -1
1 1
-1 1
-1 -1
1 1
El espín s, ha
10
11
12
13
14
15
1-1
-1 1
-1 -1
-1 1
-1 1
1 1
sido haUado 6 veces en el estado +1, y 9 veces en elestado - I . Por tan to 5, = - V Pe log Pe = - — log — - — log — ^ 0.2929 l ü
lo
lo
Lo
Para el espín Sj, por otra parte, obtenemos 0.3001 15 -15*°® 15 La entropía conjunta *S,,j corresponde a las situaciones relativas en que los espines pueden ser hahados en cada paso de tiempo. Tenemos cuatro opciones en este caso: (1,1). (1,-1), (-1-1) y (-1,-1). Si miramos la serie, obtenemos 4 veces la primera combinación, 2 veces la segunda, 4 veces la tercera v 5 veces la última, lo cual conduce a 2 2 o o — log--- — los -— 0.5819 15 ° 15 15 ” 15 y finalmente, = 0.0111 para esta serie particular. Para obtener una buena estadística necesitamos hacer promedios durante tiempos muy largos (en ocasiones del orden de 10^ — 10^ o más iteraciones), ya que sólo tomamos una pareja de elementos en cada paso de tiempo, y de ésta seguimos la evolución, siempre de ia misma, con lo cuai una buena media significará en este caso un tiempo largo, y no un sistema grande.
295
Feiiónienos Críticos
0.02
0.2
0.3
0.4
0.5
/s Figura 7.11: Información conjunta para el modelo de Ising 2 dimensional eii fuucioa do la tem peratura. E sta función presenta un máximo eii el punto critico del sistema. La característica más interesante de esta medida es que presenta un máximo en el punto donde se produce la trcuisición. La podemos interpretar como una m edida de las correlaciones que se crean en el sistema, de la dependencia del estado de un elemento del que presente su vecino. La gráfica de la información conjunta para el modelo de Ising se representa en la figura 7.11.
7.2
Percolación
Imaginemos una porción de roca porosa. Supongamos que queremos saber en qué condiciones un fluido será capaz de penetrar en la roca por un extremo y reaparecer por el opuesto. Nuestro problema se lim ita a conocer si existe un camino en el interior de la roca que conecte dos caras opuestas. Si así ocurre, diremos que los poros, o los huecos, en la roca percolan en ella. Tomemos otro ejemplo. Consideremos una superficie aislante sobre la que aleatoriam ente vamos depositando pequeños trozos de un cierto m aterial conductor. Si sometemos esta superficie a una diferencia de potencial, está claro que no habrá paso de corriente hasta que las deposiciones m etáhcas consigan formar un camino conexo entre los extremos. Observemos que la conducción es nula antes de ia aparición de dicho camino y siempre positiva después. Supongamos, por último. qu<- desearnos establecer el tiempo de extinción natural de un fuego en un bosque. Este tiempo dependerá del tamaño de la agrupación conexa de árboles en la que el fuego se ha iniciado. Resulta ser que esta longitud tem poral, además, no es una función linealmente creciente con la densidad de árboles, como en principio se podría suponer. Los grupos de árboles son bastante pequeños para densidades bajas, y cuando crece la densidad, después de un cierto umbral crítico, la conexión de todos los árboles del bosque se produce con asombrosa rapidez. Los tres ejemplos descritos han sido estudiados a partir de modelos simplificados de percolación sobre todo tipo de redes y en muchas dimensiones diferentes: desde 1 hasta oo, aunque los casos más diñ'ciles siempre están comprendidos entre 3 y 5, ambas incluidas (!). En el caso más sencillo, y probablemente también más ilustrativo, consideraremos una red cuadrada 2-dimensional, las celdas de la cual se irán llenando aleatoriam ente con una cierta proba bilidad p. Si pudiésemos estudiar una red infinita (a fin de evitar las desviaciones estadísticas que
Orden y Caos en Sistemas complejos
296
Figura 7.12: Celdas ocupadas en el modelo de la percolación en una red cuadrada para diversos valores de la probabilidad de ocupación. De izqviierda a derecha, > p ~ 0.2, Pc ^ P = 0.59, Pe < p = 0.8. Obsérvese la geometría del camino que conecta los extremos de la red.
Figura 7.13: Una posible cadena de celdas ocupadas y vacías para el modelo de la percolación en una dimensión. Se ha escogido p = 0.6 < pe. cualquier red finita contiene) veríamos que, para probabUidades p pequeñas, por debajo de un cierto um bral crítico Pc no existe ningún camino que conecte los dos extremos de la red. Si p > pe, este camino existe siempre, y además, como las partículas se unen unas a otras muy rápidam ente poco después de cruzar el umbral, tiende a ser bastante directo, recto. En cambio, cuando p cr: Pc, cuando el camino justo acaba de aparecer por primera vez, presenta muchas “curvas”. Concretam ente, si fuésemos capaces de trabajar con redes infinitas, obtendríamos que la longitud de este camino se hace infinita para p = p^. Véase la figura 7.12. La magnitud pc representa para la percolación lo que la tem peratura de Curie para los sistemas magnéticos. Es el umbral crítico, en el que el parám etro de orden se hace positivo (con derivada discontinua) y gran parte de las cantidades que describen el sistema se anulan o divergen de forma potencial, según uu cierto exponente que las cciracteriza. Esto es lo que veremos en las próximas secciones.
7.2.1
Solución e x a c ta en u n a d im e n sió n
Estudiaremos el modelo en una dimensión debido a que posee una solución exacta y a que, aunque muy simphficado. ilustra algunos aspectos de la percolación en dimensiones mayores. Llamaremos agrupación ( ‘‘cluster” ) a un conjunto conexo de celdas ocupadas (recordemos que previamente, en función de una probabilidad p, estas celdas han sido definidas como llenas o vacías). Véase en la figura 7.13 un ejemplo con agrupaciones de diversos tamaños. Definiremos el número de agrupación, n¡, como la probabilidad de que en nuestra c£idena de longitud L [L ^ oo) encontremos una agrupación de s celdas llenas. Obsérvennos que, según la definición, la probabilidad de tener s celdas consecutivas ocupadas será p" (para sucesos es tadísticam ente independientes, como se está suponiendo) y además debemos pedir que los dos
Fenómenos Críticos
297
extremos estén vacíos (lo cual suct:(ie, para cada extremo, con probabilidad (1 —p)). Así, n, ^
I- pf
n, tiene el mismo valor que la probabilidad (en una cadena infinita) de que una celda determ inada sea el extremo izquierdo (igual se podría tomar el derecho) final, vacío, de la agrupación. La probabilidad de (iue una determinada celda perteiu^zca a una agrupación de tam año ,s será sn,, donde estamos suponiendo indistinguibihdad. El umbral de percolación para el caso l-dimensional resulta ser = 1. Si p < Pc = I, siempre quedará alguna celda vacía (en una red infinita) así que no existirá camino conexo entre los extremos. En una dimensión, pues, no podemos acceder a la zona p > Pc- Trabajem os con lo que tenemos. La probabilidad de que una celda esté ocupada es p, pero tam bién coincide con la probabilidad de que pertenezca a uua agrupación arbitraria. Por tanto, OO
^n,s= p
(p < p c )
Esta sum a también está restringida a p < pc para dimensiones mayores, ya que las celdas pertene cientes a la agrupación máxima (que contiene el camino conexo) deben ser consideradas indepen dientemente. Calculemos cuál es el tamaño medio de las agrupaciones del sistema. La probabilidad de que una celda arbitraria (esté o no ocupada) pertenezca a uua agrupación de tam año s es n^s, mientras que la probabilidad de que pertenezca a cualquier agrupación finita es n..£, así que IV., -
n,5
Es es la probabilidad de que al escoger arbitrariam ente una celda del sistema, la agrupación a la que esta pertenece tenga tam año s. El tamaño medio de las agrupaciones, 5, en el sistem a será en consecuencia
La agrupación infinita está excluida de la suma Calculemos expHcitamente. El denominador anterior es simplemente p. y el numerador, por la definición de n,,
donde se ha utihzado dos veces que P ^ = p ‘ s dp lo cual permite calcular ia última suma, ahora convertida en una progresión geométrica senciUa, para proporcionar E x is te n algunas definiciones íd te rn a tiv a s. Si c o n sid erá se m o s que son las celdas, y no las a g ru p ac io n e s, las que se escogen con equ i p ro b a b ilid a d , e n to n ces
p o r ejem plo.
298
Orden y Caos en Sistemas complejos
S -
1 -p
{P < Pr.)
Observemos que esta ^fintidad diverge cuando p Pc ~ 1- La divergencia se producirá igualmente en cualquier diinensicu. aunque el umbral crítico no será el mismo. Podemos definir la función de correlación (j{r), como la probabilidad de que una celda situada a distancia r de una celda ocupada pertenezca a ía misma agrupación. Sencillamente, el suceso ‘^estar ocupada” debe darse entre la celda origen y la que está situada a distancia r sin interrupción: g (r)-p ",
Vp Vr
Para p < pc. gir) tiende a cero de forma exponencial cuando r —► oo g{r) oc exp donde 1
ln(p)
I (pc - p)
cuando p —» Pc = 1, y utilizando ln(l - x) ^ —z. para x pequeña. ^ es la longitud de correlación, también divergente en el punto crítico. Intuitivamente se deduce que ^ será proporcional al tam año medio de las agrupaciones, 5, cerca del punto crítico: 5 oc Í
(p ^ Pc)
En general, ^ es proporcional al diámetro típico de las agrupaciones. Sólo en una dimensión se verifica la proporcionalidad anterior, que en el caso general será S oc . En una dimensión, obtenemos i/ = 1. De las relaciones anteriores, que dan resultados exactos en una dimensión, vemos que existen cantidades divergentes que pueden ser caracterizadas por simples potencias, como (pc - p )“ ^ cuando p —> p^.
7,2.2
E x p o n e n t e s críticos
El modelo de percolación en una dimensión ilustra el comportam iento de algunas de las cantidades relevantes en los sisrcmas que experimentan esta transición crítica. Sin embargo, dado que no podemos acceder a la zona p > p^, cantidades tan im portante como el parámetro de orden, por ejemplo, no pueden ser definidas. Tanto éste como los exponentes críticos más relevantes en los sistemas percolan tes van a ser definidos en esta sección. Como guía, podemos tener siempre presente la imagen de la percolación en una red cuadraxia de dos dimensiones. ¿Cómo se define el parámetro de orden? Sabemos que antes de pc no existe camino conexo, m ientras que éste está siempre presente cuando p > pc- La prim era vez que aparece, son muy pocas las celdas que forman la agrupación mayor (que claramente será la que contiene el camino de percolación, el que atraviesa todo el sistema), mientras que, a medida que p crece, más y más celdas se unen a ella. Con esta idea en mente, definiremos el parám etro de orden $ (con frecuencia llamado P o P ^ para la percolación) como el número de celdas contenidas en la agrupación de percolación: ^
# celdas en la agrupación de percolación L'^p
Fenómenos Críticos
299
donde L^p es el número total de celdas ocupadas. Cuando p —> ;>,■ ])resenta una tendencia potencial,
ei parám etro de orden
^ « (P 3 se puede interpretar como la forma en que la coní^ctividcid dr la iü,ní[>ación m áxim a tiende a cero. En general, el tamaño medio de las agrupacioue.s divergerà cuajido uos acerquemos al punto crítico por la derecha o por la izquierda (recordemos que la agrupac ion máxima queda eliminada de la sum a sobre agrupaciones para p > pc). según un exponente 7 : 5(p) a |p - Pci~^ La longitud de correlación, ya definida, sigue una ley í(p ) oc ¿ a Ip - P cI“ *' En general no será posible utihzar redes infinitas en las descripciones de nuestros sistemas, ya que éstas sólo pueden ser tratadas de forma anah’tica, y para las diriiensiones más interesantes (d = 2, 3) es casi siempre imposible obtener resultados exactos (en or,T>iones sí se puede hacer para d = 2). Por tanto, nos veremos con frecuencia obligados a realizar ^simulaciones numéricas. Si intentam os hallar alguno de los exponentes citados por simple simulación directa, veremos que es casi imposible obtener buenos resultados sí trabajamos con redes que en. principio nos parecerían razonablem ente grandes [L 10^ — 10^). Sin embargo, podemos aprovechar la proporcionahdad entre ^ y L para reahzar el denominado análisis de tamaño finiio. Si invertimos la últim a relación, obtenem os |p —pd oc . Podemos sustituir ahora lp -p c | en alguna de las funciones aríteriores, por ejemplo $ (p = Pc) oc I « " y realizar un estudio de redes de tamaños diferentes, finitos, en el -punto crítico. Una interpo lación logarítm ica permite obtener el cociente ¡3/u con una aproximación mucho m ayor de lo que posibilitaría deternúnación independiente de los exponentes. Definiremos dos exponentes críticos más, esta vez relacionados con la tíeometría de las configu raciones (de las agrupaciones) en el punto crítico, para p = Pc- Por ejemplo, ¿cuál es la distribución de tam años s de las agrupaciones en el punto de transición? Esta distribución sigue tam bién una ley potencial en p = pc, que se desvía (de hecho sólo una parte de la distribución se aju sta a eha) para p ^ pc-
con ^ a |p - Pc 1lo cual define el exi)onente (T, que caracteriza el límite de vahdez de la ley potencial, ya que la función exponencial actúa como función de corte, dado que tiende más rápidam ente a cero que la función potencial. Obsérvese que la expresión anterior se reduce a oc s " ’" para p — pc‘ El último exponente que definiremos es la dimensión fractal de la agrupación máxima Limite p a r a el p a rá m e tro de orden sólo e s tá definido p o r u n o d e los dos lados, ya que e n el o tr o es siem pre cero p o r definición. No distinguirem os si el b'm ite se to m a p o r la d e re c h a o p o r la izquierda.
Orden v Caos en Sistemas complejos
300
para p ~ pc· Si p < p ^ la fractalidad no se extiende hasta el tamaño total del sistema, puesto que esta agrupación no lo ocupa, aunque existe autosimilaridad (hasta la longitud de correlación ^). Si p > Pc la geometría experimenta un cambio hacia la homogeneidad: la agrupación máxima está “excesivamente ilena” , ya que para p > pc muchas otras celdas ocupadas se conectan a ella rápidamente. Si M es la cantidad de celdas que forman la agrupación de percolación, M{1) oc donde l es la medida lineal de las cajas que recubren el sistema, y D la dimensión fractal corres^ pendiente a la estructura (véase el capítulo 3). De nuevo los e.xponentes definidos no son indc})endientes. Se ha hallado que verifican las siguientes relaciones: • /Sa •
—T — 2
jcr = Z —r
• ^ =
La últim a relación de esta lista pertenece al gru ¡)0 de las llamadas relaciones de hipeiescala, debido a que contiene la dimensión espacial d del sistema. Así que en el caso de la percolación, como ya se había visto para las transiciones magnéticas, el conocimiento de dos exponentes es suficiente para dar el valor de todos los demás. Detallamos a continuax:ión el valor de los exponentes críticos para la percolación en 2 y 3 dimensiones. De nuevo, en 2 dimensiones son valores exactos (analíticos), y en 3 dimensiones son numéricos. Se dan también los umbrales de percolación para redes con diferente geometría en dimensión 2. Dada la dimensión del sistema, el umbral de percolación puede depender de la topología de la red, no así los exponentes críticos.
d 2 3
Pc
7.2.3
0 5/36 0.41
7 43/18 1.80
cuadrada 0.592746
1/ 4/3 0.88
cúbica 0.3116
T 1S7/9I 2.18
triangular 0.50000
(7
36/91 0.45
D 91/48 2.53
hexagonal 0.6962
P e rc o la c ió n en dos d im en sio n es: re n o rm a liz a c ió n en el esp acio real
La idea básica de ia renormaiización consiste en aprovechar la autosinúlaridad que los sistemas presentan en una transición crítica. El hmite para esta autosimilaridad viene dado por la longitud de correlación, Para todo valor de p, ^ representa la máxima longitud a la que el sistema repite estructura. Así que sólo cuando ^ diverge podemos aprovechar la repetición para plantear ecuaciones a distintas escalas de longitud.
Fenómenos Críticos
301
En la renormaiización en el espacio real, cada conjunto de celdas es reemplazado por una supercelda a la que, en principio, debería serle asignado un estado que fuese representativo d«‘ los estados que presentaban las celdas a las que sustituye. Cada una de estas superceldas tendrá una dimensión lin^^al b y sustituirá celdas de la escala menor anterior E sta renormaiización de celdas requiera ciertas restricciones a fin de producir resultados interesantes. I*or ejemplo, en general, la densidad de ocupación de las superceldas será p' 4siendo p la densidad ti·· la^ celdas elementales. Unicamente para p = pc se obtendrá p' ^ p — pc (siempre .suponiendo qur hemos sabido tom ar un criterio hábil de asignación de estados a la escala superior, ya veretno ^ exactamente cómo), como resultado de la invariancia de escala en el punto crítico. Si en la red de celdas inicial teníamos ^ = C \p -p e \-^ en la red renorm alizada de superceldas tendremos
=c \p'- Pc\-^ [C — constante). En nuestra nueva escala, pues,
será
según el reescalamiento efectuado. .Asi
M p '“ p c r " - l p - p c i - " que es la ecuación básica de la renormalización en espacio real. Si tomíimos el logaritmo a anibo¿ lados, i _ u en el hmite p, p'
(p-pc ) _ log A _ log & “ log 6 ’
^ _ p' - Pc _ dp^ P - Pc dp
p-p<
pc·
Ilustrarem os estas ideas con dos ejemplos prácticos. Consideremos en primer lugar una red triangular en dos dimensiones. Véase la figura 7.14, que ilustra la forma en que se renorm aliza la red original para que se conserve la geometría y cada celda elemental pertenezca a una única supercelda re normalizad a. ¿Cuándo diremos que una supercelda está ocupada? Es necesario establecer un criterio razon able para hallar p '. 1. La supercelda estará ocupada si las tres celdas que la forman lo estaban. Esto sucede co!* una probabilidad p^. 2. E stará tam bién ocupada si dos de las celdas constituyentes lo estaban. La probabilidad de este suceso es p^(l —p) y puede ocurrir de tres formas diferentes (que corresponden a la extracción de cada uno de los tres vértices del triángulo). 3. E stará desocupada si sólo una de ias celdas estaba ocupada o si las tres estaban vacías. Este criterio (estará el lector de acuerdo en que es sumamente razonable) pernúte escribir P' =
+ 3p^(l - p )
Nos interesa el punto fijo p ' de esta ecuación (p = p'). Tenemos tres soluciones para la condición exigida: '■^En general se s u p o n d r á que la se p a rac ió n e n tre las celdas originales e.s la d is ta n c ia u n id a d .
302
Orden y Caos en Sistem as complejos
Figura 7.14: Renormaiización eu ei espacio real de una red triangular en dos dimensiones.
p -= 0, -, 1 ü y 1 son soluciones triviales a !a condición de re normalización Impuesta. Obtenem os, uo obstante, un resultado no trivial, p* = 1/2, que resulta ser el um bral conocido para la percolación en la red triangular. Calculemos A: p'
= p* +
p") + 0 ( ( p - p " ) ^ )
realizando ua desarrollo alrededor del punto fijo. Simplemente derivando , . . 2 3 p = 6p - 6p - -
. 1
en p == p = -
En la red triangular, b — \/3, así que 355 Esre resultado está en buen acuerdo con el valor supuestamente correcto del valor del umbral de percolación, no proporciona el valor exacto.
aunque, a diferencia
Utilicemos el mismo procedimiento con una red cuadrada. El convenio de renormaiización se representa en la figura 7.15, lo cual conduce a la ecuación P' = P^ + 3 p ^ (l - p)
con las soluciones en el punto fijo p' ~ p = p^ P* = 0 . 1,
1 ± y i3
6
Fenómenos Críticos
303
Figura 7.15: Convenio de re normalización de una red cuadrada eu dos dimensiones. y la única solución no trivial p* = 0.768. E sta solución está más alejada del umbral conocido, A = 9p^ —5p^, log 2 log A
= 0.5927
En este caso, 6 = 2 v
1.40
proporcionando un valor razonablemente cercano a | . Es necesario decir que este desarrollo en unas pocas líneas, aunque no exacto, es probablemente mucho mejor que cualquier simulación que se pueda hacer en el término de unos pocos días, lo cual debería dar una idea de la potencia de las técnicas de la renormaiización. Los resultados serán tanto más exactos cuanto mayor sea la supercelda renormalizada, esto es, cuanto mayor sea b. Sin embargo, aum entar b significa multiplicar enormemente el número de configuraciones que deben ser analizadas como posibles contribuciones a la supercelda. De hecho, en una red cuadrada deben ser analizadas 2**^ configuraciones. Simulaciones del tipo Montecarlo han llegado a renormalizar celdas con b = 10“^, produciendo para un valor 0.75, exacto hasta las centésim as. Para 6 ~ 2, queda pues claro que las ecuaciones obtenidas son únicamente aproximadas, y el hecho de haber obtenido exactamente uno de los valores que se pretendía calcular no debe llevarnos a engaño. Hemos obtenido también, y por otra parte, dos valores muy próximos p ara u considerando que partíam os de dos geometrías absolutamente diferentes. Aquí vemos claramente reflejado el término universalidad de los exponentes críticos: la técnica de la renormaiización ignora las diferencias locales menores y aphca todos los problemas críticos en el entorno del punto fijo.
7,3
C onclusiones e im plicaciones
Tras los dos modelos vistos (Ising y percolación) se hacen necesarias alguntis puntualizaciones sobre los fenómenos críticos, sobre la aparición de la física independiente de la escala de observ’ación. La conclusión principal que la uo dependencia del tamaño de descripción aporta es el forta lecimiento y la vahdez de las descripciones realizadas con modelos en espacio o tiem po discreto
304
Orden y Caos en Sistemas complejos
cuando el sistem a evoluciona c e r r a de un -punió cr-tiico. Efectivamente, hemos visto cómo el método de la renormaiización (sea en el espacio de parámetros o en el espacio real) elimina los detalles microscópicos del sistema, proporcionando no obsfaiite resultados exactos. Nuestros modelos dis cretos de fenómenos críticos delx-n ser vistos ah<>ra d<’sde una nueva perspectiva: la de la posible exactitud. No es en absoluto necesario tener cu m enta los más ínfimos detalles de la realidad en su descripción, ya que puede ser que la aparición 'le las estructuras a gran escala los borre com pletamente. Probablemente las p>ruebas más coi'tundrates las aportan los resultados cuantitativos para los exponentes críticos: sistemas magnéticos t- hidrodinámicos, por una parte, o formación de caminos conexos en una roca y conducción de corriente en una superficie, por otra, resultan ser fenómenos descritos por los mismos números míigicos. Los detalles del sistema, como el número de vecinos de cada partícula, si ésta es fija o fluida (hierro y agua, por ejemplo), si ia interacción es mediante puentes de hidrógeno o niediajite estados de espín, son irrelevantes en la transición crítica: la emergencia de una estructura que ocupa toda !a escala del sistema, el fenómeno cooperativo que aparece a una escala mucho mayor que la del elcnienro individual, los hace irrelevantes. El criterio de validez de la descripción discreta e.stá, en cualquier caso, acotado cuantitativa mente por la longitud de correlación, Junto con ella, sólo otras dos longitudes son relevantes en el sistema: una longitud máxima que sería la del sistema total propiam ente y una longitud mínima, a la cual se definen las interacciones entre los constituyentes elementales. Es interesante tam bién constatar que la aparición de la estructura a gran escala no está en absoluto impuesta por las leyes dinámicas o por las interacciones, que se definen a nivel local. La superestructura emerge en el sistema, es la respuesta macroscópica a unas ligaduras externas que, sin embargo, ni la contienen ni la condicionan. En el próximo capítulo describiremos con mayor extensión cuál es la peculiaridad que las ubicuas funciones potenciales exhiben, e introduciremos uu conjunto de sistemas y algunos modelos que, dejados a su libre evolución, parecen dirigirse hacia puntos críticos. Hemos visto en este capítulo que las transiciones críticas son forzadas por la introducción de unas condiciones termodinámicas (presión, tem peratura, campo magnético, ...) muy precisas. Es nécesario, parece ser, forzar el sistema, empujarlo, si pretendemos observar un cambio de fa^e crítico. Sin embargo, en el capítulo siguiente veremos que el punto crítico puede ser alcanzado de forma espontánea. ¿Porqué? ¿Qué ventajas representan una estructura espacial y una aparición de sucesos temporales independientes ambas de la escala de observación? Intentarem os responder a estas preguntas con la introducción de los sistemas críticos autoorganizados.
Bibliografía 1. J. J. Binney, N. .1. Dowrick, A. J. Fischer y iM. E. ,J. Newman, The Theory of Critical Phenomena. Clarendon Press, Oxford, 1992. 2. P. Davies, The New Physics. Cambridge University Press, 1989. 3. S. R. de Groot y P. Mazur, Non-Equilibrium Thermodynamics. Dover, 1984. 4. L. P. Kadanoff, Physics 2 263 (1966). 5. D. Stauffer y A. Aharony, Introduction lo Percolation Theory. Taylor L· Francis, 1991. 6. K. G. Wilson, Renormali7Miion Group and Critical Phenomena. Phys. Rev. B 4 3174 (1971); 4 3184 (1971). 7. K. G. Wilson y ,7. Kogut, Phys. Rep. 12C 7G (1974). 8. J. M. Yeomans, Statistical Mechanics of Phaic Transitions. Clarendon Press O.xford 1993.
C apítulo 8
Sistem as C ríticos A u toorgan izad os Llegamos a uno de los temas más interesantes del libro, donde se agrupan m ultitud de conceptos que hemos ido explorando en capítulos precedentes, como la geometría fractal, la dinám ica de sistemas, los autóm atas celulares, los fenómenos críticos y la frontera del caos. Los sistemas que presentaremos son ejemplos de un equilibrio dehcado donde orden y desorden coexisten. Es el balance entre uua cierta aleatoriedad y la autoorganización del sistema (capaz de borrar los detalles locales o microscópicos) lo que hace de los sistemas críticos autoorganizados una de las líneas de investigación más interesantes e innovadoras de las dos últim as décadas. No^sólo los ejemplos que se irán sucediendo en este capítulo corresponden a los sistemas citados. En otrstó partes de este libro se ha hablado, o se hablará, de virus (y la catástrofe de error asociada), de evolución (y la autosimilaridad tem poral de las extinciones) y se harán algunas sugerencias en esta dirección cuando se hable de neurodinámica. Iniciaremos el capítulo profundizando en el significado de las funciones potenciales, las que representan m atemáticam ente la autosim ilaridad. Inmediatamente pasaremos a la descripción de una serie de modelos y sistemas reales sobre los que se conjetura que evolucionan cerca de un punto crítico. En la últim a sección anahzaremos el tipo de predicción que los sistemas críticos perm iten, y los compararemos con la predicción ea los sistenms caóticos.
8.1
L eyes de escala
Se ha visto en el capítulo anterior que las leyes de escala, o leyes potenciales, aparecen cerca de los puntos críticos. Cuando un sistema sigue una ley de escala, se ha dicho que sus propiedades se hacen independientes de la escala de observación. ¿Qué significa esto, exactamente? Intentarem os, en esta sección, profundizar un poco más en el significado de ias funciones potenciales, a la vez que describiremos numerosos ejemplos en los que se ha hallado relaciones de este tipo. No es únicamente la estructura geométrica la que posee leyes de escala (caso en el cual hablamos de fractales) sino que también la ocurrencia tem poral de algunos fenómenos puede ser invariante bajo cambios de escala (hablamos entonces de ruido 1 //^ )- Veremos que, en el caso del tiem po, esta invariancia tiene implicaciones en la predicción. Lo prim ero que debemos anahzar es porqué las leyes potenciales están libres de cualquier escala característica, y porqué ningún otro tipo de función (pohnómica, exponencial, trigonométrica, ... ) posee esta propiedad. 305
306
Orden r Caos en Sistemas Complejos
Por razones dimensionales, las úniccis magnitudes que pueden ser elevad;is .i potencias arbi trarias son adimens ion ales. Esto implica que, en presencia de un exponente 77 € arbitrario, una ley potencial será de la forma í
9i {x] = I
donde xq es alguna medida patrón con las mismas dimensiones que x. Por otra parte, podemos considerar una función exponencial, por ejemplo. De nuevo, sólo cantidades adirneusionales pueden aparecer como argumento de funciones trascendentes, así que tendremos g2 Íx) = exp
-j
í- o J
¿Cuál es, entonces, la diferencia esencial entre una y otra función? Supongamos que me dimos nuestra función g2 para valores de x en el intervalo (zo/2,2xo)? es decir, un intervalo logarítmicamente centrado en xq. Consideremos el cociente entre el valor máximo y el valor minimo que la función presenta en este intervalo: = c^·^. Tomemos ahora un intervalo diferente, esta vez centrado en lO^o = Xq-, y midamos en cociente entre ei valor máximo y el mínimo en {xq/2,2xq). Obtenemos ahora un cociente Si centraiiios el intervalo en IOOj'q. ia razón será Así que las gráficas de g2 en estos tres intervalos no son modelos a escala uria,s de otras; no es posible superponerlas mediante un simple cambio lineal (lo que significa bien una contracción bien una dilatación) de escala en los ejes, no son gráficas semejíintes Reahcemos la misma exploración en la función gi. La razón entre el valor máximo y el mínimo que la función presenta en ios mismos tres intervalos anteriores es siempre 4'^, así que ahora sí será posible superponer las tres partes de la gráfica reahzando un simple cambio lineal. En este sentido, un fenómeno que obedece leyes de escala tiene el mismo aspecto, independientemente de la escala a la que lo contemplemos. Observemos, finalmente, que debido a ia variación del cociente considerado, es posible detectar el valor de xq en una función exponencial. Sin embargo, la equivalencia de todos los cocientes en una ley potencial borra las huellas de xq. Aunque se utiliza para hacer el argumento de la función adirnensionai, la simple exploración de la función no revela qué medida tiene este patrón, ya que lo único que el observador puede detectar es el valor relativo a escalas diferentes, la relación entre dos escalas de observación, es decir el cociente, y éste es constante. Sólo una ley potencial está libre de escala. ¿Dónde encontramos leyes potenciales? Aparecen en una graíi cantidad de fenómenos. De forma muy general, podríamos decir que las encontramos cuando una gran cantidad de elemen tos interaccionan entre ellos para producir una estructura a un nivel superior. Ksros elementos constituyentes del sistema poseen una historia común, a lo laxgo de la cual las interacciones lo cales han podido extenderse a lo laxgo de todo el sistema, es decir, ha habido una transmisión de información a escala global. Estos sistemas evolucionan lejos del equilibrio, y habitualm ente son sistemas altam ente disipativos. Esta descripción general es probablemente un poco vaga. Los ejemplos siguientes ayudarán a concretar su significa
Sistemas Críticos Autoorganizados
307
D e tro it
B a ltx m o r e
Washington
Nueva
V i T g i n ia \ ^ o l e d o ArlingtoTi'
10
Rango
100
Figura 8.1: Representación del número de habitantes de algunas ciudades americanas en función del rango que ocuparían, según la ley de Zipf. potencial, y constató que todos los idiomas modernos seguían leyes de escala dei mismo tipo. Leyes de potencia fueron observadas en sistemas tan dispares como el tamaño de las áreas m etropohtanas estadounidenses, las mayores empresas por volumen de negocio o las exportaciones anuales de un pais, Zipf asignó un rango 1 al mayor ejemplo de cada sistema., 2 ai segundo, y así sucesivamente, a la vez que contaba cuántos ejemplares tenía en cada rango. En la ley de Zipf original, la magnitud considerada (por ejemplo el número de habitantes'en una ciudad) era inversamente proporcional al rango ocupado. Puntualicem os io siguiente: podría pensarse que es casi trivial que haya pocos ejemplos de, digajnos, ciudades muy grandes (para fijar ideas), bastantes más de ciudades medianas y muchas ciudades pequeñas. De acuerdo, es trivial. Pero existe una infinidad de funciones monótonas decrecientes. Así que lo que ya no es trivial es que la escogida sea la única de entre ellas invariante de escala. Benoit Mandelbrot ha generahzado la ley de Zipf original de forma que dé cabida a leyes igualm ente invariantes de escala pero más generales. Si el rango de un suceso es r, esta ley se puede escribir ( r + a)'?
donde a es una constante y i) el exponente que caracteriza la ley. En el caso de la ley de Zipf original, a = O y 7 — 1. Estos ejemplos son sencillos y muy claros. Es quizá un poco menos evidente el estudio de la autosim ilaridad temporal, de las leyes de escala del tipo 1 //^ . Consideremos un ejemplo que ilustra bien la repetición de la dinámica a escalas de tiempo diferentes. Supongamos que en un cierto instante dejamos partir un móvil del origen de coordenadas y permitimos que se desplace una unidad de longitud hacia la derecha o hacia la izquierda (en una dimensión) a intervalos discretos de tiem po. La gráfica 8.2 ilustra el desplazamiento del móvil. Una ampliación de una parte de la trayectoria reproduce (no de forma exacta, sino estadística) el aspecto de la totalidad. Este movimiento es el de un random walker 1 dimensión (véase el capítulo 1 ).
308
Orden y Caos en Sistemas Complejos
Figura 8.2: Evolución temporal de un móvil que se mueve una unidad temporal hacia la derecha o hacia la izquierda (en el eje horizontal) en cada paso de tiempo (en el eje vertical). La figura de la derecha es una ampliación del recuadro pequeño de la izquierda. La forma habitual de describir la estructura de una señal temporal consiste en estudiar su espectro de Fourier. La figura 8.3 representa, de forma muy esquemática, cómo la superposición de cinco armónicos (funciones sinusoidaJes puras, de frecuencia única) puede dar lugar a una señal más comphcada, no periódica. En los sistemas que presentan leyes potenciales en su dinárrúca temporal, no existe ningún tipo de repetición exacta. Obsérvese que la periodicidad implica existencia de un tiem po característico (el periodo), y estos sistemas están por definición libres de él. La no periodicidad también implica que, cuanto más tiempo midamos, más estructura diferente hallaremos en el sistema, y mayor será la cantidad de armónicos de baja frecuencia necesaria para describirlo. Cuando, finalmente, mediante el estudio del espectro de Fourier, constatamos que un sistema posee una dinámica del tipo 1 //^ , el valor del exponente 0 proporciona información sobre la dinámica que representa. Por ejemplo, si /? = O, el espectro de Fourier contiene todas las frecuencias en la núsma cantidad, con la misma am plitud. Es lo que llamamos ruido blanco, y lo podemos encontrar en la agitación térmica de cualquier sustancia. En otro extremo tendríamos 0 = 2. Es un random vmlker el que posee este exponente. La dinámica presenta fuertes correlaciones, provocadas por la prohibición de desplazarse niás de una unidad de longitud respecto de la posición anterior, pero tiene uu componente aleatorio; el sistema sólo tiene memoria de un estado, el inm ediatamente anterior, para decidir el actual. Las situaciones más interesantes aparecen entre los dos casos anteriores. Para 0 = \ tenemos el llamado ruido 1 //, que parece ser, al igual que la ley de Zipf y sus variantes, obicuo en la naturaleza. Podríamos decir que se tra ta de una dinámica en la que las correlaciones se alternan con las sorpresas. Se ha encontrado este tipo de “ruido'’ en la música clásica, especialmente en la de Mozart o Bach, por ser las que presentan mayor velocidad de variación, pero tam bién en el jazz o en otros tipos de música m oderna, en el ruido del agua que cae por una cascada, en la sucesión de terremotos de diferente intensidad, en las variaciones de l£is extinciones en el registro fósil, ... Se supone que la aparición del ruido l / f tiene como principal característica (implícita en su invariancia de escala) la aparición de correlaciones que se extienden en un amplío rango de escalas temporales, como consecuencia de algún tipo de fenómeno cooperativo. Esta fluctuación temporal de tipo 1 / / se cree que es el resultado de la dinárrúca intrínseca de los sistemas críticos autoorganizados. Estos son muy abundantes en la naturaleza: la luz de ios cuásares, la intensidad
Sistemas Críticos Autoorganizados
309
Figura 8.3: Espectro de Fourier de una señal compuesta por cinco armónicos. Como la longitud de onda m ayor es más grande que la longitud temporal del sistema, no existe repetición de la señal. de las manchas sol£ires, el paso de corriente por una resistencia, el flujo de arena en un reloj, el agua en un río como el Nilo, la dinámica de la bolsa, ... Con los modelos que serán descritos en las próximas secciones veremos cómo las leyes potenciales en el tiem po y en el espacio tienen una descripción unificada, cómo unas y otras se entienden sim ultáneam ente y cómo se complementan. Intentaremos entender porque' aparecen y daremos las implicaciones que tienen en la predicción y en la descripción de numerosos fenómenos naturales. Veremos que estos modelos reproducen por otro lado muy fiehnente las leyes halladas en la reahdad. Las razones expuestas en la últim a sección del capítulo anterior sobre fenómenos críticos avalan la vcdidez de las conclusiones que de estos modelos simplificados se deriven. En las próximas secciones discutiremos la conjetura provocada por la omnipresencia de los fenómenos libres de escala; ¿tienden algunos sistemas dinámicos de forma natural a los puntos críticos?
8.2
Sistem as críticos autoorganizados (SO C)
La idea germinal sobre la posible tendencia espontánea de algunos sistemas a un punto crítico data de 1987, y se debe al danés Per Bak y a dos de sus colaboradores. Chao Tang y Kurt VVieseafeld. Estos autores constataron la ubicua presencia sim ultánea de fractalidad y ruido l / / en sistemas dinánúcos con extensión espacial. Sugirieron que la aparición de un estado crítico autoorganizado, que el propio sistema escoge, proporcionaba una conexión entre la dinámica no lineal, la aparición de autosim ilaridad espacial y el ruido 1 / / de una forma natural y robusta. La aproximación a algunos problemas que proponía esta teoría era innovadora. Existe toda una escuela sobre la reducción de los problemas en física. Es muy usual que uu problema cou muchos grados de libertad se trate de forma perturbativa, que se intente disminuir el número de variables y que se reduzca la interacción a ios términos de orden superior. Esta aproximación ha proporcionado resultados brihantes en numerosos casos. Pensemos en la term odinánúca (donde la partícula individual es indistinguible de las demás) o en la fi'sica de partículas, donde los desarroUos perturbativos son la base de prácticamente todo cálculo. Sin embargo, no podemos aphcar el método a, por ejemplo, un ecosistema. Para empezar, la especie individual deja de tener sentido
Orden y Caos en Sistemas Complejos
310
Figura 8.4: Fluctuación l / f del número de fanúlias de los Ammonoidea (Amnionites). aislada del medio. De él depende, pero a su vez lo hace cambiar, en un círculo continuo, de forma que no se puede separar el nivel de estudio de la especie del nivel superior del ecosistema. Esta misma interdependencia de las especies hace que el sistema sea muy sensible a pequeños cambios, al ruido. Sin embargo, debe de ser suficientemente robusto como para haber llegado hasta el presente. Es el balance entre la sensibilidad a las perturbaciones y a la vez la robustez del sistema para superarlos o integrarlas lo que hace de estos sistemas sistemas cnticos. La autosimilaridad espacial y tem poral está muy bien entendida en los fenómenos cooperativos que aparecen en las transiciones críticas de equilibrio en algunos sistemas físicos (véase el capítulo anterior). Sin embargo, el punto crítico sólo puede ser alcanzado por medio de un parám etro finamente controlado, y por tanto su aparición en la naturaleza debería ser accidental. El hecho de que sean muchas las observaciones que apoyan la existencia natural de sistemas en o cerca de un punto crítico implica que debe de existir algún mecanismo que los empuje a este punto como resultado de la dinámica intrínseca, de las interacciones, de la relación con el medio. Los sistemas naturales que se observan en los puntos críticos no operan en el equUibrio termodinàmico. X\ contrario, cualquier sistema vivo está lejos del equihbrio por definición: tiene una entrada constante de energía (imprescindible para mantenerse vivo) y una salida también constante de energía transform ada. Son sistemas altam ente disipativos. En algunos de eUos (como la pila de arena, que describiremos a continuación) existe una conserv-ación local de la ‘^energía'’, mientras que en otros (el juego del bosque o algún modelo de terremotos) esta energía que puede ser definida no resulta conservada ni siquiera localmente. La no conservación global se produce en todos los sistemas críticos autoorganizados.
8.2.1
L a p ila d e a re n a
El modelo senciho que describiremos a continuación fue el primer metamodelo que intentaba aclarar algunas de las cuestiones relativas a la autoorganización en un punto crítico y junto con el cual se introdujo la criticalidad autoorganizada (selforganized cTiticality, SOC). Aunque elemental, ayuda sin duda a comprender cómo se genera y se mantiene el estado crítico en un sistema disipativo de no equilibrio, cómo perturbaciones mínimas pueden propagarse a todo el sistema y cómo se genera
Sistemas Críticos Autoorganizados
311
Figura S.5; A la izquierda, construcción de uua pila de arena experim ental. A la derecha, tam año de las avalanchas y frecuencia de cada una de ellas cuando el sistem a ha alcanzado la pendiente crítica. la invariancia de escala. Describiremos el modelo en dos dimensiones, porque es probablemente el más ilustrativo, aunque se ha formulado tambie'n en una dimensión (para la que hay una solución exacta) y se ha simulado también en tres dimensiones. N uestra más que probable experiencia con pilas de arena reales debe indicar porqué un modelo sobre ellas puede ejemplificar un estado crítico. Sí depositamos cuidadosamente arena en una m ontañita, observaremos que la pendiente crece hasta llegar a un valor que se mantiene, a pesar de que se siga añadiendo arena al montón. Tambie'n podríamos reahzar una especie de “castillo” con arena m ojada. A medida que ésta se fuera secando, veríamos cómo se iría desprendiendo hasta alcanzar de nuevo la misma pendiente crítica anterior. Este estado es un airactor del sistema. Observemos que no representa la situación más estable que se podría alcanzar. Sería más estable el caso en que los granos de arena se distribuyen uniformemente en una superficie plana, con lo cual se evitarían las avalanchas de arena por los lados. El estado de equilibrio dinámico que el sistema m antiene es un estado meiaestabie. en el que la adición de un único grano [)uede provocar desde la caída de un solo grano hasta la precipitación de todo el montón. Una forma de modelizar estas avalanchas en un montón de arena es la siguiente. Consideremos una red cuadrada en dos dimensiones. Cada una de las celdas tendrá una altura asignada, z(x, y), que podrá tom ar valores discretos entre cero y cuatro: z{x, y) 6 {0,1,2,3, 4} El valor — 4 es el valor critico para la altura. Si una celda alcanza el tam año reparte su carga entre sus cuatro vecinos por igual: a cada uno lecorresponde “una unidad de arena” . Exterionnente se deposita una unidad en cada paso de tiempo sobre una celda quepuede ser siempre la misma o puede estar escogida al azar ^ E n el caso de utilizar siempre la m i s m a celda para introducir energía en el sistema, se gener.\n configuraciones simétricas (lógicamente) en las que se puede apreciar fácilmente la disposición fractal de las alturas- Si se escogen las celdas al azar, nos enfrentamos a una confrgurariiSn aleatoria, en la que la fractalidad es m á s diü'cit de detectar. Los resultados esenciales son sin embargo los mismos.
Orden y Caos en Sistemas Complejos
312
/ / / /
/ /
/ /
/ Figura 8.6: Aspecto posible de una instantánea del modelo de la pila de arena. El modelo tiene condiciones de frontera abierta; los ‘^granos de arena’’ que se pierden desde las celdas de la frontera caen fuera del sistema. Las reglan; del modelo se pueden resumir en la forma siguiente;
lo que signifíca que se ha escogido una celda aleatoria ( j::’·, j/’’) para depositar una unidad. Si alguna celda alcanza el tamaño crítico, ■ 4 ^ , y) - 4 z(x ± 1, y) ■
z ( x ± l,í/) + 1
z (x ,y ± 1)
;{x,y ± 1) + 1
y el reparto prosigue hasta que z(x,í/) < Vz.y, y se pierde la energía (o granos) sobrante que alcanza la frontera, cuando x\ y = 1, A'. Dada la definición del modelo, no es posible establecer una analogía clara entre la pendiente crítica que se observa en el caso real y otra cantidad que pueda ser definida en el modelo. Sin embargo, hay algunas magnitudes interesantes que sí es posible medir con facilidad. Definimos como avalancha la cantidad de celdas afectadas en una actualización, debido a la adición de un único grano de arena. Cuando éste se ha depositado, dejamos que eí sistem a alcance de nuevo ei estado de equilibrio en el que ninguna de las celdas tiene una altu ra superior a la crítica. Zc, antes de depositar un nuevo grano. Todas las celdas que han sido actualizadas definen el tameiño de la avalancha. También podemos preguntarnos por el tiempo que el sistema tarda en recuperar el equilibrio. Observemos que el tamaño de una avalancha y este tiem po no son la misma cantidad; puede ser que durante la actualización del sistema pasemos varias veces por la misma celda, y también que en un único paso de tiempo varias celdas resulten actualizadas. Y ahora podríamos preguntarnos, ¿cuál es la distribución de tamaños de avalanchas provocada por la adición de un único grano de arena al sistema? o bien, ¿cuál es la distribución de tiempos asociada a las actualizaciones? Ambas cantidades siguen leyes potenciales, y en este caso, es sencillo ligar ambcis dependencias. La ausencia de una escala de longitud característica conduce en este caso directam ente a la ausencia de un tiempo característico para las fluctuaciones. Se sabe que una superposición de los pulsos de
Sistemas Cnticos Autoorganizados
313
Figura 8.7: Distribución del tiempo de duración de las avalanchas para el modelo de la pila de arena descrito en el texto. una cantidad física que tenga una distribución de tiempos de vida del tipo D {T) oc T~°' (pesada con el valor medio de la cantidad durante el pulso) lleva a un espectro de frecuencias potencial, S { f) oc así que un espectro de frecuencias del tipo 1 / / es equivalente a una distribución potencial en los tiempos de vida. Los resultados proporcionados por el modelo se representan en las figuras 8.6 y 8-7. Estos resultados han sido conñrmados por experhnentos reales con pilas de arena e a dos di mensiones y pilas de otros materiales, como por ejemplo pequeñas piezas m etáhcas con diferentes geometrías (irregulares, esféricas, ...). También se han montado hábiles dispositivos con pilas de arroz en una dimensión, y se ha encontrado que el valor de los exponentes depende de la forma concreta que el grano de arroz presenta.
8.3
El b osqu e en llamas (Forest Fire)
El prim er modelo de bosque en llamas se presentó en 1990, y se debe a P. Bale, K. Chen y C. Tang. Consiste en un autóm ata celular sencillo en el que cada una de las celdas del autóm ata (los "árboles’^) puede estar en tres estados diferentes: conteniendo uu árbol vivo, un árbol ardiente o sin árbol (celda vada). El término "bosque"’ es uu tanto exagerado, dado que en ningún momento se considera que los árboles ititeraccionen entre ellos o crezcan, dos suposiciones básicas en un modelo de dinánúca forestal. Sin embargo, la pretensión del modelo es otra, y la imagen del bosque sirve a sus fines. La única forma que un árbol tiene de desaparecer en este bosque es quemado. Los fuegos deben autoperpetuarse para que la dinánúca no desaparezca. La simulación del modelo comienza con una distribución arbitraria de celdas vacías, ocupadas por un árbol vivo u ocupadas por un árbol en llamas (un número pequeño de estos últimos en relación a los primeros). El sistem a se actualiza de forma paralela según las siguientes reglas: 1. Un árbol en llamas se convierte en una celda vacía. 2. Un árbol vivo prende fuego si alguno de sus 4 vecinos está ardiendo. 3. En una celda vacía aparece un árbol vivo con una probabilidad p.
Orden y Caos en Sistemas Complejos
314
0
«
m «<»*··■
■
*rn** m· ♦m ■* · *♦·«·»
9
♦*«■ · ·*·*«« ·*·«
Figura 8.8: Tres instantes consecutivos de la propagación del frente de fuego en el modelo del bosque en llamas. Los cuadrados representan árboles que arden, y las cruces árboles vivos. El resto son celdas vacías, en las que puede nacer un árbol en cada paso de tiempo con una probabilidad que es en este caso p = 0.09. En el caso de que el tamaño del sistema sea mayor que la longitud de correlación del fuego, el modelo alcanza un estado estacionario con una densidad finita de árboles en llamas.En la figura 8.8 se representan tres pasos de tiempo consecutivos ea el modelo. Se ha visto que este modelo de bosque en llamas no presenta ni una dinámica ni una geom etría críticas en el sentido que hasta ahora se ha descrito. En 1992 se realizó una pequeña pero no trivial modificación a este modelo, con lo cucJ se pudo sim.ular un estado realmente crítico. Este modelo modificado se debe a Barbara Drossel y Franz Schwabl (véase también el trabajo de C. L. Heuley, 1993). La modificación consiste en introducir una pequeña probabilidad, / , de ignición espontánea para los árboles vivos. Asi, se introduce una cuarta regla en el modelo, 4. ü n árbol vivo sin vecinos en llamas se quema con una probabilidad / . La introducción de este nuevo parám etro permite trabajar con cualquier valor para la prob abilidad de nacimiento p, sin el problema de la posible extmción total del fuego que el modelo inicial presentaba para p pequeña. Ahora es posible que el fuego se produzca en pequeños grupos aislados de elementos. Este nuevo modelo tiene una estrecha relación con el problema de la perco lación. Obsérvese que cuando se incendia un árbol, todos los que están conectados a él tam bién se incendiarán, y habremos ehminado toda la agrupación de la que el árbol afectado form aba parte. Ahora, a diferencia del caso / = O, pequeñas zonas aisladas de bosque se pueden quemar, y no es necesario que este fuego se mantenga (extendiéndose en consecuencia a la escala total del sistem a) para que la dinámica no evolucione hasta el punto trivial de ausencia de fuego. Si pensamos en el tipo de estructuras que se formarán para / O, y tenemos presente el modelo de la percolación, parece sencillo deducir que los puntos en ignición tendrán una distribución fractal sobre el sistem a para ciertas combinac.iónes de los parámetros / y p. Esto no sucedía con el caso / = 0. La exigencia de que el fuego se autoperpetuase en el sistema llevaba en algunos casos a la formación de m acroestructuras con longitudes características. Véase en la figura 8,9 cómo la introducción de un valor finito para / , incluso en el caso de que éste sea muy pequeño, produce la progresiva desaparición de estas estructuras. Profundicemos un poco más en el último modelo, ya que pernúte algunos cálculos analíticos que aseguran su estado crítico. Consideremos una simplificación del modelo, únicamente para efectuar
Sis teínas Críticos Autoorganizados
315
Figura 8.9: Dos instantáneas del bosque en llamas para una red cuadrada de tam año 300 x 300 en el estado estacionario. A la izquierda, / = O, y a la derecha, / = 0 .0 0 0 5. En ambos casos, p — 0.06. Sólo se ha representado, para mayor claridad, los árboles en llamas. el siguiente razonamiento. Supongamos que, cuando un árbol se \e afectado por la probabilidad de ignición / , todos los árboles que están conectados a él arden en el mismo pa.'^o
_ P (1 - p ) f
(8.4.1)
P
independiente de Obsérvese que, si p < 1 en el h'núte f /p —+ 0. entonces .‘í :x p/ f . y obtenemos una primera ley potencial con exponente 1 para la divergencia de la relevante cantidad 5. En el modelo original, la ignición del grupo no es instantánea, pero la ecuación para 6- será aún válida si, en el tiempo T(s) que tarda en quemarse una agrupación áo tamaño 5. la cantidad de árboles que se ha unido a su frontera es despreciable. Esto se cumplirá siempre que p^ ^ ^ T{s). Obsérvese que 1/p proporciona el tiem po característico en que vuelve a aparecer un árbol tras un frente de fuego (que deja la celda vacía) ^ E sta m o s s u p o n ie n d o q u e en e! e stado e sta c io n a rio a p are ce n t a n to s árb o le s c om o se d e stru y e n , es d e c ir, si c a d a áxbol d ir e c ta m e n te a fe c ta d o p o r !a probabilidaid de ignición a r r a s t r a de m ed ia s árbo les, e n to n c e s se verifica t f p L ^ s = t p{\ - f>)L'^ de d o n d e r e c u p e ra m o s 8.4.1. ^ E n el caso f — O, p~ ^ d a la d ista n c ia c a r a c te r ís tic a e n tre los fre n te s de fuego que se fo rm an e n el siste m a .
316
Orden y Caos en Sistemas Complejos
Podemos calcular las relaciones de escala y los e x p o n e ü f e s críticos q u e se deducen de la s u posición de invariancia de escala. Defininaos el radio de una agrupación en el bosque, R{s), como la raíz cuadrada media de las celdas de la agrupación al centro de masas de la misma. La longitud de correlación es ^ = H(«), y se definen los exponentes y z como
La condición anterior sobre la rapidez de ignición de las agrupaciones se lee ahora p < < (//p)*^^· Sea N {s) el número de agrupaciones de s árboles en un sistema de cierto tam año. Introducimos los momentos de la distribución no normalizada, N {s) como m„ =
s" N {s)ds
Por la expresión 8.4.1, N (s) no puede decaer más rápidam ente que una función potencial en el lím ite f / p —> 0. Como la densidad de árboles en el sistema, p, es finita, N {s) decae como máximo como (para asegurar la convergencia de la integral). Por tanto, N{s) seguirá una ley potencial cuando f / p —*■ 0. Bajo la transformación de escala b
p
p
tan to la distribución normalizada de agrupaciones, N{s)ds mo como la función R{s) deben de ser invariantes. Esto implica las siguientes leyes de escala; í N {s) OC s “ ’’ X < i
C{s/SfTiax) / ^max) lll
T> 2
(■Sm aT)
r — 2
R{s) (X S^^^C{s/Sr’mar, i-A con Smax OC (f/p )~ ■ A y T son nuevos exponentes críticos, y las funciones de corte C y C decrecen monótonam ente desde 1 para x « I hcista Ü para x >> 1. La corrección logarítm ica para N (s) en el caso r — 2 garantiza una densidad media finita para f / p —*· 0. El exponente p es la dimensión fractal de las agrupaciones. De todo lo anterior se pueden deducir las siguientes relaciones:
\ — up
d = p {r — l)
donde d es en general la dimensión del espacio de trabajo, que antes se había supuesto de valor 2. Como por geometría p < d, resulta r > 2, como ya se había supuesto. Por tanto, ¿ es ahora r.3—T
5 = —
mi
a
Ya teníamos 5 (x p/ f . Como e.Miste una única escala divergente en el sistema, ésta deberá ser s, con lo cual sa Ju n to con las relaciones anteriores obtenemos para los exponentes críticos
Sistemas Críticos Autoorganizados
A = X,
317
1
3 - r = - , A
fi = d.
v=
Y
/
(i \
1 \
2 - -
A /
en función únicamente de A', y para la dimensión d - 2 2
i
' ‘ = 2^ T 7 X ’ ‘' = ^ ' - 2 Las simulaciones numéricas proporcionan los siguientes valores de los exponen tes A ' 1.180, r = 2.150, A = 1.167, ^ 1.95, i / = 0.58 Las relaciones entre ellos que se habían derivado se cumplen dentro del margen de error experi mental. Se puede apreciar que estos exponentes, aunque definitivamante diferentes, no presentan valores muy alejados de sus análogos en el caso de la percolación pura ( r se corresponde con el exponente del mismo nombre, p. se relaciona con la dimensión fractal de la agrupación de perco lación, ... ). Las simulaciones permiten explorar regiones alejadas del caso limite. Por ejemplo, se puede calcular la densidad estacionaria en el sistema, p, que resulta ser p = 0.39 para el sistem a en 2 dimensiones. Este valor cumple una propiedad de extremo: es el mínimo de todos los valores compatibles con los parámetros. Se puede interpretar como que el sistem a se organiza en un es tado máximamente destructivo: el fuego quem a tantos árboles como es posible, haciendo que la cantidad de energía disipada en ei sistema sea también máxima.
8.4
T errem otos
Fue en el año 1956 cuando B. Gutenberg y C. F. Richter obtuvieron una ley potencial em pírica que relacionaba la frecuencia de los terrem otos con la energía que se liberaba en cada evento. Si s es el momento sísmico (o energía E) correspondiente a un cierto terrem oto, el número total N (s) seguía una ley N {s) oc Los datos reales fueron extraídos del catálogo de Harvard de terremotos. L'n dato niuy curioso es que el exponente p es prácticamente independiente del área geográfica observada. Es decir, aunque es evidente y bien sabido que existen ciertas regiones de la corteza terrestre (por ejemplo las zonas de faUas) donde los movinúeatos sísmicos de alta intensidad son mucho más probables, y otras donde los temblores de tierra aparecen rara vez y son de mucha menor intensidad, todos los eventos se ajustan a la misma ley, con el mismo exponente. Esta evidencia lleva a suponer que la estructura global que actualrnente presenta la corteza terrestre es el resultado de muchos millones de años de evolución conjunta. Ha transcurrido tiempo suficiente corno para que la información correspondiente a Ccida uno de los puntos de la corteza se haya transm itido al sistema global. Es la historia común la causa de que las interacciones locales hayan llevado al sistema al estado supuestamente crítico que actualmente observamos. El hecho de que exista la ley universal de Gutenberg-Richter implica que la frecuencia de los grandes terrem otos se puede extrapolar a p artir de la frecuencia de los pequeños, lo cuai indica la existencia de un mecanismo común subyacente. Esta ley puede ser entendida formalmente como la consecuencia de un proceso en cadena. Supongamos que en algún punto de la corteza se inicia una actividad sísmica como resultado de una cierta inestabihdad. Esta actividad puede propagarse a las zonas contiguas, seguir inalterada o extinguirse. Finalmente habrá toda una zona afectada, y la intensidad del terrem oto puede medirse por su extensión. Sólo si la probabilidad de propagación es exactamente igual a la probabilidad de que ia actividad se extinga sigue la distribución de
318
Orden y Caos en Sistemas Complejos
Figura 8.10: Distribución sobre la corteza terrestre de los epicentros de los terremotos en 1967. Los puntos gruesos representan seísmos de intensidad > 7 en la escala Richter. frecuencias de terremotos una ley potencial. La reacción en cadena debe de ser precisamente crítica. Se supone que la tierra ha tenido tiempo suficiente durante toda su evolución geológica como para alcanzar el estado actual que observamos, de no equilibrio y altam ente excitado, de forma que se ha podido llegar a un punto de estado estacionario, estadísticamente hablando. Existe una evidencia empírica independiente que corrobora la idea de que la corteza está, organi* zada en un punto crítico: la distribución sobre ésta de los epicentros de los terremotos. Si medimos el reparto de la actividad sísmica sobre la tierra, observaremos que existe un claro agrupam iento de seísmos. En absoluto presentan una distribución uniforme, sino que se sitúan de forma que se puede asociar una dimensión fractal, entre 1 y 2, a la geometría de los epicentros. Las dos razones expuestas, autosimilaridad en el tiempo (en la intensidad de los terremotos) y autosim ilaridad en el espacio (existencia de una distribución fractal de epicentros) son suficientes como para intentar una aproximación al sistema m ediante un modelo simplificado, si conjeturamos que estamos de nuevo a ti te un sistema crítico autoorganizado.
8.4.1
T eo ría de C a m p o M e d io p a r a el t i e m p o d e r e to rn o
Tras la propuesta de la existencia de sistemas críticos autoorganizados (1987). no tardó en sugerirse que la idea encajaba bien con los datos empíricos de los registros sísmicos (A. Sornette y D. Sornette, 1989). Los modelos habituales de la corteza consideran que se tra ta de un material plástico que puede soportar ciertos esfuerzos (fuerzas) hasta ei um bral en el que se produce una ruptura, como consecuencia de la superación del h'mite de deformación que el m aterial constituyente aguanta. Se considera habitualm ente que la colisión de las placas continentales provoca la aparición creciente de esfuerzos en los bordes. Estas tensiones se difunden ‘’suavem ente” hacia el interior de la placa, distribuyendo la energía de acuerdo con las leyes de la elasticidad, y perdiéndola en el punto donde se produce la ruptura. La energía perdida se transforma en la reahdad en ondas sísmicas.
Sistemas Críticos Autoorgajiizados
319
En esta sección describiremos una aproximación de campo medio realizada ¡)0 r A. Sornette y D. Sornette que permite estim ar el tiempo característico de retorno de un terrem oto de una cierta m agnitud. Esta derivación es muy interesante desde el punto de vista de la predicción. Como veremos hacia el final del capítulo, los sistemas críticos autoorganizaxlos perm iten un tiempo de predicción muy superior al de los sistemas caóticos (de hecho el tiempo de predicción podría ti'iider a infinito si tuviésemos suficiente información - no necesariamente infinita - sobre el estado dcl sistem a). Esta sección es un primer paso en esa dirección. Retomemos la citada ley de Gutenberg-Richter, según la cual el número N de terrem otos de una m agnitud M se puede expresar como log N ~ a — b M y es váhda en un rango de magnitudes 2 < M < 8. Las constantes a y b pueden depender ligeram ente de la región particular de observación, b es considerablemente universal (0.8 < b < 1.1) para todos los terremotos con 2 < A/ < 6.5, en cualquier parte del mundo. Nos concentraremos en la zona citada, donde se verifica la relación anterior. La magnitud del terremoto se relaciona con la energía que éste libera log E — c
dM
con lo cual se obtiene la siguiente ley para el núraero N de terremotos que liberan uua energía E: N oc E '^+ ^ y el valor observado es r ^ 2. Sólo si r > 2 se obtiene un número finito de terrem otos, definido como N {E ’)dE' < oc 'fo así que restringimos la siguiente discusión a esta condición. La pregunta que ahora nos planteamos es: ¿cuánto tiempo se debe esperar para observar un terrem oto de energía E después de un evento de la m ism a magnitud? Incluso en el caso de que la respuesta esté afectada de error, la posibilidad de estim ar el tiempo de recurrencia de un seísmo de gran magnitud es terriblemente interesante. Supongamos que, en promedio, la energía que se alm acena en las tensiones entre placas conti nentales en el sistema es fo para cada intervalo de tiem po íq. En un tiempo t so ahnacenajá una energía e = íeo/ío- Sea /
N (E ')d E '
la probabilidad de que un terrem oto determinado tenga una energía superior a Emar· Supongamos que en un intervalo de tiem po i se producen n{t) terrem otos de energía arbitraria. La condición ,oo
n(¿) /
N {E ')d E '
1
significa que, como máximo, se ha producido un terrem oto de energía Emax en el intervalo de tiempo t. Por la expresión de N [E ) obtenemos, integrando n{t) a E m a iity ^ ^ Esta últim a expresión da el valor del terremoto típico m ayor observado tras un tiempo de espera t: Emax « n(í)i/(^-2).
320
Orden y Caos en Sistemas Complejos
También podríam os calcular ia proltalulidad P (t) d<* que todos los terrem otos que se han pro ducido entre tiem po O y tiempo t teiiprui una energía rnoiior que E: - n ( 0 [ N {E ')d E ' oc exp ín(¿) r: con C constante. Definimos el flujo ile energía como P (t, E ) oc exp
.}[t) X
< E > {t)
Entonces, conocido n(<), ei tiempo de espera correspondiente a cada valor de la m agnitud se deduce de la condición de conservación del flujo J[t). La energía m edia que se libera en un riempo t es < E > (fj = y
E ’N {E ')dE '
e integrando (con N oc E^~'^) resulta < E > (í) oc n[t) ^ La condición de que la energía que entra en el sistema se disipe en la misma cantidad debido a los seísmos implica que el flujo de energía ./ es constante, y por tanto n(t) oc La misma condición de estacionariedad implica que n(í) debe ser proporcional a í, ya que el número medio de terrem otos por unidad de tiempo es constante. Esto implica finalmente que el valor de r según esta teoría de campo medio es = 3 La coincidencia numérica con el valor observado no es excesivamente buena, ya que se ha eliminado toda la dependencia en las fluctuaciones espacio-temporales. La condición n[t) a t implica ^max 0^ divergencia que se verá truncada por Iu.s ( tectos de tamaño finito. Como es habitual, el tam año del sistema impone un límite superior a la autosimilaridad. como ya se había comentado en general. La últim a ecuación pernúte la prediccu')u del tiempo de re romo típico de los terremotos
~ 1800 meses
Esta aproximación de campo medio conduce directariLetice a la predicción de ruido ~ en los periodos entre grandes terremotos. Consideremos de nuevo la probabilidad P[t, Emax) ~
S istem as
Críticos Autoorganizados
321
que todos los terrem otos en uu intervalo i tcngíui \ma energía inferior a E.nai· La probabilidad de que en este intervalo no aparezca ningún terremoto de energía Emax y sí lo haga en el intervalo siguiente, t + dt es
p(t) ^ r u . E„„(í)) 1 ^ 7
^
» cr'
qtie es la ley potencial que caracteriza el ruido j , ya que es invariante bajo el cambio t —* Xt.
8-4.2
U n m o d e lo sencillo
Uno de los modelos zíiás sencillos para describir la dinámica de un terrem oto es el que describiremos a continuación. Consideraremos de nuevo una red cuadrada en la que cada celda representará un bloque capaz de interaccionar con los bloques próximos. Sobre cada uno de estos bloques en la posición (í, j) actúa una fuerza de módulo F,j, en una dirección no especificada. Inicialmente, Fij tiene un valor pequeño aleatorio. A cada uno de los bloques del sistema se le asigna un um bral crítico de ruptura, Fc. En cada paso de tiempo se aum enta la fuerza sobre cada bloque de m anera imiforme. Cuando en uno de los bloques se llega al umbral de ruptura, se realiza la siguiente actualización: F,j
O
Fnn —* Fnn + 0:Fij donde representa la fuerza sobre los vecinos próximos, (z ± 1, j y (?, j ± 1). a es un parám etro ajustable del modelo. Si a = 1/4, el sistema será localmente conservativo (la conservación global depende de las condiciones de contorno) y si a < 1/4 es disipativo, y representa mejor el caso de los terrem otos, en los que hay una transformación de energía de deformación plástica a energía mecanica (ondas). No requiere más exphcación la forma en que se puede propagar la inestabihdad y dar lugar a una reacción en cadena. El mecanismo es sinúlar al de la pila de arena, aunque ahora no es localmente conservativo (A. Corral et al, 1995). La intensidad de un terremoto se medirá como el número total de celdas actualizadas cuando una de ehas ha sobrepasado su umbral crítico y se ha dejado evolucionar al sistema hasta un nuevo estado quiescente. Durante la actualización no se aum enta la fuerza en ninguna celda: existe la suposición im plícita de que las escalas geológicas (en las que se producen los incrementos en las F, j ) son mucho mayores que el tiempo de ejecución de un terremoto, así que este último suceso se produce instantáneam ente con respecto del primero. Este modelo fue sugerido por Olami, Feder y Christensen en 1992, quienes lo relacionaron con modelos previos en los que los bloques se conectaban por mueUes, algo más comphcados. Este modelo presentó una novedad interesante. Se había pensado que si no existía conservación local de la energía, aparecía en cualquier sistem a una longitud, una escala característica, y esta violación de la conservación se creía que llevaba al sistema lejos de ser crítico. Sin embargo, se obtuvo en este caso que el sistema se com portaba como crítico para valores de o hasta 0.05, es decir, con una conservación únicamente dei 20% (lo cual significa una pérdida del 80%). El valor que este modelo da para el exponente real b de Gutenberg y Richter depende del grado de disipación en el sistema, así que 6 no es un exponente universal en el caso no conservativo para este modelo. Existen variantes que modehzan también terremotos. Se ha considerado la posible relevancia de los desplazamientos verticales en los movimientos tectónicos, lo que implicaría considerar una tercera dimensión en el modelo. También se puede afinar más la mecánica de propagación del
Orden y Caos en Sistemas Complejos
322
Figura S -ll; Representación simple de la corteza terrestre, como bloques conectados por resortes. Sobre el bloque situado en ia posición {i,j} actúa uua fuerza F^j. terremoto y la relajación de la ruptura en el modelo, siempre intentando aum entar la conexión con los casos reales. No obstante, de nuevo debemos tener presente que. si el sistem a es crítico, los detalles menores en su descripción no afectan el resultado global. Sin embargo, el conocimiento del sistema puede ser determinante a nivel local. Como núniiuo, una posible predicción local dinámica necesita de información sobre las condiciones de prácticamente todos los puntos del sistema.
8.5
El Ju ego del B osq u e
Presentamos a continuación un modelo reciente (R. \ \ Solé y S. C. Manrubia, 1995) que descri be la dinánúca temporal y la estructura espacial de las selvas tropicales. La coincidencia no es únicamente cualitativa, sino tam bién cuantitativa, ya que los resultados dei modelo han podido ser comparados con datos de campo reales, que también presentaremos. Se puede discutir en este caso si el modelo realmente se encuentra en un punto crítico. Algunas magnitudes así lo atestiguan, en tanto que otras resultan ser autosimilares en zonas que no se corresponderían con los sistemas reales, con las medidas de campo. Puede ser que las mismas restricciones biológicas que impiden que todos los árboles de un bosque mueran a la vez (por ejemplo) alejen en cierto modo al sistema de los puntos críticos hasta ahora descritos. Veremos que esta separación se traduce en la existencia de escalas de corte, o longitudes caiacterísticas, a partir de las cuales se pierde la autosim ilaridad estricta. El trabajo principal reahzado (sobre el sistema real y también sobre el modelo) corresponde al estudio de ia distribución de claros en el bosque. Un claro es una extensión de bóveda baja, relacionado con la reciente caída de un árbol. Estos claros tienen una gran im portancia en la dinámica de la selva, ya que son los responsables de ofrecer oportuiúdades de colonización a nuevos individuos. Clásicamente se divide a los árboles dt- las selvas tropicales en dos grandes grupos. Uno corresponde a las especies denominadas oportunistas. Estas aprovechan precisamente estos claros para colonizar rápidamente la zona abierta. Crecen a considerable velocidad para evitar la competición con sus vecinos (producen en consecuencia madera blanda, de baja calidad) y necesitan de gran cantidad de luz. No pueden crecer bajo la bóveda, por la escasa cantidad de luz
Sistemas Críticos Autoorganizado:^
323
Figura 8.12: Posible claro en un bosque. solar que llega al suelo. El otro grupo está representado por los árboles que resisten bien la esccu?e2 de luz, pueden crecer bajo la bóveda y lo hacen lentam ente, proporcionando m aderas nobles de gran calidad. Esta distinción no está contemplada en el modelo, pero sí se incorpora el mecanismo principal de desarroUo de nuevos individuos; la formación continua de claros. A nivel práctico, se trab aja con una red cuadrada en la que cada punto dibujado corresponde a una zona de bóveda baja o, en el caso del modelo, a un “árbol” de altura nula. En la figura 8.13 se presenta una imagen correspondiente a un caso real. Es un área de 50 hectáreas (0.5 km^) de la selva de Barro Colorado (BCI), sim ada en una pequeña isla aislada en el canal de Panamá y preservada de la intervención humana. Corresponde a la mayor extensión sobre la que se ha reahzado un estudio de esta clase. La imagen representada es el resultado de dos años de trabajo de equipo desde el suelo de la selva. Se midió la altura de todos ios árboles, arbustos y lianas de más de 2 m de altura. Cada punto negro de bóveda baja representa un área de 25 m^, y se tomó como tal cuando la altura promediada de las esquinas no superaba ios 10 m. Debe tenerse en cuenta que la altura de los árboles en la bóveda alcanza los 60 m, con lo que 10 m puede considerarse “un claro".
8.5.1
El m o d elo
El Juego del Bosque es un autóm ata celular estocástico modelado sobre una red cuadrada 2dimensional de taruaño L x L. El término estocástico se refiere a la existencia de variables de pendientes de una probabilidad, y es aphcable a todos los modelos descritos h asta ahora en este capítulo. Se ha considerado condiciones periódicas de contorno, pero en este modelo los resultados serían idénticos si considerásemos condiciones abiertas, debido a la disipación a nivel local, y no en las fronteras, como se producía por ejemplo en el autóm ata de ia pila de arena. C ada punto de la red representa un árbol que puede crecer desde una altu ra mínima sq hasta una m áxim a permitida, Sc- El ritmo de crecimiento depende del grado de interacción con sus vecinos. La dinámica del modelo se basa en la competición por los recursos del medio que se da de form a natural entre los árboles. El estado de cada uno de ellos en cada instante detiempo está representado por la función altura, s(¿, j), asignada a cada punto de la red. El modelo está definido por cuatro reglas simples: A C re c im ie n to . Un árbol dado crece si el apantallam iento provocado por sus vecinos no supera un cierto umbral. La altura del árbol se actualiza cada paso de tiem po n de acuerdo
324
Orden y Caos en Sistemas Complejos
500
·. .
: · ·· ! "h;· ; . ·
i:· ... ·· . "
400
li-r:·'” "·- t - jt.. ·';t- ' * '-- ’
.· :
.
í=.· · . ■ ·:· ·.
·.:!=·- ; '
: ·: ■""· .
.'i!'
.. 'H
:l
'
r :: í*: .
:: ·.
300:
·
'I ==
200 H
'
..·· ■■■ "■ :
. ·
'■
100 .!;==
-W i- .
· ■
■·■·
··
.:r-
" ‘ ■■I:'·'··
"* ;· * ;■
,V
." : . : . =· ■ . :::r.
·
* H
■ "
' · .: ■· ■·” ' .
“ ii* : '* .
-- .
n
i;·
·' .
_ -/
.
=··" -?=:'·
-
100
200
300
400
500
600
700
.·>“ '■ ■ ;·; ='■
·'„ ·. · “ ' 'BIh a -I '· ·= ■
— T— I— I— I— I— I— I— I— I— T T — \— ;— I— I— I— i— i— ]— i— i— i— i— |— i— i~ i— r— |— i— i— i— I— I— I— I— m — ]— I
0
.
800
I
.
\— I— I
900
I
r
rn -
1000
Figura 8.13: Imagen de 50 hectáreas de la isla de Barro Colorado, uii bosque tropical situado en el canal de Panam a. Los puntos negros representan los lugares donde la bóveda era inferior a 10 m en 1982, 83, o en ambos años (los que duró el estudio reahzado). En la parte inferior, distribución de claros que proporciona el Juego dei Bosque para los parámetros Pb = 0.5, Pd = 0.013, 7 = 2.5 y /i = 1.
Sistemas Críticos Autoorganizados
325
con la siguiente regla:
considera la forma de interacción entre vecinos, que en este mock'io se ha supuesto que son los ocho árboles que rodean a cada uno. Hemos considerado un apantallamieuto sencillo y dependiente de la altura (el estado) de estos ocho árboles. A„(/ . j ) se define como
1 ~ g·
5„(r, s)
0 (r) = j si 2 > o, y O(^) = o si z < 0 : si el apantallamiento es demasiado elevado, no se permite el crecimiento. < r, s > indica la restricción de la suma a los ocho próximos vecinos. Hemos tomado el mismo ritmo de crecimiento para todos los árboles, ^ = 1. 7 representa la fuerza de la interacción, y ha resultado ser el parámetro niá^ importante del modelo, ya que es el único que introduce no lineadidades, y por tanto el comportamiento más interesante. Si 7 = O no existe interacción (los árboles crecen de forma independiente unos de otros), y cuando 7 —*■ 0 0 , el crecimiento se imposibilita en presencia de vecinos, y el bosque experimenta una transición hacia un estado congelado, en el que codos los elementos presentan el tamaño mínimo cuando se supera un cierto umbral de percolación.
An introduce cualquier tipo de competición que se produzca entre los árboles; la carrera por la luz, por los nutrientes, por el espacio, y la posible interacción con otraí; plantas o animales que pudiesen jugar algún papel en el crecimiento. A„ es una función senciUa, pero si la selva, como sistema dinámico, opera cerca de un punto crítico, sabemos que la invariancia de escala implica independencia de los detalles finos del sistema, y por tanto esta función debería ser suficiente como para considerar los aspectos 'esenciales de todos los factores que participan en la interacción.
B M u e rte . Un árbol cae (muere) cuando alcanza la altura máxima Sc (hemos considerado 5 ^ = 30), o bien en cualquier instante de tiempo, de acuerdo con cierta probabilidad que se mantiene fija. Inmediatamente después de su muerte, su altura toma el valor cero. La suposición de que !a probabilidad de muerte es constante, y por tanto independiente de la altura o de la edad de un árbol está apoyada por estudios de campo en selvas reales, que además sitúan este valor entre el 1 y el 2 % anual. C F o rm a c ió n de claros. Cuando un árbol cae, no sólo él es eliminado, sino también los ái boles situados a su alrededor en un radio R, de acuerdo con la regla siguiente; ^
s„(r, s) < S n { l J )
326
Orden y Caos en Sistemas Complejos Ierre motos descritos en la se ce ion anterior, deducimos sin dificultad que la eliminación de eventos del tam año del sistema ¡)odría llevarlo lejos del punto crítico (estamos introduciendo una escala máxima para la autosimilaridad de la distribución de claros). Sin embargo, esta regla es muy razonable desde el punto de vista biológico, ya que en un bosque real no se forman ni árboles ni claros arbitrariam ente grandes.
D N acim iento. Un árbol nuevo puede aparecer en una celda vacia cou una probabilidad p(, y una altura 5n- Se tomó sq =0. 1 como tam año mínimo en todas las simulaciones. La red se actualiza asincronamente. Cada paso de tiem po se gubdivide en dos actualizaciones, cada una considerando L x. L celdas escogidas al azar. La primera actualización calcula el incrementó de altura en todos los árboles del sistem a (celdas ocupadas por un árbol) y la proporción de nuevos individuos (en las celdas que estaban ocupadas por un claro). La segunda actualización se encarga de eliminar los árboles que mueren y formar los claros. Cada paso de tiempo (con estas dos actualizaciones) corresponde aproximadamente a un año de tiempo en un bosque real. Como se habrá podido ver, a pesar de que el modelo es algo más sofisticado que los descritos anteriorm ente, sólo las propiedades esenciales de lo que debe ser un bosque real se han introducido como reghis del modelo, y no se han considerado ni de talles finos sobre la estructura (como por ejemplo la diferenciación de especies, más de 300 en BCI) ni sobre las interacciones, siguiendo con la suposición de que el sistema está cerca de un estado crítico.
8.5.2
R e s u lta d o s
En todas las simulaciones que presentaremos se m antuvo la propiedad de nacimiento en un valor Pb — 0.5. Otros valores simplemente desplazaban en el espacio de fases los comportamientos genéricos que describiremos. La interacción 7 y la probabilidad de muerte, pd-, se escogieron como parámetros del modelo, aunque esta última debe m antenerse entre los márgenes antes citados para representar un sistema real. El único parám etro realmente libre es 7 , ya que, dada la cantidad de elementos que agrupa, se hace imposible realizar una estimación de él en un caso real. Los valores extremos de la altura de los árboles, ío y Sc podían haber sido escogidos de otra forma. Para cada elección, se obtiene que el sistema se autoorganiza de forma tal que las leyes de escala y el aspecto cualitativo del espacio de parámetros no varían. En la figura 8.14 se representa el espacio de parám etros del modelo, en el que se distinguen tres dorrúnios bien definidos. A. O scilaciones, D O . Una pequeña parte del espacio de parámetros presenta oscilaciones en la biomasa (nótese que la escala de la figura 8.14 es logarítmica). Debido a la débil interacción y a la pequeña probabilidad de muerte, los árboles inician su crecimiento simultáneamente y al mismo ritmo. .Mueren cuando alcanzan el tamaño crítico, lo que inicia de nuevo el ciclo de nacimiento y crecimiento. El estudio de la transform ada de Fourier de las fluctuaciones en la biomcisa presenta un pico en la frecuencia de repetición de la dinámica descrita. También se ha medido la distribución de tamaños de árboles, F (/í), que presenta picos a tamaños aproximadamente enteros (véase la figura 8.17), lo cual puede ser entendido siguiendo el anáhsis siguiente. Calculemos en este dominio el tamaño de un árbol en el paso n —ésimo de crecimiento. Supongamos que s es el tam año medio de los árboles. SÍ 7 es suficientemente pequeña, el crecimiento en cada paso de tiempo se puede escribir como A = 1 - 75 donde se supone que 75 < 1. Entonces, la altura de un árbol en el n —ésimo paso de crecimiento es
327
Sisremas Críticos Autoorganizados
Pd Fií^ura 8.14: Espacio de parámetros del juego del bosque, donde se distinguen tres áreas de com portam ientos cualitativam erite distintos: el bosque aleatorio (RF), la zona de oscilaciones (DO) y la zona compleja (CF). La probabilidad de nacimiento es pj, = 0.5.
= 1 -h (1 - 7 ¿)-L (l - 7 s ) 2 -,.(1
+
4.(1
^ (1 _
Esta expresión se puede sumar fácilmente, ya que se tra ta de una simple progresión geométrica, í„ = 75 -^ + ( 3 o - i ) ( l - 7 s T Si 7 s
es una medida de la diversidad de tam años disponibles en el sistema, SÍ una distribución es completamente aleatoria, A
Orden y Caos en Sistemas Complejos
328
Figura 8.15: Ejemplo de fluctuaciones de la biomasa en la zona de bosque complejo. A la derecha, transform ada de Fourier de diversas series con los mismos parám etros, adecuadam ente promedia das. valor no nulo, independientemente de la dimensión fractal del sistema. En el modelo se ha medido el espectro m ultifractal para los claros. El valor de Adiv disminuye progresivamente a medida que Pd aum enta. Cuando = 1, el espectro multifractal colapsa eu un valor único. La distribución de árboles F{h) que se obtiene en este donúnio decae rápidam ente, y los árboles grandes son prácticamente inexistentes. C. B o sq u e C om plejo, CF. Este es el dominio más interesante del espacio de parám etros. El criterio para acotar esta zona viene dado por la transformada de Fourier de las fluctuaciones en la biomasa. La figura 8.15 representa un ejemplo de estas variaciones. Definimos la biomasa en cada paso de tiempo como la sum a de las alturas totales de los árboles en el bosque, ^(0 ^
El espectro de Fotirier es de la forma con 0 > 0.85 en todo el donúnio. Es decir, hemos seleccionado todos los parámetros que dan fluctuaciones cercanas a ruido l / f . Las funciones multifractales identifican aquí las más amplias zonas de diversidad de tamaños, y la dimensión fractal es siempre no entera. Obsérvese el espectro m ultifractal en la figura 8.16. Una m edida muy útil de reahzar sobre conjuntos de puntos, y que aporta interesante información sobre los mismos, es la función de correlación de dos puntos. En el caso que nos ocupa, se puede utihzar el criterio siguiente. Calcularemos la función de correlación de dos puntos como la media en el número de vecinos {.V„) a una distancia d de una celda ocupada por un claro. íí ^ |r —r ' j , donde r y r ' representan la posición de un punto y los situados a distancia d, respectivamente. La suma se reahza sobre todos los puntos ocupados por claros que se encuentren a una distancia d(, de la frontera del sistema tal que verifique di, > d. El número total de puntos que verifica esta condición es Np{d). El factor de normalización de la función, j V , (habitualm ente comprendida entre O y 1) es Np{d) veces el número máximo de vecinos a esta distancia:
Sistemas Críticos Autoorgunizados
329
Figura 8.16: Dimensiones m ultifractales para la distribución de claros en el juego del bosqvH.^ con los siguientes parámetros: pb = 0.5, p,i = 0.013, 7 = 2.5. La línea continua corresponde al caso real de Barro Colorado.
|r-r'| p{r) = 1 para una celda que contenga un claro, y O en otro caso. La función C{d) es potencial en todo el dominio. Tambie'n se obtuvieron leyes de escala para la distribución de tamaños de claros y para la de tamaños de arboles (véanse las figuras 8.17, 8.18 y 8.19).
D. El área en blanco (WA) representa una transición entre los tres dominios previamente descritos. Se pueden hallar estructuras parcialmente fractales y correlaciones débiles, así como leyes potenciales en las fluctuaciones de biomasa que se desvían cada vez m ás del ruido l / f a m edida que nos alejamos de CF. La distribución de tamaños de árboles cambia tam bién, de la ley potencial a una ley exi)onenciai. Presenta pequeñas oscilaciones cuando nos acercainos a DO, y decae rápidam ente al movernos hacia RF. De los resultados previos se deduce que el modelo anterior puede presentar diversos estados de equihbrio dinámico. Existe en particular un dominio que presenta propiedades críticas. Afor* lunadam ente, ha sido posible comparar nuestros resultados con datos obtenidos de selvas reales. El mismo estudio geométrico realizado sobre las distribuciones de claros del modelo se efectuó sobre el mapa de BCI mostrado en la figura 8,13. Se encontró una combinación de parám etros en particular que reproduce todos los valores cuantitativos que se habían obtenido para BCI. Estos son el conjunto Q' = 0.5, Pd — 0.013, 7 = 2.5} Véase la comparación en las gráficas 8.13, 8.16, 8.18, 8.19. Adem ás, el modelo permite la predicción del valor de algunas otras m agnitudes que no es posible medir en el sistema real. Por ejemplo, si ajustamos todas las estructuras observadas con los parámetro.s del sistema, podemos esperar que la biomasa fluctúe como ruido con o ^ 1, En particular, para el conjunto de parámetros fi* obtenemos é — 1.02 ± 0.03, que es el valor más próximo a l / / que proporciona el modelo. La distribución de tamaños de árboles no es de
330
Orden y Caos en Sistemas Complejos
Figura 8.17: Distribuciones de tamaños de árboles para diferentes combinaciones de parámetros en el modelo. De izquierda a derecha, pj = 0.001. j = 0.01; — 0.013, 7 — 2.5; = 0.6, 7 = 0.1.
Figura 8.18: Distribución de claros para BCI y para ciertos parámetros del juego del bosque (íi*). Los exponentes coinciden dentro del margen de error.
Sistemas Críticos Autoorganizados
331
d
d
Figura 8.19: Función de correlación de dos puntos para Barro Colorado y para los parámetros fí* del juego del bosque. Los cambios de pendiente a aproximadamente 30 y 60 m reales deben corresponder a un cambio eu la geometría y posiblemente en la dinám ica de las selvas.
Orden y Cao< en Sistemas Complejos
332
dbh Figura 8.20: Distribución de tamaños de árboles en una zona de 5 hectáreas en el Amazonas Central, con medidas tomadas durante 5 años consecutivos. El tamaño no se mide por la altara en este C c ls o , sino por el diám etro del árbol a la altura del pecho {dbh. aproxim adam ente a 13U cru del suelo). Se sabe que dbh y tam año siguen una relación de tipo potencial. El exponente que los relaciona perm itiría comprobar si también los exponentes para las distribuciones de tamaños de árboles coinciden en los sistemcLS reales y en el modelo. momento un dato disponible para BCI, pero potencial.
8.6
o tr c L S
selvas tropicales sí presentan un escalamiento
U n m odelo de m odelos
Presentamos finalmente un últim o ejemplo, un modelo minimal que se autoorganiza en un estado crítico. No pretendemos que represente ningún sistema real, pero es seguro que el lector encontrará reminiscencias de los modelos anteriores, e incluso es posible que halle algún sistem a que podría ser representado por este modelo. Supongamos de nuevo que trabajam os sobre una red cuadrada, las celdas de la cual pueden estar vacías u ocupadas, y en este último caso, activas o inactivas. Las reglas del juego son las siguientes: 1. ü n a celda activa en el instante t se flesactiva en el instante t + l.
2. Las celdas inactivas desaparecen (quedan vacías) cuando tienen un y sólo un vecino activo. 3. Las celdas activas se crean cuando tienen un único vecino activo con una celda inactiva en la posición opuesta. Este es un juego sencillo de program ar en un ordenador. La visión dinámica de la propagación de la actividad a través del sistema dice mucho más que la enumeración de las reglas. Por ejemplo, se observa una propagación de las parejas activa-inactiva, que se desplazan por el tablero como semáforos móviles. Cuando una de las celdas activas que se está desplazando con su cola inac tiva “colisiona” con una celda inéictiv'a solitaria, eso provoca la aparición de nuevas celdas activas, con frecuencia en direcciones diferentes a la original de propagación. Lai> avalanchas de diversos tam años .se entienden y se visuahzan perfectamente en este modelo. La actividad a partir de un
Sistemas Críticos Autoorganizados
333
tí "tí fí Ü) -40
Tiempo
A v a la n c h a
Figura 8.21: En la parte superior se representa el número de celdas afectadas como resultado de una única activación. E sta señal es la imagen temporal típica correspondiente a un sistema critico. En la parte inferior se representa la frecuencia de cada evento en función de su tamaño.
334
Orden y
Caos en
Sistemas Complejos
5000
2 00 0
Tiem po
Figura 8.22: Sucesión de estados por los que pasa una celda particular. El valor 4 corresp>onde al estado activado, el 1 ad estado inactivo y el O a ia celda vacía. estado inicial arbitrario se disipa rápidam ente. Para que no cese la actividad, se activa aleatoria mente una celda del sistema cuando todas están inactivas. Esto permite calcular, igual que se había hecho con la pila de arena, el tamaño de un suceso. Calculamos el número de celdas afectadas por una única activación y representamos esta cantidad en función del tiempo, o bien calculamos su distribución. Es interesante hacer un salto de escala en estos sistemas y pensar que únicamente disponemos de información local. Fijemos nuestra atención en una única celda del sistema y observemos la sucesión de estados por los que pasa a lo largo de un cierto intervalo de tiempo. En la señal obtenida no existe ningún tipo de periodicidad, y debemos advertir que la información de un solo punto del espacio no pernúte, en los sistemas críticos, inferir nada sobre el comportam iento que el sistema presenta globahnente.
8.7
La predicción en SO C. Conclusiones
Podemos decir, en general, que la predicción que nosotros podamos reahzar en un cierto sistema depende de 1a forma en que una pequeña imprecisión inicial crece con el tiempo. Se ha visto en el capítulo sobre caos que la desviación de dos condiciones iniciales próximas en el instante inicial es de tipo exj)onencial, A
oc e Ai
donde A = F ( j’o(í)) ~ la separación entre las imágenes de las dos condiciones x(to) y ro{to) en el instante i según el flujo dinánúco F (x) considerado, e inicialmente x{to) - Xo{to) = con ó % 0. El valor A es el exponente de Lyapunov del sistema, y cuando A > O el sistem a es caótico, presenta la llamada sensibilidad a las condiciones iniciales y se ha perdido la posibilidad de predicción más allá del tiempo característico 1 ^ ^ A
En los sistemas críticos autoorganizados, ia desviación de las dos condiciones iniciaimente próximas se produce solamente como una ley potencial.
Sistemas Críticos Autoorganizados
335
Figura 8.23: Separación de dos condiciones iniciales respecto de una trayectoria patrón {linea sólida). Las líneas punteadas se separan de ella según una ley potencial o exponencial, tai y como se indica. La separación potencial es infinitamente más lenta que la e.xponencial.
caso en el que decimos que el sistem a es débilmente caótico. Si medimos el exponente de Lyapunov para uu sistem a crítico, obtendremos un valor cero. Por otra parte, hemos visto que la dinámica no se repite nunca. Entendemos ahora que se diga que el sistema se debate entre el orden y el caos: su exponente de Lyapunov es cero (y uno pensaría inmediatamente que el sistema debe de ser periódico) pero nunca repite la trayectoria en el espacio de fases (con lo cual no es periódico). E.xiste una paradoja aparente, que no es tal, puesto que el exponente nulo es perfectamente compatible con la divergencia potencial. Los sisteméis críticos se hallan exactamente en ia frontera del caos, donde las; perturbaciones crecen linealm ente, en vez de exponenciahnente. Nuestra habilidad de predicción se pierde con el tiempo, pero m u c h o más lentam ente de lo que se pierde en un sistema que presente caos desarrollado (A > 0). O tra implicación im portante es que ahora no existe un tiempo caracteríntico a partir del cual la predicción se haga imposible. En principio, la información se pierde de forma suficientemente lenta como para que la predicción sea posible en cualquier instante futuro (si disponemos de la información adecuada sobre el Ínsta.nte actual). Consideremos un ejemplo práctico. Supongamos que con las observaciones clim áticas realizadas en cuatro observatorios fuese posible predecir el tiempo que hará durante dos duis. .Supongamos que deseamos predecir el tiempo de los cuatro días siguientes. Si el tiempo climático es crítico, esta observación se podrá reahzar con ocho observatorios, y sería necesario disponer de dieciséis para predecir a ocho días. Parece razonable. Pero, ¿qué pasa si la divergencia es exponencial? Pues entonces necesitamos dieciséis observatorios para predecir a cuatro días, y sesenta y cuatro para ocho días. La serie es rápidam ente divergente, y la predicción infinita es inabarcable físicamente. Hemos visto que los sistemas críticos autoorganizados son invariantes bajo cambios de escala espacicil y temporal. Habitualm ente, es esta invariancia la única evidencia del estado crítico del sistema: en los casos que observamos en la naturaleza no disponemos de ningiin parám etro de
336
Orden y Caos en Sistemas Complejos
control. Queda aún por dctertninar si estos sistemas reales podrán tam bier ser r.-írupados en cla,s<:s de universalidad en función de su simetría y su dimensión, por ejemplo, al igual que se había hecho con los fenómenos críticos que presentaban sistemas clásicos de la física. Animamos al lector a que explore todo io que le rodea e intente identificar alguna de las caracrerisUcas que hemos descrito. Aún queda mucho trabajo por reahzar en esre campo.
Bibliografía 1. P. Bak, C. Tang y K. Wiesenfeld, Self-organized criticality. Phys. Rev. A 364 (1988). 2. P. Bak. Self-Organized Criticaliiy in Astrophysics, en ‘“Cellular A utom ata .Models physical Phenom ena', World Scientific, Singapore, 1993.
for
Astro-
3. P. Bak y K. Sneppen, Punctuated Equilibrium and Criticality in a Simple Model of Evolution. Phys. Rev. Lett. 71 4083 (1993). 4. K. Chen, P. Bak y S. P. Obukov Self-organized Criticality in a crack-propagation model of earthquakes. Phys. Rev. A 43 625 (1991). 5. A. Corral, C. J. Pérez, A. Diaz^Guilera y A. Arenas, Self-Organized Criticality and Syn chronization in a Lattice Model of Integrate-and-Fire Oscillators. Phys. Rev. Lett. 74 118 (1995). 6 . B. Drossel y F. Schwabl, Self-Organized Critical Forest-Fire Model. Phys. Rev. Lett. 69
1629 (1992). 7. B. Drossel S. Clar y F. Schwabl, Crossover from percolation to self-organized criiicality. Phys. Rev. E-SO R2399 (1994). 8. C. L. Henley, Statics of a Self-Organized” Percolation Model. Phys. Rev. Lett. 71 2741
(1993). 9. Z. Olami, H. J. S. Feder y K. Christensen, Phys. Rev. Lett. 68 1244 (1992). 10. J. E. S. Socolar. G. Grinstein y C. Jayaprakash, On self-organized criticality in nonconsennng systems. Phys. Rev. £’47 2366 (1993). 11. R. V. Solé y S. C. Manrubia, Are Rainforests Self-organized in a Critical S ta ieí J. theor. Biol. 173 31 (1995). 12. R. V . Solé y S. C. Manrubia, Self-similarity Phys. Rev. E 51 6250 (1995).
in rain forests: Evidence for a critical state.
13. R. V. Solé y S. C. Manrubia, Self-organizedCriticality in Rainforests Dynamics. Solitons and Fractals (1996), de próxima aparición.
Chaos,
14. A. Sornette y D. Sornette, Self-Organized Criticality and Earthquakes. Europhys. Lett. 9 197 (1989). 15. H. E. Stanley, S. V. Buldyrev, A. L. Goldberger, Z. D. Goldberger, S. Havlin, R. N. Mantegna, S. M. Ossadnik, C.-K. Peng y M. Simons, Statistical mechanics in biology: how ubiquitous are long-range correlations? Physica A 205 (1994).
C apítulo 9
A u tó m a ta s C elu lares Hemos analizado con anterioridad sistemas dinámicos discretos y continuos, viendo cómo la estabi lidad de distintos comportamientos aparece y desaparece a través de puntos de bifurcación. Hemos visto que existen tres tipos básicos de comportamiento. Eu primer lugar, atractores puntuales, para los cucdes la dinámica converge hacia un estado de equilibrio caracterizado por la constan cia de todas las variables a lo largo del tiempo. En segundo lugar, com portam iento periódicos y cuasiperiódicos, completamente predictibles y que muestran, cambios regulares a lo largo del tiempo. Finalm ente, hemos reahzado una introducción detallada a los sistemas dinámicos caóticos que. sorprendentemente, exhiben propiedades dinámicas enormemente complejas incluso cuando el número de variables implicadas es muy bajo. El caos determinista, caracterizable por cantidades tales como la dimensión de correlación del atractor y sus exponentes de Lyapunov, muestrá, como hen\os visto, una notable propiedad: su sensibilidad a las condiciones iniciades. Formalmente, podríamos incluir a los sistemas' dinámicos continuos dentro del conjunto de modelos del tipo: ^
= f(X )+ < 7 (X )í
con X = ( x i , G R ” , siendo f, en general, cierta función no-hneal y siendo
S,+,(r) = T[{c,};{S,(r')}j El conjunto de estados accesibles se halla limitado a k estados, 5. g E = {0 , Aquí T indica un conjunto de reglas que pueden ser deterministas o estocásticas. Los parám etros del sistema se designan por {cy), y r ' indica las posiciones de los autóm atas vecinos a r. Típica mente, el conjunto de puntos vecinos -V(r') estará distribuido simétricamente alrededor del punto de la red r considerado y los autóm atas celulares capaces de simular sistemas reales verificarán ciertas restricciones naturales que veremos más adelante. 337
Orden y Caos en Sistemas Complejos
338
Figura 9.1: Reglas locales: cada elemento puede ser influenciado por sus vecinos más cercanos, (a) Autóm atas unidimensionales, (b) Autóm atas bidimensionales.
9.1
A u tó m a ta s celulares d eterm in istas
Los autóm atas celulares detenriinistas (esto es, que no incorporan ningún tipo de estocasticidad en sus reglas dinámicas) fueron introducidos por primera vez en 1948 por los matemáticos húngaros Von Neurrumn y Ulam, y más tarde anahzados con cierto detalle por S. W^olfram (véase su recopi lación de artículos, Wolfram, 1994). En esta sección seguiremos el tratam iento de V^olfram con el objeto de dar una visión general de este tipo de modelos. Para simplificar condideremos en primer lugar autóm atas unidimensionales. El estado de uno de estos autóm atas se indicará por ai(¿) para el elemento que ocupa la posición z—ésima (con i ~ 1, 2 , elementos) en el instante (discreto) t. La dinánúca de dicho elemento se definirá en la forma
donde F será cierta función que, para cada “vecindad” o entorno (figura 9.1) {ü,„^(í),a,_r + l(0 ,
-,íl.> r-l(í)i« i+ '-(0 }
posible, definirá el nuevo estado adoptado por el autóm ata. Si no se dice lo contrario, supondremos que las condiciones de contorno, esto es, la definición de las reglas en los extremos del sistema, son de tipo periódico. Con ello indicamos que el vecino a la izquierda del primer autóm ata es N y el vecino de la derecha del autóm ata A'—ésimo es A"" -|- 1 — 1. Como vemos, cada autóm ata a, interacciona con sus 2 r vecinos más cercanos así como consigo mismo, luego necesitabremos especificar 2r + 1 estados de partida para definir la transición mediante F. Cuando la interacción tiene lugar lim itada a los dos vecinos más próximos (a derecha e izquierda, esto es, r = 1) y sólo dos estados son posibles (¿ 2), hablaremos de autómatas elementales. Para definir completam ente la dinámica de cada regla, debemos construir una tabla que especifique, para caxJa entorno, ei nuevo estado adquirido por el elemento central. Así, para r = 1 y ib = 2, indicamos las transiciones por a .- i( í) a,(O a, + i(¿) que nos dicen cuál es el estado que adoptará el
a¿(< + 1)
ésimo elemento si se da la tern aa, _ i(í)a, (í)a ¿ 4 - 1 (O·
A utóm atas Celulares
339
Uaa r(''^la posible seriri el conjunto de transiciones: 000
^
0
001 ^ 1
100 ^ 1
010-^0
011^1
101O 110— 1 111
O
Un
ai{t + 1-) = f j=-^ siendo el resultado de esta dinámica un valor entero Qj € Σ . Podemos recuperar las reglas antes descritas haciendo Oj = Los autóm atas que siguen dinámicas de este tipo se denominan autómatas celulares totalisias. Existe cierto tipo de restricciones generalmente empleadas en la definiciónde las reglas. Habitualm eate seconsidera ia configuración [O, O , 0] como el estado fundamental de la dinámica, y se em plea la transición F[0,0, ...,0] = 0
(9-2.1)
f[0 ,0 ,...,0 ]= O
(9.2.2)
y. por lo tanto,
Además, se suele considerar sim etría en la condición definida por los vecinos. Más exph'citamente, se utihza la igualdad —Γ1---I í^i+r] — Γ'[ίΙ)-ψ.η -··> O»—r]
(9.2.3)
Los autóm atas celulares que verifican las condiciones 9.2.1, 9.2.2 y 9.2.3 se denominan autómatas legales. Las funciones F que definen las reglas pueden ser ordenadas especificando el número R{F) asociado a la regla, que viene dado por
R(F)=
F[a¡_,,...,a,+,]fc',
s=
a , _ r , , . , a , +r
f - 'a i . i = —r
y de form a similar las funciones f pueden ser especificadas por un código numerico que determ ina m
C (f) =
fc"f[n],
m = {2r+ l){k - 1)
nr:0 En general, existirán
posibles reglas, de las cuales (Wolfram, 1984) k=
¿(2 r+ i)
son legales (en el sentido previamente definido). Podemos ver que el número de reglas posibles aum enta cou enorme rapidez (de forma exponencial) con r. Muy poco puede decirse, en general, del com portanúento de los autóm atas celulares a partir únicam ente de las reglas definidas. En este sentido, desde el punto de vista formal son difícilmente
340
Orden y Caos en Sistemas Complejos
tratables (cosa que no ocurre con muchos sistemáis dinámicos) aunque numéricamente su implementación y estudio son miiy simples. Los autóm atas celulares exhiben un conjunto reducido de tipos cueditativos de comportamiento, que han sido explorados en detalle y que resumiremos más adelante. Pero primero daremos un ejemplo de autóm ata celular simple capaz de exhibir un comportamiento complejo que se observa en un sistema real: uu bosque que m uestra estructuras espaciales nada triviales.
9.2
Shigam are: ondas en el bosque
En ciertos bosques del Japón y de Nortecunérica (bosques subalpmos de 4 í>¿e5) aparece un tipo de estructuras de gran tam año que semejan ondas dentro del bosque. Estas ondas son en rea lidad frentes de árboles muertos. Su tamaño alcanza grandes dimensiones, y en cualquier caso afecta a centenares de árboles dispuestos a lo largo del frente. Estos frentes, además, se hallan en movimiento, a una velocidad de 0.5 —3 metros por año. El frente de árboles muertos es ocupado rápidamente por semillas que regeneran la zona con árboles jóvenes de pequeño tamaño. Podemos observar en estos bosques que los árboles más viejos y altos se haUan adyacentes a la zona de regeneración, y una vez se sitúan en ella, se convierten en la siguiente remesa de árboles que morirán. Esta observación podría sugerir varias causas posibles, todas ellas de origen físico, como por ejemplo la existencia de un terreno con ciertas particularidades especiales, que se reflejarían, en alguna forma, sobre la ordenación espacial de los árboles. Sin embargo, nada evidencia semejante dependencia de la geogreifía local. Sólo un factor introduce una causa fi'sica clara: la dirección de propagación de los frentes se da en la dirección de los vientos dominantes. Pero estas estructuras no se dan en otros bosques del mundo, en los que sin embargo también encontramos un viento dominante y un reheve similar. Tal vez debamos buscar las causas en el tipo de interacción que existe entre los árboles y en la forma en que el viento los afecta. P ara ello, seguiremos el enfoque de Ivpasa y sus colaboradores (Iwasa et a/., 1991) que desarrollaron el modelo de ondas que presentaremos a continuación, y que llamaremos, siguiendo a estos autores, Shigamare (ondas de regeneración, en japonés). El modelo parte de una red bidimensionaJ sobre la que se disponen al azar los ‘^árboles", cuyo tamaño (en altura) indicaremos por una variable discreta S t{i,j) € N en la que < = 0 . 1. 2 , ... indica el tiempo y el par ( t\i) indica la posición sobre la red L x i (1 < z. j < L). Supondremos que el viento posee una dirección dada, que incorporaremos en alguna forma a la interacción entre autóm atas/árboles. Siguiendo las observaciones de campo, debemos introducir el efecto observado de desecación de los árboles expuestos al viento. Tenemos por tanto una causa de mortalidad (posible) asociada con el viento y con la ausencia de protección frente a éste. Esta protección existirá si un árbol dado posee unos vecinos lo bastante grandes como para apantallar el viento y protegerlo. Con esta información como punto de partida, podemos plantear el siguiente modelo. Cada árbol crecerá según 5 í(¿,j) = S t{i,j) + 1 >d siendo Sf*(z, j) el siguiente promedio:
l + 2f> en caso contrario, se producirá la muerte del árbol: = O ·» 5t(z, j) -
S; {i . j )
Autómatas Celulares
341
«K ^ «A «A
» » » » ^ to
I I 1 I I — - ........................... ......
«I «k «A «I
·*■ ·* · ♦ « < · · * « « » » « « • «« ·*
totototo»»^««««« toto t o » » ) » « « « « * »
««·*··«*««» «<* M I » I I ; »*· 1^* %
« » Mto «I «« ««»·*· ^ « to » to ^
totototototototo»»· t
<
(
I
>1
»»»>· >>
to »
«» ) ·
tt « %» ^ .... i
)
I
Figura 9.2: Evolución temporal del autóm ata Shigamare, que genera espontáneamente ondas que se propagan. Indicamos el estado del sistema en un instante de tiempo determinado (/ = 300). Partiendo de una condición inicial arbitraria, el sistema alcanza un estado final caracterizado por la formax;ión de frentes. La altura es proporcional al tono de gris, y el máximo de altura corresponde a las casillas en blanco. Esta elección particular de los vecinos corresponde a un viento que va del oeste al este sobre la red (de izquierda a derecha). En términos intuitivos, la regla definida arriba nos dice que el árbol situado en la posición (¿, j) podrá crecer siempre y cuando su altu ra no sobrepase la media (antes definida) de los tam años de sus vecinos posteriores (en relación al viento). En caso contrario, el árbol queda desprotegido y muere. La constante d 6 [0 ,1] se introduce para dar un peso a la contribución de los árboles situados detrás del ( í ,j ) —ésimo y a ambos lados de éste. El árbol inm ediatam ente detrás de 5(¿, j) es el que le da la máxima protección. La constante d define el valor crítico de la diferencia entre las alturas que define la m uerte. El resultado de una simulación para a = 0.5 y cí = 3 se m uestra, en tres instantes distintos, en la figura 9.2 (a-c). Partimos de una configuración inicial al azar en la que distribuimos árboles de tam año arbitrario sobre la red, y que por lo tanto no define ninguna coherencia espacial. Con el curso del tiempo, vemos que aparecen estructuras bien definidas que term inan por hacerse muy coherentes, dando lugar a un frente que se propaga en la dirección del “viento’’ y que incluye a muchos elementos a la vez. La estructura y propiedades de esta dinámica se corresponden muy bien con las observadas en el bosque real (Iwasa et al., 1991). Vemos así cómo un modelo enormemente simple en el que reemplazamos los elementos reales (árboles complejos) por conjuntos de autóm atas discretos que interaccionan de forma igualmente simple generan patrones macroscópicos de forma autoorganizada. He aquí un ejemplo simple pero claro de las posibilidades de esta aproximación.
9.3
C aracterización cualitativa
Existen cuatro tipos cualitativos de dinámica asociados a los autóm atas celulares. Aunque los patrones variarán en el espacio y el tiempo en distintas formas, específicas para cada función,
Orden y Caos en Sistemas Complejos
342
podemos clasificarlos en cuatro categorías, conocidas como clases de Wolfram (Wolfram, 1984). En todos estos casos, suponemos que el estado inicial es aleatorio (una secuencia escogida al azar) o bien se tra ta de una cadena de autómata.s en estado O y algunas posiciones escogidas al azar con un estado distinto. Se obtiene; • C lase I; La evolución del sistema lleva a un estado homogeneo, sin estructuras espaciales ni temporales de ningún tipo, • C lase II: la evolución del sistema da lugar a estructuras separadas de tipo estable o periódico. • C lase III: la evolución da lugar a patrones caóticos. Espacialmeute, surgen estructuras fractales y tem poralm ente observamos ciclos de longitud muy grande (dado el tamaño del sistema, no pueden ser de longitud superior a k ^ ). • C lase IV : La evolución genera estructuras complejas localizadas, que se propagan a través de la cadena y cuya duración aumenta exponencialmente con el tamaño del sistema. Las tres primeras clames se corresponden cualitativamente con los tres tipos de comportamientos observados en sistemas continuos y en este sentido vemos que los autóm atas celulares reflejan las mismas posibilidades dinámicas. En la figura 9.3 vemos distintos ejemplos de estos tipos de dinámiccLS. En la tabla I damos las frecuencias de aparición de distintas clases para distintas combinaciones de k y r. Al aum entar estos valores, la clase III es la que domina, siendo las dos primeras menos frecuentes. Como vemos, la clase IV es comparativamente rara (se haUa ausente para k = 2 y r = I). Clase
k = 2, r = l
1 2
0.50 0.25 0.25
3 4
0.00
k = 2, r ^ 2 0.25 o.re 0.53 0.06
k = 2, r = 3 0.09
■A: — 3, r = 1
0.11
0.19 0.60 0.07
0.73 0.06
0.12
Tabla I: Frecuencias aproxim adas de reglas de AC totalistas en cada una de las clases de Wolfram Aunque aquí nos concentraremos en los autómatas unidimensionales, señalemos que los estudios llevados a cabo sobre AC de distintas dimensionahdades confirman la clasificación previa (Wolfram, 1994). No nos hemos detenido a comentar la cuarta clase de la clasificación que, como veremos, juega un papel muy im portante en nuestro estudio de la complejidad.
9.4
C aracterización cuantitativa
En esta sección exploraremos de forma cuantitativa, mediante medidas estadísticas, las clases de Wolfram introducidas en la sección anterior. Aunque la condición inicial es aleatoria, típicamente (salvo algunos casos especiales) los autó m atas celulares evolucionan hacia configuraciones estacionarias caracterizadas cualitativam ente por las propiedades ya mencionadas. Esta observación nos permite suponer, razonablemente, que estas configuraciones a las que tiende el autóm ata poseerán propiedades estadísticas estacionarias. Supongamos que queremos caracterizar los estados de la cadena en un instante dado. Imagine mos que estudiamos las secuencias de A'" autómatas consecutivos (“bloques” de tam año A') y que queremos anahzar la distribución de probabilidad asociada a distintas secuencias de este tamaño.
Autómatsus Crkilares
343
Figura 9.3: Autóm atas celulares unidimensionales de (a) Clase í, (b) Clase II, (c) Clase III y (d) Clase IV.
344
Orden y Caos en Sistemas Complejos
Tenemos k·^ sec\ienciai; posibles, y podremo;? por tatuó calcular la eutropia espacial del conjunto o entropía topològica, definida por; 1
s W (x ) = - log*
{
\
\;=.
/
donde el superíndice x indica que los promedios se toman en el espacio (para un instante dado) y son las probabilidades de cada secuencia de tamaño X , esto es,
j =i
= > La función en la suma es ^(p) = 1 si p > O y cero en caso contrario. Podemos también definir una entropía métrica (o medida espacial de entropía) sJi^^(A') por medio de la entropía de Boltzm ann de las cadenas de tam año X:
La primera entropía viene deternñnada directamente por el número total de bloques de longitud A", esto es. iV*^^^(A') generados por la evolución del autóipata. de acuerdo con: s('>(A·) = ^ lo g t JV(*) En la entropía métrica, cada bloqiie es promediado en términos de ^u probabilidad asociada, de forma que el resultado depende explícitamente de la distribución obtenida (de ahí el subíndice /i, que indica la medida de probabilidad empleada). La entropía m étrica da una medida del contenido de información por autóm ata. Las definiciones anteriores introducen las desigualdades: < 1 donde la igualdad entre los dos primeros términos se cumple para el caso de equiprobabilidad en la distribución de bloques y la segunda igualdad se verifica en sistemas de secuencias aleatorias, en las que las k ^ secuencias de X-bloques sean equiprobables. Además la entropía métrica verifica ia condición de sub-aditividad (A-, +
+ A-.) <
+ A-2 4 ''( A ' 2 )
siendo cierta la igualdad para bloques descorrelacionados (capítulo 1). Para autóm atas celulares que presenten estacionariedad en el sentido de poseer invariancia bajo traslación en las medidas de probabilidad, podemos encontrar restricciones aun más im portantes que las anteriores. Así, la probabilidad ..... ax] para la secuencia [a i,...,a x ] estará dada , en general, por p[^^[ai, . . . , ax] = p^^’^íai, ...,ax_|]p^^^[aA' | «i, ..., üa' - i ]
siendo la últim a probabilidad la condicionada a tener a x en la posición A'—ésima sabiendo que los valores adyacentes son {ai,...,aA r-i}.
Autómatas CeiuJares
345
Si definimos la entropia total por: ..... p<^)[ai,...,ax]Iogfc [
..., Oa·]
y la entropia condiciona/la irapituln 1) [>or: i
p^"^^[aAT | « i , a x _ i ] [Oi....«vi
obtenemos la desigualdad A's;/>{ ,Y) < s ;/'(A · ) < r i ^ 5 W ( x _ 1) + i s < / > ( J ) con lo que llegamos a A-4 'I(A-) < sM {X - 1 ) lo cual implica un decrecimiento monótono de las entropías métricas con tam años de bloque A' decrecientes. Podemos además construir diversas relaciones cuantitativas entre las entropías y la dimensión fractal de los patrones generados (típicam ente en clase III). Recordemos el procedimiento básico de determinación de dimensiones fractales basado en el contaje de caja^. Supongamos que partimos del intervalo unidad [0 , 1], dentro del cual se halla un conjunto fí de puntos, que pueden háber sido generados a través de cierto proceso dinánrüco. Dividamos el intervalo empleando divisiones consecutivas de longitud k~^, que formarán una partición y sea N{Q ,b) el número de intervalos que contienen elementos x ^ Q. P ara una partición lo bastante fina, podemos escribir (capítulo 3) N(Q. b) ^ { k Y siendo d la dimensión de Kolmogovov. o capacidad del conjunto Q (Wolfram, 1984). Para un conjunto finito de puntos, tendremos d O (matemáticamente hablando), en tanto que un conjunto de Cantor nos dará cierto valor finito. Esta definición pernúte construir la dimensión del conjunto, dada por \im ÍlogJA ^(n,¡>)]
b—x o
que, excepto en casos patológicos, coincidirá con la dimensión de Hausdorff en el lím ite ò —+ X). Esta últim a expresión puede ser aplicada de forma directa a las configuraciones obtenidas de la evolución de los autóm atas celulares. Podemos tomar bloques de tam año b que definirán el tamaño de la partición, y la definición de entropía topológica nos permite de hecho escribir la dimensión como Ihn
A —»oo
Para un autóm ata caótico, lo ba.stante desordenado como para que todas las posibles secuencias ocurran con probabilidad no nula, tendremos que = 1 (como era de esperar). De form a sinúlar, una dinánúca que dé estados homogéneos tendrá d^^^ = 0. Estos valores se obtendrán en general por medio de promedios para valores grandes de A'. Puede demostrarse que la expresión anterior
346
Orden y Caos en Sistemas Complejo:^
se expresa eii una forma más apropiada (sobre todo si los conjuntos do bloques sc obtienen para X pequeños) d^^ — imi 7------. ^
^
A'—oc ( X — 1)5*-^)(A — 1)
— lun ioei. A' — 00
N (^){X - 1 )
La dimensión topológica (o de conjunto) puede emplearse para caracterizar el conjunto de configuraciones que aparecen en la evolución estacionajia del autóm ata celular. Una dimensión m étrica puede obtenerse en la forma d \r = lim sí.')(X ) '
X
— 00
que introducirá una caracterización de las medidas de probabilidad sobre las configuraciones y que coincide con la información promedio por símbolo. E ntre otras desigualdades, notemos que O<
^
< 1
P ara una secuencia completamente aleatoria en la que todas las A'-secuencias son equiprobables, se tendrá que - 1. Cualquier evolución que introduzca correlaciones (que es el caso más general) nos dará d\f^ < 1. Si nos interesa disponer de una medida de entropía espacial, en la que no tengamos en cuenta la evolución temporal, sino las estructuras generadas observadas en un instante dado, emplearemos las entropías espaciales que hemos descrito (entropías espaciales topológica y m étrica). Podemos de forma similar definir unas entropías temporales que caracterizarán las secuencia de estados generados en una posición dada a lo largo de ía evolución del autóm ata. En este caso, si seguimos la evolución del sistema durante T iteraciones, las probabilidades formarán un conjunto con secuencias posibles. De forma análoga a lo visto al principio de esta sección, podemos definir la entropía topológica temporal en la forma s<‘>(T) = ilo g * ( V j= l con la normalización
~
] /
entropía m étrica temporal correspondiente será
J-l Ambas entropías satisfacen desigualdades análogas a las ya obtenidas para las entropías espa ciales. De la misma forma, existe una definición para las dimensiones, = Ihn 5(‘)(T) r
— 00
d\¡^= lim s(J)(T) ^
T — 00
Si la evolución del autóm ata es periódica, de forma que cada elemento de la red toma vcdores que se repiten al cabo de cierto número de iteraciones, tendremos que
Podemos, a partir de las definiciones anteriores, dar una tabla de valores característicos para las tres primeras clases de Wolfram:
A utóm atas Celulares
347
Clase (Wolfram)
Entropía espacial
Clase I Clase II Clase III
Entropía temporal =O
> o
d\ p >
o
(estas cantidades se hallan indefinidas para los autóm atas de cla.se I\', como veremos más adelante). Una generalización de las anteriores entropías nos permite considerar am bas dimensiones (es pacial y temporal). Sean ahora los conjuntos de probabilidades de las estructuras de longitud espacial X y tem poral T (de las que tendremos posibles). Podemos definir una nueva entropía topológica, dada por:
con la normalización
y la entropía m étrica
que verificarán, en particuleir
Podemos definir otras muchas expresiones de interés (Wolfram, 1985). Una de eUas es el exponente de Lyapunov asociado a ía evolución del autóm ata celular. Podemos ver de qué forma se define dicho exponente llevando a cabo un simple experimento numérico que ilustra la sensibi lidad a las condiciones iniciales presentada por algunos de los autómatas celulares estudiados, en particular los de clase III. Tomemos autóm atas con dos estados (h — 2) y. para distintas reglas, dos configuraciones iniciales al azar, (So(í)} y {5Ó(0}· Esta configuraciones sólo diferirán en una posición, que elegiremos como posición central. Para dar un ejemplo específico, tomemos la regla 22 de los autóm atas elementales, que podemos escribir en este caso en la forma compacta: 1 si St {i - l) + St(i + 1) + St i i ) = l O si St i i ~ i ) + St{Í + l ) + St{i ) ^ I
y que mostramos en la figura 9.4 (a) (es un autóm ata caótico). Ahora, representaremos a lo largo del tiem po la dinám ica de las diferencias entre el estado de la primera y la segunda red (figura 9.4 (b)). Indicaremos por un punto blanco los lugares en los que 5,(/) ^ S[{i) y por un punto negro el caso contrario. El exponente de Lyapunov A¿ se define (Wolfram, 1983) como la velocidad media de propagación con la que se desplazan las diferencias a derecha e izquierda. Para la regla 22, se obtiene numéricamente un valor A ^ 0.76 > O que nos indica la presencia de caos (véase Grassberger, 1986, para un estudio detahado de esta regla).
348
Orden y Caos en Sistemas Complejos
B
Figura 9.4: (a) Dinámica del autóm ata elemental con regla 22 . (b) Propagación de las diferencias entre los estados de dos de estos autóm atas cuyas configuraciones iniciales sólo difieren en un elemento. Si exploráramos otros tipos de reglas, veríamos en general que para el autóm ata de clase II, la pequeña perturbación elegida se congela, sin propagarse. P ara los autóm atas de clase III, esta perturbación se propaga en ambas direcciones de forma que crea patrones con distintos grados de regularidad. P ara los autómatas de clase IV, también tenemos propagación, pero ésta es mucho más impredecible: no se trata de una simple propagación constante'sino que se crean estructuras complejas que mezclan porciones ordenadas y desordenadas junto con estructuras en propagación.
9.5
C o m p u tació n , au tó m a ta s y len gu ajes form ales
Las caracterizaciones cuantitativas anteriores permiten una prim era aproximación a las propiedades dinámicas de los autóm atas celulares. Pero podemos obtener una descripción aún más completa recurriendo al formalismo de la informática teórica. Los conjuntos de configuraciones adoptados por los autóm atas pueden ser contemplados como lenguajes regulares, esto es, secuencias de símbolos (los valores dados en cada posición) que forman palabras de acuerdo con cierta gram ática (Wolfram, 1984a; para una introducción excelente a la teoría de autóm atas finitos, lenguajes formales y complejidad computacional, véase Hopcroft y üllman, 1979). El conjunto de todas las posibles condiciones iniciales corresponde a un lenguaje formal trivial. El conjunto de configuraciones obtenidas después de un número finito de pasos de tiempo forma un lenguaje regular (Wolfram, 1984b), y las palabras que forman dicho lenguaje se corresponden con las posibles trayectorias sobre un grafo finito que representa un máquina finita. Definir adecuadamente estos conceptos nos llevaría mucho tiempo, y no nos detendremos aquí a anahzar este formalismo. Sin embargo, parece intuitivamente claro que los autóm atas celulares pueden verse como computadores en los que las entradas quedan representadas por las configura ciones iniciales, que son “procesadas” a lo largo dei tiempo por aplicación de las reglas previamente definidas. Bajo esta interpretación, el autóm ata celular incorpora la noción de datos de entrada (condiciones iniciales) y la de “programa” (regla empleada). Las reglas definidas representan el mecanismo básico de operación de un ordenador. En este sentido, podemos “ejecutar” distintos
A utóm atas Celulares
349
•
·
·
Figura 9.5: Máquina de Turing básica: consta de un cinta de longitud infinita dividida en celdas y de un cabezal que lee una celda en cada paso.
program as (o evaluar distintas funciones) dando distintos conjuntos de condiciones iniciales. Este proceso es análogo a la evolución de una secuencia de símbolos manipulados por una Máquina de Turing (Turing, 1936; Hopcroft, 1984) que representa de hecho un modelo formal de ordenador. Pese a su simplicidad (figura 9.5) la Máquina de Turing (MT) es un modelo adecuado de cálculo. Pero en autóm atas celulares, en lugar de considerar, sólo un cabezal que modifica un elemento de la cadena en cada iteración, la evolución del autóm ata afecta simultáneamente a todas las posi ciones en cada paso de tiempo. Puede demostrarse (véase Hopcroft y Ullman, 1979) que existe una M áquina de Turing Universal (MTU) que puede simular cualquier otra MT empleando para ello un programa de interpretación que describe la m áquina que se pretende simular. En el mismo sentido, Wolfram conjetura que los autóm atas de clase IV poseen capacidad de llevar a cabo com putación universal. Un autóm ata celular universal (ACU) puede, en principio, sim ular cualquier otro autóm ata. La gram ática de un lenguaje formal proporciona un conjunto de reglas para generar y/o re conocer las palabras que pertenecen al lenguaje. Un ordenador ideahzado (como es la máquina de Turing) puede en principio ser construido con la capacidad de implementar dichas reglas. Existe por ejemplo un autóm ata celular con ¿ = 18 estados y r = 1 que es equivalente a una de las m áquinas universales de Turing más simples que se conocen y, como veremos, un autóm ata bidi mensional (el juego de la vida) que es también capaz de llevar a cabo computación universal. La demostración de que un autóm ata (u otro sistema dinámico) puede llevar a cabo computación uni versal puede obtenerse en dos formas; demostrando que podemos simular una M áquina de Turing Universal o, en una forma indirecta, demostrando que podemos construir, empleando las regla.^ definidas, puertas lógicas que, unidas, permiten llegar al mismo resultado. No todos los autómata-^ perm iten llevar a cabo esta construcción. La clase IV es un candidato especialmente interesante, en la medida en que estos autóm atas generan estructuras de enorme complejidad que incluyen la propagación de señales (y por lo tanto de información) a lo largo del sistema. Siguiendo la segunda aproximación, nos detendremos en la posibilidad de llevar a cabo computación universal en el autóm ata conocido como juego de la vida.
3 )o
0.6
Orden y Caos en Sistemas Complejos
Life: com p u tación universal
( no de los autóm atas celulares bidimensionales más conocKÍos es sm duda ei denominado juego d'' la vida (Life), ideado en 1970 por el matemático inglés John C’onway. Es un buen ejemplo cómo un conjunto de reglas muy simples posee la capacidad de generar una rica variedad de < omportamientos. La idea de Conway perseguía la obtención del Jueiío más simple posible (sin j igadores) que pudiera generar comportamientos imprevisibles. Couwa\ y sus estudiantes llevaron a cabo un estudio exhaustivo y dieron finalmente con un modelo de enorme simplicidad en su
Autóm atas Celulares
· · ··
· · • «é* • · ··1 • -p 1 ··(··
j\ · «
> ’ »i ü
éi. · ·
351
r·· 1
· · ··
• • •
! 1
o»o
·« ·· 1· · 0 '! · 0 ■· · · ·· ·«
1
0
·- ·
··
'· t* 0·
· •
• • • •
··
0
0*0
0 D 0 •· · 1* * 0 '1 ■ • · 0 · · • •0 1 • •Q 0 -j • · • · ■ · -i i 0 n 0 1 o#o 0*0
1
·· ·· ·· 0 « Q' · ·· · · · • · · • f ' * · 11 ·· ··
0
• t·
• •0 • · • V · • • '· · »· · 99 ' f· • :m é 9 9 •0 »•0 m · -· ' 0· · 0 ·· 99 ■· 9 ■ 0 0
•· ■ •o _
· · ·
·· ··
· « *•1 • • · T i • *0 · · · • · S · · · · ·· ^ · · 11 · ·
■· ·
?Q QQ é 0 9 é 0 • * o 0 0 9 9 0 0 09 ·0 Q 9 9 0 P ’ U ·· i··· #«9 * 0 ^ 9 0 b · «O 0 0 9 9 b 0 D · 0 • • 0 0 0 1* * b ó · · •· · 11
• /é \» > · '■ · <
i> f.^■-•K·
O /'" · 'O
X,
7
Figura 9.6: Estructuras generadas por la dinámica del juego de la vida. Se incluye el nombre de algunas de ellas, entre las que destacan los gliders. que pueden propagarse a través del sistema.
352
Orden y Caos en Sistemas C'omplejos
Figura 9.7; (a) Cañón de “gliders”. (b)Puerta NOT construida a partir del cañón anterior.
A vB
B
B
(X )
ct)
Figura 9.8: (a) Puerta lógica AND construida en el juego de la vida, (b) puerta OR.
Autóm atas Celulares
353
9.S (a)). No es difícil ver que la salida contiene uu uno r u a n d o ambos inputs eran uno y un cero en cualquier otro caso. Hemos obtenido por lo tanto una puerta AND. Finalm ente, podemos construir uua puerta OR empleando dos haces de ‘'gliders” tal y como se indica en la figura 9-8 (b) (Langton, 1991). Si bien el último paso sería llevar a cabo la cous^rucción efectiva de una máquina de Turing universal, los elementos de los que disponemos nos permiten hacer una conjetura de constructibilidad a partir de las puertas lógicas previamente obtenidas.
9.7
P arám etro A de L angton
En la clasificación anterior, hemos visto que las clases de autómatas de W olfram cubren cuatro tipos de comportam iento cualitativam ente distintos. Tres de ellos pertenecen a dinám icas que poseen una contrapartida ea la descripción estándar de sistemcLS dinámicos; (a) Ciase I: atractores puntuales, con estructura espacial nula (homogénea); (b) Clase H: atractores periódicos, con estructuras regulares que se repiten y (c) Clase IH: autóm atas caóticos, que presentan estructuras fractales en su evolución. La clase IV no posee una estructura simple que perm ita obtener promedios tem porales debido precisamente a la aparición de estructuras en propagación. La definición de una numeración en las reglas no nos permite obtener una ordenación de tipo dinámico. Dos reglas adyacentes desde el punto de vista de su numeración pueden pertenecer a cualesquiera de las cuatro clases. Sin embargo, sabemos que podemos definir, en sistemas dinánúcos, parám etros que perm itan detectar, en particular, las transiciones entre distintos tipos de com portam iento. Sería muy interesante disponer de un parámetro que perm itiera ordenar ios diferentes comportamientos de form a natural, que fueran de los más ordenados (ciase 1) a los más desordenados (clase III). Tal vez dicho ordenamiento perm itiera, además, conocer cual es la posicion de la clase IV respecto de las anteriores. Dicha parametrización fue introducida por Chris Langton en 1990. Supongamos, redeñniendo el problema, una red d-dimensional sobre la que .definimos un autóm ata celular que posee una vecindad A**, donde indicaremos por ¡A/"] .el número de puntos de la red incluidos en dicha vecindad. Supondremos que el conjunto de estados es S y que incluye K estados posibles. Las reglas definidas para cada autóm ata se indicarán como una aplicación F ;
^ E
Sea ahora el conjunto de todas las posibles funciones F para autóm atas de K estados y N vecinos, dentro de la cual introduciremos la parametrización. El parám etro A de Langton se define en la siguiente forma (Langton, 1990; 1991). Sea cierto estado arbitrario Sq £ T, que llamaremos estado quiescente. Dada una función de transición F\ existirán transiciones hacia este estado en la función F. Supongamos que las restantes — Uq transiciones en F se ehgen al azar de entre los restantes K — 1 estados del conjunto T, ~ Sg. El parámetro se define entonces como:
De forma que podemos apreciar claramente lo que se espera obtener eu casos extremos • Si Ug % todas las transiciones en la función F darán como resultado el estado y X ^ 0.0. El autóm ata exhibirá comportamientos muy simples, y esperaremos observar autóm atas de clase I o II. Cuando todos los estados finales están igualmente representados en la tablas de transiciones, tendremos A = 1 — l/A ', que corresponderá a la situación de m ayor heterogeneidad en la función F, de forma que esperaremos encontrar en este donúnio los autóm atas de clase III más desordenados
Orden y Caos en Sistemas Complejos
354
A = 0.10 A = Ü.25
A = 0.20
W·
A = 0.35
m
m
m
Figura 9.9: Simulación de autóm atas celulares unidimensionales con 128 elementos, para K = 4. -V = 5 y condiciones periódicas de contorno. Indicarnos en cada caso el valor del parám etro A a¿.ociado-
Autóm atas Ce/u/ares
355
E sta param etrización puede rom;>robarsc sobre un ejemplo numérico. La adecuación del parám etro de Langton será tanto mejor cuanto mayor sea el número de estados y /o de vecinos empleados en la definición de la tabla (lo que nos perm itirá llevar a cabo una estadística ade cuada). En la figura 9.9 vemos el resultado de la simulación de un autóm ata de este típo con A" = 4, TV = 5, 128 elementos y condiciones de contorno periódicas. En cada caso hemos empleado una regla distinta y se indica el valor del parámetro A. Vieudo estas simulaciones, un resultado evidente es la secuencia obtenida, que va desdt; dinámicas simples a dináuucas m\iy desordenadas. El segundo es mucho más sorprendente; en A = 0.5 aparece la clase IV, justo en la frontera entre orden y desorden. La aparición de complejidad en esta frontera nos es famihar; es lo que esperamos que ocurra en sistemas complejos situados en las proximidades de puntos críticos. De hecho, la ordenación obtenida a partir del parám etro A nos recuerda, de algún modo, lo que llamaríamos una “tem peratura” del autóm ata, en la m edida en que introduce un mayor o menor grado de desorden. Podemos cEtracterizar cuantitativam ente esta frontera en varias formas (Langton, 1990; 1991), en tre las cuales está la longitud de los transitorios. Supongamos que introducimos una m edida del tiempo necesario para caracterizar estadísticam ente un autóm ata celular en relación a sus dis tribuciones de probabilidad estacionarias. Para autómatas de clase I y ÍL el estado estacionario se adquiere con rapidez, y algo sinúlar ocurre con los autómatas de clase IIL En cambio, los de clase IV, como ya hemos mencionado, presentan estructuras complejas que se propagan a través del sistema. Una misma zona puede permanecer oscilando regularmente y sufrir posteriorm ente una colisión con una estructura en propagación que la hace cambiar de forma caótica. E sta situación hace necesarios tiempos enormes para caracterizar apropiadamente el sistema. Esta situación no debe sorprendernos: a mayor complejidad, parece natural que debamos llevar a cabo un mayor número de medidas para caracterizar adecuadamente el estado del sistema. Para un sistem a muy ordenEido o desordenado, la situación se invierte. En la figura 9.10 (a) vemos un ejemplo dé cálculo del tam año de los transitorios, que es máximo en un sistema finito en las proximidades de Ac = 0.5, tal y como esperaríamos de una transición de fase de segundo orden (crítica). El tam año de estos transitorios diverge con el tam año de la red, como vemos en la figura 9.10 (b). Nada de ello ocurre si estam os en los dominios caótico u ordenado. Dado que el resultado final de esta parametrización es que los autóm atas de clase IV aparecen en un punto crítico, Langton introduce una conjetura, que genéricamente denomina Computación en la frontera del Caos en la que establece la hipótesis de que la capacidad de cálculo emerge en la naturaleza en las proximidades de puntos críticos, en los que la computación universal se hace posible. Langton sugiere que la mezcla entre procesos que incorporan regularidades (necesarias para alm acenar información) y factores que introducen desorden (necesario para m anipular dicha información) justifican la aparición de esta propiedad, de manera natural, en el punto crítico. Han surgido algunas críticas razonables a esta aproximación, que implican la inadecuación del parám etro para algunos casos explorados (Mitcheh et ai, 1993) y existen asinúsmo medidas alternativas más sofisticadas (Crutchfield y Voung, 1990) que permiten caracterizar mejor las transiciones en términos computaciouaJes. Sin embargo, no cabe duda de que el resultado de Langton es enormemente sugerente. V’olveremos a él en el capítulo 16.
9,8
A u tó m a ta s celu lares y medios excitables
Entre las múltiples aphcaciones dadas a los autóm atas celulares, destaca la posibilidad de simular medios excitables. Un medio excitable es un sistema dinámico con capacidad para ser “excitado” por una perturbación que sobrepase cierto umbral. Después de la excitación, el sistem a se vuelve “refractario” , de manera que requiere un cierto tiempo (durante el cual vuelve a su estado de reposo) para volver a ser excitado de nuevo. Esta situación se da en muchos sistemas quínúcos y también
Orden y Caos en Sistemas Complejos
356 15000
I
■"
I
I
■[I
11I . I
¡I
I I I
a ;0000
l!
I
5000
0 0-0 0 0 0 0-0'
-O
. ■ I . ' . I M.l
-o
.1
.4
.5
.6
7
,8
A
Número de celdas
Figura 9.10: (a) Dependencia de los transitorios (tiempo característico necesario para caracterizar estadísticam ente el autóm ata) con el parámetro A. (b) Dependencia de los transitorios coa el tam aiio dei sistema. en sistemas vivos, en paxticular en las neuronas, el córtex cerebral y en el tejido cardíaco. En presencia de un espacio bidimensionaJ o tridimensioaal, formado por múltiples sistemas excitables acoplados de alguna forma, observaremos la generación espontánea de ondas que se propagan. Ea algunas ocasiones estas ondas sirven para autoorganizar una estructura form ada por rrúles de células, que contribuyen a formar la onda a la vez que son controladas-por ésta (como indicábamos en el capítulo 2 en relación con el principio de control de H. Haken), En el capítulo siguiente analizaremos la aparición de estructuras en sistemas de reaccióndifusión, en los que espacio y tiempo son continuos. En esta sección nos lim itarem os a presentar dos ejemplos de autóm atas celulares capaces de generar ondas espirales que se propagan. Un primer modelo de este tipo (véase Míkhailov, 1990, para una revisión general y múltiples referencias escogidas) consiste en una red bidimensional en la que indicaremos por ^ t( i^ j) el estado de cada punto. Los nuevos estados se obtienen empleando el siguiente conjunto de reglas ^ í(^ j) + l 0 n 1
SI
o < ^ t( i,;) < Te + Tr
si st si
^ t ( i j ) = 0 y Ut(i , j) < h
= U + Tr
= o y
El estado cero es el estado dereposo del autóm ata, O<
^
mientras que si < r,
se dice que el elemento se halla en estado excitado. Un estado refractario corresponde al conjunto < Te + 'Tr
De acuerdo con las reglas anteriores, un elemento situado en el punto ( í,j) pasará dei estado de reposo al estado excitado sicierta cantidad local U t(i,j) excedecierto umbral/i,pudiendo incrementar progresivamente su estado hasta , momento en ei que el autóm ata regresa al estado de reposo.
Autómatas Celulaies
357
Figura 9.11: A utóm ata celular que sim ula un medio excitable. Los parám etros son. 5, í? = 0.5, A - 3, T = 15.
=4,
—
La cantidad u t{ i,j) se interpreta como una concentración de “activador'’ sobre el punto Un activador es producido por los elementos que se hallan en estado excitado, a la vez que se descompone a un cierto ritmo. Ambos efectos quedan descritos por la regla adicional definida a primeros vecinos u t+ í{ ij) = g u tiiJ ) - h Y C ( k J ) /t( ¿ + + 0 k,l donde indicaremos ItO- -l·
+ J)
={;
si si
o < ■^ t{ ij) < re =
Te + Tr O
-
O
Los coeficientes deternunan el rango de la interacción. Para ser razonables en términos de los sistemas reales que modelizamos, deberán decaer a cero con la distancia de una forma relativamente rápida. En particular, podemos tomar interacción a primeros vecinos, con lo que restringiremos la suma anterior a los ocho vecinos más próximos. Empleando los parám etros = 4, = 5, g = 0.5, /i — 3, T — 15. obtenemos como resultado de las reglas anteriores estructuras espaciales de gran complejidad, como ias que se m uestran en la figura 9.11 (a,b). Partiendo de una condición inicial con algunos lugares excitados distribuidos al azar, obtenemos al cabo de cierto tiempo ondas coherentes que se propagan por el espacio girando y colisionando. Este tipo de sistemas ha sido estudiado en detalle por numerosos autores, que han extendido las propiedades anteriores a muchos casos reales de ínteres (Gerhardt y Schuster, 1989; Murray, 1989). Un ejemplo especialmente espectacular, por su capacidad de reproducción de las com plejas estructuras tridimensionales que aparecen en reacciones quírmcas vohimlcas, consiste en el siguiente conjunto de reglas (Markus y Hess, 1990). Consideremos una red bi- o tri-dimensional (A2, A3 ) dividida en cuadrados (o cubos) de lado d (figura 9.12 (a)). Colocaiíios al azar un punto (x,y ) € Afc dentro de cada uno de estos cuadrados y mantenemos esta distribución fija a lo largo de la simulación. Esta elección aleatoria se realiza con un objetivo concreto: evitar una elección particular de cierta geometría (cuadrada, hexagonal, etc.) que acabaría reflejándose en las estruc turas macroscópicas formadas. El estado de cada celda, por otra parte, tom a un conjunto discreto
358
Onlen y Caos en Sistemas Complejos
Figura 9.12: (a) Red empleada en el autóm ata de Markus-Hess, en la que indicamos la colocación al azar de los puntos en cada celda y el radio de interacción R. (b) Estructuras tridimensionales generadas con dicho autóm ata (M. Markus y B. Hess, 1990). de estados: (a) 5 — 0 (excitable); (b) S = n -f 1 (excitado) y (c) S G {n.n — 1,..., 1} (estados refractarios). En cada celda, se dará la transición S —» S — 1 si no se produce excitación. Se introduce además un parámetro Sm con el siguiente comportamiento: no puede darse excitación en una celda si S > Sm, pero sí cuando 0 < S < Sm- La excitación de un punto se desencadena, como antes, por el estado de sus vecinos, que ahora incluyen las celdas cuyos puntos (x, y) están a una distancia S < R (figura 9.12 (a)). Un punto presentará excitación si el número de puntos excitados dentro del dominio circular (esférico) definido por R es mayor que cierto um bral. Las simulaciones de este sistema (véase Markus y Hess, 1990) dan lugar a estructuras enorme mente complejas, como la que se m uestra en la figura 9.12 (b). Las estructuras formadas son de gran reahsmo y permiten explorar la dinámica de reacciones químicas oscilantes o la propagación realista de ondas de excitación en el tejido cardíaco (véase Winfree. 1987. para una exposición detallada acerca de modelos de medios excitables y sus implicaciones). Otros modelos de medios excitables basados en autómatas celulares permiten, por ejemplo, estudiar el problem a de la tur bulencia química, esto es, de la aparición de caos espaciotemporal, que abordaremos en el próximo capítulo (Oono y Kohmoto, 1985). Para term inar, señalemos que los medios excitables, que podemos simular de varias formas (Mikhailov, 1990) pueden ser buenos candidatos a sistenias computacionaies (Holden et al., 1991). Esta posibilidad, que exploraremos más adelante (capítulo 16) es de gran relevancia, en la medida en que podría peniútir comprender la forma en que ciertos sistemas naturales, como el cerebro, procesan información.
B ibliografía 1. P. Bak, C, Tang y K. Wiesenfeld, Self-organized criticality. Phys. Rev. A 38 364 (1988). 2. J. J. Binney, N. W. Dowrick, A. J. Fisher y M. E. J. Xewniau. The theory of critical phe nomena. An introduction of the rcnomiaHzation group. Clarendon Press, O.xford (1993).
Autóm atas Celulares
359
3. J. P. Crutchfield y K. Young. Computation ai ihe onset of chaos. En “Complexity, Entropy and the Physics of íaform atioa". Addison-Wesley, Reading, 1990. 4. P, Grassberger, Long-range con'claiions in an elementary cellular auiomaia model. J. ."•tat. Phys. 45 27 (1986). 5. M. G crhardt y H. Schuster, .4 crliular automaton describing the form ation o f spatially or
7. J. E. Hopcroft y J. D. Ullman, Introducción a la teon'a de autómatas, lenguajes y (am putación. CECSA, México. 1993. 8 . Y. Iwasa, K. Sato y S. Nakashiina. Dynamic modelling of wave regeneration
(Shigam ar<
j
in
subalpine forests. J. theor. Biol. 152 143 (1991). 9. C. Langton, Computation at the edge of chaos. Physica D 42 12 (1990). 10. C. Langtou, Life at the edge of chaos. En '"Artificial Life 11”, Addison-W'esley, Reading, 1991. 11. M. Markus y B. Hess, Isoiroptc cellular automaton for modelling excitable media. Nature 347 56 (1990). 12. A. S. Mikhailov, Foundation:^ of Synergetics I. Springer-Verlag, Berhn, 1990. 13. M. Mitchell, P. Hraber y J.P,Crutchfield, Revisiting the Edge of Chaos: Evolving cellular automata to perform computatwn.
Ctlluiar automata and statistical mechanical models. J. Stat. Phys. 49
139 (1 9 8 7 ) .
18. R. V. Solé, S. C. Manrubia, B. Luque, J. Delgado y J. Bascompte Phase Transitions and Complex Systems. Complexity 4. (1996). 19. A. Turing, On computable nu.7ubcrs viith an application to the Entscheidungsproblem. f ’roc. Math. Soc. 2 230 {1936). 20. A. Winfree, When time breaks doum. Princeton U. Press, Princeton, NJ 1987. 21. S. Wolfram, Statistical Mechanics of Cellular automata. Rev. Mod. Phys. 55 601 (1983). 22. S. W'olfram, Cellular automata as models of complexity. Nature 311 419 (1984a). 23. S. Wolfram, Computation theory of cellular automata. Comm. Math. Phys. 96 15 (1984b). 24. S. Wolfram, Universality and complexity in cellular automata. Physica D 10 1 (1985). 25. S. Wolfram, Cellular automata and complexity (collected papers). Addison-Wesley, Reading, 1994.
C apítulo 10
E str u c tu r a s de T uring y C aos E sp a c io te m p o r a l Hemos visto hasta ahora numerosos ejemplos de sistemas que exhiben caJiibios en el tiempo con propiedades muy notables. Vimos cómo un mismo sistema dinámico pu«'de. bajo ciertas condi ciones, dar lugar a estados estacionarios (atractores puntuales) y bajo otras -pasando por uno o varios puntos de bifurcación- a oscilaciones de mayor o menor complejidad. Aunque en la discusión del modelo de Lorenz hemos introducido el fenómeno de la aparición de estructuras convectivas en una capa de fluido sometida a un gradiente de tem peratura, los grados d·.· libertad espaciales fueron hábilm ente suprimidos por Lorenz para obtener un sistema de t r e s ecuaciones diferenciales ordinarias. En todo nuestro estudio previo, ei eppacio ha sido el gran ausente. Pero a nuestro alrededor hay m ultitud de ejemplos eu los que veiuos la aparición de orden en forma de estructuras espaciales. El ejemplo de la convección de Béaard es uno de ellos, pero también lo son los patrones ordenados que emergen a lo largo de la morfogénesis en los organismos multicelulares. A partir de una sola célula inicial que experimenta divisiones consecutivas, éstas nuevas células van organizándose en el espacio y ei tiempo. Aunque su numero alcanza con facihdad miles o cientos de miles de elementos que se hallan en contacto entre si a una escala local, éstas nuevas células m uestran propiedades de organización que van mucho más allá de la escala de longitud de las células aisladas. En la superficie de las alas de un insecto o sobre las escamas de la piel de un pez observamos patrones ordenados de coloración resultantes de la diferenciación específica de grupos de células que sólo entran en contacto con sus vecinas más cercanas. Aún más espectaculares, los dibujos que observamos sobre las conchas de algunos moluscos (figura 10. Í) desafían, aparentem ente, cualquier exphcación sunple sobre su origen. ¿De dónde procede este orden? Para ser má,s exphcitos. imaginemos uua lar va (hipotética) de un insecto, o el embrión temprano de algún rnarrúfero. Ambos estarán formados por un gran número de células indiferenciadas que, a ■posieriort, adquieren unas propiedades especificas asociadas a su posición a lo largo del embrión. Con el paso del tiempo, aparecen estructur¿i.s ordenadas en forma de segmentos, de inicio de extremidades, de manchas más o menos regulares, etc. Pueden además llevarse a cabo experhnentos simples pero enormemente reveladores que [)eriiiiten acercarnos a los mecanismos de regulación del fenómeno. En la figura 10.2 mostramos un ejcímplo especialmente interesante. En una fase temprana del desarrollo de un insecto, en la que no aparecen aún estruc turas evidentes ya diferenciadas, atamos un hilo cerca del centro del embrión, que separa éste en dos mitades. El proceso de morfogénesis continúa, pero sólo se lleva a cabo en una mitad. En ésta, aparece el insecto completo aunque reducido en tamsiño. Este experimento es muy revelador de las capacidades de regulación iniplícitas en el proceso 361
Orden y Caos vn Sistemas Complejos
362
Figura 10.1: Patrones de coioríición en conchas de moluscos.
B
Figura 10.2: Morfogénesis e^n un embrión de insecto (Euscelúi). Llevamos a cabo una manipulación experimental (atando la parte media del embrión en formación) provocaaulo una reestructuración del organismo, que aparece completo en una mitad del espacio normal.
Estructuréis de Turing y Caos Espaciotemporal
363
de morfogénesis^ (;il menos en algunos casos). Tenemos por lo tanto un sistema complejo capaz de organizarse ea el espacio y el tiempo sin un c o n tro l exterior. Las estructuras que aparecen son resultado de ( 1 ) sucesivas divisiones celulares que dan lugar a una estructura espacia] básicamento indiferenciada (al menos en apariencia), y (2 ) la interacción de las célula.- con sus células vecina.^. ¿Cómo podemos interpretar teóricamente este feuóni''no? Una respuesta ,i la pregunta de cómo tiene lugar i i aparición de esrr’i- turas en la moΓfoge'ne^ιfue dada por primera vez por el genial matemático mglés Alan Turiii'j;\ Su artículo, ¿a.s bas'.i químicas de la morfogénesis fue publicado en 1952 i Turing, 1952) y e^ uno de ios clásicos de la ciencia del siglo XX. En él Turing atacó el problema planteándose la pregunta de cómo surgirían, en un medio químico homogéneo, estructuras ordenadas de forma regular. Turing empleó un modelo muy simple. Este modelo ptiede imaginarse como una tira de ^células” dispuestas a lo largo de una hnea, de forma que cada célula entra en contacto sólo con sus dos vecinas adyacentes. Imaginemos que dentro de cada célula se están sintetizando dos tipos de moléculas. Supongamos que estas moléculas, que interaccionan entre sí en alguna forma, pueden difundirse hacia las células vecinas
10.1
P rocesos de difusión
Antes de pasar al planteam iento de Turing haremos una breve revisión del fenómeno de la difusión pasiva así como de su formalización matemática. La difusión es un proceso fácilm ente observable cuajido mezclamos dos fluidos (digamos agua y tinta). Al poco tiempo, liemos obtenido una mezcla homogénea, resultante del movinúento al azar de las moléculas de anihos componentes. Como vimos en el capítulo 1, este movimiento puede representarse como un recorrido al azar (random walk) de las partículas dentro del espacio que éstas ocupan. El proceso de mezcla es irreversible (la entropía crece a medida que el sistema se va dt''Ordenando) y el resultado final es un fluido en el que tenemos la misma concentración de amba.- sustancias en cualquier vohimen del espacio (siempre que éste no sea muy pequeño y alcance la escala de las fluctuaciones). Para obtener un modelo del proceso de difusión, supongamos que tenemos un recipiente con un fluido en su interior. Imaginemos que la mitad derecha (A) contiene cierta sustancia coloreada (5), ausente en el lado izquierdo (i?). Llamemos j- e y a las concentraciones de S en los lados A y B (figura 10.3). Es fácil intuir que, cuanto mayor sea la diferencia de concentración e n tre ambos compartimentos, más rápido será el flujo de 5. De aquí se sigue que la rapidez de cambio es proporcional a la diferencia de concentraciones entre ambos compartimentos. Si llamamos Z) a la constante de proporcionahdad, conocida como el coeficiente de difusión, tendremos las siguientes ecuaciones para la concentración en cada lado: T u rin g es p a r tic u la r m e n te conocido p o r sus ap o rta cio n e s fu n d a m e n tales a la la te o ría de la c o m p u ta ció n , A él d e b e m o s el concepto de múi^iíina de Turtng U ntv tr sai
Orden y Caos en Sistemas Complejos
364
Figura 10.3: Difusión pasiva entre dos compartimentos.
pero, puesto que supondremos conservación en la cantidad de 5 total, que llamaremos C, (esto es. X y = C) podemos reducir el sistema anterior a un sola ecuación: ^
= D ( C - 2 y)
que es fácilmente resoluble, proporcionando -2Dt
Esta solución nos da un crecimiento asintótico en la concentración de 5 en el com partim ento B hasta un valor final j/(cc) = C /2, es decir, la homogeneidad de concentración. Volvemos a encontrarnos con el resultado apuntado en el capítulo 1 , cuando los random ^valkers se movían al azar desde su posición inicial (idéntica para todos) hasta llenar de forma homogénea todo el espacio. El proceso de difusión ha destruido, como vemos, la diferencia inicial. El razonamiento anterior es fácilmente extensible a un sistema más comphcado. Si consideramos un conjunto de .V compartimentos conectados entre sí localmente y dispuestos a lo largo de una hnea (figura 10.4), podemos generahzar el modelo anterior sin dificultad. Sean ahora {x,} (í = 1,..., A') las concentraciones de S en cada punto. Ahora podemos imaginar el cambio en la concentración en el i—ésimo compartimento por: dx, = D [xi-i - Xi) 4- Z)(i-. + i - X,) = D{x, +i + r ._ i - 2x,\ dt Estas ecuaciones serán válidas para i ~ 2. ..., A' - 1. Observemos que ahora, bajo la introducción de un espacio explícito, debemos definir qué es lo que ocurre en los límites de nuestro sistema: debemos establecer las condiciones de contomo. Dos condiciones típicas son: (a) flujo cero: los
Estructuras de Turing y Caos Espaciotemporal
365
Figura 10.4: Com partim entos conectados localmerite (véase r.exto). limites del sistema (los com[)¿ir time utos ¿ = 1 e i = N ) sólo están conectados por difusión con vecino inmediato, esto es dx] -
D{X2 - Xl]
dxs = D(x,v -1 - Xy] dt (b) condiciones periódicas de contorno: este caso (considerado po: Turing en su articulo original) supone que los extremos están conectados entre sí (el sistema forn*a un aaillo). Entonces tenemos; dx N dt dxi ir E stas ecuaciones perm iten sim ular numéricamente el comportamiento de las concentraciones iniciales a lo largo del tiempo. Es de hecho el equivalente, continuo en x. dei experim ento de simulación numérica llevado a cabo en el capítulo 1. Partiendo de una condición inicial al azar, en la que tenemos fluctuaciones en las concentraciones de cada compartimento, la evolución dinámica lleva a una total ehminación de éstas.
10.2
La ecuación d e difusión
El últim o paso antes de introducir las ecuaciones de Turing será la · 'btención de ia llam ada ecuación de difusión, una de las ecuaciones clásicas de ia física matemárLca. Consideremos el siguiente problema: supongamos una línea continua a lo largo de la cual se deftne cierta variable C {x,t} para cada punto x y cada instante de tiempo t. Esta variable ¡)uede ser una concentración do morfógeno o una tem peratura (am bas obedecen el mismo tipo de ecuación). Observemos que lo que planteam os es de hecho la contrapartida de espacio continuo (figura 10.5) correspondiente a la versión anterior formada por N compartimentos. Deduciremos a continuación la expresión matemática asociada a la difusión sobre un espacio continuo en el que supondremos que el transport-» tiene lugar preferentemenfe a lo largo de un eje dado (digamos el eje x). La ecuación resultante contiene derivadas parciales respecto de la posición y del tiem po. Se tra ta por lo tanto de una ecuación diferencial en derivadas parciales. El valor de C {x,i] será a partir de ahora la densidad (concenrración) de partícula-s por unidaíi de volumen en una pequeña zona centrada en x. Supondremos en adelante que C (x ,í) es una función continua de t y de x. Consideremos, siguiendo el esquema de la figura 10.5, que existe
Orden y Caos en Sistemas Complejos
366 unit
Figura 10.5: Difusión a través de un paralelepípedo. cierto número de partículas en el interior de un paralelepípedo P lim itado, en el eje r, por los píanos X = Xq y X ~ x'o -f L. Supondremos además que se cumple la siguiente ley de balance; la tasa de canibio del número de partículas en P es igual a la tasa de creación neta de partículas m áí la tasa neta de Hujo de partículas a través de las fronteras de P. Sea Q [xA ) ia tasa neta de creación, y llamemos /(y , t) a la tasa de flujo de partículas a través del plano x = y. Tomaremos el flujo como positivo si se da en el sentido positivo de las x y negativo en caso contrario. Bajo estas condiciones, la ley de balance se escribirá de forma general como: rTn +[.
I
C {x,t)d x = J (x o ,i) - J{xo + L ,t) +
/
rXa+L
Q (x ,t)d x dt Jxo 3x0 Vxo. L- Se ha considerado que el flujo ts básicamente unidimensional, y que tiene lugar entre los planos situados en x = xq. L. Empleando eí teorema integral del valor medio obtenemos — C [qut)L = Q{q2 .t)L -I- J {x o ,t) - J{xq -f L ,í) siendo xq < qi < L y xo < < -t^o + L. Para obtener la ecuación de difusión, debemos dividir por L y tomar el límite para L —» O, Obtendremos, para un x arbitrario dC {x.t) d J {x ,t) — = Q[x^ t ) -------5— dt dx Ahora, consideremos el raso más sinií)le, en eí que las partículas son “inertes”, en el sentido de que no son creadas ni destruidas. Xo hay por lo tanto término de creación, y podemos tom ar Q ^ 0. Ahora debemos hallar la e.vpresión más simple asociada al movimiento pasivo de estas partículas. En primer lu^ar, consideremos el desarrollo en Taylor de C{x + hA ) C { x ,t) C \x + hL,í) = C (i,í) + h,d— dx
h'^d^C {xA) + ...
Si suponemos (razonablemente) que el flujo J [ x ,t) depende de las concentraciones cerca de x, vemos que de hecho este ténrúno deberá depender de la diferencia de concentraciones entre los puntos considerados, esto es, de djC . Por lo tanto, emplearemos dC dx
lo que uos da, bajo las ínpótesis previas, la ecuación de difusión (ley de Fick)
E s tru c tu ra s
de Turing y Caos Espaciotemporal
-
di
367
A D{C) dx
dx
j
Si suponemos, corno ocurrirá a menudo,
dt (la cual se corresponde con la ecuación diferencial deducida al final del capitulo 1 en térm inos de procesos estocásticos). La ecuación de difusión anterior puede ser fácilmente generalizada para dos y tres dimensiones. Tenemos en estos casos d'^C d^C dc {d = 2 ) - D dx^ dy^ dt
dt
d ^ c d'^c d^c dx~ dy^ d2 ^
{d = 3)
De forma compacta indicaremos los términos de difusión mediante ♦•1 empleo del operador laplaciano V^, definido, en tres dimensiones, por d^ d^ d^ 4o+ dx^ dydz notación que emplearemos de ahora en adelante. Esta ecuación puede ser resuelta para un gran número de situaciones de interés, que quedaxán especificadas por las condiciones iniciales empleadas junto con las propiedades elegidas para los contornos del sistema (véase más adelante). Tomemos por ejemplo la ecuación de difusión unidi mensional y sea el dominio dado por O < i: < oo. Supongamos que la concentración en el extrem o del sistema se mantiene fija en alguna forma, esto es, C( O. t ) = C q (para t > Q) y que no había moléculas en el tubo al comienzo del tiempo, es decir, C{x, 0 ) = O para r > 0. Puede demostrarse que, bajo estas condiciones, la solución de la ecuación de difusión unidi mensional es dÁ
C(x, t) = 2Co donde 2· se ha definido como
10.3
Soluciones para dtu — D d lu
Ya hemos visto con anterioridad que la difusión pasiva, en ausencia de otras variables, destruyo las correlaciones. Las diferencias de concentración son reducidas hasta alcanzar un estado de equilibrio completamente homogéneo. En esta sección plantearemos esta cuestión e n términos formales. La aproximación m atem ática que emplearemos será útil en el desarrollo dc la teoría de Turing. Partam os de ia ecuación de difusión unidimensional. Tenemos dlí _ dt
dx'^
Orden y Caos en Sistemas Complejos
368
Una solución general de esta ectiación puede obtenerse a partir de una superposición de modos de Fourier espaciales, dados i^or u(x, í) ^ [ ü cos(qx) + b úii(qx] Calculando las derivadas
du(x, t) dt
acos{qx) -t-òsin(gx)
u{x,t) - ( f2t u>t acos(<^/·) + bsin.{qx] dx^ Sustitutendo éstas, obtenernos la siguiente expresión }iara a cosici') + 6 sin(gx) El siguiente paso será definir las condiciones de contorno del problema. Tenemos, como ya sabemos, dos posibilidades de interés (para un dominio finito). Formalmente, éstas se indican por: (a) Condiciones de contorno de Von Neumann (flujo cero).
du(x, f ) \ /du(x, t' =O dx / rX-O -O V dx ^x - L (b) Condiciones de contorno de Dirichlet (valores constantes en los extremos). du{x, t)\ /du{x, t =O dt / x= dt / x - L x=0o \ Si empleamos, por ejemplo, las condiciones de Von Neumann, obtenemos du[x, i) dx j-=0,1.
q €- D q ^ i
a sin(gx) + bcos(qx)
)
que será nula si g O (esto es. la solución trivial independiente de x) o bien si el paréntesis del interior se hace cero en algún caso. Observemos que, para x — O, la derivada nos da 0=0
y. si empleamos este resultado y calculamos la expresión correspondiente al otro extremo (x = L), tenemos
du[x, t) = (i sin qL — O dr / x-L lo que nos proporciona un conjunto ordenado de valores de <[ posibles, g^ ^ ; n ^ 0. 1.2,.,. L· luego la expresión de la solución u (x ,/) será de la forma ii( X. f ) — a e ~ ^
^ eos ^
;
/j = O, 1, 2 , ...
El par¿ímetro a se obtendrá a partir de las condiciones iniciales. De forma general, las soluciones de la ecuación de difusión se escribirán en forma de un desarrollo de Fourier
Estructuras de Turir.g y Caos EsjKiciotemporal
369
a„r ti-O
Para í = O, tenemo^ de hecho
n= 0
que representa la forma de la perturbación inicial. P ara el segundo caso (condiciones de contorno de Dirichlet) un estudio equivalente nos dará un desarrollo en serie similar, sólo que en términos de funciones seno eu lugar de coseno.
10.4
E stabilidad de las soluciones
¿Cómo se comportan estas soluciones? ¿Cuál es su estabilidad? En reahdad, ya conocemos la respuesta a partir de las simulaciones llevadas a cabo anteriorm ente (capítulo 1). Sin embargo, podemos dar una respuesta formal empleando los desarrollos anteriores. Supongamos que partimos de una condición inicial homogénea u(x, 0 ) = uo y que la perturbamos (de form.a similar a como se había hecho en el e.studio de la estabilidad), mediante uua pequeña fluctuación, es decir, tomamos u{x, t) = Uo + éu{x, t) donde u {x ,t) < < í)l- Tenemos entonces una ecuación para las perfurbaciones (indicadas por y(x, t) = éu(x, f)), dada por dt dx^ Si consideramos las condiciones de flujo cero, sabemos que la solución general es de la forma Y { x ,t) = Y c L „ e n= 0
cos(J^x"j
y, puesto que Z) > ü. se tiene de forma inmediata que
luego todas las perturbaciones de cualquier tam año característico terminan por desaparecer y alcanzan el estado estacionario.
10.5
M odelos de reacción-difusión
Llegamos por fin a los modelos inspirados en la teoría de Turing. El escenario del que partimos emplea como sistema básico un espacio dentro del cual tenemos un conjunto de (n) morfógenos en interacción. Estos morfógenos, que asumiremos son el resultado de la actividad celular, pueden difundirse hacia el espacio circundante. En términos de células, cada una lleva a cabo la síntesis de los morfógenos. y éstos pueden difundir a las células vecinas. E n gen er a l, ias e c u a c i o n e s s e r á n d el ti p o
^ = / i ‘>(C i,.,„C „) + A V ^ C ., Ot
. = 1,2..... .
370
Orden y Caos en Sistemas Complejos
Aquí denota, para cada C,, la dinámica de las interacciones entre distintas moléculas. Es el llamado térm ino de reacción. Puesto que también incorporamos un término de difusión, estas ecuaciones reciben el nombre de modelos de reacción-difusión. En este capítulo nos limitaremos al caso más simple, en el que n —2 . Resolveremos en primer lugar el problema en una diisieusióii espacial, y generalizaremos pos teriormente. Partirem os del modelo
Observemos en prim er lugar que este sistema admite una solución estacionaria trivial, corre spondiente al estado espaciaimente homogéneo obtenido a partir de las igualdatles /i( C i,C 2) = / 2(C i,C 2) = O, que proporcionan el punto fijo P = [C l^C ^)· La solución, es obviamente estable, puesto que el operador (lineal) de difusión no puede alterar un estado homogéneo. La cuestión ahora es; si en lugar de considerar el estado espacialmente homogéneo consideramos una situación sim ilar, más real, en la que tenemos pequefias fluctuaciones en las concentraciones ahededor de P , ¿podría el efecto de lo,-, términos de reacción /i(C i, C 2 ) modificar esta estabilidad? Para obtener una respuesta, supondremos que dicha perturbación ha sido llevada a cabo, y que el estado homogéneo es ahora C i( r, 0) = Cí -f éCi C 2(r, 0 ) = C 2* + ¿C 2 donde como es habitual las perturbaciones son muy pequeñas \SCi\ << C ‘ , para í = 1, 2 . De forma similar a como se había planteado el estudio de la estabilidad de los sistemas dinámicos (capítulo 2 ) exploraremos ahora, en aproximación hneal, el comportam iento de ias fluctuaciones. Para simplificar la notación, indicaremos c, ~ éCi. Las ecuaciones linealizadas cerca de P son — _- i nr C i +, Ir i 2C2 +, í ? , - ^ dc 2 ^ 'oT "
d'^C2
Como es habitual, Lij son los elementos de la matriz de Jacobi, = d fi{P )/d c j. Supongamos que el dominio espacial tiene longitud £. Supongamos ademas que las condiciones de contorno son de flujo cero (sección 10.3). En este caso, descompondremos nuestras perturbaciorit·.'- eu modos de Fourier de la forma c itr ,í) -
c o s ( ^ '~ )
C2(r. t) — BnC
COS^-— j
Las derivadas de estas expresiones nos dan dc
-- = at
^"^‘1 _
1
g ,.2 - • ■ ‘" l i -2
eos
V L
f
fn 7r r\
‘' H ~ ¡
371
EstrucfcurcLs de Turing y Caos Espaciotemporal
(sim ilarm ente para C2). Si introrlurimos estas expresiones fn las ecuaciones lineale.s anteriores, obtendremos un sistema
b „ L \2 — o
— Wi 2 2
+ Bn j^Í22 + D¿ ^ £^2 ) ~
^
Este sistem a tendrá una solución no trivial si el determinantt- asociado es nulo, <-sto es, si ¿11 + L>i(4 ^ )
il2 = l>
¿23
j
L '12 + D 2
~
lo que nos da la ecuación de valores propios para P(u)n) —
+ [ l ,¡ +
+ £11 + ¿ j: + (Z?i -f- D¿) ^2 ’1^11"?-
( x ;; +Z? 2 ^ ) í i 2£21 = 0
Si 3?(üJ„) > 0. tendremos una inestabilidad asociada al modo n-ésinio. Lo quo indica este resultado es que aquellas perturbaciones tales que sa longitud de onda asociada sea la del modo n, serán amplificadas (el valor de la exponencial es positivo) y las que tengan valores 5?(.^'n) < O serán am ortiguadas. Si, bajo ciertas condiciones (que obviamente dependerán del tipo de funciones de reacción) algunos modos espaciales son favorecidos, deberíamos esperar observar estructuras macroscópicas con un tamaño característico del arden de las longitudes de onda asociadas a los modos inestables. En las siguientes subseciones consideraremos algunos ejemplos.
10.5.1
E s t r u c t u r a s disip ativ as: el B ru ss e la to r
Nuestro prim er ejemplo tiene como modelo de partida el conocido Brusselator, que fue desarrollado en el capítulo 4. Va vimos que el modelo, introducido por I. Prigogine y sus colaboradores, era capaz de exhibir comporramientos complejos, en forma de oscilaciones periódicas (ciclos línfiite). Veremos ahora que la introducción de los términos de difusión (de un espacio físico, en definitiva) da lugar a fenómenos de gran complejidad. El modelo de reacción- difusión será ahora d X (rJ ) = a ~ (6 + DA' + X ^ Y dt
t
Di V ^X
d Y ir J ) = bX ~ X'^Y + D 2 V ^Y dt (hemos m antenido la notación para las concentraciones de X e Y , indicando la posición espacial mediante la notación r i. Ahora por lo tanto V- = d^. Las perturbaciones del estado homogéneo, dado por P" = (a, b/a), quedarán indicadas en la forma A'(r,¿) = a + x(r, t) Y {r.t) = - + y(r,í) a
372
Orden y Caos en Sistemas Complejos 20 f’a o s
e^ s p a ciotem po ra L /
15
B ( m ) 10:
/
'Bifurcación de H o p f
R o t u r a de
SvmetT^a
D --
1
Ql O
A=2
L^1
D, = 0 . 0 0 1 6
10
02^0.008
25
20
15
30
m
Figura 10.6; Espacio parainctrico para el modelo de reacción-difusión para el Brusselator. Se indican los dominios de estabilidad para el sistema con estructuras espaciales estacionarias y para las inestabilidades espaciales que exhiben comportanrxiento periódico. Se indica tam bién la posición de las soluciones caóticas. siendo \x\ < < a y |y[ < < b/a. Estudiaremo.s el comportam iento del sistema lineal (linealizamos cerca de la solución homogénea). Tenemos así un sistema dinámico ^ X ^
U /
L,
\y /
con Lu la matriz de Jacobi asociada, esto es / d , f ¡ + D iV^
d ,fi
L ,=
V
3,f2
d,h +
/
y donde /, hace referencia a los térrmnos de reacción para cada variable. Si evaluamos esta matriz en el punto correspondiente al estado espacialmente homogéneo, tenemos \
/f> - 1 +
Sólo tenemos que aphcar el procedimiento general indicado anteriormente. El polinomio carac terístico será en este caso Un -}- a^b - a„,á„ - O donde
373
jEstruct tifas de Turing y Caos Espaciotemporal
Figura 10.7: Oscilaciones espaciotemporales caóticas del Brusselator unidimensional. Resolviendo, tenemos o;í = r «n -
± \/(
De aquí podemos obtener varios resultados. Supongamos que u.'„ G R- Si < O? cualquier perturbación inicial asociada al valor propio será amortiguada. Nos interesan^ de hecho, los casos para los que > O, que estarán ligados a la amplificación de estructuras de cierto tamaño característico. Esto ocurrirá si Qn/3n — > O esto es, si
Esta expresión deftne un dominio cuyo límite inferior \'iene dado por la curva de bifurcación (o de estabilidad m arginal) 2 _2
■
\D 2 J
+
D2n27T-’
L
r-
Si empleamos el plano (n, b) para definir los dominios de estabilidad del problema, obtenemos la figura 10.6- Este diagram a es de gran interés: la superficie que define el conjunto de estados inestables (que m ostrarán estructuras heterogéneas) posee un valor mínimo para cierto par (m, bm ), da<Ío por - \ aL" Di D2 El valor de rn será real, pero, puesto que n G N, el primer punto crítico be aparecerá para un valor G N, como se indica en ia figura. Para este valor diremos (jue aparece la primera
374
O rd e n
y Caos en Sistemas Complejos
1.0
O.R -
0.6
-
0.2
-
H'
j
0.0
1 0.0
I I
I . I I . . .
0.2
I .
0.6
0.4
0.8
1.0
X
Figura 10.8: Función propia del operador L lineai, para un sistema con condiciones de contorno de flujo cero. El perfil nos m uestra la aparición de un gradiente de concentración asim étrico inestabilidad cuando b crece y cruza la línea por (ricb). Veremos entonces que a lo largo del dominio espacial emergen estructuras coherentes con una longitud característica A x 2 L /n . En consecuencia, el anáhsis linea! de la estabilidad nos m uestra que las pequeñas fluctuaciones del estado homogéneo son amplificadas (para ciertos valores de los parám etros), generando de forma espontánea estructuras macroscópicas con un tamaño característico. Desde el punto de vista de la física, este sistema, y otros del mismo tipo, pueden generar estructuras regulares debido a que son sistemas abiertos, esto es, que intercambian energía y m ateria con el exterior. Bajo ciertas circunstancias, algunos sistemas (entre los que se incluyen los sistemas vivos) pueden emplear la energía externa de forma apropiada de manera que se reduzca la entropía interna. El resultado es la generación de estruciuras disipativas (Nicolis y Prigogine, 1977), de las que el Brusselator, analizado en esta sección, seria un ejemplo.
10.5.2
G r a d ie n te s y p o la r id a d
El estudio de la estabilidad de las soluciones dependientes del tiempo nos da la siguiente desigualdad Dy \ 1/2
>
h+
Si exploramos el espacio de parámetros, veremos de hecho que son posibles una enorme cantidad de comportamientos, entre los cuales se incluyen estados caóticos (figura 10.7). Este resultado no debe sorprendernos, en la medida en que, aunque el sistema se describe por sólo dos ecuaciones, es de hecho de dimensión infinita, dado que hemos incorporado el espacio. Podemos obtener aún más información siguiendo el análisis de la estabilidad que hemos iniciado. En las proximidades del punto crítico, los vectores asociados a la matriz (operador) de Jacobi serán de la forma
Estructuras de Turin" y Caos Espai'iotemporal
,
375
- {Cl, C 2 Y cos
/ rmrr \
\
/ Sustituyendo en el sisteuia lineal
nos da, ai)roximadamt'iite, 1/2
1
c,
g)
1
+a
<0
V
a continuación podremos obtener Ci (que está indeterm inado). El resultado final (Nicolis y Prigogine, 1977) es un conjunto de soluciones en la forma (X, !/)■'' = (C „ C í f
sin ( ^ )
Para la prim era bifurcación con condiciones de flujo cero obtenemos
Üua propiedad especialmente im portante de la parte dependiente del espacio de las soluciones an teriores es que, para condiciones de contorno de flujo cero, permite obtener gradientes de polaridad de forma espontánea (figura 10 .8 ), lo que explicaría de m anera natural la aparición de una señal a lo largo del eje an tero-posterior de un embrión que serviría a las células para determ inar su posición a lo largo de dicho eje.
10.6
B ifurcación d e estructuras estacionarias
Siguiendo el desarroUo de Nicolis y Prigogine, podemos dar un tratam iento general al problem a de la obtención de ia forma exph'cita de las soluciones estacionarias de las ecuaciones de reacción difusión una vez cruzado el punto de bifurcación ¿c- Supongamos que llevamos a cabo la aproxim ación A"(r, f) = ü -I- x(r, t) r ( r ,í)
- + y(r,¿) a y que introducimos dicha aproximación dentro de las ecuaciones dinánhcas del Brusselator. rete niendo ahora las contribuciones de los términos no lineales. Descompongamos el operador lineal L en la forma siguiente: L ^ Lf, — Le -‘r [L — Le) — Xc +
(b-bc) Hb-bc)
O O
donde Le es ei operador evaluado en el punto crítico de la prim era bifurcación. O btenem os entonces el sistema r ( -K ^^ y ) \ ^ ^ '\y ) ^ \ h { x ,y ) ) con /i(x, y) = [ h - bc)x -l· 2 axy + - x ‘ -f x'^y a
Orden y Caos
376
en S iste m a s
Complejos
y definimos de nuevo Itis ('ondiciones de contorno como antes. Para calcular las soluciones ' j·, , debemos recordar que, en las proximidades del punto crítico, las corree iones a la solución (
v .v
J’I Vy i }
que introduciremos en la ecuación para Lc{x, yV , identificando la.s potencias del mismo ord^-n para e. Obtenemos así un conjunto de expresiones de la forma he
V «fe /
\y k )
jb^ o,I....
junto a las correspondientes condiciones de contorno, que serán de una de las formas sigui- utes: x',( 0 ) = x t ( I ) = ... - O dj-kiO)
dxk(L)
dr
c/t
Obtenemos así los primeros coeficientes en la forma ao = O Qi
-
7 2 2 :0
+
(
712^0 + —^0 + 2 axoyo a
\
2 he
7i + ---- ^ 0 + '¿ayo
x'5
/
\
y por lo tanto, como resultado tenemos que Le f""") = 0 \y o J esto es, este vector es proporcional al vector propio crítico asociado a Le.
10.7
M o d elo de G ierer-M einhardt
Aunque hemos mencionado repetidamente las estructuras de Turing y su im portancia en el fenó meno de la morfogénesis, no hemos hecho demasiado hincapié en las hipótesis básicas que deberían suponerse como razonables para modelar dicJio fenómeno. De hecho, las ecuaciones iniciaimente propuestas por Turing carecían de estos elementos, si bien los resultados que obtuvo son genéricos. Fueron los investigadores alemanes Hans M einhardt y Alfred Gierer quienes por prim era vez explo raron este problema desde una perspectiva biológica. Estos autores estudiaron diversas formas de combinar la interacción de dos morfógenos con el objetivo de obtener estructuras ordenadas simi lares a las observadas en los seres vivos. Más aún: en algunos casos, los modelos fueron capaces de reproducir muy bien los resultados de experimentos de perturbación de embriones que daban lugar a individuos con diversas anomalías. Estas incluían la aparición de individuos con dos extremos idénticos a cada lado (dos cabezas o dos colas) o la reorganización de un embrión para dar lugar a un individuo menor, aunque completo (figura 10.2 ). El modelo está basado en un mecanismo de activación-inhibición. Gierer y M einhardt, así como Segel y Jackson de forma independiente, probaron que dos propiedades básicas eran especialmente
Estructuras de Turing y Caos Espaciotemporal
377
im portantes para obtener estructuras espaciaies. Estay propiedades son: (a) autocatálisis local y (b) inhiljición de largo alcance. La j)riraera propiedad es esencial para que las pequeñas fluctua ciones locales puedéui ser aniplificadas hasta adquirir un tamaño macroscópico. Un morfógeno a se llamará autocatalítico si un pequeño incremento eu su concentración local induce su crecimiento posterior. Esta catálisis no necesita .-'er directa: dos morfógenos pueden interactuar adecuadam ente (como V.-remos) para producir el ef«-'cU> deseado. La autocatálisis, que amplifica inhoniogeneidades iniciales, no es suficiente para crear patrones espaciales. Esta propiedad debe ser com pletada por la acción de una molécula antagonista que posea uua alta tasa de difusión (con relación a la primera). Si llamamos h a este morfógeno inhibidor, podemos formular un primer modelo que describa su interacción. Este es (Gierer y Meiharíh, 1972)
da dt
a" {I + Kaa^jh
7
~ fJ-h + <^h + DhV^h dt Auntjue veremos algunos ejemplos de la dinámica de este sistema para un dominio bidimen sional, exploraremos en primer luf^ar la estabilidad del estado estacionario en una dimensión. Consideremos el caso particular Ka — cr^, — 0. Llevaremos a cabo un cambio de variables con el objeto de obtener un sistema adecuadamente simplificado. Sean t ~ /lat
;
Ì - V U w 'D a )/
------ a ; ü = ^iaph p-hpa
,
íri ^ ----- -ri ^hpi
lo que nos da el nuevo sistema
da at
2
h
a + aDV^a
dh di donde hemos empleado la notación abreviada D — DajDh·, fi = P-hlP-a^ ~ [Ph^^a)¡{(-‘■hPa) Y = d “¡dx^. Además hemos ormtido el símbolo anterior sobre las variables, lo que no genera confusión alguna. Queremos resolver el sistema anterior, que supondremos acotado a cierto dominio espacial V = {x ; O < X < L]. Supondremos además condiciones de contorno de flujo cero. El escado estacion
cos(2 zkx)
378
O rd e n
con
y Caos en Sistemas Complejos
7 i7 T
Cada uno de los valores de n está asociado a una do las '‘frecuencias'’ (que pueden ser complejas). Las ecuaciones iinealizadas cerca del punto de equilibrio se ol)tiencn de la matriz de .Jacobi (
+ (1 —2 /go)
\
l¡a l
L(ao, ho) = \
- 2 flÜQ
U'n + k l + fl
para la cual podemos calcular el determinante, que nos da en este caso ) —^'n
p —O
donde oc y í3 indican Q = (1 -}- D )kl + I + /i - 2/ao í3 = D k i + {\ + , i D - 2 /a o ) k l+ ti Üna fluctuación asociada a la frecuencia crecerá si su parte real es positiva. La longitud crítica de la perturbación Lc{n) queda definida por 3?(u.’n) = O y si íOn es compleja, entonces la condición es a = 0. Empleando la restricción sobre los k^ definida por las condiciones de contorno, vemos que las perturbaciones oscilatorias pueden ser amplificadas en un sistem a de tamaño L si y sólo si se satisface la desigualdad 1/2
l +D L > Lc{n) — HTT 2 ¡ao - 1 - /i Vemos que la primera oscilación que puede obtenerse estará asociada a la frecuencia lox, dado que £ c (l) < Lc{n) (n > 1). Ahora, detengámonos a estudicur lo que ocurre cuando es real. En este caso, la condición Lc’n) = O se reduce a /i = O, con lo que tendremos amplificación de fluctuaciones si L > Lc{n) — iiiy^ 2 D<
------Ì «o
-
¡iD
\ Y + ---- 1 — ¡iD y A 0-0
\ " y
— A¡.lD
y, nuevam ente, Lc{l) < Lc{n) (n > 1). Tal y como señalan Koch y Meinhardt (1994) la existencia de una longitud crítica tiene im por tantes consecuencias biológicas. Un organismo en crecimiento desarrollará estructuras no-uniformes si y sólo si su tamaño es superior a ¿c(l-)· Podemos obtener a continuación el diagrama de fases asociado a este modelo en el plano de parám etros (D^fi). Supongamos que L > 1,(1) esto es, el tam año del sistema es claramente mayor que el de la longitud mínima c£iracterística. Supongamos (como hemos hecho con anterioridad) que k es una variable continua. Podemos calcular el valor de km del número de onda asociado a la mayor tasa de amplificación positiva.
379
£ sfru c turas de Turing y Caos Espaciotemporal
Figura 10.9: Diagrama de estabilidad de las stiluciones estacionarias del modelo de Meinhardt (vease texto). 3?(u;„). En la aproximación lineal, k^n domina la evolución de las fluctuaciones, y lo deterriunarcmos resolviendo las ecuaciones dk < O Distinguiremos entre dos casos: real e imaginario. Si € C, entonces 5f[u;(A;)j — —a /2 , que cumple las expresiones anteriores para k ^ = 0. Podemos verificar entonces que, si (t 6 [O, 1], u}{km - 0) es complejo con parte real positiva si 1 - 1
«O
< M < ------l ao
Por otra parte, si ..j es real, el teorema de la función implicita aplicado a la ecuación carac terística P(u!) demuestra que —O si d 3 /d k k„ [2D kl + {l + n D ~ 2/ao)] d a /d k k „ (l + D) pero, dado que el denominador de esta expresión es proporcional a km, debemos considerar ios ca^jos O y ¿ni > 0. Consideremos en primer lugar > 0. Introduciendo la solución para uJ obtenida de la ecuacióu característica, obtenemos la siguiente expresión para km krn —
2 /go - 1 - P-D
2D
para la cual uj es máximo y u:{km) > O? con lo que fiD <
1 1/2
/ 9
y D satisfacen la desigualdad 2
380
O rden
Finalmente, consideremos el caso km ~ O, que requiere máximo positivo en /: = O si /i cumple las desigualdades O< ^ <
y Caos en Sistemas Complejos
— 4,5 > ü. La frecuencia permeerà un
1 - 1
ao
Est(»s resultados se resumen en el diagrama de fases presentado en la figura 10.9. Los dominios obtenidos son • O < /i <
X _ 1 ao
: las fluctuaciones crecen exponencialmente con k ^ = O (dominio Ga
en la figura). —1
< ^ < 2 /ao — 1: las fluctuaciones asociadas con km ~ Q oscilan con cierta
frecuencia fija 3í(oj) y crecen exponencialmente a una tasa 3?(a;) (zona Gt del diagrama). 3
/i > 2 / u o - l y fj.D <
2 ..1
ao
: el estado espacialmente uniforme es inestable. Se indica en
el diagrama por la zona I, y corresponde a la región interesante en términos de morfogénei^is. 2
• PL > 2/íiü - 1 y fJ'D >
JL· ^ I ao
: el estado espacialmente uniforme es estable, y cualquier
perturbación que llevemos a cabo es am ortiguada y desaparece (región JI). Podemos explorar este modelo numéricamente, empleando la solución discretizada de la·^ ecua ciones (véase el apéndice B en Koch y M einhardt, 1994). Si empleamos las. ecuaciones bidimen sionales. esto es, con dos grados de libertad espaciales (cuya estabilidad general estudiaremos en la próxima sección) podemos obtener estructuras regulares estables, como las que vemos en la figura 10.10. En esta figura vemos de hecho la evolución desde el estado inicial, que es prácticamente ho mogéneo excepto por una perturbación aleatoria del orden de 10“ ^. A partir de esta perturbación, el sistema desarroUa una estructura espacial macroscópica; una estructura de Turing (Turing. 1952; Murray. 1989).
10.8
E stru ctu ras b idim ensionales
Introduciremos ahora un ejemplo de formación de patrones en dos dimensiones. Aunque en sí el tratam iento no difiere mucho de lo ya visto, estos modelos nos perm itirán reconsiderar los resultados anteriores y nos servirán además para introducir algunas ideas acerca de cómo resolver numéricamente las ecuaciones de reacción-difusión. Aden\ás, está claro que la extensión del número de dimensiones es de im portancia en la medida en que los sistemas reales a los que hemos hecho mención al principio son, al menos, bidimensionales (si pensamos por ejemplo en los patrones de coloración de la piel). Consideremos el problema de la formación de los patrones de coloración típicos de la piel de los mamíferos. En la figura 10.11 vemos un ejemplo: las manchas del pelaje de un jaguar. Este es un ejemplo de los muchos dibujos de distintos tipos que van desde coloraciones homogéneas hasta patrones complejos formados por manchas y /o bandas regulares de distintos tamaños y distribución (Murray, 1990). El patrón de coloración que observamos se desarroUa hacia el final de
E s tru c tu ra -s
cíe Turing y
Caos
Espaciotemporal
381
Figura 10.10; Generación de una estructura de Turing mediante el modelo de M einhardt, para una red 40 x 40 y los parámetros Da = 0.005, Dh = 0.2, p« = 0.01, p — 0.02, fia = 0.01, fih ~ 0.02, o·,, ^ = 0. (a) r= l, (b) t^500, (c) t=1500, (d) t^3000.
382
Orden y Ca.os en Sistemas Complejos
Figura 10-11; Ejemplo de patrón de coloración de la piel de un mamífero (un jaguar). Estos patrones pueden ser reproducidos medíante modelos de reacción-difusión. la embriogénesis (el proceso de formación del embrión completo) lo que sugiere que su distribución ha sido previamente definida en alguna etapa anterior: existirá un pre-patrón. Este pre-patrón, que definirá en último term ino la configuración final, se genera en las primeicis etapas de la gestación (para una cebra, por ejemplo, en los primeros 20-30 días sobre una gestación de un año). Siguiendo las ideas básicas planteadas por el modelo de Turing, Jim M urray ha propuesto un modelo de formación de patrones de este tipo definido en la forma (Murray, 1990) dt dt
- yf{u. u) + V ^u — ";?(
'O + DV'^v
donde los términos de reacción son /(u ,
-- a - u - h[u, v)
g(u. i?) = a (6 —u) —h{u, Tj) y la función h[u, i;) que aparece en ambos es , ,
.
puv
t') = 1---------£7^ “f- u -r A
Todas las constantes que aparecen sou positiva.s y D > l . El parámetro 7 introduce un factor de escala, siendo de hecho una medida del tamaño del dominio en el que tiene lugar el fenómeno de reacción-difusión. Aunque la elección de la forma específica de las funciones será la indicada arriba, no debemos olvidar que el mecaiüsmo de generación de estructuras de Turing descansa sobre un proceso de propiedades universales. Existe una familia infinita de funciones de interacción qne darán los mismos resultados cualitativos (Murray. 1988). El tratanúento del problema general es muy sinúlar al que se había realizado en una dimensión. Ahora obtenemos una nueva re tac ion entre dos v'aiores naturales y el número de onda, / .2 w.,2 \
Estructuras de Turing y Caos Espacíotempora/
(a
383
ít)}
(e)
\
3 (f)
Figura 10. L2: Ejemplo de soluciones numéricas de las ecuaciones de M urray (arriba) comparada.-, con ejemplos de coloración reales, correspondientes a colas de mamíferos (Murray, 1988). Se han empleado los parám etros a = 1.5, A' = 1, p = 18-5, a ^ 92, b = 64, los cuales definen un estado estacionario (u*. l·*) = (10,9), y. empleando la misma geometría, se utilizan distintos factores de escala: (a) j — 9; (b) 7 = 15 y (c) 7 = 25. Se m uestran los dibujos de las colas dc: (d) guepardo, (e) jaguar adulto, (f) jin eta (feto) y (g) leopardo. siendo n, m E Z. De form a similar a lo visto con anterioridad, los patrones espaciales poseerán una solución inestable dada por (Murray, 1990) w ( x ,y ,i) = J 2 E n m
eos í \
TITTX
eo s !
m rry
siendo A el valor propio asociado a Este modelo perm ite explorar diversas situaciones entre las que se encuentran las distintáis zonas del cuerj>o que m uestran patrones de manchas diferentes en función de la geometría. Asi. por ejemplo, para explorar una zona con sim etría aproximadamente cihndrica (como la cola o las patas) podemos considerar condiciones periódicas de contorno y anahzar el tipo de patrones obtenidos para distintas combinaciones de parám etros que generan estructuras. En la figura 10.12 vemos ejemplos de las soluciones obtenidas así como las correspondientes figuras obscrvada^s sobre la piel de distintos mamíferos. El efecto niá.s dram ático mostrado por el modelo lo introduce el cambio de escala definido por el parámetro 7 . Si el tamaño del dominio ( 7 ) es muy pequeño, no se dará ningún patrón espacial (dado que no habrá espacio suficiente para estabilizar patrones heterogéneos que surjan de modos de tamaño menor al del sistema. Esta situación es típica, y el modelo predice que habrá pocos mamíferos pequeños con dibujos, como así ocurre. A medida que 7 crece, introducimos la posibilidad de obtener inestabilidades que generen estructuras disipativas, que van haciéndose de menor tamaño respecto del tamaño que define 7 . Sin embargo, para tam años lo bastante grandes, nos encontramos con un efecto inesperado: volvemos a tener uniformidad. Sin embargo, así es (Murray, 1990) y, nuevamente, coincide con la observación de los grandes mamíferos (como el elefante) que carecen de patrón alguno de coloración. Los resultados previos sugieren una exphcación causal muy coherente de la formación de es-
384
Orden y Caos en Sistemas Complejos
Figura 10.13: Efecto del tam año del dominio en el que se generan ios patrones definidos por el modelo de M urray. Los parám etros son a = 1.5, K — 0.125, p = 13, a = 103, í> = 77, d — 7. La dimensión de cada dominio (que aquí representamos dei mismo tamaño) viene dada directam ente por -. Los valores empleados son (a) 7 < 0.1; (b) 7 = 0.5; (c) 7 = 25: (d) 7 = 250; (e) 7 = 1250; (f) 7 3000; y (g) 7 = 5000 (de Murray, 1990). tnicturas en sistemas biológicos, y especialmente a ío laigo de la morfogénesis. Existen buenos ejemplos de sistemas reales en los que dichas estructuras han sido observadas, y los gradientes de sustancias claram ente caracterizados. Eu otros casos, la observación directa del crecimiento del organismo (como es el caso de una especie de pez ángel) permite ver de forma directa la generación de una estructura de Turing, cuyo patrón final y proceso de formación encajan perfectamente en la teoría previamente descrita (Kondo y Asai, 1995). Otras evidencias apuntan a la existencia de procesos genéricos de creación de formas que serían básicamente universales (Goodwin, 1994; Alberch, 1980, 1989). Del mismo modo, existen numerosas aphcaciones dr este formalismo al problema de la formación de estructuras en ecosistemas, en los que a menudo aí>reciamos una heterogeneidad que no puede reducirse a las restricciones del am biente. A menudo, de hecho, las evidencias apuntan con claridad hacia un origen interno, debido a las interacciones de poblaciones con el espacio (Bascompte y Solé, 1995).
10.9
R e d e s acopladas y caos esp aciotem p oral
Hemos mencionado brevemente la aparición de comportamientos irregulares en sistemas de reaccióndifusión. También aquí, donde el espacio aparece representado, hallarnos escenarios de bifurcación, de interm itencia o de Ruelle-Takens (capítulo 5). Ya hemos discutido con anterioridad este punto, cuando introdujim os el escenario de aparición de caos a través de la cuasiperiodicidad. Tanto en el experimento de Couette-Taylor como en el de convección de Bénard el sistema acababa generando atractores extraños. Un resultado de gran importancia es el hecho de que la dimensionalidad de estos atractores sigue siendo baja en muchos casos (excepto en la turbulencia desarrollada) pese a la dimensión potencial del sistema físico. La mayoría de estudios del caos espaciotemporal (Kuranioto, 1984; Loskhutov y Mikhailov,
Estructuras de Turing y Caos Espaciotemporal
385
1990) con ilevan el estudio de sistemas de ecuaciones en derivadas parciales, Existe sin embargo un formalismo distinto, ideado por el físico Kunihiko Kaneko (Kaneko, 1983; Kaneko 1992) y que llamaremos redes de aplicaciones acopladas o, simplemente, apUcaciones acopladeis {coupled map lattices, CML). Estos sistemas dinámicos son discretos en el tiempo y en el espacio pero continuos en los estados que pueden adoptar las variables. Se tra ta de hecho de emplear una red d-dimensión al sobre la que colocamos aphcaciones discretas (como las anahzadas en los capítulos anteriores) conectadas entre sí localmente. Un modelo CML queda así definido por un conjunto de ecuaciones 3^n+ i(r) = /^(x „ (r)) + Cn({r'}, D) donde Xn (r) cs el valor loceJ del sistema que podemos imaginar como una población en una zona del espacio para el tiempo n, en el punto r. La red tendrá elementos, con L £ N . Análogamente a los ejemplos de sistemas de reacción-difusión presentados con anterioridad, tenemos un término de interacción y un término de acoplamiento. Este término puede tomar distintas formas: Acoplamiento lineal (difusión). Esta es la contrapartida discreta del término de difusión que hemos introducido con anterioridad. Exph'citamente, tendremos C „(r', D )= :D
¿ x „ ( r ' ) - x„(r)
L r' con D el coeficiente de difusión. La suma se lleva a cabo sobre los q vecinos m ás próximos, cuya posición queda indicada por el conjunto {r^}. El acoplamiento lineal es por lo tanto la contrapartida discreta del operador Laplaciano. Este acoplamiento induce inestabihdades que pueden hacer que se generen valores divergentes. Para evitarlo, se puede emplear un truncam iento, esto es, a:n(r) = O si x„(r) < O- Debemos tener en cuenta, sin embargo, que este truncamiento modifica la dinámica anterior, lo que hace aconsejable, en ocasiones, evitar su empleo. • Acoplamiento no-lineal (dispersión). En este caso, el acoplamiento no consiste en una simple sum a de términos, sino que toma la forma:
r'
y las ecuaciones completas se escribirán ^n+i{r) = { í - E»)^(x„(k)) + - ^ / ^ ( x n ( r ') ) 9 r' ¿Cuál es el comportamiento cualitativo de estos sistemas dinámicos? Como es fácil imaginar, incluso el modelo más simple exhibirá comportamientos complejos, del mismo modo que la contra partida discreta de la ecuación logística continua (que sólo posee un punto de equUibrio no trivial) m uestra una enorme variedad de comportamientos dinámicos. Veremos a continuación un ejemplo.
10.10
R ed es logísticas
Supongamos que acoplamos difusivamente un conjunto de aplicaciones logísticas a través del mecanismo anterior (Kaneko, 1989; WaUer y Kapral, 1984; Solé y VaUs, 1992; Bascompte y Solé,
386
Orden y Caos en Sistemas Complejos
1994) basado en el acoplamiento lineal. Este acoplamiento posee la capacidad de desestabilizar sistemas espaciaimente distribuidos que, en ausencia de acoplamiento, sou estables e incluso ho mogéneos. Eventualmente, uno de estos sistemas puede alcanzar el regimen caótico (por uno u otro escenario) y hablamos en este caso de caos inducido por difusión (Kuram oto, 1984; Loskutov y Mikhailov, 1990; Sole' y Valls, 1991, 1992; Bascompte y Solé, 1995). El efecto de ladíñisión es muy importante: no sólo modifica el comportam iento de las soluciones, sino que tiene un efecto im portante sobre su estructura en la región caótica. En este sentido, hemos visto en el capítulo dedicado al caos determinista que el escenario de bifurcación por duplicación de periodo terminaba alcanzando el régimen caótico y que éste aparecía interrum pido por un conjunto denso de “ventanas periódicas” , en las que la dinámica regresaba a un comportam iento regular y predecible. Aunque no sc ha mencionado con anterioridad, debemos señalar que las ventanas periódicas son especialmente sensibles a los efectos del ruido. El efecto del espacio será de hecho, como veremos, similar estadísticamente al de un ruido añadido a la dinám ica del sistema. Consideremos una red unidimensional formada por i = 1,2, N aphcaciones unidimensionales, de forma que el estado de cada elemento de la red sea una función
donde supondremos que la función que define la dinámica de cada elemento es una aphcación logística f'On a: G [0,1] y /i € [0,4]. Si empleamos acoplam iento por difusión, tendremos una dinámica dada por 2^n+i(í) = ff^{Xn(i)) +
- 1) -i- Xn[i) “ 2o:„(í + 1))
donde, como antes, D es el coeficiente de difusión. Supondremos que empleamos condiciones periódicas de contorno, esto es, x„(A' + 1) — Xu(l) y í^n(O) — a:„(iV). Restringiremos además el VcJor de D al intervalo D G [0 ,1/2] (lo cual es razonable si tenemos en cuenta que el término de difusión empleado es un promedio del flujo de poblóición entre puntos vecinos sobre la red). Debe^ mos hacer notar que este tipo de acoplamiento puede, en algunos casos, dar soluciones divergentes. Este hecho puede corregirse empleando un formalismo apropiado a cada caso, como por ejemplo el acoplamiento no-hneal antes introducido. Es posible, como antes, anahzar la estabilidad de las soluciones de la red con acoplamiento lineal. Tendremos ahora un conjunto de parámetros (c, jD, A') para explorar. Podemos estudiar la estabilidad de las soluciones, siguiendo el procedimiento original del artículo de Turing (Turing, 1952) que nos permite reescribir las ecuaciones para las aphcaciones en términos de modos normales, tomando jV XnU) = Y Ín(ín)exp
.
( 10. 10 . 1 ) V
m=l
\ /
Partiendo de esta trajisformación, y empleando la relación de ortogonalidad ^exp j =\ (con 6km - O si k asociado) será
N
- N h ..
711 y ékk — 1), el m -ésim o modo normal (la am plitud del modo de Fourier
^n(m) = ^ ¿ a ; „ ( Í ) e x p ^ - 2^ ^ j
( 10 , 10 .2 )
Estructuras de Turing y Caos Espacio témpora/
387
y a partir de esta expresión podemos derivar la dinámica de las am plitudes, que toman la forma, en el sistema con acoplamiento lineal
A'
A'-l í«(m ) - Ai ^ ífi(A:K„(rrí - k) it-o
Hemos obtenido esta expresión sustituyendo 10.10.1 en términos de las amplitudes de Fourier en la ecuación dináinica para la red, multiplicando por exp (~ 2 Trijk/ N ) y llevando a cabo la sum a para j = 1,..., N (Waller y Kapral, 1984). De forma similar puede obtenerse la expresión para el acoplamiento no-lineal, que nos da en este caso N
ín + i(m ) = p
^n{m) Y in ( k ) ^ n { m - k) V
J=1
J
La difusión no acopla los modos normales en el primer caso, m ientras que sí lo hace en el segundo. Podemos ahora explorar la estabilidad de esta red para el sistem a definido por la aphcación logística. Supongamos que el parámetro /i se haÜa ea el dominio de las soluciones estables (atrac tores puntuales) y que queremos estudiar la estabilidad de las soluciones espacialmente homogéneas correspondientes axQ = O y r J = l — 1/ju. Siguiendo el procedimiento que ya conocemos, llevaremos a cabo la perturbación del estado espaciaimente homogéneo X„(Í) = X* -h 6 Zn{Í) Sustituyendo en 19.10.2 obtenemos una nueva condición sobre las perturbaciones
donde i-l
Sustituyendo estas expresiones en las ecuaciones dinámicas para las am plitudes (y m anteniendo sólo los términos lineales) obtenemos, en el caso de acoplamiento lineal, N La condición de estabilidad marginal para un componente de Fourier dado quedará definida por la condición (Walier y Kapral, 1984) ^ (l
= ±1
(para j — O,..., A”"—1) que, para x* = O nos da fi ~ ± l + 4Ds'm^
/7rm \ j
mientras que, para x ’ := 1 — i/p. /í = (2 T 1) - 4 Z } sin ^(^ ^ ) Las fronteras anteriores estarán asociadas con modos de longitud de onda iV /j para un j dado. Tendremos dos cansos límite. Por una parte, tendremos los modos de longitud de onda infinita, con
388
Orden y Caos en Sistemas Complejos
j = O, cuyas bifurcaciones tienen lugar en la misma zona que ya se vio para los puntos fijos del sistema aislado (con 0 —0). Por otra parte, tendremos las longitudes de onda de menor tamaño, que dividirem os en dos casos, en función de si la red tiene un número par o impar de elementos. Si N es im par, los doiiúnios de estabilidad para los modos m arginalm ente esrables quedarán definidos por las fronteras ^ = ±1+4D
/i = (2 í 1) - 4Z? para x* — O y para x* = 1 —l//i, respectivamente. Este modo, de longitud de onda 2, corresponde a una red con elenientori cuyos estados se hallan estrictam ente alternados. En el segundo caso, un valor de N impar introduce un conjunto de modos con j = (N ± l)/2 que proporcionan las nuevas fronteras ( iV ±
fl — ± 1 + 4E>sin^
l) 7 r
2N ( iV ±
1)7T
2N para x* = O y para x ' - 1 - 1 / fi, respectivamente. Estos modos dependen ahora de N , aunque estas fronteras tienden a las del caso anterior para N —*■ oo, como es de esperar. Estos resultados, que pernúten ver el comportamiento de las soluciones para distintos valores de la difusión, pueden ser generahzados, como veremos en la siguiente sección.
10.11
Bifurcaciones: análisis form al
Consideraremos en esta sección ias propiedades formales de las redes con acoplamiento local definido por difusión, esto es, Xn + i ( r ) -
/^(x„(k)) + D
Y 2
- ^n(r)]
r' donde por simplicidad emplearemos la notación V'^x„(r) = ^ x „ ( r ') - 5 x „(r) y supondremos condiciones periódicas de contorno. Consideremos una perturbación del estado espacialmente homogéneo, dada por £ n ( r ) = Xo + y n ( r )
donde, como es habitual, suponemos que |yn(r)| < < aproximado por x„+ i(r) - /,,(xo + yn(r)) + D
xq
El sistema dinánúco original puede ser
^ ( x o + y«(r')) - (^0 + yn(r))
y a prim er orden escribiremos ff^ixo + yn(r)) - /^(xo) + luego se tiene que
M
389
Estructuras de Turing y Caos Espaciotempor.ü donde hemos empleado ro = Podemos por lo tanto definir un operador hneal, dado por
que nos perm ite escribir las ecuaciones dinánúcas para las perturbaciones en la forma yn + i ( r ) = [ C ^ , d ] y n ( r )
Exploraremos ahora el problema de las estabilidad de los estados estacionarios antes men cionado, extendiéndolo a órbitas p-periódicaí; de periodo arbitrario. Como sabemos (capítulo 5) estas órbitas están definidas por el conjunto forma que = Xj para cualquier Xj G 0 \F^· Después de p iteraciones, tendremos !,„ + .(r) = ( £ í,D Í-'''> -l£ í,i> ];^ o (r) O,
de forma más exphcita, se dará la relación + DV-
í/n + i ( r ) -
yo(r]
Recordemos que el pvrimer término entre paréntesis, esto es, p-l
( j~o
dx ^ X,
define la estabilidad de la órbita p-periodica (May and Oster, 1976; véase capítulo 5) para la aphcación aislada {D = 0). Específicamente, la órbita espacialmente homogénea será estable si y sólo si < 1. A continuación, podemos llevar a cabo un desarrollo de Fourier, yu (r)
Ik r
donde k es el vector de onda, siendo cada componente de k proporcional a la inversa de la longitud de onda (en una dirección dada). Podemos obtener una ecuación para la evolución temporal de los modos de Fourier Íp í: -
n
j =0
Las fronteras de estabilidad para las órbitas espacialmente homogéneas quedarán especificadas por (Oppo y Kaprah 1986) p -l
n
= ±1
J =0
siendo estas curvas, definidas en el plano (/¿, /3), dependientes del acoplam iento sólo a través de !/(k). En una dimensión, tendremos (Kapral, 1985) i/(k) = 4jDsin^
irki
390
Orden y Caos en Sistemas Complejos
y, en dos dimensiones, .7 r(k i+ h 2 )\ /7t(Á:i - fc2 ) \ u(k) = AD co^(------ ------- j c o s ( ------ ------- j - 1
,
(en general fc, = O, 1,.... L /2 serán las romponeiifes on cada dirección). Podemos estudiar detenida mente la estabilidad de las órbitas. El primer uiodu de Fourier que se hace inestable corresponde a la longitud de onda mínima (la que aparece asociada al patrón en tablero de ajedrez). Aquí ki = L¡2 para todo i (Kapral, 1985). Para este caso particular tenemos, en dos dimensiones,
n{(S)„ donde asumimos explícitamente la existencia de un escenario de bifurcación con duplicación de periodo. Esta expresión anahtica nos permite obtener un resultado ya mencionado: la desestabilización de órbitas periódicas homogéneas, inducida por la difusión (K apral, 1985; Stassinopoulos y Alstrcm, 1992). Típicamente, el sistema generará estructuras espaciales más y más complejas a medida que la difusión aumenta. Señalemos para term inar que estas estructuras pueden estudiarse empleando distintas aproximaciones, que incluyen la tríuisformación de la red acoplada inicial en un autóm ata celular (Chaté y Manneville, 1989).
10.12
E x p o n e n te de Lyapunov esp a cio tem p o ra l
Un problema im portante que se ha mencionado en distintos lugares de este libro, en relación con las medidas de caos en sisteman reales (especialmente biológicos) es la dificultad de obtener series temporales lo bastante largas, con la garantía adicional de que éstas reflejen un proceso estacionario. Esta situación es especialmente relevante en el caso de los ecosistemas, en los que disponemos de series temporales de corta duración que hacen difícil la caracterización cuantitativa correcta del tipo de dinámica. Pero también lo es en otros casos, como en el cerebro, cuya dinámica parece exhibir caos pero para la cual no podemos garantizar estacionariedad. El hecho de que los sistemas reales, tanto los ecosistemas como el cerebro, posean típicamente grados de libertad espaciales (esto es, son sistemas distribuidos en el espacio) proporciona algunas posibilidades adicionales que pueden perm itir llevar a cabo una m edida cuantitativa del tipo de comportamiento dinámico observado. En este .sentido, podemos desarrollar una medida similar al exponente de Lyapunov previamente introducido, pero que emplee la información espacial junto con la temporal (Solé y Bascompte, 1995). Supongamos, restrhigiéndonos al ca-so discreto, que consideramos una red sobre la que interac ciona un conjunto de .s especies, definida por las ecuaciones
(con j = l ,...,s , X = (x ¿,,..,z* )) y donde las funciones F ¿{x),C ^{x) indican los términos de interacción y difusión, respectivamente. En general, tendremos una red r-dimensional
A'-(í)= | k = (í:,.....i v ) | l < i , < i | (con r = 2 en nuestros ejemplos). Partiremos de una condición inicial arbitraria y una vez alcanzado el régimen estacionario seguiremos la evolución de una de las variables implicadas, esto es, {x^(k)}
Estructuras de Turing y Caos Espaciotemporal
391
Figura 10.14: Comparación entre dinámicas temporales locaies y dinámica a corto térnñno. En (a) vemos una red logística con Z — W, — 4 y D = 0.Ü5, en la que represeiitainos, para un punto dado, las sucesivas iteraciones durante 200 pasos de tiempo. En (b) hemos representado, para cada punto de la red. cuatro iteraciones. Vemos claramente la sinhlitud entre ambas gráficas, que sugiere que la información espacial puede ser empleada para evaluar el comportam iento temporal.
í+ 1
Space
Figura 10.15: Caracterización del caos espaciotemporal; supongamos dos configuraciones consecu tivas en el tiempo, obtenidas a partir de una red acoplada. En este ejemplo, se tra ta de uu modelo de presa depredador (se verá más adelante) para el que mostramos las poblaciones locales corres pondientes a las presas. Tomando dos puntos de la red cuyo estado inicial difiere en menos de un umbral dado €, seguimos su evolución y comparamos las divergencias posteriores para reahzar la estimación del exponente de Lyapunov espaciotemporal.
Orden y Caos en Sistemas Complejos
392
1.00
c
B
g
0.75 o o
0X
Oo
o oo o
^0 = o
(L· 0.50
o ^ oo o
_ ··
^
• «11 o·,
Í 0.25 a. >v
°«=
o ·
i --------------------------* ·.· · D = 0 10
— -0 .2 5
2 1 - 0·“
co 2
3
+
5
6
7
8
9
o o o o o ED!M = 1 □ □ D Q D ED1M=4
· · · · ·
10
E m b e d d in g dim ensión
E DI M= 3
gam m a= 0 .1 0 -0 .7 5 3.00
3.40
o 3.80
Figura 10.16: Exponentes de Lyapunov espaciales, \s(d ) obtenidos para una red logística 10 x 10. (a) Valores del exponente para distintas combinaciones de parámetros y para dimensiones crecientes, (b) Empleando D = O.l y distintos valores de /j, obtenemos el conjunto de exponentes para distintos valores de fi. para cada punto de ia red k € A’'(L) durante un número dado (típicamente corto) de iteraciones n = 1, Tn. Sea pues el conjunto definido, para cada punto de la red. por P ( k ) = {j:i{k)..... lÍ.( k )} es decir, por la evolución local del sistema. Para cada uno de estos conjuntos F-'(k) podemos reconstruir el atractor local en un espacio d-dimensional, con lo que tendremos un nuevo conjunto de vectores F,(k) = { x ] ( k ) = (xíCk)..
c R·^
con i — 1..... m —d -i- 1. Consideremos ahora el conjunto de todos ios puntos form ados por rj(A )=
U
r i( k )
k€.\(L)
que constará de (m ~~ {d — 1))¿^ puntos. Si el sistema es de baja dimensionalidad. como ocurre en muchos casos, una representación de este conjunto coincide básicamente con la que obtendríamos si dispusiéramos de una larga serie temporal local, procedente de un punto de la red. Un ejemplo de esta idea se m uestra en la figura 10.14. en la que vemos ambas series. En la primera se ha dibujado el conjunto de pares de valores (x„,Zn -f U obtenidos de un punto de una red logística (con X = 10, ^ = 4, I? 0.05) empleando una serie tem poral larga. Vemos claram ente la forma de la aphcación logística. En la otra figura vemos el resultado de superponer los estados locales consecutivos empleando sólo cuatro iteraciones. V'einos básicamente el mismo tipo de estructura. El exponente de Lyapunov espaciotemporal se calcula como sigue. Para una dimensión d dada, tomamos cada vector X¿(k) € F¿(k) (con i = 1. ...,m — d) para Vk € A’"(Í/). A continuación, buscamos aquellos puntos de la red h tales que X,(h) 6 -V{L) y (h k), sean tales que su
Estructuras de Turing y Caos Espacioíeinporai
393
distancia cumphi la desigualdaíl 1/2
'i+d- 1 lix ^ k ) -- X í(h)|! =
< €
E
donde t G {0 , 1 ) cs la máxima separación perm itida (definida en forma similar a io visto en el capítulo sobre medidas de caos). Para un instante de tiempo i, indicaremos estos pares por < k, h > . A continuación calcularemos la distancia entre el siguiente par de valores,
y de estas cantidades podremos obtener el exponente
(d) que se define en la forma
l|X f+ i(k )-X Í+ ,(h )||· ||X Í ( k ) - X Í ( h ) || siendo Np el número total de pares < k, h > comparados. Tomando c = O.l y distintos valores de d, podemos analizar además el efecto de la dimensión. En la figura 10.16 vemos el resultado de los cálculos empleando una red logística de 10 x 10 elementos. En la prim era 10.16 (a) indicamos el efecto de la dimensionalidad d sobre el valor del exponente obtenido para distintos valores de difusión y de /u. Vemos, entre otras cosas, que parece existir una región de saturación del valor de Af(d) que sugiere que la dimensión empleada es suficiente para caracterizar la dinámica. Podemos conjeturar razonablemente (Solé y Bascompte, 1995) que la dimensión inferior a la que el exponente se satura podría ser la dimensión de la dinámica. En la figura 10.16 (b), vemos, para una red con D = 0.1, el efecto de ía dimensionalidad. Una vez más, el valor de los exponentes espaciales, sobreestimados para dimensión uno (tal y como esperaríamos) adquieren valores similares para dimensión = 2 y d — 3. Este método ha sido empleado en distintos casos, revelando su capacidad para detectar caos e, indirectamente, deternúnism o, en series obtenidas a partir de un sistema espacialm ente distribuido. Dado que el exponente no requiere una gran cantidad de datos en el tiem po, podemos obtener estimaciones a corto plazo del valor de Aj(d) que, eventualmente, nos podrían perm itir detectar transiciones dinámicas en sistemas complejos como el cerebro.
10.13
S u p ertran sitorios y caos espacial
Uuo de los efectos más dram áticos de la introducción del espacio sobre la dinánúca d<· estos sistemas es la destrucción de las ventanas periódicas, como ya se ha mencionado. Sabemos que el caos determ inista es esíj^cturalm ente inestable en la región del diagrama de bifurcación en la que caos y órbitas periódicas coexisten. Estas últimas son densas en este dominio del espacio de parámetros, de forma que, dado un valor fj.' en el que aparezca caos, existirá, para cualquier entorno de radio arbitrario alrededor de //*, alguna órbita periódica. La introducción del espacio modifica drásticamente esta situación, como se puede ver en la figura 10,17, en la que comparamos el diagrama de bifurcación de la aphcación logística Xn +i — = 1 —fj-x“ ^ (que es de hecho una transformación bajo cambio de parám etros de la logística antes introducida) con el correspondiente para una red unidimensional con acoplam iento no-hneal (dispersión), que escribiremos +1
(1 - D)f^{Xr,{i)) + ^ E > |/^ (x „ (i+ 1)) +
~ 1
394
Orden y Caos en Sistemas Complejos
.0
1.5
3.5
*.0
Figura 10.17: (a) Diagrama de bifurcación de la aplicación logística Xn +x = /,i(x’n) “ 1 — en el que observamos la existencia de miiltiples ventanas periódicas dentro del dominio caótico, (b) Diagrama correspondiente a la red acoplada, con N = 64 y difusión D = 0.2. Las ventanas periódicas han desaparecido. El diagrama se ha obtenido empleando una condición inicial aleatoria. En el diagrama de bifurcación mostrado, obtenido para una red con N — 64 elementos y D = 0,2, vemos que el dominio de caos es ahora continuo. Si representáramos el valor de ios exponentes de Lyapunov, las caídas hacia valores negativos dentro del régimen caótico estarían ahora ausentes. El caos espaciotemporal es, por lo tanto, estructuralmente estable. Todas las ventanas periódicas son destruidas para virtualmente cualquier condición inicial. El mecanismo de destrucción, como ha demostrado Kaneko, se origina a partir de dos procesos; la interm itencia espaciotem poral y la existencia de un fenómeno enormemente interesante: los superÍTansiiomos (Kaneko, 1990; Crutchfield y Kaneko, 1988). Supongamos que partimos de un caso especial de ventana periódica (que ya hemos estudiado con anterioridad): la ventana de periodo tres. Para acoplamientos débiles, con D < Dr — 10“ ^, el sistema tiende a un estado final no-caótico, de periodo tres. Para valores superiores, la red presenta estructuras no-periódicas ( ‘^defectos”) que se propagan y colisionan dando lugar a explosiones turbulentas sobre la red que se desplazan dentro de dominios periódicos: tenemos interm itencia espaciotemporal. Para redes de pequeño tamaño, estos defectos que introducen com portam ientos aperiódicos acaban aniquilándose entre sí y obtenemos una red con dinámica 3-periódica. Sin embargo, a m edida que aumentamos el tamaño de la red, vemos que el tiempo característico necesario para alcanzar el estado periódico aumenta con enorme rapidez, de forma que tenemos Tn = Ce rA' (Kaneko, 1990), siendo r a {D ~ D cY ^ con 7 ss 1. Esta divergencia exponencial tiene consecuencias muy im portantes. Por una parte, la divergencia hace que el tiempo que debamos esperar para obser var la caída final en el estado periódico crezca a.stronóniicamente con el tamaño de la red. Por otra parte, la observación de estos sistemas comporta un resultado inesperado: si seguimos, por ejemplo, el comportamiento del exponente máximo de Lyapunov a lo largo del tiempo, veremos que su valor se mantiene aproximadamente constante durante el transitorio, cayendo de forma prácticam ente súbita cuando el atractor periódico es alcanzado (figura 10.18 (b)). O tras magnitudes estadísticas pueden calcularse de forma siirúlar, y también éstas presentan dicho comportamiento estacionario
jCstruc turas de Txiring y Caos Espaciotemporal
O F^·· · ·
t r < I ! I a t I I "I j i I
5 000
· 10000
395
r ^ i i ."< ] > :
tie m p o
15ÓÒ0 ^ ’ '2 0 0 0 0
( x ] 50)
H e m p o
(x10^
Figura 10.18: (a) Dinámica de una red con N = 50 para /i = 1.752 (en el dormnio de la ventana de periodo tres). Los puntos negros indican |xn(í + 1) —Xn(í)l > 0-3- Vemos la propagación de extructuras a lo largo de la red; (b) caída súbita del exponente de Lyapunov obtenida para la red anterior (véase texto). durante el transitorio. Este resultado es muy interesante, en la medida en que el com portam iento transitorio, que habitualmente hemos considerado irrelevante, es estadísticamente estacionario. En otras circunstancias, el transitorio es un régimen en el que no observamos estacionariedad de ninguna clase, dado que se supone que el sistema converge hacia el com portam iento realmente estacionario, caracterizado finalmente por un atractor. En este caso, sin embargo, el transitorio es estadísticam ente estable y, a menos que dispusiéramos de un conocimiento m uy detallado del sistema (como por ejemplo el espectro completo de exponentes de Lyapunov) no podríam os dis tinguirlo de un comportanúento caótico típico. Por este motivo, hablamos de supertransitorios, que serán, para un sistema incluso moderadamente pequeño, el único com portam iento realmente observable. Crutchfield y Kaneko, para otro sistema dinámico definido por la aphcación
con $ ( r) = Ax 4y tomando A = 0.91, B — 0.1, que generan ciclos de periodicidad p = 25, han explorado numéricamente el comportam iento de los supertransitorios, obteniendo una relación T ^ = T i 2^ con r =
JV -l
donde Nc = 21,5 ± 0.5, Ti == 149.5 ± 0.5 y a = 3 ± 0.3. Este resultado nos dice que, para una red de tam año moderado, digamos N = 128, se tiene T ~ 10®^, uu número astronómico; empleando un ordenador que calculara cada nuevo estado de la red en 10 "^^ segundos, tardaríam os 10“*° años en alcanzar el estado final sobre el atractor periódico. Las consecuencias de este resultado son considerables; podría ocurrir que un estad o dinámico aperiódico, observado en un sistema espacialmente distribuido, ya sea un ecosistem a o un flu ido turbulento, correspondiera, desde el punto de vista estrictam ente m atemático, a un estado
Orden y Caos en Sistemas Complejos
396
transitorio. Desde el punto de vista práctico, nunca observaremos el comportamiento final y lo verdaderamente estacionario será de hecho el supertransitorio.
10.14
C o m p eten cia y caos espaciotem poral
En esta sección consideraremos un modelo simple de interacción entre dos especies que compiten por un recurso en cierto dominio espacial. Supondremos que sus generaciones no se solapan y que por lo tanto podemos emplear la aproximación discreta antes introducida. Consideraremos dos poblaciones x„ e ¡/„ de insectos competidores que seguirán las siguientes ecuaciones dinámicas Xfi +l —
yn) —
í/n+l ~
yj^) =. fJ.2yn{^ ~ Vn ~ ^2Xn)
(con /í 6 [0. 4J y /? > 0) las cuales permiten definir un modelo simple de competencia intere specifica (Begon y Mortimer, 1986; Solé, Bascompte y Valls, 1992). Observemos que, sí /3, — 0. estas ecuaciones qut'dan desacopladas entre sí y tenemos una red logística para cada caso. El parámetro 3 introduce por lo tanto el término de competencia, que modifica la estabilidad de estas poblaciones. Si analizamos el modelo, veremos que posee cuatro estados posibles de equilibrio: • Punto de equilibrio trivial, P q = (0,0), típicamente inestable. • Puntos de exclusión competitiva, definidos por Pi = ( 1 - 1/ ; í i , 0 ) ; P 2 - ( 0 . 1 - l / / i 2) y que implicami la ehminación de una de las especies a cargo del mejor competidor. • Punto de coexistencia competitiva, dado por Pc ~ (x*, y" ), x ', y* > Oen el que ambas especies coexisten de m anera estable pese a la competencia. Consideremos aquí el caso simétrico, esto es, ¡3i = 0 y fit — fx para i — 1,2, Para este caso especial, se tiene que x* = y" = {1 - 1/;j )/(1 + /?), y el anáhsis lineal de la estabilidad nos da los dominios S,·, definidos por S ( f i, 2 ) = {(/<,/3) l í > 1; /í£ ( 1 ,3 )} para los puntos de exclusión y S (P J
{(/i,/3) I , (0,1); ^ G ( l,3 ) }
para el de coexistencia. Para un valor de fi dado, tendremos coexistencia si ^ < 1 y exclusión en caso contrario. En este sentido, la situación simétrica /3i = A y = f^2 implica que, en función de las condiciones iniciales, uno de los competidores (el mejor situado poblacionalmente) sobrevivirá y el segundo será ehminado. La predicción de la teoría es por tanto que la competencia generará, de ser lo bastante intensa, una simplificación de la diversidad, en la que los peores competidores desaparecen o, en nuestro caso, uno de los dos en función de la condición inicial. Este problema es de hecho un ejemplo más de rotura de simetría (figura 10.19) en el que pasamos de un atractor estable (para 3 < 1) a dos atractores simétricos (para 0 > 1) entre los que las fluctuaciones ehgen por rotura de simetría. Como veremos, sin embargo, este resultado cambia notablernente en el caso de incluir el espacio.
397
Estructuras de Turing y Caos Espaciotemporai
Figura 10.19: (a) Rotura de simetría espacial en el modelo simétrico de competencia (Solé ei al., 1992). Representamos aquí la abundancia local de una de las especies (la otra daría una imagen en negativo de ésta). Las zonas más claras son ias de mayor población, (b) Parám etro de orden para el modelo de competencia. Aparece una ciara transición para (3^— 1. La contrapartida espaciotemporal nos la da el sistema definido por la red bidimensional z„ + i(r) =
-
x„(r) - /3í/„(r)) + £>i V^x„(r)
í/n + i(r) = / / y „ ( r ) ( l ~ y„(r) - /3x„(r)) + D 2 V^i/„(r)
con k = (í, j) y siendo ei acoplamiento V^2:„(r) =
i:„(j) _ qx^{r) j
(si escogemos el acoplamiento no-lineal los resultados básicos del modelo no se alteran). Conside raremos aquí 5 = 4 vecinos. Emplearemos la regla de truncamiento (xn(r) = O si x’n(r) < 0). pero de hecho ésta es sólo necesaria en casos muy inestables. Antes de proceder con estudio anahtico, podemos llevar a cabo algunas simulaciones numéricas empleando las ecuaciones anteriores. Partiendo de una condición inicial al azar (una pequeña fluc tuación alrededor del estado estacionario homogéneo, que tomaremos por x(i, j) = x* -f ¿ x {i,j), y ih J ) = J/* + ^ y iiíj)) iteran^os nuestro sistema para distintas combinaciones de parám etros. Tomemos por ejemplo una situación en la que p daría un estado estable (atractor puntual, p € [1^3]) de coexistencia, con ¡3 < l. Una simulación nos demuestra que nada especialmente interesante ocurre: la coexistencia que predicen las ecuaciones se traslada de m anera lineal a la red, sin más consecuencias. Pero lo sorprendente ocurre para 0 > i. La predicción es que una de las especies ehminaxá a su competidora. Sin embargo, inmediatamente surge la pregunta de cómo afectará el espacio en cada caso, dado que en distintos puntos tendremos distintas condiciones iniciales. En la figura 10.19 vemos un ejemplo dram ático del resultado de esta simulación: aparecen estructuras espaciales (de una escala claramente superior a la de interacción) en las que comprobamos la vahdez
398
Orden y Caos en Sistemas Complejos
Figura 10.20: Cuatro ejemplos de estructuras finales obtenidas sobre una red de 30 x 30 nodos, con D — 0.05, fjL = 2.5 y 3 — L.l. Para las cuatro, la condición inicial es una distribución, uniforme con una pequeña fluctuación al azar añadida, distinta en cada caso. /oca/del principio de exclusión. En algunos dominios, una especie ha excluido claramente a la otra. Las zonas más oscuras indican, para la especie representada, los lugares menos poblados por ésta, m ientras que las zonas más claras indican la exclusión de la segunda. Localmente, se ha producido efectivamente rotura de sim etría, pero globahnente, y como consecuencia de ese fenómeno, ambas especies coexisten. La aparición de una nueva fase heterogénea puede caracterizase m ediante la introducción de un parám etro de orden adecuado. Definamos en nuestro caso eí siguiente:
que será cero si tenemos coexistencia y por lo tanto (pese a posibles fluctuaciones) ios valores locales tienden a ser iguales, y positivo si el sistema crea estructuras y por lo tanto el valor absohUo de la diferencia es no nulo. En la figura 10.19 representamos un ejemplo de cálculo de este parám etro, que exhibe una brusca transición en /?c = 1, como era de esperar. Además, podemos apreciar el efecto de la sensibilidad del patrón final respecto de la*s aleatoriedades iniciales llevando a cabo varias simulaciones en las que sólo variamos las fluctuaciones locales. El resultado de cuatro simulaciones distintas se muestra en la fií^ura 10.20, en la que hemos representado el estado final. Ahora, la estabilidad de las órbitas periódicas puede anahzarse siguiendo los pasos anteriores. Consideremos la transform ada de Fourier para las ecuaciones lineales asociadas a cada punto, ¿ í(k ,í) = L ( k ,P ’ }<5^(k,0 con la que llevaremos a cabo el cálculo de las bifurcaciones que generan patrones espaciales. Ten dremos una ecuación característica dada por =O donde
F^-'^P*)) denota los elementos de la matriz de Jacobi.
Estructuras <{e Turing y Caos Espaciotemporal
399
Introducireaios !a dependencia explícita del espacio mediante el vector de onda, 0 (k) = 4 |c o s ^ - ^ y ' Q) cos(
- l | , k - { k ,l)
y de aquí podetuos encontrar las fronteras de estal>ilidad de nuestro modelo. Para valores dados ó·' D, los donuuios del espacio de fases r = { (^ ,/3 )|A < e (0 ,4 );í? > 0 ) se obtendrán a partir de la condición crítica dos primeros puntos críticos serán
Aj(k) =
= ±1. Los valores propios correspondientes a los 2-/x
+ D0(k)
A2(k) = /x(l - /? ) + 5 + D0(k) y para el punto de coexistencia, tendremos
Ai(k) = 2 - /í + D0(k) A,(k) = í < [ l - ( l - l / / . ) / ( 2 + /3)] + r> 0 (k) Nos restringiremos a los dos primeros, para los que podemos hallar las curvas correspondientes a l'
=3 + De{k]
D0(k) 0
1 -
=
fl -
1
fi + i + D e (k )
Ahora, podemos elegir vectores k adecuados para obtener los dominios de estabilidad. Para k = (0,0) (es decir, estados homogéneos) y para k = {N /2, N /2) (estados en tablero), tenemos B(k) = O y —8 respectivamente. Empleando estos valores, podemos haUar las fronteras para las bifurcaciones que rompen sim etría dando lugar a heterogeneidades en el espacio, que serán /^° = 1 ; ^ ( x l - 8D ; =
= 3 = //O - 8 Z)
í3^_ = i f L + i ) / { f i - l ) 8D p -l SD
donde y son los valores (í = /i, ,/3) asociados a cada uno de los vectores de onda k = (O, 0) y k = (N /2, N /2). respectivamente. Como esperaríamos, la introducción de la difusión en un espacio
400
Orden y Caos en Sistemas Complejos
B
lOÓ^' lio"' '120 ' 130
140
150
tie m p o
Figura 10.21: (a) Dinámica local de una estructura de Turing caótica. Se indica, dentro de un dominio, la dinám ica de la especie ganadora (linea continua) y la de la perdedora, que aparece a niveles bajos en línea discontinua. Pese a las grandes fluctuaciones poblacionales, que pueden incluso acercarla a la extinción local (indicada por una flecha) la estructura permanece, (b) Es tructura de Turing caótica.
10.15
O ndas espirales en redes acopladas
Consideremos ahora la formación de un grupo distinto de estructuras, que ya mencionábamos en el capítulo anterior, y que podían ser generadas mediante autóm atas celulares; las ondas espirales. Estas estructuras aparecen, como ya hemos mencionado, en m ultitud de sistemas complejos y son nmy cai-acterísticas de los modelos de reacción-difusión que describen medios excitables (Murray, 1990). Estas ondas (junto con otros tipos de estructuras) han sido halladas en modelos CML de distintos tipos como son el modelo de Lotka-Volterra discreto (Solé y Valls, 1991) y modelos de huésped-parasitoide (Hassell et a/., 1991; Solé et a i, 1992), que consideraremos en esta sección. Supongamos que partimos del sistema dinámico descrito por el siguiente conjunto de ecuaciones ^n + l —/^2^n(l
2^n)Pí3('^nií/n)
í/n + 1 — ^n(l ~ Fp i^n· Un))
(10.15.1)
que ha sido empleado, para ciertas elecciones de Fq, en dinánúca de poblaciones (Begon y Mortimer, 1986). Aquí r„ e í/„ son un tipo especiail de poblaciones de presa y depredador conocidas en la literatura como modelos huésped-paTasiioide. Este modelo difiere del modelo de Lotka-Volterra debido a la form a especial de depredación que exhiben los parasitoides, que no m atan a su víctima sino que la inmovilizan e introducen en la misma (que permanece viva) un huevo que se alim entará de ésta. Asumiremos que el término de depredación es tal que F3 {x,oo) = O y F 3 (x , 0 ) = 1. Tomemos por ejemplo (Solé ei al., 1992) F^(x, y) = exp(—^y). Este sistema dinámico posee un rico repertorio de com portam ientos dinámicos, entre los cuales haUamos una transición hacia la cuasiperiodicidad, como podemos apreciar en el diagrama de bifurcación de la figura 10 . 22 , en el que hemos tomado f-i = 4 (que emplearemos a lo largo del estudio de este sistema) y un intervalo de valores de 3 ^ (1,7). P ara 0 < ,3c ~ 1.7S aparece dinámica caótica debido a la inestabihdad (con extinción)
Estructuras de Turing y Caos Espaciotemporal
401
Figura 10.22: Escenario de bifurcación para el sistema dinámico de huésped-parasitoide definido or las ecuaciones 10.15.1. Aquí hemos empl^íado ^ —4. de la población de depredadores cuya ausencia genera comportamientos caóticos en la ecuación logística. Para 0 G {/3ci3.4), tenemos un colapso de esta solución eu un atractor puntual que sufrirá posteriorm ente sucesivas bifurcaciones con órbitas de periodo 6 (puede dem ostrarse que no aparecen de otra periodicidad menor), atractores cuasiperiódicos y caos. A continuación, podemos construir la contrapartida dependiente del espacio, Xn+i(k)
- íix „ (k )(l - x„(k))e“ ^!''*t*^) + DiV^Xn(r)
y„ + i(k) = x„(k)( 1 donde, nuevamente, tenemos
4. Z»2V ^y„(r) 9
V^X„(r) tt: ^ X n ( j ) -q X jiik ) y, cuando fuera necesario, x-„fk) = O si Xn(k) < 0. Supongamos que partiuioá de una situación en la que la población de presas se halla presente en todo el si.stema y de uu número reducido de puntos en los que se introducen iniciaim ente los depredadores. Tendremos por lo tanto ¿1 < xo(k) <
¿2
Vk 6 A(¿)
Si < yo(k) <62 Vk € K, siendo Kg = {hi, ■■■k,] un número finito (s < L'^) de puntos de la red escogidos al azar y kj 6 A(L). Tomaremos 6 , tales que O < < <$2 < 1 (aquí ¿1 = 0.3 y 62 = 0.4). El resultado de sim ular estos sistemas es la generación de una enorme variedad de estructuras, típicainente no-estacionarias, algunas de las cuales vemos en la figura 10.23. Las ondas espirales aparecen en abundancia en presencia de distintos tipos de dinánrúca, tanto periódica como cuasiperiódica o caótica. Pese a formarse en condiciones de inestabihdad, las ondas m antienen su coherencia en el régimen caótico, como vemos en la figura 10.23, para una red 512 x 512. Tenemos de hecho un amplio dominio del espacio de coeficientes de difusión en el que aparecen ondas espirales.
402
Orden y Caos en Sistemas Complejos
Figura 10.23: Estructuras generadas por el modelo huesped-parasitoide antes introducido (véase el escenario de la figura anterior). Observamos la formación de ondas espirales sobre una red de tam año 512 x 512. Empleamos /i = 4 y (a) /3 = 4 (cuasiperiódico), D \ = 0.001 y D 2 — 0.2; (c) 0 — 5,0 (caótico), mismos Di y D 2 ·
Figura 10.24: Espacio (D i, £>2) de parámetros para el modelo de huésped-parasitoide. Vemos tres dominios cualitativam ente distintos.
Estructuras de Turing y Caos Espaciotemporal
403
Figura 10.25: Ondas espirales obtenidas mediante un modelo de huésped-depredador con movimiento dispersivo y dependiente de la densidad de presas (Rohani y M iramontes, en prensa). Observamos la aparición de ondas espirales con distintos grados de coherencia P ara /3 £ ( 3 . 5 , <-''^to es, en el régimen cuasiperió(hco dei sistema original, aparece una zona de caos inducido por difusión alrededor de £>,= { (D ,.D 2 )I
l-D ¡ ). O
que de hecho separa dos dominios cualitativamente distintos, D~ (para D 2 < 1/5 —£>1) y (en caso contrario). Para estos valores, el expórtente de Lyapunov es cero y aparecen ondas espirales cuando nos encontramos en D~ · Por encima, no existen estructuras regulares de gran tamaño y sólo obsevamos dinámica caótica. La aparición de ondas espirales en modelos de este ripo ha sido comprobada por otros estudios distintos (Rohani y M iramontes, en prensa) que han obtenido resultados similares, confirmando la existencia del escenario de bifurcación RTN. En la figura 10-25 vemos un ejemplo de los resultados obtenidos en estos modelos, que sugieren la universahdad de las ondas espirales en sistemas de presa^depredador como los antes descritos. El empleo de formas más sofisticadas de movimiento, empleando dispersión (acoplamiento no-hneal) e incor[)orando elementos más reahstas como es el movimiento de los depredadores en la dirección de los lugares más ricos en presas, confirma los resultados previos. De hecho, incluso la simulación de un ecosistema en el que detallamos el estado de cada individuo, incluyendo su edad, tam año, sexo, movimiento al azar, alimentación, etc. (los llamados modelos orientados al individuo) nos permite ver cómo en un sistema de este tipo, en el que se incorporan estocasticidad es de muchos tipos, se puede dar lugar a ondas coherentes (Bascompte ei ai, 199G). En este estudio, se empleo información acerca del ciclo de vida de cierta especie de liebre
404
OrdGn y Caos en Sistemas Complejos
profundam ente dep<“ndieute.
Bibliografía 1. P. Alberch, Ontogenesis and morphological diversification, Am er. Zool. 20 653
(1980).
2. P. Alberch, The logic of monsters: evidence for internal constraints in developmental evolution. Geobios L2 21 (1989). 3. J. Bascompte y R. \'. Solé, Spatially-induced bifurcations in single-species population dynam ics. J. Anim . Ecol. 63 1003 (1994). 4. J. Bascompte y R. V. Solé, Rethinking complexity: modelling spatiotemporal phenomena in ecology. Trends Ecol. Evoi 10 361 (1995). 5. J. Bascompte, R. V, Solé y N. Martinez, Population cycles and spatial patterns in the snowshoe hares: an individual-oriented simulation, (preprint, 1996). 6 . M. Begon y M. Mortimer, Population Ecology. Blackwell Sci. Publishers, London, 1990.
7. H. C haté y P. ManneviUe, Coupled map lattices as cellular automata. J. Stat. Phys. 50 357 (1989). 8 . J. P. Crutchfield y K. Kaneko, Are attractors relevant to turbulence? Phys. Rev. Lett. 60
2715 (1988). 9. A. Gierer y H. Meinhard, A theory of biological pattern formation, Kybemetik 12 30 (1977). 10. M. P. Hassell, H. N. Comins y R. M. May, Spatial structure and chaos in insect population dynamics. Nature 353 155 (1991), 11. M. P. Hassell, O. Miramontes, P. Rohani y R. M. May, Appropiate formulation for dispersal in spatially structured models. J. Anim. Ecol. 64 662 (1995). 12. K. Kaneko, Spatiotemporal chaos in one- and D 37 60 (1989).
ívh)-dimensional
coupled map lattices. Physica
13. K. Kaneko (editor), Special issue on coupled map lattices. Chaos
2
279 (1992).
14. K. Kaneko, Superiransients, spatiotemporal intcrmitiency and stability of fully developped spatiotemporal chaos. Phys. Lett. A 149 105 (1990). 15. A. J. Koch y H. Meinhardt, Biological pattern formation: from basic mechanisms to complex structures, Reviews Mod. Physics 66 1481 (1994). 16. S. Kondo y R. Asai, A reaction-diffusion wave on the skin of the marine angelfish Pomacanthus. Nature Z76 765 (1995). 17. Y. Kuram oto, Chemical Oscillaiions. Waves and Turbulence. Springer, Berlin, 19S4. 18. A. 'Vu, Loskutov y A. S. Mikhailov. Foundations of Synergetics II. Springer, Berlin. 1990. 19. H. M einhardt, Models of Biological Pattern Formation. Academic Press, London. 1982. 20. H, M einhardt, The algorithmic beauty of sea shells. Springer-Verlag, Berlin, 1995.
Estructuras de Turing y Caos Espaciotemporal
405
21. A. S. Mikhailov, Foundations of Synergetics I. Springer, Berhn
1990.
22. J. Murray, Las manchas del leopardo. Investigación y Ciencia,
Mayo19S8.
23. J. Murray, Mathematical Biology. Springer, Berhn, 1989. 24. G. Nicohs e I. Prigogine, Self organization in Nonequilibrium 1977.
System.'i.Wih'v. New York.
25. P. Rohani y O. Miramontes, Spiral waves in host-parasitoid dynamics. Proc. Roy. Soc. D (en prensa, 1995). 26. L. A. Segel y J. L. Jackson, Dissipative structure: an explanation and aih ecological example. J. theor. B io l 37 545 (1972). 27. R. V. Solé y J. Valis, Order and chaos in a 2D Lotka-Volterra coupled map lattice. Phys. Lett. A 153 330 (1991). 28. R. V. Solé y J. VaUs, On structural stability and chaos in biological syst*:ms. ./. theor. Biol. 155 87 (1992). 29. R. V. Solé, J. Bascompte y J. Vahs, NonequilihHum dynamics in lattice: ecosystems: chaotic stability and dissipative structures. Chaos 2 387 (1992). 30. R. V. Solé, J. VaUs y J. Bascompte, Spiral waves, chaos and multiple attractor.^ in lattice models o f population dynamics. Phys. Lett. A 166 123 (1992). 31. R. V. Solé, J. Bascompte y J. Valls, Stability and complexity in spatially-extended tvio-species competition. J. theor. B io l 159 469 (1992). 32. R. V. Solé y J. Bascompte, Ecological chaos. Nature 367 418 (1994). 33. R. V. Solé y J. Bascompte, Measuring chaos from spatial information. 139 (1995).
theor. Biol. 175
34. D. Stassinopoulos y P. A lstr 0 m, Coupled maps: an approach to spatiotemporal chaos. Phys. Rev. A 45 675 (1992). 35. A. Turing, The chemical basis of morphogenesis. Phil. Trans. Roy. Soc. B 237 37 (1952). 36. I. WaUer y R. Kapral, Spatial and temporal structure in systems of coufded nonlinear oscil lators. Phys. Rev. A 30 2047 (1984).
C apítulo 11
R e d e s d e KaufFman En capítulos previos hemos estudiado distintas aproximaciones (básicam ente determ inistas) al problema de la dinámica de sistemas complejos. La existencia de propiedades emergentes, de propiedades macroscópicas nuevas, no presentes o reducibles a las de los elementos componentes, es el tema básico del discurso de ia complejidad. Hemos comprobado además que la obtención de propiedades emergentes no requiere, en general, el empleo ni de interacciones ni de elementos básicos comphcados. Los efectos no-hneales poseen la capacidad intrínseca de generar complejidad. Además, si lo compiejo surge cerca de puntos críticos (véanse los capítulos 7 y 8 ) la descripción simplificada del sistema puede ser más que suficiente. En este capítulo vamos a detenernos a explorar el comportamiento de uno de los modelos (o aproximaciones teóricas) más conocidos dentro del estudio de la complejidad: las redes Booleanas aleatorias, conocidas también como redes de Kauffman (RK) (revisadas en profundidad en Kauff man, 1993). Estos son sistemas dinámicos discretos en el espacio, en el tiempo y en el conjunto de estados S que, típicam ente, está limitado a dos valores: E = {0 ,1}· Estas propiedades son comunes con los autóm atas celulares, pero la form a en que ios elementos se conectan entre sí no lo es. P ara cada elemento S, G S (con i — 1,..., N elementos formando la red) elegimos al azar exactam ente K de entre los N elementos, los cuales servirán de ‘^vecinos” o entradas con las que definiremos las reglas dinámicas. Así que ahora el entorno de un autóm ata dentro de la red se define por un conjunto elegido al azar, lo que, necesariamente, dará lugar una pérdida de correlaciones. Las redes de Kauffman incorporan la aleatoriedad a un segundo nivel: la dinámica de la red podría ser homogénea, en el sentido de que la función que defina los cambios de cada elemento sea la misma para todos, y sólo dependa de las entrad¿us particulares. Por el contrario, la dinám ica vendrá definida por 5 .■( í- l·l) = A . [ s . , ( 0 , 5 „ ( 0 , - - 5 . k (¿) siendo A,· una función Booleana elegida al azar de entre el conjunto T k de todas las posibles funciones booleanas con K entradas. En consecuencia, la red de Kauffman incorpora aleatoriedad a dos niveles muy im portantes: en la form a de elegir los vecinos y en la forma en que éstos v'an a interaccionar. Pese a que la aleatoriedad de las RK es enorme, ésta red posee propiedades de organización interna sorprendentes. Entre las aplicaciones de este formalismo (que son muchas) destaca por su interés la organización del genoma y el problema de la diferenciación celular, que analizaremos en este capítulo. Para entender el alcance de los resultados de Kauffman, daremos una breve introducción al problema del control de la expresión genómica. 407
408
Orden y Caos en Sistemas Complejos
Figura 11.1; Tipos celulares; ea un orgaiiisruo complejo, encontramos distintos tipos de células diferenciadas, que lle\ an a cabo tareas distintas. Su número es muy inferior al que esperaríajiios de las combinaciones posibles de los genes pres<‘ntes. ¿Por qué?
11.1
C ontrol de la expresión g en ó m ica
Las células que componen los tejidos de un organismo superior son muy distintas entre sí, tanto en su morfología como en su función específica. En algunos casos están enormemente especializadas, de forma que llevan a cabo la síntesis de enormes cantidades de un*a o muy pocas proteínas. Este hecho nos indica claramente que algunos genes están m uy activos: la diferenciación consistiría (al menos en parte) en la amplificación^ de algunas secuencias particulares de ADN que codifican las proteínas observadas. Típicam ente, la diferenciación celular depende de cambios en la selección de secuencias de ADN. La naturaleza de esta selección hace que la diferenciación celular sea un fenómeno irreversible (en general) aunque no existan cambios realmente irreversibles en las propias secuencias. Los resultados experimentales nos pernúten concluir que: • Todas las células de un organismo multicelular contienen exactamente el mismo ADN. • Los distintos tipos cehilare.s sintetizan distintos conjuntos de proteínas (estos conjuntos de finen, en úhimo rérnúno. el tipo celular observado). • Células de tipos distintos transcriben distintos conjuntos de genes. (para un resumen claro de los experimentos llevados a cabo para contrastar estos resultados, véase el capítulo 8 de Albe rrs et ai, 1993). Hoy sabemos que la activación o inactivacióti de gene.s tiene lugar a través de la acción de proteínas específicas que pernúten activar o reprinúr la actividad de genes concretos. El estudio de sistemas de regulación muy simples, como es el caso del bacteriófago A, dem uestra que incluso un conjunto pequeño de genes reguladores puede originar un patrón de com portanúento de gran Biologi'a m olecular, e sta expresitjn h ace referencia a la ge n era ció n de copias m ú ltip le s dt> c ie r t a e s tr u c tu r a m o le c u la r. E n n u e s tro casú, se refiere a la generación dc ¡Proteínas espi-oTicas, r e su lta n te s de l a a c tiv a c ió n selectiva de u n gen.
Redes de Kauffmajì
409
complejidad, con muchas soiuciones posibles. La consecuencia de esta observación es que si un sistem a relativamente simple, como ei fago A, puede dar lugar a com portam ientos complejos, las posibilidades de un genoma del tam aiio dc una célula compleja son, en principio, cistroiiómicas. Si el tipo celular depende de un patrón dado (ie activación genómica, entonces podríamos esperar observar una colección enorme de tipos celulares. Si, para simplificar, tomamos el estado de un gen como una variable binaría (véase más adelante), esto es, “O” para un gen inactivo y “ 1” para un gen activo, tendremos, siguiendo la nomenclatura de los autóm atas celulares, un conjunto de estados Booleano, E = {0,1}, tal y como indicábamos en la introducción. Si nuestro sistema está formado por N genes, entonces el conjunto de todos los posibles tipos celulares incluye AV =
^ 2^
tipos, lo que para valores grandes de N (como es típico) nos lleva a una enorme diversidad potencial de células diferenciadas. Sin embargo, cuando nos acercamos al sistema real observamos que el número efectivo de células diferenciadas distintas es muy reducido: del orden de la raíz cuadrada del núm ero estimado de genes AV = . una cantidad enormemente inferior. En el caso del genoma humano, para el que A' w 150000 genes, tendríamos un potencial de no menos de A/r ~ pautas de expresión genónúca. Sin embargo, el recuento de tipos nos da sólo 254 tipos celulares (cercano al que nos daría la raíz cuadrada del número de genes). ¿Cómo explicar este resultado? Existe una propiedad adicional de gran importancia: la enorme estabilidad de los tipos celulares. Una vez se ha definido la identidad celular final (la célula diferenciada) este estado se mantiene estable. En condiciones normales, una célula diferenciada, sea ésta una neurona, célula hepática o macròfago, m antendrá su identidad hasta la muerte celular. Ocasionalmente, sin embargo, un error en la pauta adecuada de interacción puede destruir esta estabilidad. Algunos genes que habitualm ente se hallan “dormidos” (o, más exactamente, reprimidos) vuelven a la actividad sin que un control adecuado pueda evitarlo. Un ejemplo lo dan los oncogenes, genes implicados en la aparición del cáncer. Por alguna causa (como puede ser la inserción de un retrovirus en las proxim idades del gen) el oncogen, que normalmente se halla implicado en procesos básicos de diferencicición y/o división celular, y que estaría normalmente reprimido en la célula diferenciada, deja de estarlo. La célula, libre de mecanismos que lo impidan, se rephca sin límites. Evitar esta situación y otras obhga al sistema de control a asegurar una adecuada diferenciación y su posterior estabilidad Nuestra primera impresión es que existirá un mecanismo de control enormemente preciso capaz de coordinar la dehcada red de interacciones (Tjian, 1995). Este mecanismo sería el resultado de un largo proceso de selección natural, en el que los sucesivos ensayos habrían generado una red dinámica de genes en interacción. En principio, una adecuada comprensión de esta red pasaría por un conocimiento detaUado de todos y cada uno de sus componentes o al menos de gran parte de ellos, io cual es una tarea irrealizable. Pero, ¿es realmente así? En este capítulo daremos una respuesta a las preguntas anteriores basada en un enfoque muy distinto del de la biología molecular (esencialmente reduccionista) basada en un enfoque teórico inspirado en las redes Booleanas. Emplearemos la aproximación introducida ya en 1967 por Stuart Kauffman (Kauffman, 1969). Como veremos, se tra ta de un modelo muy simple en el que las propiedades básicas de la diferenciación celular emergen de forma espontánea. Antes de introduch este modelo, revisaremos brevemente el problema del control de la actividad genómica así como una justificación formal de la elección de un modelo discreto basado en elementos binarios. ^ D e b e m o s señalax q u e el co n tro l no es sólo función de los n\ecan ism o s celulares de re g u la c ió n g enóm ica, sino ta m b ié n d e l “a m b ie n te c elu lar” cercajio. U n a m ism a célula p u e d e d a r im tip o celu lar u o t r o en fu nció n de las células c e rc a n a s c o n las que se com unica.
410
Orden y Caos en Sisíemas Complejos
Figura 11.2: El modelo del operón: planteado por Jacob y Monod, considera el mecanismo de regulación de un grupo de genes en el que un gen represor (R) da lugar a un proteína que, unida al sitio operador (O) (cerca del promotor, (P)) puede reprimir la expresión de genes estructurales (SG).
11.2
R egu lación com pleja, m odelos sim p les
¿En qué forma tiene lugar la regulación de la activida genómica? La existencia de mecanismos de regulación de la actividad de grupos de genes se puso de maniftesto a, raíz de los estudios de los biólogos franceses Jacob y Monod. Estos propusieron el modelo del operón, cuya estructura básica se representa en la figura 11.2 . Las distintas partes del modelo se indican por: R = gen regulador, P — promotor (o centro promotor, al que se une el enzima que transcribe la cadena de ADN), O =: operador y SG = genes estructurales. En este modelo, el gen regulador da lugar a una proteína que actúa de represor de los genes estructurales al interaccionar con el operador. El operador sería en este ca¿o adyacente a los genes bajo control. La biología molecular de estos sistemas es bien conocida (al rueños en algunos casos) y no vamos a profundizar en ella (para una revisión de estos aspectos, véase VVatson et al., 1992). Pero de hecho los estudios posteriores han revelado una compleja maquinaria de control implicada en la actividad de los genes. Durante la transcripción, esto es, durante el proceso de lectura de una secuencia de ADX que codifica un gen, una pohm erasa de AR.\ lee la cadena de ADN y “transcribe’’ esta información en una nueva cadena libre de ARN. Eventualmente, esta cadena de ARN será empleada en la construcción de una proteína o conjunto de éstas (es el proceso de traducción). Pero la transcripción, que es la etapa en ia que el control se hace efectivo en una forma u otra, no consiste sólo en la lectura (o no) de un gen. Los estudios llevados a cabo (figura i 1.3 ) indican claram ente que otras moléculíis participan en este proceso. Con el objeto de que la polimerasa de ARN se una de forma fiable al promotor, ciertos factores (proteínas) deben unirse a ésta, formando un complejo molecular que logra que la unión tenga lugar. En bacterias, estos factores se conocen como factores sigma, pero éstos no se hahan presentes en células eucariotas (con núcleo). En células con núcleo encontramos una estructura fina de control mucho más sutil. En la secuencia de ADN aparecen, cerca del centro promotor, zonas intensificadoras (que estimulan la transcripción) y zonas silenciadoras, que la inhiben. Los genes eucariotas cuentan con distintas combinciciones de estas zonas. Existen distintos tipos de moléculas
Redes de Kauffman
411
Figura 11.3: Mecanismo de transcripción: al ADN se unen no sólo la molécula de polimerasa que lleva a cabo la lectura de la cadena de ADN corresj:>ondiente, sino también un conjunto de moléculas que colaboran en una forma u otra en este proceso.
que se unen a estas zonas (activadores y represores, figura 11.3) que a su vez se ensamblan con otras moléculas. El resultado final de esta estructura es .que eí proceso de regulación de la transcripción (y en últim o térm ino de la diferenciación) es muy complejo. Nuevamente, este resultado nos hace pensar en una descripción comphcada del sistema global que, en principio, requeriría un conocimiento m uy detallado de cada una de sus partes. Incluso en el caso de que nos lim itáram os a tratar un problem a simple, la regulación depende de las concentraciones de profeínas presentes en la célula, y en consecuencia parece que la aproxi mación continua, en lugar de una formalización discreta, sería mucho más apropiada. Daremos sin embargo un ejemplo de modelo de regulación basado en un problem a de naturaleza continua, que nos perm itirá justificar la validez de la aproximación discreta. Consideremos el siguiente modelo de comportamiento del bacteriófago lanibda, un virus muy bien conocido que invade la* bacterias Escherichia coli. Este virus posee dos tipos distintos de invasión: en uno de eUos (el ciclo lisogénico) term ina integrado en el genoma de la célula huesped y por lo tanto se replicará cada vez que la bacteria lo haga. En el otro caso (el ciclo lítico) el virus se multiplica en el interior de la célula, dando muerte a ésta cuando la cantidad departículas víricas es lo bastante grande. Una vez establecido, este ciclo se m antiene. Podemos imaginar un modelo simple a partir del mecanismo de estas estrategias, en las que se hallan implicadas dos proteínas: el represor lambda, que bloquea el gen para la expresión de la proteína ero y ésta última, que a su vez bloquea la expresión del primero. Si el gen ero se expresa, el fago se m ultiplica en la célula y si no, se integra en el genoma. Puede construirse una tabla muy simplificada para definir los estados del fago. Dado que está formado por IV — 2 elementos (en nuestra aproximación, por supuesto) y que cada uno de ehos envía un input al segundo (A' = 1) podemos ver que los atractores observados son (10) para el caso en el que el represor está activo y ero inactivo, y el segundo estado estable ( 01 ) que no es sino el complementario. La idea es entonces considerar los estados (00) y (11) como transitorios.
Orden y Caos en Sistemas Complejos
412
Figura 11.4: Plano de fases del sistema dmámico de inhibición m utua (para n > 2) eu el que vemos la existencia de un punto inestable (de silla) acompaiiado de dos atractores estables, situados en las proximidades de los puntos ( 0 , 1) y ( 1,0 ). Este modelo es muy simple, y exLsten anáhsis cuidadosos más interesantes acerca del mecanismo de regulación del fago lam bda (Kauffman, 1993; Watson eí o/., 1987 (vol. II, cap. 17)) que iudican claramente que incluso un genoma tan simple como el de un virus bacteriano puede exhibir un alto grado de complejidad en sus estados. Podemos construir un miodelo continuo que nos perm ita, por una parte, dar cuenta del tipo de dinámica que exhibirá un sistema como el anterior, en el que se da represión cruzada (inhibición m utua) entre dos genes, y las relaciones entre dinámica continua y sti contrapartida discreta. Un modelo de inhibición m utua es dx Tt = dy
, ¡
ir = W T r ~" r
,
donde x^y > O son las variables (jue denotan las concentraciones de proteína^s, n > 2 un entero y 3 — 1/2. Vemos que para que aparezca cada tipo de molécula es preciso que la otra se halle presente, aunque su efecto sea inhibitorio. El estado estacionario de este sistema es r* — y* ~ 1/ 2 . Si anahzamos su estabihdad, obtenemos la siguiente matriz de Jacobi -1
n\ 2
-1 /
que proporciona los valores propios A ;- - 1+2
A7 = - 1 - -
y cuya estabilidad vendrá determinada por el valor de n. Para n > 2, el diagram a de fases del sistema se representa en la figura 11.4. Tenemos un punto inestable y dos puntos estables situados
Redes de Kauffmaii
413
t
t-1 2 3 00 01 10 1 1 1 2
1 3
00
00 01 1o
01
1o
1 1
2 3 _ J_2_3 000 000 01 0 001 010 001 1 11 01 1 01 1 1 00 01 1 1 01 0 11 1 10 1 11
1 0 0 0 1
; 1 01 o 1 00
1 1o
1
1 1
00 1
000
o11 -^111
/ 1 01
Figura 11.5: Ejemplo de red de KaufFman con N — 3 y K — 2. Indicamos (a) la topología de la red empleada y las funciones booleanas asociadas a cada elemento, dadas por las tablas indicadas, (b) Tabla completa de transiciones, definida a partir de la red inicial, (c) A tractores del sistema: a partir de la tabla, podemos deducir las transiciones y los estados finales (los atractores del sistema). en las proximidades de ( 1,0 ) y (0 , 1), esto es, cerca de lo que habíamos empleado como definición de atractores en el caso discreto. El modelo continuo captura la esencia del fenómeno de inhibición m utua (común a muchos sistemas biológicos, incluidos los ecosistemas) a la vez que prueba la adecuación de la aproximación discreta, más tratable cuando el sistem a se hace grande.
11.3
R ed es de KaufFman
Consideremos una red de elementos binarios que, de forma genérica, llamaremos genes. Estos elementos se supondrán conectados entre si de forma aleatoria, tal y como :>e indicaba en la in troducción. Cada gen recibirá entradas procedentes de exactamente K genes elegidos al azar de entre los JV posibles. La interacción entre éstos puede ser más o menos compleja y dependerá de las propiedades específicas de conjunto. Para poder expresar esta complejidad de forma explícita, emplearemos un conjunto de funciones Booleanas T k ~ de form a que los estados de los elementos, Si(/) € E evolucionarán con el tiempo siguiendo un sistem a dinámico descrito por S,(Í +
1) =
A.
[s,-,(í),s,.(í),....s¡^.(<)]
estos modelos son conocidos también con el nombre de modelos NK. De forma similar a lo que vimos en el capítulo acerca de los autóm atas celulares, las funciones Booleanas quedan especificadas por una tabla en la que indicaremos los estados de cada uno de los elementos conectados y su nuevo valor. La tabla define ei conjunto de posibles transiciones y a partir de eUa podemos hahar los atractores del sistema y las cuencas de atracción del mismo. En la figura 11.5 damos un ejemplo de una red de tres elementos {N — 3) conectados a pares {K ~ 2). Las funciones Booleanas asignadas a cada elemento (que son de hecho funciones lógicas simples, AiVD y OR) así como la tabla general que indica las transiciones para este ejemplo se indican también. Como resultado de esta elección, existen tres estados asintóticos a los que el sistema puede
414
Orden 3' Caos en Sistemas Complejos
garden o í Eden States
transient sub-trw
Figura 11.6: Ejemplo de cuenca de atracción de una red de Kauffman con N = 13 y K = 3^ en el que sr indica de forma esquem ática cómo distintas condiciones iniciales tienden a otros estados. Asintóticam ente, el sistema alcanza un 7-ciclo (Wuensche, 1994). acceder en función de las condiciones iniciales de partida. Estos estados, así como las transiciones que llevan a ellos, se indican tam bién. Observemos que existen dos tipos de atractores; el estado 000, al que sólo podemos acceder desde él mismo, el atractor 111, al que llegamos partiendo de las condiciones iniciales 100, 110, 100 y 011 (tenemos una cuenca de atracción form ada por cuatro estados transitorios más el estado 111 ) y finalmente un ciclo periódico formado por los estados 001 y 010 , entre los que el sistema alterna. A m edida que el tamaño del sistema aumenta, las posibilidades dinámiccis crecen, especial mente si el valor de K aum enta. El número total de posibles funciones Boolean¿is N a (K ) crece exponenc ialmen te, N f(K ) = ( 2 ")''· y el número y complejidad de los atractores también puede crecer. Ün ejemplo de la cuenca de atracción para un ciclo de periodo 7 de una red más compleja, con jV = 13 y A' = 3, se m uestra en la figura 11.6 (para un estudio de la generación de estos diagramas, véase Wuensche, 1994). El enfoque que requiere nuestro estudio extendido a redes de gran tamaño (que serían com parables a los genomas reales) requiere anahzar las siguientes propiedades del com portam iento de estas redes (Kauffman, 1993): • el número de estados que forman un atractor de la red, al que llamaremos longitud del ciclo. Este valor puede ir desde uno hasta 2"'', • el número de ciclos alternativos posibles. Al menos uno debe existir, pero pueden ser tantos como los posibles, esto es. 2 "^. • el tam año de las cuencas de atracción que desembocan en los atractores, • la estabilidad de los atractores frente a perturbaciones minimales, que implican un cambio en un solo elemento (5, —^ 0 o viceversa),
Redes de Kauffman
415
♦ los cambios observados en A coniportamiento dinámico (lo que se denomina "daño'" ) causados por vuia alteración transitoria de una sola variable bineiria, • los cambios en los atractores y cuencas de atracción debidos a mutaciones (cambios en un dígito) en las funciones Booloauas. La hipótesis básica planteada por Kauft'inan es la siguiente: los distintos tipos celulares pueden identificarse como atractores de la dinámica de la red genómica que, en nuestra aproximación, identificamos como una red Booleana. La pregunta que nos formulamos es si, m ediante la analogía con las redes de Kauffman, obtendremos, bajo ciertas condiciones, propiedades globales que nos aproxim en en alguna forma a las preguntas formuladas al principio acerca del núm ero de tipos celulares y su estabilidad.
11,4
P rop ied ad es dinám icas
En lo que sigue, supondremos que la red considerada es grande y que la configuración inicial {5¿(0)} se ehge al azar así como el conjunto de K vecinos de cada elemento y el conjunto de funciones A,· E J-k asociadas a éstos. La elección al azar de estas cantidades perrrúte aplicar hipótesis de naturaleza estadística, a la vez que garantiza la ausencia de correlaciones o artefactos espúreos. Si bajo esta elección aleatoria obtenemos resultados bien definidos, que indiquen la aparición de orden global de algún tipo, tal vez podremos comparar estcis propiedades con las del genoma real. A continuación, consideraremos las propiedades obtenidas del estudio de redes de Kauffman con distintas conectividad es K , Recordemos que las propiedades son de naturaleza estadística y que por tanto serán tanto más válidas cuanto mayor sea el tam año de la red N . Algunos resultados se han obtenido en forma numérica y otros a partir de aproximaciones analíticas-
11.4.1
Redes
K —N
En estas redes, cada elemento recibe entradas de todos los elementos del sistema. Existe por lo tanto una sola forma de conectar la red (todos con todos). Cada elemento tendrá asignada una función Booleana A, 6 · Este sistema presenta el mayor grado de desorden posible y el sucesor de un estado dado bajo la dinám ica es aleatorio (uno cualquiera de los 2 ^ estados posibles). El estudio de este sistema (Kauffman, 1993) da una longitud característica de los ciclos Te «
i
X
donde indica por lo tanto el número de iteraciones necesarias para repetir el mismo estado. El número de atractores del sistem a es proporcional a A’, e Ahora debemos considerar la estabihdad de los ciclos, esto es, su estabilidad frente a perturba ciones, Hay dos tipos de perturbaciones que podemos introducir: (a) perturbaciones minimales y (b) perturbaciones estructurales. En el primer caso, modificamos únicamente un elem ento (cam biando su estado externamente) y vemos si, como resultado de esta modificación, el sistema se desplaza hacia otro atractor o no. En el primer caso, el sistema será muy sensible a las perturba ciones externas (algo que no parece ocurrir en las células). Este tipo de estabilidad se denomina estabilidad homeostáiica, que es de hecho muy baja para redes fuertemente conectadas, como es el caso que nos ocupa. En el segundo caso, una función booleana es elegida al azar y una de
416
Orden y Caos en Sistemas Complejos
sus entradas modificada a! ,'izar. Esta perturbación puede ser absorbida por el s.istema (que se m antendrá en el atractor previo) o puede dar lugar (como ocurre para N — K ) d. una transición entre atractores distintos. Hablamos en este caso de la propiedad de accesibilidad entre atractores, que es alta en esta red. Estas redes se denominan caóticas. La longitud dc sus ciclos es enorme: para .V ^ 200, se tiene 7^lO^o, Si tomamos dos condiciones iniciales que difieran únicamente en un bit, y seguimos la divergencia posterior entre ambas, medida como el número de dígitos distintos entre ambas cadenas, veremos que esta separación tiene lugar de forma exponencial Aunque el carácter discreto de estos sistemas no permite hablar de exponentes de Lyapunov en sentido estricto, el significado de “caos” es esencialmente el núsmo. Pese al alto grado de desorden de este sistema, el número de atractores Na es reducido; del orden de Na = 74 para N = 200. Para esta red es posible obtener los resultados anteriores en forma analítica. Como hemos indicado anteriorm ente, los estados consecutivos obtenidos son estadísticam ente independientes: tenemos 2·'^ — M posibles estados sucesores, que podemos con siderar equiprobables (con probabilidad, por tanto, l/M ). Supongamos que partimos de la configuración inicial cq y observamos los estados sucesivos que presenta, cq cj —► C2 —+ . . . —^ c, cjt_ i, con Cj ^ Cr, VO < j, r < fc —1. La probabilidad de esta secuencia P{k) es k -i M /
V
m
)
que puede aproximarse por (Kauffman, 1993; Weissbuch, 1990) H k-iy 2M De aquí tenemos que pk — P {k )/M es la probabilidad de que una configuración c¿. siga a la Eu particular, Pk es la probabilidad de que Cq pertenezca a un ciclo de longitud k. El número medio de ciclos de periodo k será P{k] —exp
La distribución quedará fuertemente desviada hacia los ciclos de corta duración. De esta expresión pueden deducirse algunas de las propiedades antes expuestas, en particular que el número de ciclos tiende a (N log 2)/2. Por otra parte, dada una configuración inicial Cq, podemos preguntarnos cuál será la probabi lidad de completar un ciclo eu c¿, dando uua trayectoria de longitud k — i. E sta será P {k )¡M . que es independiente de i. La longitud promedio T^- se obtendrá de -A/-1
con a « 0.63.
11.4.2
R edes
K
> 5
Las redes NK con A' > 5 tienen una enorme cantidad de posibles conectividades alternativas entre sus N elementos. Los atractores del sistema siguen siendo caóticos e incrementan en longitud de forma exponencial con N , más concretamente
Redes de Kauífmaji
417
(con 6 > 1), y el número de atractores sigue ana relación
que tiende a N /2 pata K —>.V. Nuevamente, la estabilid.ul homeostática es baja y la accesibilidad entre atractores alta. Aqui, a(A') = P {K ) - 1/2, siendo P{K ) una medida de la homogeneidad interna de las funciones Booleanas, de la que hablaremos más adelante.
11.4.3
Redes
K
- 1
Este es el otro caso extremo a considerar: cada elemento de la red está conectado con otro elem ento, y sólo uno. La estructura de la red es simple y debido a! ajuste al azar muchos elementos quedan dispuestos formando “cola,s” que no controlan el comportamiento de la red. Este sistema tam bién perm ite cálculos anaKticos (Weissbuch, 1990), En promedio, unos
Nb ^ N^^'^ in-V elementos de la red forman bucles cerrados y por lo tanto estos elementos son independientes y no pueden propagar su influencia a otras partes del sistema. La red es, esencialmente, un conjunto de subsistemas aislados. Ahora se tiene que glog^.V ) AXi + 0 (l)) V~e Nuevamente, la estabihdad homeótica es baja y la accesibilidad entre atractores alta, con lo que de hecho desde el punto de vista de la estabilidad este caso extremo no difiere mucho de ios anteriores, caracterizados por una alta conectividad. A este tipo de comportamiento se lo denomina fase congelada,
11.4.4
R e d es
Kc =
2 (O rd e n colectiv o e s p o n tá n e o )
Contrariam ente a lo q\ie podría esperarse, el caso A' = 2 no es un simple caso interm edio con propiedades similares a un extremo u otro. Para este valor crítico (que indicaremos por A' - ' ias redes de Kauffman experhuentan un súbito cambio cou profundas implicaciones (KaufFman. 1992; 1993). Podemos resumir las propiedades observadas eu cuatro puntos: • Número de atractores: -V(¡ ss y/Ñ . • Los atractores son típicamente estables frente a perturbaciones minimales. • Los cambios en A, en forma de alteraciones en uu elemento sólo modifican débilm ente el comportamiento de la red, • La longitud de los ciclos es Te ~ \/Ñ . La enorme diferencia entre esta situación y las anteriores puede resumirse diciendo que. para este punto crítico, el número de atractores es muy reducido (precisamente del orden del núm ero de tipos celulares observados) y que de forma espontánea estos atractores se hacen muy estables para
Orden y Caos en Sistemas Complejos
418
N um ber oí tn o d e l ge n es
10^
!0^
10^
10 F—T T I rrrrij— r i n iiii|-----t~r i
10^
~· ' i r ! \ ii:|··' i r-rrrm]-)—r 'n n
D N A / c e M (grama)
Figura 11-7: Comparación entre el número de células distintas en diversos organismos y el número de atractores obtenidos para el modelo de Kauffman con K — 2 (Kauffman, 1993). esta conectividad. Para esta red, un sistema con N = 10000 elementos posee unos 100 atractores y la longitud de los ciclos es del orden de 100. Debemos aúadir que en estos atractores muchos elementos se hallan “congelados” en uno de los dos estados posibles. Esta propiedad será, como veremos, fundamental. Aunque la aparición de este comportamiento singular resulta extraño a una intuición lineal, ya sabemos que de hecho es natural en la aparición de la complejidad. El punto crítico obtenido, a medio camino entre las redes caóticas y las redes ÍT — 1 (congeladas) es un verdadero punto crítico, como veremos a continuación. Una vez más, las propiedades de un sistema real (en este caso, el genoma) que denominaríamos sin dudar “‘complejo’' podrían resultar de la existencia de un punto crítico. Existen diversas medidas adicionales que pueden emplearse en la caracterización de la transición de fase y de cada tipo de dinámica. Uno de eUas (Weissbuch, 1990) es la magnetización. La magnetización de un elemento Si es el promedio tem poral del estado del nodo, que se evalúa durante cierto periodo de tiempo r, 1A í= l
la cu.d, para periodos cortos, tom ará valores fraccionarios (1/4, 1/3, 2/3. 1 /2 ,...) y en conse cuencia tendremos, según ei caso, ♦ Régimen ordenado; el histograma de magnetización, P(m ), nos dará un conjunto de picos bien definido. ♦ Régimen caótico; el histogram a muestra una banda continua, con picos marcados en algunas zonas. Este comportamiento nos recuerda, de hecho, el que veíamos en el espectro de Fourier de los sistemas no-lineales que experimentaban una transición hacia el caos deternúnista (capítulo 5) en la que típicam ente se pasaba de un espectro dominado por algunas frecuencias a una banda de frecuencias continua.
Redes de Kauffman
11.5
419
Meccànica estadística: m é to d o de Derrida
Los resultados anter¡ .'res fueron obtenidos muy pronto por Kauffman y otros empleando simu laciones por ordenad ji, y para K ~ A' y K = 1 de forma analítica. Sin embargo, existe un procedimiento i>ara d^: m ostrar formalmente que este punto es efectivamente uu puiitu crítico. El método formal fue de-arrollado por Bernard Derrida y otros (Derrida y Pomeau, 19SG; Derrida y Stauffer, 1986; Dernc.·. y Weisbuch. 1986) y se conoce en la literatura como modelo ann<'a¡t;d (MA). E sta aproximación se basa en introducir una nueva (y profunda) aleatoriedad adicional sobre la dinámica: en cada iteración, después de calcular el nuevo conjunto de estados, cambiamos todas las funciones Boolean¿-.¿ y las conexiones previamente empleadas por un nuevo conjunto, elegido al azar. Por extraño que p.\rezca, este modelo guarda una estrecha relación con el modelo plajiteado al principio, llamado me délo quenched (MQ). En el últim o, como sabemos, el sistem a debe repetir su estado inicial eu, con.'.· máximo, 2^ iteraciones. Por el contrario, en el caso del MA ao esperaremos encontrar periodicidac tem poral alguna. Sin embargo, la relación se hace más clara si imaginamos que A'' es muy grande, :al y como se supone en mecánica estadística. Tomemos K == 2 y supongamos que queremos calcula: el estado del elemento i-ésimo, S,·, en el instante t + l. Las conexiones están definidas y para lleva: a cabo el cálculo debemos inspeccionar el estado de sus K = 2 vecinos (los que tenía en í). de form a que para calcular Si{t + 2) habremos inspeccionado cuatro elementos y, en general, deberemc- analizar A"" valores con el objeto de determinar .S,(í -|- n) a partir de 5,(¿). Luego este número c:"cerá exponencialmente con el tiempo. Este hecho hace p l a u s i b l e que ambos modelos sean estadís-icam ente equivalentes. A continuación, daremos la demostración de Derrida de que Kr es un pun: :* crítico. Consideremos do; secuencias de bits
C2(í ) = (s S’ *(í ) ,- .5 ™ ( 0 ) que llamaremos conf.;uracione$y que se han tomado al azar del conjunto C{N) de todas las posibles secuencias de tam año N (con iÌC’(jV) = 2'^'). La distancia de Hamming entre secuencias, dh{t) se define por .V
<í(.(o=X^i5í‘>(o-5r’(<)i }= 1
y mide la cantidad c - elementos en estado distinto. El solapamiento entre estas secuencias, ü i 2(í) se define como el p^-rrentaje de elementos en el mismo estado y es, obviamente, = (.V — df t {t ) )/ N. Derrida CTrnostró que, para valores grandes de N , las redes Booleanas del MA permiten obtener los mismos resultados cualitativos que los esperados para redes en el MQ. En particular, ambos modelos dan misma evolución en a(í) entre dos configuraciones iniciales. Explícitam ente, el método de Derrida consiste eu los siguientes pasos: 1. Tomamos dos c onfiguraciones iniciales.
C2( í ) s (5P>(<),..., 5,!,')(())
y. en ambas reces, empleamos el mismo conjunto de funciones Booleanas A¿(í} é T-k -
420
Orden y Caos en Sistemas Complejos
2. Calculamos el nuevo estado de cada red, empleando las ecuaciones dinámicas previamente dí'finidas. 3. Medimos el solapamiento a{t + 1) entre los nuevos estados. 4. M anteniendo los valores de Ci{t -t- 1) y C-2(í + 1), escogemos al azar un nuevo conjunto d·' conexiones (elegimos un nuevo conjunto de K vecinos para cada elemento) y un nuevo conjunto de funciones Booleanas, A,(¿ 1) G J-k , y repetimos los pasos anteriores. Lo que queremos ver es si el solapamiento en el MA tiende a cero (las perturbaciones son absorbidas por el sistema, que estará básicamente “congelado” ) o no (crecen, propagándose como en el régimen caótico). La ecuación dinámica para el solapamiento es Oi2(í + 1) =
= -[1 -(- (ai2(<))^ ]
obtenida a partir del siguiente argumento, (i) Sea N a i 2 {t) el número de elementos en el mismo es tado; cierta fracción de elementos de ambcLS configuraciones C,(f) tendrán exactamente las mismas rntradas. El número esperado de dichos elementos en í + 1 será N {a i 2 ( t ) ) ^ . (ii) El número de elementos 5 t(0 que tendrán al menos una de sus K entradas distinta es A '(l —(a i 2 (í))^ y puesto (]ue los estados serán asignados al azar (pues las funciones booleanas son escogidas al azar) la mitad coincidirán en í + 1, luego el solapamiento evoluciona siguiendo el sistema dinámico discreto «12(< + 1) = (cti2(í))^ ~
2
^'^ + («r¿(¿))^ ]
como queríamos ver. Podemos transform ar esta ecuación en una ecuación para la distancia de Hamming, y obtenemos entonces A +i = fK (A )=
A )'^ ]
que nos da una medida de cómo evolucionará en el tiempo la distancia de Hamming de dos configu raciones iniciales {Ci(<), C 2(<)}. Esta aplicación tiene un punto fijo en D ' = O, y, como sabemos, podemos investigar su estabilidad empleando la derivada de la aplicación en el punto fijo, esto es, \{ K ) =
dFK[D)
dD
El modelo d<* Kauffman introducido al principio (MQ) presenta una fase congelada en la que D" •\s estable, m ientras que para valores de conectividad altos, es inestable. El punto crítico se obtendrá, como ya vimos, buscando la condición de estabilidad marginal (le la aplicación anterior, que está caracterizado por la condición A(A') = 1 que, como podemos comprobar, no es sino OFk (D )
dD o, lo que es io mismo, Kc — 2, como queríamos demostrar. Por encima de este valor, la distancia entre configuraciones crece (fase caótica) y por debajo el punto fijo D ' es estable (fase congelada). Las propiedades de la red en el punto crítico son por lo tanto distintas de las de ambos lados, como cabía esperar, y como ya hemos visto anteriormente. En la figura 11.8 representamos el resultado de iterar la aplicación anterior por debajo y por encima del punto crítico. En la próxim a sección veremos un argumento distinto para la existencia de un punto crítico en la red de Kauffman, en la que consideraremos una situación particular: una red de Kauffman bidimensional cuadrada, con conectividad local similar a la que vimos eu los autómatcis celulares.
Redes de Kauffman
421
-tQ
Q
D,
Di
Figura 11.8: Dinámica de la distancia de Hamming obtenida a partir del modelo MA de Derrida (véase texto), (a) Dinánúca para A" = 1 < A'c, que presenta convergencia hacia Z)' = O (tase congelada), (b) Para K = 3 > Kc, la red amplifica pequeñas desviaciones iniciales (fase caótica).
11.6
Percolación: red bidim ensional
Consideremos una red de Kauffman cuadrada en la que, a diferencia de las definiciones anteriores, las conexiones entre elementos son estrictam ente locales; cada unidad estará conectada sólo cou los cuatro vecinos más cercanos (vecindad de Von Neumann), de m anera que tendremos A' = 4 sobre una red bidimensional de lado L. Supondremos condiciones de contorno periódicas (Weissbuch y Stauffer, 1987). La dinámica será por lo tanto Sij{t -f l) _ A,j
l( O i
+
(O ’
(O
siendo 5,j (<) el estado del elemento situado en las coordenadas (t, i) de la red eu ei instante t. Al igual que ocurría en la red de Kauífman original, esta red presenta, para la conectividad empleada, comportanúento caótico. Para poder explorar otras posibilidades manteniendo la conectividad, podemos introducir un nuevo parámetro: el sesgo de las funciones booleanas A¿j empleadas en este modelo. Si p — 0.5, indicamos que las salidas que dan las funciones booleanas son, con igual probabilidad, uno o cero. Valores de p cercanos a p = O o a p = 1 indican que. ron gran probabilidad, las funciones Booleanas darán el mismo valor de salida con independencia do las entradas. Es fácil ver que, en estas condiciones, la red tenderá a quedar congelada en forma de un conjunto de unos o de ceros. Así pues, el parámetro p nos servirá para obtener distintos tipos de com portanúentos y posiblemente una transición de fase entre distintos tipos de dinámicas. Este parám etro se comportará obviamente de forma simétrica alrededor del valor p = 0.5, así que nos lim itarem os a analizar su efecto en el intervalo p € [0,1/2]. Derrida y Stauffer (1986) dem ostraron que, efectivamente, la red bidimensional exhibe una transición de fase para un sesgo crítico pc ~ 0.26 que separa una zona de comportamiento ordenado (congelada) cuando p < 0.26 del caótico para p > Pc- En la figura 11.9 vemos dos ejemplos de simulaciones por ordenador de una red de Kauffman con 24 x 24 elementos. El estudio de estas redes m uestra que (de forma similar a las redes estándar) no todos tos elementos de la red oscüan con la m ism a periodicidad. De hecho, la mayoría de ellos oscilarán con un periodo menor o estarán completamente congelados: este es el caso de la red (a), obtenida para un estado del
422
Orden y Caos en Sistemas Complejos
B 24 24 1 24 3 3 i 4
í
24 24 24 24 2 t 24 24 24 1 24 3 1 1 1
1 4 1 4
4
1 1
1 1 12 12 6 1 1 12 í 6 6 l i l i l í 1 1 1 1
1 1 1 1
1 20 20 1
;
20 1 2 0 20 10 1 0 20 2 0 : 20 I J
12 1 4 : 1 0 2 12
: 1
1
1
I
36 1 36 36 36 36 36 I 6
36 4 36 1 3 6 36 36 3 6 36 : 36 36 3 6 J6 3 6 36 1 6 36 1 6 6 1
1· · * 1 1 4 1 1· · * .
1 1 1 1 1 4 1 12 12 3 3 1 ·♦ 3 1· · •· 3 ·· 1 1· · ·· 1 1* ·
. . . . . . . ·· ·*
...... .... .............. . . . .
··«*···« «··*«««
1114 1114
1 i I 4 4
.............. \ l
\
1
: :
1 1 1 1 **
1 1 1 : 1 :
1
1 l 1 1 1
1 1 1
1 1 2 2 1 :
L
1
1
:
1
1
1 1 2 1 1
e i
4 í
4 4
^
i* *·
B e
A :
1
**·«·*«·« ...........
.................
i·· ·
1* i * ........... 1*
1 ; :
1 1 :
■
^
^
-
: : ; :
i 1 1 I
1
» t...
1
1 1 1 1 1 1
0
·;
1*
1 1
i 1 1 1 1 1 1
4
1
I
*
*
:
1
’
1
1
1
: 1
1 4
-
1
1 1
1 1
e
B
1
8
3
1
Figura 11.9: Redes de Kauffman bidimensionales {K = 4), con: (a) p = 0.2 y (b) p = 0.3, correspondientes a lo.s dominios congelado y caótico, respectivamente donúnio ordenado, con p 0.2. En este estado tenemos muchos grupos de elementos con una baja periodicidad, y sólo unos pocos grupos de periodicidad algo mayor. En cambio, para p — 0.3, en el dominio caótico, vemos eu la figura 11.9 (b) que existe un conjunto conectado de elementos que se comporta caóticam ente y que este grupo percala a través de la red^ encerrando en su interior pequeñas islas congeladas. Los asteriscos indican de hecho que la longitud de los ciclos ^ es superior aTc = 999. El punto crítico detectado en este modelo es interesante porque dem uestra hasta qué punto las redes Booleanas aleatorias pueden ser capaces de exhibir orden en situaciones distintas. En este caso, el punto crítico aparece asociado a un fenómeno que ya hemos explorado con anterioridad: la percolación (capítulo 7). Diverso-s autores han explorado en detalle esta transición, encontrando parámetros de orden que pernúten caracterizarla de manera adecuada (Weissbuch y Stauffer, 1987).
11.7
R ed es d e KaufFman generalizadas
Los resultados previos se han obtenido para una situación particular: una red en la que cada elemento está conectado exactamente con K entradas. Esta es una restricción im portante, y deberíamos preguntarnos si una red
5,(í+ 1) ^A, [5.,(¿),5.,(0,...,5.K (O ^ E n generaJ, p u e d e c o m p ro b a rs e que los grupos
423
Redes de KaufFman
Figura 11.10: Espacio de parámetros para la red de KaufFman generalizada. La curva crítica define dos dominios: la fase ordenada (zona sombreada) o “congelada” y la Í£ise caótica, por encima de la curva. y, nuevamente, empleamos el método de Derrida para detectar la presencia de un punto crítico. Sean dos configuraciones iniciales C,{t) € C(N) y escojamos para cada elemento A'»· vecinos al azar y ias correspondientes funciones Booleanas, ahora pertenecientes al conjunto Krr.
siendo Km la conectividad máxima (que tomaremos Km = 10 en nuestras simulaciones). Siguiendo el argum ento dei MA, obtenemos ia siguiente ecuación para la evolución de los solapamientos Kr 1+ ^ ' AT. = 1
o, en función de la distancia Dt, 1 - ¿ / ( K . H l - D , ) ''' K, =l Esta ecuación puede ser generalizada aún mas si introducimos el sesgo p que, como sabemos, mide la probabilidad de que una función Booleana A, € S {N ,K m ) dé como salida un valor “ 1", dada una configuración de entrada. Empleando este parámetro, obtenemos
La condición de estabilidad es ahora 4p(l - p )
. dD*
= 1
424 lo que nos llev.t ai
Orden y Caos en Sistemas Complejos - altado
Km 2 p ( l - P )
E
/< ^ '.) ·^ ·'· =
1
K .-l Obtenemos dc aquí uua línea crítica que relaciona la conectividad media >· el sesgo d(.· bis funciones, 1
< K >-
2 p { l~ p )
Observemos que esta relación da, para p — 0.5, un valor crítico AV — 2, que coincide con el que obtuvimos para redes aletorias estándar. La condición crítica deíine dos fases en el espacio de parám etros (p, < K >), como vemos en la figura 11,10. Los valores por encima de la curva corresp>onden a las soluciones inestables que caracterizan la fa.se caótica. Por debajo, la región sombreada indica la fase congelada. Podemos ver que para conectividades altas, el orden está garantizado si el sesgo es lo bastante pequeño (y la homogeneidad interna de las funciones es, por tanto, alta). Dado que el genotna de los organismos va incrementando en tam año a lo largo de la evolución y que estos incrementos obedecen a duplicaciones de genes y otros procesos que tienen lugar al azar, podríamos preguntarnos cual sería la distribución de conectividades /(A ',) esperada. La condición crítica obtenida puede servirnos para encontrar dicha distribución siguiendo el procedimiento variacionai introducido en el capítulo 1. Recordemos que la idea de este método consiste en buscar la distribución de probabilidad que maximíza la entropía de Boltzm ann bajo cierto conjunto de ligaduras (Haken, 1988). El procedimiento será emplear la entropía de Boltz mann para la distribución de conectividades, ík
K, = l
y el problema, como sabemos, consiste en encontrar las ligaduras adecuadas para resolver la ecuación variacionai mediante el método de los multiplicadores de Lagrange. La prim era ligadura es ia normalización de probabilidades K rn
y para la segunda, emplearemos la condición crítica (Solé y Luque, 199Ó) ^
1 M i-p )
que podemos justificar siguiendo la argumentación de Kauffman (Kaufi'iiian, 1993): el genoma está autoorganizado cerca del punto de transición, en el que el sistema está adecuadamente conectado para propagar efectivamente las señales y cambios a la vez que adquiere la mayor estabilidad (tanto homeostática como en términos de accesibilidad de atractores). Podemos llamar a esta ligadura la “ligadura de anticaos” . La estabilidad genómica hará que los cambios que se produzcan al azar con resultado de un aumento de la conectividad y el tam año deban obedecer esta restricción macroscópica. Empleando estas ligaduras, resolveremos la ecuación variacionai :K
S{{f{K,)})
ík
/( í ''.) -
K',=l
¡3
E
K', = l
Jledes
425
d e K a u ffm a n
"t*- tfr :· ?,-?;.·?. i-
Figura 11.11; Dinámica de un red de Kauffman generalizada con .V - 130 correspondiente a tres redes que ocupan los tres puntos del espacio de parám etros iudicad
0
Ki
Aquí A y / ? son los multiplicadores de Lagrange los cuales, una vez empleadas las ligaduras de partida, nos dan la distribución /(A \) =
o, lo que es lo mismo, fi^i) ~
^ e x p -2p(l -
p)K^
donde Z es la función de partición
La distribución obtenida proporciona la distribución esperada de conectividades en el genoma. La m ayona de los elementos recibirá un pequeño número de entradas, mientras que sólo unos pocos genes estarán regulados por un número grande de otros genes. Así parece ocurrir de hecho en los genomas reales. Podemos simular numéricamente una red generalizada. En la figura 11.11 se m uestran tres ejemplos, que corres¡x)nden a tres puntos distintos del espacio de parámetros, representado en la figura 11.10. Tenemos por lo tanto tres redes con distribución exponencial de conectividades y parám etros correspondientes a las zonas (a) caótica (< K > = 6, p = 0.2), (b) critica (< A' > = 3.1, p = 0.2) y (c) congelada (< K >= 2. p = 0.2).
426
Orden y Caos en Sistemas Complejos
Bibliografía 1. B. Alberts, D. Bray, J. Lewis, K, Roberts y J. D. Watson, Biología molecular de la célula. Editorial Omega, Barcelona, 1092. 2. B. Derrida e Y. Pomeau, Random networks of automata: a .simple annealed approximaton. Europhys. Lett. 1 45 (1986). 3. B. Derrida y D. Stauffer, Phase transitions in two-dimensional Kauffman cellular auiomaia, Europhys. Lett. 2 739 (1986). 4. B. Derrida y G. Weissbuch., Evolution of overlaps between configuraiions in random boolean networks. J. Physique 47 1297 (1986). 5. S. A. Kauffman, Metabolic stalnlity and epigenesis in randomly constructed genetic nei.s. J. theor. Biol. 22 437 (1969). 6. S. A. Kauffman, Anticaos y adaptación. Investigación y Ciencia, Enero 1992. 7. S. A. Kauffman, The Origins of Order, Oxford U. Press, Oxford. 1993. 8. H. Haken, Information and Selforganization Springer, BerKn, 1988. 9. R. V. Solé y B. Luque. Phase transitions and aniichaos in generalized Kauffman networks. Phys. Lett. A 196 331 (1995). 10. R. Tjian, Mecanismo molecular del control genico. Investigación y Ciencia, Abril 1995. 11. J. D. W atson, N. H. Hopkins, J. W. Roberts, J. A. Steitz y A. M. Weiner, Molecular Biology of ihe Gene. Benjamin/Cummiags Publ., Menlo Park, 1987. 12. J. D. W atson, M. Gilman, J. Witkowski y M. Zoller, Recombinant DNA. Freeman L· Co., New York, 1993. 13. G. Weissbuch, Complex systems dynamics. sachusets. 1991.
SFI series, Addison-Wesley, Reading, Mas-
14. G. W'eissbuch y D. Stauffer, Phase transition.'; in cellular raJidom Boolean Networks. Physique 48 11 (1987).
J.
15. A. Wuensche. Basins of attraction of random boolean networks. En "Artificial Life III", C. Langton. (ed.), SFI series, Addison-Wesley, Reading, Massachassets, 1994.
C apítulo 12
E v o lu c ió n , C ritica lid a d y E x tin c io n e s “Nada tiene sentido en biología si no es a la luz de la evolución” . Esta afirmación de T. Dobzhansky nos rem ite al hecho evidente de que la estructura y función de células, organismos e incluso de ecosistemas enteros no es el fruto del azar, sino (al menos en parte) de un proceso. A este proceso lo denominaremos evolución, y constituye la espina dorsal de nuestra comprensión de la vida. El nombre de Charles Darwin es indisociable del de la teoría de la evolución. Darwin formuló de hecho una de las primeras teorías de la complejidad. La m ateria prima de la teoría era nada menos que la m ateria viva (la más compleja que conocemos) y la explicación dc la emergencia de esta complejidad, simple y elegante^ La pregunta de fondo (no contestada entonces) era lo que Darwin llam aba ‘‘ese misterio de misterios: el origen de las especies” . ¿De dónde proceden las especies? Y lo que es también im portante, ¿por qué y cómo se extinguen? Tal vez las especies que Darwin y muchos otros habían observado en forma fósil desaparecieron simplemente porque no cabían en el arca de Noé. Pero semejante explicación (u otras suministradas por el creacionismo científico) no puede satisfacer a ningún observador escéptico y menos aún a un espíritu tan inquieto como el del joven Darwin. Los fósiles, que podemos fechar mediante distintas técnicas de datación, aparecen ordenados en patrones fácilmente intuibles. Las forméis celulares simples preceden en el tiempo a las formas pluricelulares, que en el periodo cámbrico experimentaron una explosión de formas asombrosa. Darwin era consciente de unos hechos de gran im portancia que sugerían una explicación coherente, una solución a la pregunta. La primera piedra la ponía la existencia de una variabilidad intrínseca, potencial, cutre los individuos que forman parte de una población. Esta variabilidad puede verse en el proceso de selección artificial (que el propio Darwin ensayó con palomas) en el que, seleccionando individuos que poseyeran alguna propiedad de interés más acentuada (ya sea color, tam año o forma) podemos obtener, a lo largo de generaciones, nuevos individuos que llegan a distanciarse notablemente de sus progenitores, ü n buen ejemplo lo dan las numerosas razas de perros que conocemos, y que fueron obtenidas a lo largo de muchos años por selección artificial a partir de unas formas iniciales comunes. Hoy sabemos que la variabilidad tiene un origen físico (el ADN es una molécula sometida a cambios potencialmente transmisibles) aunque en la época de Darwin los trabajos de Mendel pasaron inadvertidos. Darwin supo asociar a esta variabilidad (que debemos mirar como fenómeno poblacional) las restricciones impuestas por el medio. En su ensayo sobre los hnútes de la población, M althus había trazado ya una parte del camino para la teoría de Darwin: en una población eu la que los ^ A u n q u e in co m p leta : el p ropio Darwin r e c o n o o a en su tex to básico El O n g c n dt las E species la audiencia de p ru e b a s p a r a c ie rta s afirm acio n es clave.
427
428
Orden y Caos en Sistemas complejos
·B Y T ·A ·\h70BJ\ · Figura 12.1: El nombre de Charles Darwiii es indisociable del de la evolución biológica. Su intuición extraordinaria le permitió llevar a cabo una síntesis genial de uu cúmulo de información naturalista dispersa y de enorme diversidad. Su teoría de la evolución por selección natural transtornó la visión clásica de los orígenes de la complejidad biológica. Más allá de su impacto sobre la ciencia, se convirtió en un fenómeno social, que le deparó nt^ pocas burlas, como la que m uestra el grabado, publicado en el semanario satírico ingles ‘‘Punch", Curiosamente, este diagrama que remeda ol proceso evolutivo, empieza... jpor el caos!
Evolución, Criticalidad y Extinciones
429
recursos sou Uniitados, no todos los incividuos potonciaJmente posibles pueden sobrevivir. Si t'xisU“ variabilidad, podremos encontrar organismos que crecen más deprisa o que cuidan mejor de su s descendientes, organismos que toleran mejor ciertas temperaturíus, etc. Los que mejor responden al ambiente externo, sobreviven. Esta es la idea esencial detrás de la teoría de la selección natural. A lo larí;o de millones de años, este proceso, lento y progresivo, daría lugar a poblaciones dc organismos de gran variedad, adaptsdos a los distintos ambientes de la Tierra. Si la variedad potencia) es lo bastante grande, virtu¿im ente cualquier estructura podría ser generada. El proceso de creación de complejidad es fundam-en taimen te histórico, aunque interviene un elemento de azar de gran im portancia como es la mutación. El azar es entonces “canalizado” a través de la selección natural. La teoría de Darwin, como toda¿ las teorías geniales, era simple. Su imj)acto sobre el pen samiento del siglo XIX fue mucho roóo allá de lo que él mismo esperaba. Trascendió el ámbito científico y fue muy a menudo totalniTnte m alinterpretada (para desgracia del propio Darwin). El origen d<' la complejidad aparece, en cualquier caso, como resultante de causas simples y comprensi bles. La teoría de Darwin fue considerablemente elaborada a lo largo del siguiente siglo. El enorme desarrollo de la genética molecular y -rl estudio estadístico de las poblaciones dio pie a la construc ción de un marco teórico de gran sor_sticación: la genética de poblaciones. Esta teoría, de gran sofisticación m atemática, junto con una enorme masa de datos paleontológicos y biogeográficos, perm itió una nueva y poderosa sínteíLs. bautizada por sus autores como Neodarunnismo. Entre las propiedades fundamen:aJes del proceso evolutivo, la im portancia de la historia es crucial. En particular, debemos señólar que la evolución es un largo proceso en el que las innovaciones han tomado forma partienc:· de los elementos que la historia pasada había dejado tras de si. En este sentido, la evolución n·:- es un proceso simple de invención, sino una hábil chapuza. Tiene más que ver con el “bricolage" que con la ingeniería. Por ejemplo; en nuestra sociedad industrializada, los inventos (consideremos los nuevos medios de locomoción, figura 12,2) pueden representar completas revoluciones de diseño respecto de anteriores aportaciones. El ingeniero no necesita aprovechar lo anterior. Puec^ innovar partiendo de elementos completam ente distintos.
12.1
E xtin cion es y m acro ev o lu ció n
La evolución a gran escala, tal y comc· >e nos m uestra a partir del anáhsis del registro fósil, presenta algunas popiedades generales nada tri -'iales. En primer lugar se han producido, a lo largo del curso de la vida sobre la Tierra, varios acón : tcimientos de extinción en masa que se han asociado de forma natural a causas externas (en nuestríi discusión, no-biológicas) como el impacto de un asteroide, una inusual actividad volcánica, inversiones del campo magnético o explosiones de supernovas. El caso de la frontera entre el Cretácico ;· el Terciario, que marcó el fin de la era de los dinosaurios, es tal vez la mejor conocida. En otros ca^ cts, la dinám ica tectónica, que modificó en distintas ocasiones los niveles del mar, se ha considerac:· como una causa de extinción típica para la mayoría de los grupos de organismos marinos. Pero no debemos olvidar que, pes-r a que estos acontecimientos podrían haber ehminado hasta el 96 por cien de las especies en U' periodo de tiempo corto (Raup, 1986), estas extinciones generalizadas sólo representan un ó por cien del total. Nos queda por lo tanto un 95 por cien, lo que se denomina genéricamente erúncióii de fondo, al que debemos dar una explicación. La prim era observación sorprendente es : ue, pese a que esperaríamos un comportam iento muy distinto de ambos tipos de extinciones (dado ;ue obedecerían a causas en principio distintas), el estudio de la distribución de frecuencias de los r. :ontecirnientos de extinción nos miiestra una curva continua que va, sin cajnbios aparentes, de laí pequefias extinciones a las extinciones en masa (figura 12.3 (a)) (Raup, 1986). Este resultado contradice nuestra intuición: esperaríamos encontrar una distribución con dos
430
Orden y Caos en Sistemas complejos
Figura 12.2: Innovación tecnológica: a diferencia de la evolución biológica, un nuevo invento técnico no precisa emplear los elementos antiguos para obtener una nueva solución. En el caso de la evolución biológica, las nuevas innovaciones se hallan acotadas por las restricciones adquiridas en el pasado, sobre las que hay que construir.
Figura 12.3: (a) Distribución de frecuencias de extinción para los 79 estadios geológicos del Fanerozoíco, basados en los datos procedentes de 2316 familias de animales marinos (Raup, 1986). (b) Distribución de las duraciones de géneros fósile^s {basado en Raup, 1993). En ambas figuras se muestra la interpolación exponencial y la potencial.
Evolución, Criticalidad y F^xtinciones
431
máximos, on lugar de una distribución continua. Otras medidas, como por ejemplo h dnración de distintos generos (en millones de años) m uestra también un decaimiento continuo (figura 12.3 (b)). Am bas figuras s o q de im portancia en nuestra discusión: ¿qué tipo de distribución siguen? Es obvio que ambas rriuesirau un fuerte decaimiento, característico de muchas series de datos en biología. Si por ejemplo consideramos el problema de la tuina del jugador, descrito en el capítulo 1, y, partiendo de una condición inicial dada calculamos cuánto tiempo tardará eu arruinarse y promediamos sobre miles de juegos, obtendremos una distribución decreciente. En am bas figuras hemos interpolado las dos funciones decrecientes más típicas: una exponencial y una potencia]. Para el núraero de extinciones de tamaño s, tenemos N {S ) =5; para el ajuste potencial y N {S) « exp(—0.028 S) para el ajuste exponencial. Para los tiempos de duración, L, tenemos N {L ) ^ X“ ’ **·* y N{L) ^ exp(—0.043 L), respectivamente, Amba-s scrie.s se ajustan relativamente bien a ambos tipos de curvas. Sin embargo, como ya sabem os, la interpretación de ambas es muy distinta en términos de complejidad. Si una distribución sigue una ley potencial, entonces podemos conjeturar que (al menos ha,sta cierto punto) los mismos mecanismos operan a distintas escalas. Este hecho proviene, como ya vimos, de la fractalidad asociada a las leyes potenciales (capítulos 7 y 8). Si disponemos de una dependencia potencial para cierta cantidad x’, esto es, si A''(x) — Cx~® (C es una constante) entonces, si consideramos una escala
Orden y Caos
432
60
tie m p o
60
gh
Sistemas complejos
100
( m .a )
Figura 12,4: (a) Curva de supervivencia de los Ammonoidea (ammonites) d d Paleozoico. Obser vamos una caída constante, ajustable a una exponencial, (b) Aspecto genérico de un anunonites. observacionales, planteada por los paleontólogos Stephen Jay Gouid y Niles Eldredge (véase Gould y Eldredge, 1993, y la bibliografía allí citada). Estos científicos han introducido la hipótesis de que los cambios en evolución tienen lugar de manera súbita. Veremos, en esta imagen, cambios nulos o muy pequeños que cubren grandes periodos de tiempo, interrumpidos por ráfagas de cambio en las que, durante un periodo de tiempo corto, se producen grandes modificaciones. Para esta visión de la evolución, la escala microevolutiva no puede extrapolárse a la macroevolutiva. En otrcis palabras: los procesos que tienen lugar al nivel de la genética de poblaciones individuales no generan los fenómenos observados a la escala macroevolutiva o, más exactam ente, los segundos no son reductibles a los primeros.
12.2
La hipótesis de la R eina R o ja
Las extinciones tienen lugar, entre grandes acón tee inúen tos de extinción, de forma regular y cons tante. Como hemos visto en la sección anterior, un estudio de los datos disponibles revela una caida constante eii cualquier grupo considerado y a cualquier nivel tajconómico. Van Valen pos tuló en 1973 una nueva “ley evolutiva"^ que introducía una imagen dinánúca de los ecosistemas y que, en este sentido, proporcionaba una conexión entre ecología y evolución. Aunque seme jante conexión parece evidente, raramente se tiene en cuenta en los estudios basados en genética de poblaciones. Sólo en casos contados se considera el efecto de la interacción entre especies. Típicam ente, se aisla (en la teoría) una especie, se elige un carácter fácilmente analizable (aunque en ocasiones difícilmente interpretable en término.s adaptativos) y se estudia la abundancia de los genes implicados. Pero las especies no están únicamente en contacto con un medio natural formado por el clima y las particularidades geográficas: cada especie interacciona con cierto número de especies que for man el ecosistema en el que está inmersa. No es posible separar los efectos de las distintas especies ni reducir las interacciones a especies aisladas. Lcis propiedades del ecosistema sou propiedades emergentes, resultantes de un proceso de autoorganización. Van Valen consideró esta situación como punto de partida: supongamos que cada especie está afectada por algunas de las que com-
Evolución, Criticalidad y Extinciones
433
Figura 12.5: Paisaje adaptativo de una especie; dadas dos propiedades P1 y P2, la superficie indica, para un momento dado y un ecosistema dado, ios óptimos posibles.
ponen el ecosistema. Para simplificar esta idea, tomemos un caso m uy simple. Supongamos que consideramos una presa y un depredador y que nos limitamos a considerar sólo dos propiedades de cada especie. Para el depredador, podrían ser su velocidad y su tam año. P ara la presa, su ve locidad y su habilidad paxa camuflarse. Supongamos que todas estas propiedades pueden medirse. Tendremos poblaciones de ambos, y estas poblaciones pueden, en principio, coevolucionar. Imaginemos que consideramos, en un momento del tiempo, las posibles combinaciones de estas propiedades. Para un depredador, un tam año superior al de su presa será una ventaja, aunque dentro de unos h'mites. La velocidad, por otra parte, no es una propiedad independiente del tam año. Ambas dependen a su vez de las propiedades de la presa. Podemos im aginar que, para una población de presas dada (con cierto tamaño medio y cierta habilidad m edia de camuflarse) existe un conjunto potencial de posibilidades para el depredador algunas de las cuales son mejores que otras en el sentido de mejorar su adaptación. Si estas combinaciones y su grado de bondad fuerajL medibles. podríamos representar cuantitativam ente el grado de “adaptación” (fitness) de la especie mediante un paisaje adaptativo como el que se indica en la figura 12.5. En los ejes indicamos por P1 y P2 las dos propiedades con^íideradas. La altura del relieve nos da una medida de la adecuación, o adaptación, de la especie a las condiciones dadas. Estos paisajes adaptativos son enormemente útiles como imágenes de la evolución, aunque estrictam ente serán en general hipersuperficies en un espacio de gran dimensión. Los cambios de la especie bajo las presiones del ambiente (físico y biòtico) harán que la especie, colocada en un momento dado en alguna o algunas posiciones de esta superficie, se mueva hacia el pico más cercano. Estos máximos locales se conocen como picos adaptativos. Si la especie fuera capaz de variar con enorme rapidez, podría hallarse distribuida por toda la superficie y acceder rápidamente a los óptimos. Pero esta situación es claramente poco razonable biológicamente (excepto tal vez para los virus) y por lo tanto lo que tendremos será un punto sobro la .superficie niovicMulose (si es posible) hacia el pico adaptativo más cercano. Ahora, volvamos nuestra m irada hacia la presa. El depredador se ha movido hacia una situación en la que su presión sobre la presa ha aumentado, de forma que la presa (que
434
Orden y Caos en Sistemas complejos
Figura 12.6: La Reina Roja y Alicia: al igual que estos personajes, las especies de un ecosistema deben cam biar con rapidez sólo para permanecer. a su vez poseerá un paisaje adaptativo propio) deberá moverse simultáneamente, escapando del depredador. Y aquí es donde las cosas se complican; si la presa se mjjeve, no sólo se desplaza sobre el paisaje adaptativo, persiguiendo su máximo loca], sino que a la vez estará modificando el -paisaje adaptativo del depredador. Estos cambios sucederán en ambas direcciones, y el resultado será un paisaje siempre cambiante que obliga a ambos contendientes a cambiar. Si tenemos en cuenta que en realidad no será un par de especies, sino tal vez decenas, las que interactúan entre si en formas sutiles y complejas, puede darse con facilidad una situación relevante en nuestra discusión: una especie puede ser incapaz de alcanzar las proximidades le su pico adaptativo más cercano y en consecuencia extinguirse. Esta es básicamente la propuesta de Van Valen. El entorno biòtico es lo más im portante; cada especie debe responder con rapidez suficiente a los cambios de las restantes para perm anecer. Y aquí está lo más original de la teoría: en general, el cambio de las propiedades de cada especie no tiene lugar con el objeto de m ejorarla adaptación, sino única y exclusivamente de perrrútir que la especie siga jugando su partida en el ecosistema. Si es incapaz de alcanzar un pico local, desaparecerá. Así pues, no se cambia i^ara tratar de mejorar (en algún sentido) sino de permanecer. De aquí el nombre de la teoría de Van Valen: la Reina Roja (figura 12.6) en honor al personaje que aparece en el cuento de Lewis Carroll Alicia a través del espejo. En una escena del libro, la Reina Roja toma a Alicia de la mano y emprenden una alocada carrera. Sin embargo, por mucho que corran, no hacen sino permanecer en el mismo lugar. La reina roja le dice a Alicia: Ahora, aquí, como ves, ts preciso correr cuanto puedas para permanecer en el mismo lugar. ” Una conclusión cualitativa de la hipótesis es que, muy posiblemente, esta dinánúca dará como resultado una tasa de extinción constante. Los cambios en los paisajes adaptativos son muy complejos, así que una especie no puede preveer ni la naturaleza y ni la magnitud de los picos de
Evolución, Criticalidad y Extinciones
435
su propio paisaje, que se arrugará o alisará de forma más o menos compleja. E sta incapacidad de previsión (por lo demás inevitable) hace que cualquiera de los 'jugadores” pueda abandonar el juego con igual probabilidad. La hipótesis de la reina roja ha sido formalizada por Maynard Smith y Stenseth (M aynard Smith y Stenseth, 1984; Stenseth, 1985) en un brillante estudio teórico de la hipótesis de Van Valen. Para obtener una expresión formal de las condiciones bajo las cuale.·, tendrá lugar la ‘‘carrera de arm am entos” entre los distintos contendientes, se definen cicrta.s cantidades básicas y se supone que el número de jugadores es constante. Supongamos por lo tanto un ecosistema complejo formado por A' especies. Sea la ma>or eficacia adaptativa (o simplemente adaptación) de la especie í-ésima al ambiente dado, suponiendo que todas las especies tuviesen una composición genética óptima. Sea la adaptación media actual de la es{>ecie i-ésima. Definiremos a continuación la siguiente cantidad: =
¿ - 1 ,2 ,..., A
la cual mide la distancia de la especie ¿—ésima al pico adaptativo óptimo. Sea Pij el cambio en L, que se producirá si se da un cambio en Lj. Entonces, si el promedio de las distancias es < L> puede demostrcirse fácilmente que; d< L > 1 dt ~ N y esta ecuación tendrá un punto fijo estable si F = E A t
j
= 1 V;
En caso contrario (Stenseth y M aynard Smith, 1984) puede demostrarse que < L > disminuirá (evolución convergente) o bien aum entará (evolución divergente), en función d e s iT < l o F > 1. Stenseth y Maynard Smith exploraron esta idea en detalle y llegaron a formular un conjun*·: de dos ecuaciones dinámicas que describen, en la escala de tiempo geológico, las variaciones d e ', promedio de distancias así como el número de especies presente: d< L > dt
a + b < L > +cN
dN = h + { d - e) < L > + {f - g)N dt donde se asume que è < O, A > O y ( / —^) < 0. .Analizando las distintas posibles combinaciones de parám etros, puede demostrarse que existen varios modos de evolución posibles: • Reina Roja estable: com portam iento estable, caracterizado por una tasa uniforme de evolu ción, especiación y extinción, y un número constante de especies. • Estado entacionario- el cambio evolutivo se frena progresivamente hasta que el sistema con tiene el número máximo de especies posible. • Extinción: todas las especies son elinúnadas.
436
Orden y Caos en Sistemas complejos
(/)
Figura 12.7: (a) Fluctuaciones en el número de familias del grupo Ammonoidea, representadas aquí desde su aparicición hasta su extinción, cubriendo un período de 320 millones de años (brisado en House, 1989). (b) Espectro de Fourier asociado, de tipo l / f . Un cuarto caso implica divergencias no relevantes biológicamente. Dado que los ecosistemas existen, es de suponer que sólo dos de estas alternativas sean posibles; la Reina Roja o el es tado estacionario. Para llegar algo más lejos, y en particular para explorar las propiedades antes expuestas acerca del registro fósil, debemos atacar el problema eu (?tro frente.
12.3
Criticalidad, fractales y evolución
Entre los datos expuestos en la Introducción, veíamos que existía evidencia (aunque no concluyente) de leyes potenciales, sugerentes de un posible estado crítico. Existen otras evidencias que dan soporte a esta posibilidad. Una de ellas (Solé y Bascompte, 1995) ha sido obtenida a partir del anáhsis de la dinárrúca de laá fluctuaciones en eí número de famihas del grupo de los ammonites (Ammonoidea, figura 12,7). Este grupo de organismos, que dominó los mares dc la Tierra (junto a los trilobites) durante un largo periodo de 320 millones de años, desapareció completamente con la gran extinción de final del Cretácico (hace 65 millones de años). Estos datos, procedentes de un estudio exhaustivo (House, 1989) han sido reanalizados (Solé y Bascompte, 1995) dando como resultado una evidencia adicional de criticalidad; el espectro de Fourier obtenido a partir de esta serie es muy cercano a l / / . Este resultado está notablemente alejado del que esperaríamos, en principio, para un “random walk” (que da 1 //^ ) y sugiere que un mismo mecanismo, no-lineal, podría estar operando a distintas escalas. De una forma parecida a lo que ocurre con el montón de arena del modelo de Bak, Tang y Wiesenfeld (capítulo 8) los cambios en las especies podrían generar extinciones a todas las escalas imaginables y, lo que es más interesante, establecería una conexión natural entre los acontecimientos grandes y pequeños. El origen de todas las extinciones sería el mismo, sólo que en la mayoría de los casos (como en líis avalanchas de un montón de arena) serían pequeñas, y sólo en algunos casos implicarían un gran número de especies. Aunque un anáhsis pormenorizado de posibles alternativas no-críticas a este resultado, esto es, basadas en fenómenos puram ente aleatorios, ha dem ostrado que un espectro l / f puede eventualmente obtenerse a partir de series estocásticas (Solé y Bascompte. 1995) existen
437
Evolución, Criticalidad y Extinciones
New fcmiíies
I ' l l i"i"i I I I-r '
B
10
N e w / E x t i n c t families
12
Figura 12.8: (a) Distribución de frecuencias de aparición de nuevas especies, correspondientes a los datos de la figura anterior, (b) Distribución de extinciones asociada.
algunas evidencias adicionales que parecen dar credibilidad a la hipótcsi.s dei estado crítico. En particular, podemos analizar la distribución de frecuencias de aparición dt· nuevas familias (dentro de periodos de dos millones de años) que representamos en la figura 12.8 junto con las frecuencias de extinciones. Encontram os distribuciones ajustables a una ley potencial N (S) ~ 5 “ ''. Este ajuste es clara mente mejor que el ajuste exponencial. Sin embargo, aparece una diferencia interesante: el expo nente para las frecuencias de extinción es ahora t) ^ 1.35, bastante alejado dcl obtenido por Raup para el conjunto total de grupos (véase más arriba), mientras que el de nuevas familias es r; ~ 1.85· Esta información es enormemente sugerente, y existe una segunda fuente de datos consistente con la hipótesis de criticalidad, procedente del análisis detallado de la organización de los grupos taxonómicos. Estos grupos definen distintas formas de agrupar organismos: en especies, que se agrupan en géneros, que forman familias, órdenes y clases. Cada nivel contiene muchos grupos inferiores, y podríamos preguntarnos si las relaciones entre las frecuencias de. por ejemplo, especies dentro de géneros, o géneros dentro de familias, siguen algún tipo de distribución especial. En este sentido, la filogenia (esto es, el proceso que da lugar a las distintas estructuras taxonómicas) podría generar propiedades autosimilares compatibles con un estado crítico. Existen evidencias cualitativas de que ios árboles filogenéticos poseen propiedades fractales (Green, 1991). La cuantificación apareció a raíz de los estudios de Bruno Burlando acerca de la estructura de las relaciones entre taxones (Burlcuido, 199Ü; 1993). En este estudio, en el que se analizó un enorme conjunto de datos que contempla grupos taxonómicos iiiu>· diversos, incluyendo tanto grupos vivos como fósiles de periodos distintos, se demostró que dichas relaciones exhiben típicamente leyes potenciales muy bien definidas. La autosimilaridad eu la estructura sería la contrapartida geométrica a la autosim ilaridad temporal. Esta evidencia, sumada a la anterior, nos lleva a conjeturar, una vez más, que la complejidad de la evolución lleva a un estado crítico autoorganizado. Ahora, los modelos deben dar el siguiente paso.
Orden y Caos en Sistemas complejos
438
12.4
M odelo de KaufFman
Un primer modelo en esta dirección fue propuesto por KaufFmaii (Kauffman y Johnsea. 1990) y se basa en un modelo de redes aleatorias acopladíis, con una filosofía parecida a la que se uti' lizó <'n el capítulo anterior. El punto de partida es el denominado paisaje adaptativo N K , en el que definimos las especies como un conjunto de “genes" o propiedades que pue
ík
1=1 para cada configuración (S i, 52, 5,v) posible, ün ejemplo lo da la siguiente tabla, para un sistem a con N — 2 propiedades y K — 2 conexiones; ( 5 i ,5 2 ,5 3 ) 0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1
r(2) p{2) 1 , ^2 ^ 0.6 0.3 0.1 0.5 0.4 0.8 0.3 0.5 0.9 0.9 0.7 0,2 0.6 0.7 0.7 0.9
< F > 0.5 0.9 0.1 0.8 0.7 0.3 0.6 0.5
0.47 0.5U 0,43 0.53 0.83 0.40 0.63 0.70
Tabla í : asignación de adaptaciones para un sistema con N — Z genes (o propiedades dadas) y K — 2 interacciones por gen. Supongamos que los cambios en esta especie tienen lugar en la dirección de incrementar ía adaptación. Entonces, si representamos las posibles combinaciones de propiedades como los vértices de un cubo tridimensional, las posibles transiciones que implican el cambio en una propiedad (de 5,· — O —> 5, — 1 o de 5¿ = 1 —> 5, = 0) nos llevan, para el ejemplo anterior, a dos posibles estados finales que representan, en esta aproximación, los máximos locales del paisaje adaptativo (figura 12.9). C ada transición hacia un vértice vecino recibe el nombre de salto adaptativo. Para llevarla a cabo, la especie ehge un vértice adyacente al azar y si la nueva adaptación promedio es mayor que la anterior, el salto tiene lugar. En caso contrario, se m antiene en su posición. El valor de K define la “rugosidad” del paisaje adaptativo, en la medida en que hace crecer en número (y variabilidad) a los picos adaptativos. Si la especie está aislada, el resultado de la regla "aum entar < F > cambiando un estado” es alcanzar alguno de los picos adaptativos y permanecer en él de forma estable. El cambio, razonablemente, debe ser lento si suponemos que las propiedades no pueden cam biar (al menos con facihdad) de forma simultánea, sino de una en una.
Evolución, Criticalidad y Extinciones
439
110
(0.63)
Figura 12.9; Paisaje adaptativo correspondiente a la tabla I. Los vértices aparecen etiquetados por el estado del sistema (el conjunto de propiedades) y su adaptación. Las flechas indican la dirección de los movimientos hacia los máximos locales. Pero imaginemos ahora que consideramos un conjunto de S especies, cada una de ellas definida por una red N K como la anterior, y que las conectamos entre si por medio de un conjunto adicional de O < C < A” conexiones. Más concretamente: elegimos al azar, para cada S\ de cada j-ésim a especie, C propiedades de las demás, esto es
(con 1 < < N ) con las que definiremos un nuevo conjunto de valores de adaptación (como en la tabla anterior). Este modelo recibe el nombre de red NKC. Hemos conseguido, de esta forma, conectar las S especies formando un ecosistema en el que cada transición (salto adaptativo) llevado a cabo por una especie modificará el paisaje adaptativo de todas y cada una de las especies con las que se halla relacionada. Típicam ente, este sistema tiende a un equilibrio de Nash: las especies alcanzan óptimos locales en los que el sistema permanece estable. Señalemos que el tiempo requerido par alcanzar el equilibrio de Nash aum enta considerablemente con el número de conexiones entre especies, C. También ocurre que a lo largo de la evolución algunas especies forman subredcs que prácticam ente no varían su estado, mientras que otras partes del sistema pueden cambiar con rapidez (Kauffman y Johnsen, 1991). Las observaciones de Kauffman y Johnsen son numerosas pero la más relevante es la observación de las distribuciones de frecuencias de cambios. Imaginemos que, una vez alcanzado un equilibrio de Nash, el sistema empieza a cambiar: cada especie experimenta modificaciones en su paisaje adaptativo que la llevan a realizar saltos hacia posiciones de mayor < F >. Imaginemos que medimos el número de Ccimbios hasta que el sistema alcanza de nuevo un equilibrio de Nash, lo que Kauffman y Johnsen llaman avalanchas coevolutivas. De forma sinúlar a lo que ocurría con las redes de Kauffman (capítulo 11) existen distintas fases de comportamiento, dependientes de los valores de K y C, que corresp>onden a sistemas congelados (todas las especies en .sus picos adaptativos locales) o a sistemas permanentemente cambiantes (fase caótica). Existe una zona de transición en la que tiene lugar el csimbio de un estado al otro. Lo más im portante de los resultados de Kauffman es precisamente la observación de que en este punto crítico se observan
Orden y Caos en Sistemas complejos
440
Figura 12.10: (a) Distribución de avalanchas para sistemas 5 x 5 (empleamos una red cuadrada), para jV = 24, C — 1, K — (b) idénticos parámetros, pero K — 14; (c) idem^ K = 2 0 . leyes potenciales en las distribuciones de avalanchas que, de forma genérica, Kauffman compara con los acontecimientos de extinción. En la figura 12.10 vemos algunos ejemplos de las distribuciones obtenidas. La conjetura de estos autores es que la evolución puede entenderse como un proceso de critical idad autoorganizada (aunque ellos no proporcionan un mecanismo para acceder al punto crítico). El modelo es enormemente sugestivo, aunque algo restringido en el hecho de fijar parám etros. El siguiente modelo, debido a Per Bak (capítulo 8) y sus colaboradores aborda el problema desde una aproximacióm mucho más simplificada pero no menos sugerente.
12.5
M o d e lo de B ak -S n ep p en
Vamos a presentar en esta sección un modelo sencillo de macroevolución debido a Bak y Sneppen (1993), junto con su tratam iento analítico según la teoría del cam po medio (véase el capítulo sobre fenómenos críticos), tal y como aparece en el artículo de Flyvbjerg, Sneppen y Bak de 1993. Este modelo de evolución consiste en cierto número de especies en interacción, cada una de ellas caracterizada por un valor numérico que expresa el nivel de adaptación que la especie lia conseguido. Las especies se desplazan por medio de mutaciones en un paisaje adaptativo. En principio, mutaciones del códico genético de cada especie trasladarían aleatoriamente la posición que ocupa en este paisaje. Sin embargo, sólo se permiten mutaciones que incrementen la adaptación de la especie, de forma que se sitúa finalmente (y de forma rápida) en alguno de los máximos locales dei paisaje. El movimiento adaptativo es rápido. Sólo es posible que se siga produciendo evolución si se permite la existencia de movimientos hacia peores adaptaciones con baja probabilidad. En este caso, la mayor parte del tiempo se encuentra a las especies situadas en máximos locales. La estabilidad de cada especie se caracteriza por la altura de la barrera que separa su máximo local de estabilidad de otros máximos mejores. La altura de esta barrera es una medida del número de bits o de la cantidad de código genético que debe ser cambiado para alcanzar ia mejor posición. Las mutaciones de un único bit se producen con cierta frecuencia, pero los movimientos coordinados
Evolución, Criticalidad y Extinciones
441
que resultan ea una mejora complicada en la especie son mucho más raros. El tiempo de espera que se necesita para saltar a un máximo más pronunciado depende exponencialmente de la altura de la barrera. Cuando la adaptación es elevada, es difícil encontrar máximos próximos mejores, y por tanto la especie es bastante estable en su máximo local. Cuando la adaptación es baja, es m u c h o más probable encontrar estados próximos que mejoren la situación, y por tanto las barreras son bajcis. Do entre todcis las especies consideramos únicamente aquella que presenta la barrera menor, Bi, (mucho más probable de superar que cualquiera de mayor altura que ella). Las barreras son la medida de estabilidad en este modelo. El salto de la barrera se puede interpretar como una mutación de la especie o como su sustitución por otra mejor en el nicho ecológico. Como conse cuencia de que las barreras menores se corresponden m ayoritariam ente con una baja adaptación, y al revés sucede con las barreras mayores, las barreras son tam bién una medida de la adaptación de la especie. Dado que las barreras menores son inestables, existe una colección de especies que uo interaccionan y que ax:aban convergiendo a un estado ‘‘congelado” con las barreras más altas. Se requiere un mecanismo que simule la interacción de las especies en el paisaje adaptativo. Supongamos que un movimiento de una de las especies provoca cambios en el paisaje, y por tanto inducirá m utaciones en las especies en él situadas. Una especie que posea una barrera muy alta puede ser incapaz de moverse por si sola, pero finalmente será afectada por un vecino que al m utar reduzca su barrera y posibilite el cambio. Ei modelo intenta representar las características expuestas, supuestas como más relevantes en el proceso de macroevolución, de la forma siguiente: 1. Se sitúa a N especies en una red unidimensional con condiciones periódicas de contorno. 2. Se asigna un valor aleatorio a la barrera,
con distribución homogénea en el intervalo [0,1].
En cada paso de tiempo, el sistem a se actualiza de acuerdo con: 3. Se localiza la barrera menor y se asigna un nuevo valor aleatorio a esta celda. 4. Se cam bia el paisaje adaptativo de los dos vecinos situados a la derecha y a la izquierda asignándoles de nuevo dos valores aleatorios a sus barreras. La selección de la menor de las barreras se justifica por la separación exponencial entre las escalas de tiempo. Cuando se inicia la simulación, las actualizaciones sucesivas están muy descor relacionadas, pero a medida que el valor de las barreras crece, es cada vez más probable que los vecinos próximos de una especie que acaba de m utar sean los siguientes en m utar, y se produce en consecuencia la correlación de los sucesos. Después de un largo transitorio, se llega a una distribución estacionaria. Una de las medidas a realizar en el estado estacionario es la distribución C(x) de la distancia r entre m utaciones sucesivas. Se obtiene en este caso una distribución potencial. C{x)
(X X
-3 .1 5 i0 .0 5
lo cual confirma la conjetura de que el sistema se comporta de forma crítica. Esta distribución no depende de las condiciones iniciales, así que el estado estacionario es un atractor de la dinárrúca que se alcanza por autoorganización del sistema. El cálculo de la distribución de los valores de barreras que m utan revela que todas las mutaciones tienen lugar para valores inferiores al crítico, B e = 0.67±0.01. El umbral define el tiempo máximo de espera entre mutaciones sucesivas. Si no existiesen correlaciones entre las especies que forman el sistema, todas alcanzarían el valor de máxima adaptación, .5, = 1, Ví, pero con extrema lentitud. Incluso si la regla de actualización
442
Orden y Caos en Sistemas complejos
Tiem po Figura 12.11: Equilibrio puntuado en el modelo de evolución descrito en el texto. Se ha represen tado la dinámica del número de “mutaciones” a lo largo del tiempo. se cambia y, en lugar de sustituir en cada paso el valor de las barreras de los vecinos del elemento que tenía el vaíor menor de simplemente se ehmina esta especie, el sistema resultante se encuentra aún lejos del equilibrio, es decir, del valor 1 para todas las barreras. La actividad en el sistema está bien caracterizada utihzando “avalanchas evolutivas’’. Se con sidera pertenecientes a la misma avaleincha a todas las extinciones que han tenido lugar consecu tivamente por debajo de un cierto umbral fijado. Cuando ha cesado la actividad durante un paso de tiempo, con el criterio definido por este umbral, se considera la ávalancha finahzada. El número de mutaciones por debajo del umbral define una avalancha de tamaño 5. La distribución de los tamaños, N {s), sigue una ley potencial N{s) a s - 0 . 9 Í 0 . 1 indicando que se obtienen avalanchas coevolutivas a todas las escalas, incluyendo el tam año total del sistem a (véase el capítulo 8). Si se asocia estabilidad con adaptación, la últim a es baja durante las grandes avalanchas, en tanto que se observa una alta adaptación durante los períodos de estasis con escasa actividad. El mecanismo de evolución cerca de un estado critico se puede interpretar como una búsqueda de una mejor adaptación local, que sucede raramente, pero que en ocasiones puede tener una influencia brutal en el sistema.
12.5.1
Teoría de ca m p o medio
Supongamos que una avalancha evolutiva afecta a un total de K especies, y que su duración temporal es despreciable frente al tiempo requerido para que el sistema evolucione espontáneamente en el estado estacionario (según las suposiciones reahzadas en la sección anterior). El estado del ecosistema de iV especies se caracteriza por los valores
que representan las barreras efectivas hacia máximos mejores que el local en el que se encuentre la especie í . La dinámica consiste en seleccionar la especie con menor valor de barrera y cambiar
443
Evolución, Criticalida.d y Extinciones 60
50
30
1D 20 3 0 4 0
50 60
7 0 8 0 9 0 100
lifetim et
Mutation Activity
Figura 12.12; (a) Distribución de frecuencias en el número de mutaciones (actividad) y (b) fre cuencias de duración de las avalanchas. esta cantidad, junto con la de i í —1 especies más. Los resultados del modelo dependen de cómo se decida escoger las K especies. Una posible elección consiste en situar las especies en una red hipercúbica d —dimensional cou interacción a primeros vecinos, con lo cual K = 2d + 1. Seleccionemos por conveniencia matemática las — 1 especies en interacción aleatoriam ente entre las N especies del sistema. Además se supone que si una especie inicia varias veces una avalancha, las especies afectadas se escogen cada vez aleatoriamente entre todas las del sistema. Se puede realizar un anáUsis de campo medio despreciando las correlaciones entre los valores de las barreras. Si llamamos pi a la distribución del valor de barrera z ,, entonces la aproximación de campo medio consiste en suponer que = 77 (z -
l) !( iV ,)!
P ‘- V ) p ( x ) Q ^ ‘(z)
de donde la distribución para la barrera menor será p i(z) = N p{x) y donde se han definido
F(x) =J dx'p(x') Q(x) - j di'p{x') La normalización de pproporciona f dx'p{x') = P{x) + Q (x) = 1, Vx La ecuación dinán:úca para P {x ,t) es
p{xj+1)=p(x,t)- ^Pi(x,í) -
(p(x.t) - j:Pi{x,t)j +^
(12.5.1)
La barrera menor se ha ehrrúnado de esta expresión (segundo término de la derecha). El tercer térnúno a la derecha representa la ehminación de — 1 barreras de laá A'’ — 1 restantes tras
444
Orden y Caos en Sistemas complejos
eliminar la menor. Como estas A" — 1 pueden ser cualesquiera de las restantes, seguirán su misma distribución, es decir, [N p{x,t) —p i{x ,t)]/{N - l). El último término representa la adición de K nuevos valores equ id is tri buidos, que reemplazan a los elirrúnados por la avalancha. Obsérvese que la ecuación total conserva la probabilidad. La dinámica de campo medio es una aproximación a la ecuación m aestra para el proceso de Markov de vecinos aleatorios, presentando ambos uu único punto fijo atractivo. La ecuación 12.5.1 es una ecuación integral para p(x), o bien una ecuación diferencial ordinaria para Q{x)^ Su solución será la raíz positiva de la ecuación pohnómica [N - K )Q ^ (x ) + N {K - l)Q(j-) + {N - l)K {x ~ 1) = O
(12.5.2)
En el límite N >> K > l, el primer térnúno de esta ecuación es despreciable frente al segundo para los valores de r donde Q{x) < 1 en un factor superior a 0 ( 1 /N ). Tenemos por tan to
(12.5.3) En el caso Q(x)
I tendremos
-
A·^ (1 -
í!
^ - I »
0
( 1
/ A
’)
(12.5.4)
considerando que p(x') = —dQ {x)/dx, se obtiene P(^) ^ p{^) ~
^ - ^ > > o(i/A?;) K
1 ^” A
C>(l/iV)
La solución exacta para 12.5.2 se obtiene de forma sencilla numéricamente por iteración de las ecuaciones 12.5.3 y 12.5.4 para x > l / K y x < 1/A', respectivamente. En el límite N —* oc. p(x) presenta una discontinuidad en x ~ 1 /K: es cero por debajo de este valor y constante por encima. Se puede entender e st e resultado de forma aproximada. Supongamos que p{x)
ÍK A
,
1
para O < x < — A
y que p(a:) ~
K
1 p
Entonces, el valor menor de las N barreras, siguiendo la distribución definida por P, estará equidistribuido por debajo del umbral 1 / K , y los restantes N — 1 valores serán típicamente mayores que l/K . Por tanto, cuando se ehmina el valor menor, uo queda ninguno por debajo del um bral, y los K — l valores que se eünúnan juntam ente con éste han de ser escogidos por encima del umbral. Estos valores también están equidistribuidos; una vez ehminados, son reemplazados por otros K que escogernos arbitrariam ente de una distribución uniforme, en la cual, típicam ente, uno de es tos valores caerá por debajo del valor umbral. La probabilidad p es estacionaria y se m antiene inalterada trcis este proceso.
Evolución, Criticalidad y Extinciones
445
Este razonamiento nos conduce a otro asp^'cto de la dinámica asintótica dcl modelo. Si ob servamos a lo laxgo del tiem po cuál es ia especie que desencadena cada avalancha, veremos que con gran frecuencia es una de las que acaban de participar en la últim a avalancha. Si aphcamos este razonamiento a la evolución real, parece que la¿ especies más antiguas serán tam bién las que tendrán mayores posibilidades de sobrevivir, lo cual, según los resultados e.xpuestos en secciones previas, parece no ser cierto (Van Valen, 1973). Se ha supuesto anteriorm ente que el número de elementos con valor de barrera bajo el umbral es 1. Se puede obtener una mejor estimación considerando ia aproximación íle campo medio, que proporciona
N P ( i ) = InA^ - ln(ln
- l.(A· - 1) + O ( t ^
)
+ o ( ¡ ^ ) + O (If^ )
donde P ( l/ K ) = 1 —Q ( l/K ) , y Q ( l/K ) es la solución de la ecuación 12.5.2 con x — \ ( K . El valor medio del número de barreras bajo el umbral es A'F(1/A"). La fluctuación en este valor medio que se requiere para que finahce una avalancha se hace cada vez más rara a medida que N aumenta. Por tanto, el tamaño de las avalanchas, definido como el número de extinciones que contienen, crece con N , y diverge cuando N —+ oo. Cuando N —> oo, se obtienen avalanchas de todos los tamaños, y la aproximación de cainpo medio pernúte determinar que las avalanchas mayores estarán distribuidas según una ley potencial, D{s) oc No existe valor medio para estas avalanchas críticas. Existen algunos otros modelos recientes, algo más sofisticados, y que producen resultados más cercanos a los datos experimentales que se encuentran a partir del registro fósil. Uno de ellos se debe a Newman y Roberts (1995), que incluyen en su modelo tanto la interacción interespecífica, del mismo modo que Bak y Sneppen, como una nueva influencia, debida al medio. No describiremos extensivam ente este modelo, pero el lector interesado puede consultar la referencia al final del capítulo. En la siguiente sección describiremos un último modelo, con una sofisticación a medio camino entre los dos anteriores, y con resultados compatibles con los datos paleontológicos.
12.6
M odelos co n extinción explícita
Los modelos anteriores emplean la idea de extinción en un sentido muy abstracto: no incorporan verdaderas extinciones ni la posibilidad de diversificación (esto es, de aparición de nuevas especies a p artir de especies previas). Este es, sin duda, un punto débil de los modelos vistos (Maddox, 1994; 1995) especialmente en relación a las posibles comparaciones que podamos reahzar con los datos procedentes del registro fósil. En este sentido, un modelo capaz de generar extinciones por medio de la interacción entre especies y que permita generar nuevas variantes a partir de las supervivientes sería deseable. Dicho modelo es posible (Solé. 1996) y permite comprobar ia aparición de leyes potenciales asociadas a los acontecimientos de extinción. En este modelo de macroevolución se pone especial énfasis en las conexiones entre las especies que componen la ecología, y son éstas las que desencadenan las extinciones. En un sistema con N especies, se supone que todas están conectadas con todas (por tanto influenciadas por todas), incluso con ellas mismas (lo cual puede interpretarse como la influencia que el estado interno de
446
Orden y Caos en Sistemas complejos
locr-
0) N 00-iH CD r¡ 6D O •H J-) U í=! 40-!¡ -H i.) X W 20a ia J ji
65500
65000
66 00 0
36300
T im e Figura 12.13: Dinámica del modelo de evolución descrito en el texto. Obsérvese los instantes anteriores y posteriores a las grandes extinciones, de donde se puede deducir la bondad de la copia realizada en el sistema (véase el texto). la propia especie puede tener en su supervivencia). Esta restricción, suponer que conectividad es total, puede relajarse y hacerse variable (Solé, 1996). Cuando la suma de las conexiones que una especie particular recibe cae por debajo de cierto umbral, la especie se extingue. Inmediatamente, el nicho que ha quedado vacío es ocupado por una nueva especie, que es una copia, con alguna mutación en las nuevas conexiones, de alguna de las especies supervivientes. Este hecho permite Introducir la diversificación. Consideremos un sistema con N especies totalm ente conectadas. El valor del enlace entre la especie i y la especie j es iü(¿, j), con w{i, j) G [—1, 1], y la conexión es en principio un valor equidistribuido en el intervalo señalado. La simulación exacta del modelo sigue los pasos siguientes: 1. A cada paso de tiempo, y para cada una de las
í
especies, consideramos la cantidad
N hi = Y
w{í , j )
que representa la entrada total sobre esta especie. Cuando este campo es rneuor que cero, ht < O, la especie se extingue. 2. Todas las conexiones u;(z, j) y cero.
i) correspondientes a especies extinguidas toman el valor
3. De entre las especies supervivientes, se escoje aleatoriamente una, digamos k. Los espacios que han quedado vacías son ocupados por copias mutadas de esta especie, tal y corno sigue. Para cada valor de las conexiones ií;(A:, /) y w(l, k) se realiza la copia w{i, l] - w{k, l) + €
vü{¡, i) — w(¡, k) -t- € r¿,·
en el lugar que ocupaba la especie i extinguida, donde r es un número aleatorio con dis tribución uniforme en el intervalo [—1, 1] que se escoge nuevamente para cada conexión y e controla el tam año de la mutación.
447
Evolución, Criticalidad y Extinciones
T im e
Figura 12.14: Variación del cainpo h, de una especie arbitraria a lo largo del tiempo. C ada vez que este valor cae bajo cero, la especie se ha extinguido. Obsérvese cómo, cuando tras la colonización de la celda el caxnpo presenta un valor alejado del umbral crítico de extinción, éste valor ^deriva” lentamente hacia el valor cero. 4. Se escoge una conexión arbitraria en cada una de las N especies en el sistema y se cam bia al azar. Y se repite el proceso. Remarquemos que no existe ninguna condición de simetría en el valor de las conexiones. En efecto, la influencia que cierta especie i pueda ejercer sobre la especie j no implica nada sobre la influencia contraria (piénsese, sin ir más lejos, en los casos presa-depredador, coevolución o huésped-parasit oid e ). Tras un periodo transitorio, el sistema alcanza un estado crítico, en donde se puede observar una distribución potencial de extinciones, entre las cuales aparecen ocasionalmente alguna^s incluso del tam año total del sistema. Esperando un tiempo suficiente, se puede llegar incluso a la extinción total de todo el ecosistema. El tamaño s de una extinción se calcula por medio de avalanchas, de la forma siguiente. Sea n(í) el número de especies eliminadas en ei paso de tiem po ¿ de la simulación. Entonces, tf s —
) ~ O’
/ ) = 0)
7^ o, \/tt < t < tj
£= í.
La distribución N {s) de los valores de s sigue una ley potencial con exponente a — 2,3 ± 0.1. O tra magnitud que presenta una distribución potencial es el tiempo de espera Te entre extinciones. Esta magnitud se define como T^ = tf ~ t,, con n{t) — O, Víy < t < ti, y se obtiene una distribución D{te) con exponente ¡3 = 3.0 ± 0.1. La dinámica macroscópica está guiada por el valor que presentan las conexiones. La conectivi dad tiende asintóticam ente a ser total. Pensemos que es así como se perm ite que sea, pero que las extinciones y la ehminación de conexiones que conllevan alejan al sistem a de esta posibilidad. Cada vez que se produce una extinción, y se produce la copia consiguiente, se aleja al sistem a del estado crítico. En algunas ocasiones, una buena copia (lo cual significa que se copia una especie i con un campo 1) puede provocar un largo periodo de inactividad (en el sentido de ausencia de
Orden y Caos en Sistemas complejos
448
00
Figura 12.15: Distribución de los tamaños de avalanchas y del tiempo de espera entre extincioaes. extinciones) en el sistema. Por un proceso de difusión, provocado por los pequeños cambios aleato rios en las conexiones, el sistema retorna lentamente al estado crítico. En otras ocasiones, una mala copia (se copia ahora una especie j con hj « O, aunque positivo, puesto que ha sobrevivido) puede inducir una extinción de mayores proporciones que la anterior. Además, puede también darse el caso de que cuando desaparece una especie que es “beneficiosa’' para otreis (en el sentido de que sus conexiones de salida son positivas), las que estaban sustentadas por ésta queden con un ccimpo negativo que el cambio aleatorio de una única conexión sea incapaz de cam biar de signo. Podríamos ver aquí el papel de la contingencia en las extinciones: las malas copias encadenadas y las extinciones de especies de soporte son las que provocan las grandes extinciones en el modelo. Obsérvese la dinárrúca tem poral de las extinciones y los “preludios’’ a las extinciones en masa. La conclusión principal de este modelo y de los anteriores es la clara posibilidad de que la estructura del proceso de macroevolución sea el resultado de un proceso de autoorganización, que eventualm ente se verá perturbado por causas físicas. Estas perturbaciones pueden desencadenar grandes extinciones, pero no tienen porqué ser el motivo estricto de éstas. Los factores bióticos podrían situar al sistema en el punto crítico y sería esta configuración (alcanzada por motivos de interacción entre especies) la que podría, eventual m ente, hacer vulnerable ei sistema. Podemos resumir los resultados anteriores en la tabla siguiente (Solé y Bascompte, 1995); Propiedad
Observación
Proceso aleatorio
Criticahdad
Frecuencia de extinción Dinámica (tasas) Dinámica (temporal) Taxonomía Extinciones en masa
Decreciente(*) Puntuada 1 // r ) Fractal Episódicas
Exponencial Aleatoria (RW) 1 /P (RW) Exponencial Imposibles
Potencial Puntuada 1 // Fractal Esperadas
Tabla II: Algunas propiedades generales de la macroevolución, tal y como se observan y como se predicen por medio de modelos aleatorios o críticos. (*) Los datos accesibles son compatibles tanto con un ajuste exponencial como uno potencial, aunque el ajuste es mejor en el segundo caso. (**) Basado únicamente en los datos sobre ammonites (House, 1989)
449
Evolución, Criticalidad y Extinciones 10000
1000^
lOd
1
II
I I I |· I I )
0.0 0.2
0.4
I
I 1 I I I
0.5
I I T r I 'I 'T
O.S
1.0
t I
I ' 1" l
1.2
[ I I- I i I I J
1.4
1.6
log(E) Figura 12.16: Distribución de frecuencias de extinciones en el modelo Tierra. Acabemos añadiendo que existe una crítica adicional, basada en el hecho de que la unidad de cambio en los modelos anteriores es la especie como tal, y no los individuos. Sin embargo, se asume en principio de forma natural que son los individuos las verdaderas unidades de selección. ¿Qué tipo de com portam iento esperaremos observar en un ecosistema complejo en el que tenemos individuos como entidades bien definidas formando póblaciones en interacción? Una forma de abordar este problem a se lleva a cabo en el dominio de una disciplina denominada vida artificial {Levy, 1992, y referencias citadas). Este campo de investigación intenta plantear de forma muy general las propiedades y la dinámica de sistemas capaces de autorephcarse, interaccionar y, en definitiva, evolucionar. Uno de los modelos más conocidos es el simulador Tierra,, creado por Thom as Ray, de la Universidad de Delaware (Rennie, 1992; Adami, 1995). Este sistema está formado por una población de programas que compiten por la memoria del ordenador y que poseen la capacidad de m utar generando nuevos programas. El modelo T ierra es un buen ejemplo de evolución artificial: una vez en marcha, aparecen de forma espontánea parásitos, hiperparásitos, etc. Los parásitos de hecho influyen de forma decisiva en la generación de diversidad en el sistema. Y el modelo genera extinciones. Un ejemplo de la distribución de probabilidad de extinciones se m uestra en la figura 12.15. Vemos una vez más una distribución potencial caxacteristica (con una cola final que se separa, debido a los efectos de la longitud finita de la simulación). La conclusión que e.xtraemos de este resultado es que la extinción es, ciertamente, un fenómeno genérico, inevitable, en la evolución de un sistem a complejo adaptativo.
12.7
E volución, caos y con tin gen cia
Entre las preguntas abiertas que podrízimos formularnos acerca de la evolución está el problema de hasta qué punto es predecible, en algún sentido, la dinámica del proceso. Parece claro que, en principio, los detalles específicos son impredecibles. Los pequeños cambios producidos de forma fortuita pueden tener, a medio o largo plazo, grandes efectos. Si ei escenario planteado por los modelos anteriores es adecuado, entonces la dinárrúca no-hneal hará virtuahnente imposible pre decir qué especies se hallarán presentes. En principio, lo único que posiblemente se conservará serán las propiedades msicroscópicas relacionadas con la funcionalidad del ecosistema, como son
450
Orden y Caos en Sistemas complejos
las relaciones entre diversidad y conectividad. Stephen .lay Gould es el principal defensor de esta visión contingente del proceso de evolución (Gould, 1994); ^La historia incluye demasiado caos, o una dependencia exiremadamenU' sensible de diferencias minúsculas e inconmenurahles en las condiciones iniciales, lo que conduce a resultados divergentes sobre la base dc disparidades mínimas en el origen. Y la historia comprende también la contingencia: los resultados actuales se deben a largas cadenas de estados previos impredecibles y no a la determinación inmediata por leyes eternas de la naturaleza. ” Los resultados de Burlando acerca de la fractalidad de las relaciones taxonómicas nos sugieren la existencia de propiedades de autosimilaridad en la evolución futura que podrían reflejar la existencia de un estado crítico autoorganizado. Los datos obtenidos acerca de las fluctuaciones de las familias de ammonites son en principio consistentes con esta observación. Hay sin embargo un factor de importancia a tener muy en cuenta. Las especies poseen una morfología (externa e interna) que las identifica como tales de forma específica. En la gran explosión de Cámbrico (Gould, 1991; 1994) se generaron, muy posiblemente, todos los tipos morfológicos que hoy subsisten (algunos de los aparecidos en la explosión del Cámbrico desaparecieron). Podríam os plantearnos la siguiente pregunta; ¿son posibles todas las morfologías imaginables? Esta cuestión está lejos de ser trivial. Intuitivamente, podríamos creer que, bajo la presión de la selección, se ehgen cierto tipo de formas que proporcionan una mejor adaptación. Las formas observadas (y sobre las que podríamos, en principio, construir exphcaciones de corte adaptacionista) no son arbitrarias, pero deberíamos preguntarnos si existen restricciones de tipo genérico al conjunto de formas posibles. Algunos científicos opinan que, de hecho, el conjunto de formas está restringido a unas pocas combinaciones, y que estas restricciones al desarroUo son debidas a causas intrínsecas al proceso de morfogénesis (Goodwin, 1994). Podemos visuahzar las distintas alternativas en una imagen (figura 12.17) que resume un ex perimento m ental. Imaginemos (como sugiere Gould, 1991) que pudiéramos “rebobinar” la cinta de la película de la vida y volver hacia atrás, antes de la gran explosión del Cámbrico. Dejamos entonces que la pehcula se ruede otra vez, teniendo en cuenta que ahora las pequeñas diferencias pueden ser amplificadas a lo largo del proceso. Pueden ocurrir básicamente tres cosas; Todo vuelve a ser exactamente igual. Los factores deterministas son tan fuertes que impiden de hecho que la historia se escriba de otra forma (figura 12.17 (a)). El escenario final es distinto, pero las restricciones al desarrollo hacen que. de hecho, veamos un conjunto de formas similares básicamente a las del caso origina!. Las limitaciones intrín secas juegan un papel importante (figura 12.17 (b)). • Todo es distinto. No existen limitaciones que impidan obtener formas de distintos tipos, y las pequeñas alteraciones de las condiciones iniciales han modificado drásticam ente el resultado final (figura 12.17 (c)). No sabemos si la verdad está incluida en una de estas opciones o si tal vez es una combinación de éstas. Pero no cabe duda de que ciertas restricciones operan a algunos niveles. En ecosistemas de distintos continentes encontramos una gran variedad de especies, pero no es raro hallar conver gencias muy notables, como la presencia de osos hormigueros o ardillas voladoras, que sugieren la existencia de mecanismos comunes de generación de estructuras. Tal vez ocurre, en la evolución, aquello que ya hemos visto en nuestro estudio del caos determinista (Cohén y Stewart, 1991); existe contingencia y sensibilidad a las condiciones iniciales pero el proceso está confinado a un conjunto
Evolución, Criticalidad y Extinciones
451
Figura 12.17: Rebobinando la película. Supongamos que pudiéramos rebobinar la historia de la vida sobre la Tierra para volver a los comienzos. Imaginemos, por ejemplo, que estam os eu el Precámbrico, antes de la aparición de los tipos morfológicos que conocemos. Podríamos encon trarnos con tres escenarios posibles para la evolución. En el primero (a) todo vuelve a ser como en la película anterior. Los factores determ inistas juegan un papel tan preponderante que nada distinto puede tener lugar. Es un camino de una sola dirección, (b) El escenario es distinto, pero identificamos estructuras famihares, como espirales, segmentos, tubos, etc. Aunque podemos ver organismos muy distintos, su morfología comparte propiedades universales con las de otras posibles evoluciones, (c) El resultado de variar las condiciones iniciales da lugar a un escenario final donde emergen organismos completamente distintos. No hay restricciones im portantes a la morfología y muchas formas son posibles.
452
Orden y Caos en Sistemas complejos
150
130
i) 110
T^.—i-TTn :7----- 1--- \—r-m-rrf 4 0
8 0
t i e m p o ( Tiñeses)
1 2 0
0.001
0.01
0.1
/
Figura 12.18: Fluctuaciones temporales en un índice económico y espectro de Fourier asociado, del tipo 1 //. de posibilidades (el atractor) no arbitrario. Ambos procesos se hallan presentes, haciendo imposi ble la predicción del detalle, pero permitiendo una predicción racional de la naturaleza básica de las estructuras. Cabe preguntarse, por último, si existen propiedades de tipo genérico en la dinám ica de sistemas complejos adaptativos que comparten con la evolución biológica ciertos rasgos básicos. Este sería el caso de la economía. Aunque los modelos econónrúcos clásicos son fündam entalm ente modelos de equilibrio, los sistemas económicos reales son sistemas complejos adaptativos que tam bién presentan fenómenos de contigencia y, tal vez, existe criticalidad en su dinámica. En la figura 12.18 vemos un ejemplo de fluctuaciones de un índice económico que sugiere claramente esta posibilidad, y existe de hecho un tratam iento formal basado en los modelos de Kauffman antes discutidos (Kauffman y Macready, 1995). De ser así, las grandes fluctuaciones que de vez en cuando generan grandes crisis económicas, serían el resultado de la evolución de un sistema complejo adaptativo en el filo del caos.
Bibliografía 1. C. Adami, Self-organized criticaliiy in living systems. Phys. Lett. A 203 29 (1995). 2. P. Bak, P. C. Tang y K. Wiesenfeld, Self-organized criticality: an explanation for 1 / / noise. Phys. Rev. Lett. 59 381 (1989). 3. P. Bak, P. H. Flyvbjerg y B. Lautrup, Coevolution in a rugged fitness landscape. Phys. Rev. A 46 6724 (1992). 4. P. Bak y K. Sneppen, Punctuated equilibrium and criticality in a simple model of evolution. Phys. Rev. Lett. 71 4083 (1993). 5. P. Bak y M. Paczuski, Complexity, Contingency and Criticality. Proc. Natl. Acad. Sci. USA., (en prensa).
Evolución, Criticalidad y Extinciones
453
6. J. Bascompte, R. V. Solé y J. VaUs, Diversity ai ihe edge of chao.'^: a new look ai the barroque of nature. Proc. 1st Copenhagen Symp. Comp. Sim. Biol. Ecol. and Medic. E. Mosekilde, (ed.) 56 (1993). 7. J. Binney, N. W, Dowrick, A. J. Fisher y M. E. J. Newman, The theory of critical phenomena. Clarendon Press, Oxford, 1993. 8. D. E. G. Briggs y P.R. Crowther, (eds.) Palaeobioogy Blackwell, Oxford, 1990. 9. B. Burlando, The fractal dimension of taxonomic systems. J. theor. Biol. 146 99 (1990). 10. B. Burlando, The fractal geometry of evolution J. theor. Biol. 163 161 (1993). 11. J. Cohen y I. Stewart, Chaos, contingency and convergence. Nonl. Sci. (1991).
Today, 1 (2) 9
12. H. Flyvbjerg, K. Sneppen y P. Bak, Mean Field Theory for a Simple Model of Evolution. Phys. Rev. Lett. 71 4087 (1993). 13. S. J. Gould, La vida m,aravillosa. Editorial Crítica, Barcelona, 1991. 14. S. J. Gould, La evolución de la vida en la Tierra. Investigacwn y Ciencia, Noviembre 1994. 15. S. J. Gould y N. Eldredge, Punctuated equilibrium comes of age. Nature 366 223 (1993). 16. D. M. Green, Chaos, Fractals and nonlinear dynamics in evolution and phylogeny. Trends E col E vo l 6 333 (1991). 17. M. R. House,
Ammonoid extinction events. P hil Trans. R. Soc. Lond. B 3251528 (1989).
18. D. Jablonski, Mass and background extinctions': ihe alternation of macroevoluiionary regimes. Science 231 129 (1993). 19. S. Kauffman y J. Johasen, Coevolution to the edge of chaos: coupled fitness landscapes, poised states and coevolutionary avalaitches. J. theor. Biol 149 467 (1991). 20. S. Kauffman, The origins of Order. Oxford U. Press, Oxford, 1992. 21. S. Kauffman y W. Macready, Technological evolution and adaptive organizations. Complexity 1 26 (1995). 22. S. Levy, Artificial Life. Penguin Books, London, 1992. 23. R. M. May, Will a large complex system be siabltY Nature 238 413 (1972). 24. J. Maddox, Punctuated equilibrium on a computer. Nature 371 197 (1994). 25. J. Maddox, Polite row about models in biology. Nature 373 555 (1995). 26. J. M. M aynard Smith, The causes of extinction. Phil. Trans. R. Soc. Lond. B 325 241 (1989). 27. M. E. J. Newman y B. W. Roberts, Mass extinction: evolution and the effects of external influences on unfit species. Proc. R. Soc. Lond. B 260 31 (1995). 28. D. M. Raup, Mathematical models of cladogenesis. Paleobiology 11 42 (1985). 29. D. M. Raup, Biological extinction and Earth history. Science 231 1528 (1986).
454 30. D. M. Raup, Extinction: bad genes
Orden y Caos en Sistemas complejos
o t
bad luck?. Oxford U. Pr^-ss. Oxford, 1993.
31. J. Rennie, Vida compartida. Investigación y Ciencia, Marzo 1992. 32. M. Scliroedcr, Fractals, Chaos and Power laws. Freeman and Co., Now York, 1991. 33. P. Skelton, (ed.) Evolution. Addison-Wesley, Wokingham, 1993. 34. K. Sneppen, P. Bak, H. Flyvbjerg y M. H. Jensen, Evolution as a self-orgamzed critical ■phenomenon. Proc. Natl. Acad. Sci. USA 92 5209 (1995). 35. R. V. Solé, J. Bascompte, J. Delgado, B. Luque y S. C. M anrubia, Complejidad en la frontera del caos. Investigación y Ciencia, Mayo 1996. 36. R. V. Solé y S. C. Manrubia, Are rainforests self-organized in a critical state? J. theor. Biol. 173 31 (1995a). 37. R. V. Solé y S. C. Manrubia, Self-similarity in raiiiforests: evidence for a critical state. Phys. Rev. E 51 6250 (1995b). 38. R. V. Solé, S. C. Manrubia, B. Luque, J. Delgado y J. Bascompte, Phase transitions and complex systems. Complexity (en prensa, 1996). 39. R. V. Solé, On macroevolution, extinctions and critical phenomena. Complexity (en prensa, 1996). 40. R. V. Solé y S. C. Manrubia, Extinctions and Self-organized criticality in a model of Macroevo lution. Phys. Rev. ¿^(preprint). 41. N. C. Stenseth, Darwinian evolution in ecosystems: the Red Queen view. En '^Evolution” , Cambridge U. Press., Cambridge, 1985. 42. N. C. Stenseth y J. Maynard Smith, Coevolution in ecosystems: Red Queen evolution or Stasis? Evolution 38 870 (1984). 43. L. Van Valen, A new evolutionary law. Evoi Theory 1 1 (1973).
C apítulo 13
R e tr o v ir u s y C u a siesp ecies: E n tr e el O rd en y el C aos En este capítulo abordaremos un problema de especial im portancia no sólo teórica sino (y muy espe cialmente) práctica. Sus protagonistas tienen mucho que ver con el orden, el caos y la complejidad. También representan formas de evolución rápida y a la vez la señal de que un sistem a complejo, como es nuestro organismo, está expuesto a errores que pueden ellos mismos evolucionar hacia la complejidad. Durante la segunda mitad del siglo XX el desarrollo espectacular de la biología molecular ha conducido a un conocimiento antes impensable acerca del cáncer. A la vez. nos enfrentamos con nuevos tipos de virus, como ei virus del SIDA, que plantean retos de gran dificultad a nuestra capacidad de responder a la enfermedad (Domingo, 1994; Domingo y Holland, 1995). Tratarem os aquí de esbozar (muy esquemáticamente) las teorías actuales acerca del origen de los retrovirus y su forma de actuación. Veremos cómo los modelos nos acercan a aspectos del problema difíciles de abordar de otra forma, y cómo las no-hneahdades vuelven a darnos sorpresas.
13.1
Inform ación gen ética
Antes de entrar en el formalismo teórico, daremos en esta sección un repaso muy somero a los conceptos elementales de biología molecular relacionados con la información genética. E.ste re sumen no pretende ser, obviamente, todo lo completo que debería. La infonuación detallada puede encontrarse en cualquier buen texto de genética. Todos los seres vivos ahiiacenan la información necesaria para llevar a caV)o su replicación en una o varias moléculas de ácido nucleico. Este puede ser ácido desoxirriboiiucleico (ADN) o ácido ribonucleico (ARN). En ambos ca.sos cada molécula emplea cuatro símbolos básicos en los que se alm acena la información (cuatro nucleótidos) y que constituyen el ‘‘alfabeto’' del código. En las células (de cualquier tipo) el ADN almacena la información en secuencias de nucleótidos dispuestas a lo largo de la molécula y que, genéricamente, llamaremos genes^. Cada gen debe ser “leído” por un enzima que, empleando el ADN como molde, construye una cadena de .\R N (el llamado ARN mensajero). Este proceso se denomina iranscripción. Este ARN será a continuación leído a su v'ez por los ribosomas para formar una proteína. Este proceso de lectura final se denom ina traducción. Tenemos así, para una célula típica, una secuencia de transferencia de información. ^ E m p le a m o s e sta defiiiicion p o c o rigu ro sa de {oima co nsciente. La c o n su lta de un te x to d e g e n é tic a m olecular m o s t r a r á al lecto r el m o tiv o de n u e s tr a elección. La definición de gen, a m en u d o plant^-ada d e f o r m a m u y simple, no lo es.
455
Orden y Caos en Sistemas Complejos
456
Antígenos HLA Traiiscripíasa Inversa Membrana RNA
Figura 13.1: Estructura básica del virus del SIDA (VIH). ADN
ARN
Proteína
esta secuencia de lectura fue conocida en biología molecular como el dogma central Existen sin embargo otras alternativas. Una de ellas es emplear el ARN como punto de par tida. como ocurre en algunos virus. Una posibilidad es copiar el ARN (mediante una polimerasa adecuada) y realizar la traducción como antes. Sin embargo, una posibilidad al principio no considerada y que sin embargo también se da es el flujo de información inverso de ARN a .\DN ADN
ARN
Proteína
siendo el paso de ARN a ADN realizado m ediante la denominada retrotranscriptasa o transcriptcisa inversa. El descubrimiento de este enzima representó un paso gigantesco en nuestra comprensión de la interacción entre virus y células, así como de otros problemas, aparentem ente distintos, como es el origen del cáncer.
13.2
Variabilidad en retrovirus
Los retrovirus son un grupo muy im portante dentro de los virus de ARN, el grupo más extendido de parásitos intracelulares. En la figura 13 1 se m uestra la estructura básica del más famoso de los retrovirus: el virus de la inmunodeficiencia humana (VIH) tambén conocido como virus del SIDA (por Síndrome de Inmuno'Deficiencia AdquiHda). Su estructura básica es com partida por la mayoría de los virus: cierta cantidad de m aterial genético (ARN en este caso) rodeada de una envoltura externa. En el interior encontramos tam bién el encima capaz de reahzar la transcripción ARN ADN, la denominada transcriptasa inversa. El virus del SIDA apareció, según se ha estimado mediante técnicas de secuenciación junto con técnicas estadísticas especiales (Eigen. 1993) hace entre 600 y 1200 años. En este sentido,
Retrov/riis y Cua.^iespecies: Entre el Orden y el Caos
457
cri un virus ‘“reciente” . Pertenece a la faniilia de ios denominados virus emergentes. Aunque el rcnnino .sugiere la aparición reciente de una entidad completamente nueva, de hecho sus orígenes >on habitualm ente lejanos en el tiempo. Lo que los hace nuevos es en reahdad su invasión de un organismo con el que raramente teníaji contacto (por ejemplo, un vertebrado distinto del huésped liabitual, digamos el hombre) como consecuencia de la alteración del ecosistema en el que habita el organismo portador para el cual el virus raramente será letal. Se ha estimado que alrededor del 70 por ciento de los virus que infectan organismos diferen ciados son virus de ARN. Las células de los organismos complejos han evolucionado a lo laxgo del tiempo en compañía de estas entidades subcelulares. En el genoma de cualquier organismo niulticelular encontraiem os de hecho la evidencia contundente de esta historia compartida: cientos, miles de retrovirus (aparentemente “dormidos” o simplemente inactivos por alguna carencia) se hallan insertados en el genoma. Para una célula compleja, existen numerosas limitaciones para la variabilidad en la expresión -genómica. Más concretamente, una m utación en un sólo nucleótido puede hacer completamente errónea o simplemente anular la actividad de la proteína sintetizada. Existe una m ultitud de «ejemplos de enfermedades humanas eusociadas a una mutación en un gen determinado de los 10^ que componen el genoma. Es obvio que el sistema de repHcación debe estar adecuadamente ayudado ¡)or mecanismos (redundantes) de comprobación. Se dice que el genoma posee un mecanismo de reparación que evita la aparición y acumulación de mutaciones, que a medio plazo serían letales. Puesto que el genoma de un organismo complejo es de gran tamaño, las tasas de mutación deben >er muy bajas. De hecho, las estimaciones nos dan valores de tasas de m utación por nucleótido (le 10~*^ a 10“ ^^ por ciclo de rephcación. Si experimentalmente suprimimos los mecanismos de reparación, esta^s tasas se disparan a valores de 10'** sustituciones por nucleótido por ciclo de replicación. La estabilidad genómica requiere por lo tanto mecanismos que cuiden al máximo la fidelidad de copia. Los virus de ARN, en cambio, nos m uestran la otra cara de la moneda. Sus tasas de m utación enormes, junto con sus pequeños genomas, pueden dar lugar a una enorme cantidad de variantes en el curso de una infección. Los genomas de los virus de ARN son muy adecuados porque son sim ples, pequeños, se replican de forma eficiente pero, sobre todo, porque poseen, genéticamente, una plasticidad que los hace enormemente adaptables a ias variaciones ambientales. Esta plasticidad surge del hecho de estar constituidos, poblacionalmente, por una distribución muy heterogénea. El mecanismo de transcripción inversa les permite de hecho disfrutar de las ventajas del mundo a d a p t able de ARN y del mundo de ADN, con sus oportunidades para ia recombinación y la regulación Los virus de ARN (y ello no es sorprendente) poseen, como consecuencia de sus propiedades de variación, una enorme capacidad de evolucionar. Su variabilidad excede, con mucho, la de sus huéspedes. No es sorprendente que el sistema inmunitario haya desarrollado con la evolución unas frecuencias de mutación extraordinariam ente altas en las regiones del genoma implicadas en la generación de la variabilidad de anticuerpos. Esta variabilidad es de hecho del mismo orden de magnitud que la variabilidad de los virus.
13.3
D in á m ica de replicación molecular
Consideremos un modelo de dinámica de moléculas que se autoreplican, y cjue incluye a la vez la posibilidad de errores en la rephcación. La introducción de m utantes será, como veremos, una pieza clave en nuestra comprensión de la evolución de ciertos virus así como de las características peculiares de algunas enfermedades causadas por éstos, como es el caso del SIDA. El modelo que ^ P a r a u n a d isc u sió n d e ta l la d a de estas p ro p ie d a d e s y sus implicaciones, véase ei libro de S. M orse (ed); “ErnergLng Viru-ses” (1993).
458
Orden y Caos en Sistemas Complejos
(/l) + h ^ (A ) +
1
21,
,
I, + Ij i : jY «
h L
Figura 13.2: Replicación y mutación en el modelo de cuasiespecies. Las tascis de replicación aparecen indicadas por Ak y las de degradación por Dk- Los elementos de la m atriz de mutación se indican por Q ^· estudiarem os sigue ia¿ ideas planteadas por Eigen y Schuster (Eigen et al., 1989; Schuster, 1994; M ontero e/ a l, 1992 y 1993). Consideremos un sistema formado por N moléculas capaces de autorephcarse (podemos pensar en pohnucleótidos). Sea Xk{i) > O (con k = 1,2, la concentración de estas moléculas. Supondremos que poseen u(k) unidades (en general, ya sean nucleótidos, símbolos, bits, etc.). Sea entonces el conjunto a: €
1
> O (¿ ^ 1,..., N ) }
La probabilidad de que cada unidad sea reproducida adecuadamente se representa por q. La probabilidad de que la molécula completa sea reproducida sin ningún error (suponiendo que las unidades son independientes) será Q =
í" '* *
que se denomina a menudo factor de calidad. Si la tasa de rephcación de cada molécula se indica por Ak y la de destrucción por Dk < l, y si suponemos que los errores en la rephcación dan lugar a copias distintas pero dentro del conjunto considerado (como así sucede en la realidad), tendremos una ecuación dinámica para las concentraciones de cada molécula. dxk
-
{AkQk - Dk)xk
-f ^
Wkixi
donde Wk¡ es la tasa a la cual se genera una unidad k a partir de una /. Ocasionalmente, se puede añadir un término de flujo que introduciría una dilución en el sistema. Puede interpretarse como un térm ino independiente de la cinética de degradación y asociado ai hecho de que "salen” del sistem a a un ritmo (de flujo) constante. De forma general los valores de Wki dependerán de lo próximas que se hallen las secuencias consideradas (de cuántas mutaciones separen una de otra).
459
Retrovirus y Cuasiespccies: Entre ci Orden y el Caos
Para un par de secuencias dada--:. Ik e Ij, la probabilidad de obtener una a partir de la otra vendrá dada por la frecaencia: 1 -q
Wkj -
/ \ donde d { k ,j) es ladisrancia de Hanuiiing entre la> secuencias, definida corno el número de dígitos distintos entre ambas. Observemos que el término de replicación Ak está multiplicado por Qk, como era de esperar. Los errores en la replicación de la secuencia /—ésima deben dar lugar a varicintes k ^ l, luego debemos esperar que se dé alguna relación formal entre .4/, Q¡ y los valores Podemos comprobar que, efectivamente, se tiene W'-jt/ = A/( 1 - Qi]
k^¡ Si denominamos Wkk (tasa metabòlica) a la cantidad i í,. = (Ai-Qjt —Dk) entonces podemos escribir las ecuaciones dinánúcas eu la forma dxk _ dt
Y
W kixi
i
con lo que las propiedades del sistema vendrán dadas por la matriz de coeficientes / A iQ i - Di
W i 2 ^13 A 2 Q 2 - D 2·
^21
Win
A n Q .- D n / Si suponemos que las tasas de mutación son despreciables, y tomamos Q — 1, es fácil comprobar que ia dinárrúca se reduce a un conjunto de soluciones de la forma . . .
Xk{t) = rjt(0)exp (Afc - Dk) i lo que nos da xjt ^ para aquellas especies tales que Ak > Dk, y cero en caso contrario. Está claro que, en ausencia de selección de ningún tipo, la clase más representada será la que se replique con mayor rapidez. Eu general, indicaremos por = Ai — D¡ la llamada productividad de la copia i —ésima. Una vez que disponemos de la forma lineal de la interacción entre las moléculas, podemos plantearnos la introducción de las condiciones de selección sobre éstas. Una restricción obvia está en el am biente, que podemos incluir en varias formas. Impondremos, siguiendo el modelo de Eigen, la restricción de población constante (CP), esto es, Xk{i) = C oA o que es lo mismo. dt Esta condición, que puede obtenerse experimentalmente en un reactor adecuado (pero que es poco plausible en la naturaleza), se obtiene introduciendo un término de flujo, de forma que tenemos ahora di
l
460
Orden y Caos en Sistemas Complejos
y la restricción de población constante se verificará sieuipre que
k Si tomamos
^ k
i
como proporcional a la fracción de unidades de tipo k, esto es, si
donde indica el flujo total, expresión anterior,
^
k
^jt entonces este último puede determinarse a partir de la
Wk¡x¡ = ¡
^ Wkixi = k^l k
k
- Dk)xk -
- A )a:/ ¡
Tenemos así = ~ ''’^ [ A k Q k — D)¡)xk = ~ ^ EkXk = - < E {t) > xjfc k k k de donde puede verse que < E{t) > = c - ‘ 5 3 ^ 1 V h x , k l Para simpíificar, volvamos al caso Q := 1 y Wij = 0 . El sistema de partida es por lo tanto
^
- {Ai - Di)x, ~ ^ x ,
con lo que ahora la condición CP se obtendrá de
lo que nos da en este caso
j Las ecuaciones se escribirán entonces en la forma compacta J*
-
{E .~ < E >)x.
Observemos que, en ausencia de mutación, si sólo una variante se halla presente (digamos la /—ésima) entonces la dinámica se reduce a una sola ecuación,
= £, fl - i )
X,
di ^\ C y por lo tanto el punto fijo definido por í í ’ = (O, O,.... C,..., 0), con un valor no-nulo en la t-é sim a componente, es globahnente estable. Este resultado es obvio si consideramos que la única secuencia presente puede replicarse sin competencia hasta llenar el espacio disponible.
461
R etro v iru s y Cuasiespecies: Entre el Orden y el Caos
Ea este sistema n-dinionsional. teneinos por \<>tanto n posibles estados estacionarios {fi*), que son Ü] = (G ,Ü ,...,0).
Ü] = (0 ,C ..... 0).............
Ü'„ - (0,Ü ,...,C )
Ahora, consideremos una situación más g<;ueral, en la (¡ue estudiaremos la estabilidad del /-ésim o punto fijo n-dimensional, esto es, Q.’ (ü, 0 . C , 0). que implica la presencia de la secuencia Ii y la ausencia de todas las restante^. Supongamos que perturbamos este estado. La niatriz de Jacobi será / E l — Ei 0
\
Ó
E2
-
0
E,
~E,
- £- 2
0
0
\
0
.
■
..
En - E, /
ia cual posee una diagonal principal de elementos Ej - Ei y una fila no nula {—£ ^ i . ( l a í-ésim a). Los elementos de esta matriz se han obtenido como sigue,
lo que nos da,
Estos valores se obtienen de la expresión general L ] ; ( a ', ) = U i i - ^ '£ 6 , r E r X r r-í
El polinomio característico asociado es, como puede verse, n P { y )= Y [ [ E j- E . - \ J3l
= 0
y los valores propios son por lo tanto Xj — Ej . P ara una alguna secuencia i dada, tendremos que E, > E j, mientras que para las restantes Ej > E i, lo que hará que eí sistema tienda asintóticamente hacia el punto fí*. Con independencia de ia condición inicial (excepto en casos triviales ) la población tenderá al punto fijo homogéneo fi*. Un ejemplo de esta situación se m estra en la figura 13.3, en la que hemos representado el resultado de una simulación numérica del sistema anterior para n — 7 (los parámetros se indican en el pie de figura). Vemos que, para un sistema inicial de n = 6 secuencias, cuyas Ei están ordenadas de menor a mayor, la secuencia 6 crece con rapidez, pero la introducción en í = 100 de la secuencia 7, hasta entonces ausente y con una E 7 mayor que las demás, se acaba imponiendo. También vemos la gráfica de < E{t) >, que se estabiliza al principio para volver a aum entar posteriorm ente (como consecuencia de la introducción de I 7 ). Las secuencias que se rephcan más lentam ente (con menor eficiencia) son. en cada caso, eliminadas. La aparición de v'ariantes más eficientes desestabiliza los posibles estados de eqidlibrio dando lugar a la aparición de nuevos equilibrios.
462
Orden y Caos en Sistemas Complejos
tie m p o
Figura 13.3: Soluciones del sistema dinámico dx^/dt =■ [ E i — < E >)x,·, con v ~ 7. Se tiene; El = 0.4, E 2 — 0.6, Es = 0.65, E 4 - 0.95, E 5 — 1.25, Ee = 1.5, E 7 — 2.2, condiciones iniciales son x,(0) — 1 para i = 1 ,..,,6 y x‘7(0) = Ü. La producción promedio crt-ce inicialmente hasta alcanzar < E 1.5, pero la introducción de la secuencia 7, ^7(100) — 0.01, genera un cambio en el sistema, dándose una nueva estabilización en < E > — 2.2. Tenemos un proceso simple de selección.
13.4
R eplicación con error: cuasiespecies
Consideremos ahora un caso más general, para el que supondremos (ahora razonablemente) que las tasas de mutación no son cero. Consideremos por lo tanto la generalización del problema anterior, cuyas ecuaciones serán ahora de la forma dx,· dt
— [E i-
< E >) +
^
i = 1, 2 , n
Podemos también escribirlas como dXi dt siendo los coeficientes de la suma t/’,·, = A,<5, — D, para i = j y = W^j en otro caso. Estas ecuaciones son altam ente no-hneales, pero el sistem a puede ser resuelto si suponemos que los valores iptj no dependen de las concentraciones ni del tiempo. Se introduce entonces uua nueva variable,
\ Si tenemos en cuenta que
463
Retrovirus 7 Cuasiespecies; Entre ei Orden y el Caos
' ^
= -
ai
\
f
Ji)
j
la introducción de este cambio de variable nos permite obtener el sistem a lineal «y»· dt
I }
o, en notación vectorial,
con lo que podremos estudiar la estabilidad del sistema (ahora lineal) estudiando lo> valores propios de la m atriz í ', P(A) = d e t[$ - AI] = O Ahora, las soluciones de ia ecuación característica, {A,} (con i — i,...,n ) estarán asociadas a un vector propio v,· que, en general, poseerá más de una componente uo nula. Los vectores propios satisfacen la conocida relación dv con Du la m atriz diagonal /A l O
O A2
O\ O
\ O
O
A „/
Los vectores q y v cumplen ias relaciones q = U ^ v o, lo que es lo mismo, v = U “ ^q. donde las matrices U y su inversa vienen determinadas por las componentes de los vectores propios de í*. La matriz es diagonal y puede resolverse con facihdad, por lo que se tendrá una solución para q y para x. Si sumamos ias ecuaciones lineales, tenemos
‘
}
que, bajo la restricción CP nos da
Si llevamos a cabo la suma sobre dqi/dt, tendremos por otra parte que
E t = E E ^ .í.= < ^ w > E « . lo cual equivale a
464
Orden y Caos en Sistemas Complejos
< E{t) >= ^ I n i integrando esta última ecuación, obtenemos / rt \ = ;ie x p í / < E (r) > dr \Jo yo sicnáo P una constante de integración. Si comparamos esta ecuación con la trajisformación inicial, vemos que
^
h{t) =
La constante de integración queda, por otra parte, deternúnada por las condiciones iniciales. Para í = ü, tenemos /i(0) = 1, luego ¡3 — C y podemos resolver el sistema a partir de las ecuaciones x ^ { í)-h { i)q i{ t) - C dqi j¡- -
,
L
J Resolveremos estas ecuaciones para obtener la dependencia de Xj(í) respecto del tiem po (y de las restantes variables). Partiremos de las ecuaciones para los valores propios, que podemos escribir en la forma
3
Los Xk son los valores propios de la matriz ^ y Uik son las componentes de los vectores propios correspondientes. Los valores propios se obtienen de la ecuación característica áeti'ipij — Xóij) = O Si los valores propios son no-degenerados (son todos distintos) la solución para q,(í) es qi{t)
-
k con lo que, finalmente, obtenemos la siguiente expresión para las concentraciones x,(t) ^
,
(13.4.1)
Las constantes cxj se pueden calcular a partir de las condiciones iniciales. Vemos que las mutaciones conllevan un resultado final im portante. En términos biológicos, en lugar de la selección de la mejor copia, hemos obtenido una distribución formada por uu con ju n to de poblaciones moleculares. Cada una de estas combinaciones es una cuasiespecie (Eigen, 1993; Mikhailov, 1990; Donúngo, 1994), la cual juega en reahdad el mismo papel que las especies moleculares antes estudiadas. Lo que se selecciona, de hecho, es la cuasiespecie. La expresión 13.4.1 es general, pero poco manejable para estudiar las implicaciones de la in troducción de las mutaciones en nuestra descripción. Analizaremos dichas implicaciones en la siguiente sección.
465
Reír o virus y Cuasiespecies: Entre el Orden y el Caos
Figura 13.4: Representación intuitiva del espacio de secuencias; dada una secuencia maestra, que posee la tasa de replicación mayor, las restantes secuencias se agruparán alrededor de dicha secuencia. Podemos encontrar distintas situaciones, que indicamos aquí de forma m uy e.squemática. Si la tasa de mutación es muy baja, prácticamente no habrá secuencias m utantes, y por lo tanto vemos una única secuencia dom inante, dada por la m aestra (a). Por el contrario, si la tasa de mutación es enorme, virtualm ente cualquier secuencia será posible y la distribución llenará el espacio (b). Para valores intermedios tendremos una secuencia m aestra acom pañada de una nube de m utantes: tenemos una cuasiespecie (c).
13.5
La catástrofe de error
Hemos visto anteriorm ente que la fiabilidad en la reproducción de la cadena de b its (o moléculas) viene dada por el factor de calidad Q = . Este factor decrece con el número de bits en forma exponencial. En algún punto, al ser u muy grande, las ecuaciones de evolución que hemos obtenido dan linicamente un decaimiento de las cuasiespecies con el tiempo. Este punto de transición, más allá del cual la información deja de estar conservada y sólo tendríamos secuencias sin ningún significado, se conoce como catástrofe de error. La capacidad de variación, dada implícitamente por la fidehdad de la copia, tiene así un línúte impuesto por la información genética (si estamos hablando de cadenas de ADN o ARN) que debe mantenerse. Es evidente que, a medida que hacemos crecer el tamaño del genoma que debe rephcarse, debemos aum entar la fidehdad de la copia si queremos que la información se conserve. A igualdad de tasa de error, un genom a complejo sufrirá mayores problemas que uno simple. De la anterior expresión se sigue que, p a ra una fidehdad dada, tendremos una longitud límite más allá de la cual se da la pérdida de la cuasiespecie. Podemos dar un argumento teórico simple (Nowak, 1991) que implica sólo una secuencia mutante. Si xi es la concentración de la secuencia maestra y X2 la m uíante (que suponemos única), y si despreciamos la probabilidad de mutación de X2 tenemos las ecuaciones dxi ~dt
—
1Q
1
dx2 = > li(l - Q )xi + A 2 X-2 dt Las poblaciones convergen al cociente
X2
.4 i ( l - ( 5 )
Orden y Caos en Sistemas Complejos
466
-2 .5 -
-5 .0 O
-7 .5 -
-lO.O 0.00
0.03
0.05
0.08
Error rate
0.10
0 .l3
0.15
(l-q)
Figura 13.5: La catástrofe de error: para cierto valor crítico de la tasa de error p, tiene lugar un cambio súbito en las propiedades de la distribución de secuencias m utantes (la secuencia es de 1/ = 50 unidades. De esta expresión se sigue que la secuencia m aestra sólo puede m antenerse si í) > O, esto es, si « >
^ Al
Si recordamos que Q — q‘^, ei umbral de error se obtiene entonces para l/m
Por debajo de este valor, la secuencia maestra se pierde aunque posea la tasa de replicación mayor. Este resultado conlleva, como veremos, una relación de gran im portancia entre la fidelidad de copia y la longitud de la secuencia. Podemos obtener una expresión más general de este umbral volviendo a las ecuaciones para la dinárrúca de replicación con error, dxk = (^ fc - < E >)xk + Y dt
Wkixi
(con Wk = AkQk — Ek), Supongamos que las tasas de mutación son muy pequeñas de forma que, en una primera aproximación, podamos despreciar su efecto. Tenemos entonces un sistem a de ecuaciones
^at
<£
» rt
con Ek = Ak - Dk, que proporciona el conjunto de puntos fijos
467
Retrovirus y Cuasiespecies: Entre el Orden y el Caos
sí ;
= (x ? ,o ,...,o ),
«·, =
n ; = (o ,o ,...,x “ )
V, de manera similar a lo que ya vuiios antes, encontraremos para estos puntos fijos uaa m atriz jacobiana de la forma / E^ - Ei
E2 - E,
-E ,
~E·:
0
0
\
0 0
0
0
...
\
En - Ei
/
para la cual podemos obtener un criterio de estabilidad completamente análogo al que hemos reahzado con anterioridad para el sistema sin mutación. En este caso, puede dem ostrarse (véase Montero y Morán, 1992, para una excelente introducción y desarrollo) que la productividad inedia < >*■ en el equilibrio de selección viene dada por el valor selectivo de la secuencia m aestra <
F
> ·= l i '
Y a partir de este resultado podemos determ inar de forma simple la concentración de la secuencia m aestra una vez alcanzado el equilibrio. Definamos en primer lugar la denominada productividad media residual, < >, dada por el cociente <
>
Esta se puede interpretar como la productividad media asociada a las restantes secuencias. Podemos escribir, de forma general
<
> —
^
C
-
X j
dc donde es posible obtener la relación entre la concentración de la secuencia m aestra y la produc tividad media poblacional.
Para el estado de equilibrio, •í'm _ C
< Ej:^jTi > E-m
Ej ^fn.
^
lo cual define una relación de gran im portancia. Recordemos que Q < l, luego en general Xm ¡C < 1. Para Q = 1 la copia m aestra es la única finalmente presente, pero en caso contrario obtendrem os una cola de m utantes que ocupan la fracción 1 —Xm¡C restante; tenemos una cuasiespecie. Pero aquí aparece además la catástrofe de error; existirá un valor crítico Qc en la fidehdad de copia por debajo de la cual la concentración de se hará cero, con lo que se perderá toda la información del sistema.
468
13.6
Orden y Caos en Sistemas Complejos
V iru s y organización del sis te m a inmuiiitario
Los virus, al igual que cualquier otra entidad extraña al organismo, desencadenan la respuesta ininunitaria encanñnada a su eliminación. El sistema inmunitario, que se encarga de reconocer de forma específica moléculas e invasores extraños (a la vez que reconoce lo propio) es un sistema de enorme especificidad. ¿Cómo está organizado? En la figura 13.6 vemos un esquema simplifi cado del mecanismo celular básico de acción. Tenemos dos tipos celulares que llevan a cabo un reconocimiento específico de los cuerpos extraños: los linfocitos T (células T, que m aduran, esto es, se diferencian, en ei timo) y los linfocitos o células B (que lo hacen en el bazo). Ambos tipos celulares llevan a cabo una actividad dominada por su respuesta específica. Una vez que una en tidad extraña (digamos un virus) ha penetrado en el torrente sanguíneo, el primer paso previo al reconocimiento es la ingestión de los virus libres por parte de un tercer componente de la respuesta inmune; los macrófagos. En su interior, los virus son fragmentados en pequeñas piezas (péptidos) que, finalmente, son presentados en la superficie celular. Técnicamente, cada tipo particular de secuencia recibe el nombre de cpitopo. Esta "presentación’' corre a cargo de un grupo de moléculas de enorme im portancia que se conocen coa el nombre de Complejo Mayor de Histocompatibili dad (MHC). Una vez presentadas eu el exterior de la m em brana celular, los pequeños fragmentos pueden ser reconocidos por las células T como moléculas extrañas (Engelhard, 1994). A continuación se da, finalmente, el reconochniento. Por el torrente sanguíneo circulan millones de linfocitos T que, en la superficie de sus membranas, poseen una molécula que puede reconocer un tipo de epitopo y sólo uno. Así, eventualmente una de éstas células se encuentra con el epitopo y lo reconoce. Este reconocimiento tiene lugar a través de un contacto químico que requiere que las moléculas puedan acoplarse adecuadamente. Una vez esto ocurre, la respuesta se desencadena: la célula T se divide (formará un clon de células T específicas para el marcador reconocido) a la vez que segrega moléculas que estimulan la respuesta (véase Nossal, 1993, y otros artículos incluidos en la misma revista). El hecho de que el reconocimiento sea específico es una ventaja relativa, como veremos. Los virus, que poseen uaa enorme capacidad de variar, son un verdadero problema para las defensas inmunitarias. ¿Cual es, de hecho, la situación de los retrovirus naturales en relación con el com portam iento de las cuasiespecies que acabamos de describir? Está claro para nuestra intuición que, puesto que el reconocimiento del sistema inm unitario reviste una enorme especificidad, un virus poco variable será una presa fácil para dicho sistema. Una vez reconocido, el virus es destruido. También parece claro que, puesto que si e! virus m uta, la nueva variante es vista básicamente como una entidad distinta, la variación será intrínsecamente valiosa para el virus. Ahora bien: el um bral de error asociado a la catástrofe de error nos indica que, más allá de esta frontera, el virus desaparecerá como entidad biológica. ¿En qué lugar dentro de este espacio de tasas de mutación se encuentran los virus de ARN? M artin Nowak ha llevado a cabo una estimación teórica de la tasa óptim a que le perm itiría a un retrovirus como el VIH escapar de la respuesta inm unitaria (Nowak, 1990). Si la fidelidad de rephcación (promedio) de ia transcriptasa inversa es q, la probabilidad de rephcación del genoma vírico completo sin error será Q — , como ya sabemos. Para el VIH, u lO'*. Sea m el número de posiciones genómicas tales que una mutación en al menos uno de estos lugares perm ita la producción de un m ulante de escape. Tal y como indica Now^ak, m podría ser la longitud de la región más variable del genoma vírico (el dominio V3), pero el valor de m no será im portante si m < < n, lo cual es razonable. La probabilidad de obtener un mutante de escape, esto es, la probabilidad P de obtener un m utante sin errores en n —rn lugares del genoma, y al menos un error en los m restantes es =
— (1 -g -)
Retrovirus y Cuasiespecies: Entre e¡ Orden y e¡ Caos
469
Figura 13.6: Organización básica del sistema inmunitario. El objetivo final de la respuesta inm uni taria es un antigeno, molécula de ordinario ajena al organismo, procedente de una bacteria o virus (u otro invasor). Las células presentadoras de antigeno son altam ente especializadas e ingieren antígenos, los fragmentan en pequeñas subunidades (péptidos) y los unen a un tipo de moléculas de enorme importancia; las moléculas del complejo principal de histocompatibilidad (MH). Así unidas son “presentadas"’ en la superficie de estas células. Es ahora cuando los linfocitos T que posean los receptores específicos para el antigeno concreto pueden activarse, dividirse (formando un clon que se ampUfica a través de la respuesta al antígeno) y activar otros elementos del sistem a inmunitario. Mediante la secreción de Itnfocinas la detección del elemento extraño se propaga a través del sistema dando lugar a la activación de las células B, que segregan anticuerpos.
470
Orden y Caos en Sis temas Complejos
Esta probabilidad poseerá un máximo para cierto valor q* de q que puedv* obtenerse íVicilriieiite de P /n m /7^ = dq
^
m )(l - q^)q'^ - ^ - ^ ~ inq’^~^ ^
j
lo que nos d a un valor 1/m <1
= 1
-
—
n
aproximable, para m << n, por n La tasa de error e* (mutación) óptim a será por lo tanto e* ^
l - q *
-
n Para el virus del SIDA obtenemos e ' 10” “^. Este resultado puede mejorarse teniendo en cuenta las posiciones neutras del genoma vírico, dando entonces e* w 10'^ — 10“ '^ (Nowak, 1990; 1992). Puesto que ia hipótesis subyacente en esta aproximación es que el sistema inmune actúa constantem ente sobre la población vírica seleccionando m utantes de escape, esta tasa (en concordancia con las medidas experimentales) reflejaría la existencia de una capacidad óptim a del virus para sobrevivir.
13.7
SID A : en el um bral de diversidad
El 1990 Nowak, May y Andersou (NMA) propusieron un modelo m atemático para la interacción entre el conjunto de virus HIV-1 que participan en la infección (la cuasiespecie) y las células del sistema inm unitario humano (una exposición introductoria excelente puede encontrarse en NowaJí y McMichael, 1995). En 1991 Nowak et al. expusieron un modelo algo más detallado. El modelo es simple, parcialm ente tratable de forma analítica y sus propiedades y predicciones muy notables. Los autores del modelo partieron de las ideas básicas acerca del comienzo y progresión de la infección. Como veremos, pusieron el énfasis en dar una explicación coherente y coutrastable del origen del laxgo y variable periodo de latencia del virus posterior a la infección y anterior a los síntomas del SIDA. Revisaremos en primer lugar los puntos a tener en cuenta para dar a continuación el modelo y algunas de sus predicciones. Posteriorm ente a la infección por HIV-1, se observa típicam ente un prolongado periodo de incubación (la fase latente) altam ente variable, en el que se da una lenta pero continuada caída de la población de células CD4+ Durante la infección, el HIV-1 ataca a las células del sistem a inmune pero también a una amplia variedad de tipos celulares, incluyendo el tracto iutestinal, el hígado o el cerebro (entre otros). El modelo de Nowak et al. (1991} introduce la v'arlabilidad genética del HIV-1 (y su naturaleza de cuasiespecie) como elemento clave para la aparición de la inmunodeficiencia. Como veremos, cuaLiido la población vírica alcanza cierto umbral de diversidad, la respuesta inm unitaria se viene abajo. El virus, como ya hemos visto en una sección anterior, posee un alto nivel de m utabilidad (añadido a la ausencia de mecanismos de rephcación) lo que lleva a producir del orden de un nucleótido erróneo por ciclo de replicación. La población resultante será una cuasiespecie en la que ^E ste es el c o n ju n to de células. dominant
Retrovirus y Cuasiespecies: Entre el Orden y e¡ Caos
471
Figura 13.7: Características temporales de la infección dei VIH. Esta dinámica tiene un tiempo característico muy prolongado, que se extiende a lo laxgo de un periodo de varios años, durante los cuales el paciente no presenta síntomas externos. Durante el periodo asintomático, las poblaciones celulares permanecen estables, eliminando efectivamente las poblaciones sucesivas de virus. En algún punto, sin embargo, el sistema inmune pierde la batalla frente a la acumulación de variantes víricas por encima del umbral de diversidad. Ai final, se da el colapso del sistema inm unitario con la aparición del cuadro clínico que identifica el síndrome de inmunodeficiencia. veremos un conjunto de secuencias que pueden presentar grandes diferencias en tasas de replicación. proteínas de la cubierta, etc. La variabilidad de estas últim as les confiere la capacidad de escapar de los sucesivos ataques del sistema inmune. El modelo NMA introduce tres propiedades distintivas del HIV-1 en el proceso de infección: • La aparición continuada de nuevas variantes víricas (m utantes de escape) con el objetivo de burlar al sistema inmunitario. • Respuesta inmunológica contra el virus, tanto en forma específica (a través de células CD4+ que actúan sobre una variante específica) como por una reacción general (cruzada) contra todas las variantes. • C ada variante dei virus puede infectar (y m atar) a cualquier célula CD4+. Estos puntos pernúten obtener un modelo más o menos sofisticado (aunque simple) de la dinánúca del sistem a inmunitario bajo la infección vírica. Partirem os, en nuestro análisis, de los modelos más simples que nos perm itirán captar la idea esencial y posteriormente comprobaremos su validez general en un modelo más realista.
13.8
D inám ica básica y umbral d e diversidad
Analizaremos el modelo del um bral de diversidad partiendo de la aproximación teórica más simple posible. Pese a que representa una simplificación exagerada de la respuesta inm unitaria. las con clusiones básicas son completamente generales. Volveremos a encontrarnos con ellas cuando ana^
472
Orden y Caos en Sis teínas Complejos
liceinos un modelo ruás detallado de la interacción VIH-sistcma inm unitario. Esta apioximación fue !>r()puesta por prim era vez por Nowak y May en 1991. Las ecuaciones son ~
,
- Vi{r - p x i )
¿=l,2,...,n
dx ■ = kvi - uvxj , / = l , 2 , . . . , n (13.8.1) dt ' La.s variables r, y Xj denotan las densidades de la ?—ésima variante del virus y la densidad de células del sistema inm unitario dirigidas contra dicha variante, respectivamente. En este modelo sc asume que la tasa de replicación del virus (r) es la misma para todas las variantes. La respuesta inmune específica está representada por el término La producción de células x, se supone proporcional a la densidad de virus de la variante ¿—ésima, y la indicaremos por fcu,. La respuesta inm unitaria, finalmente, queda dañada por la acción de los virus, e indicamos esta destrucción mediante el término uux,, donde v — es el total de virus. En esta aproximación tomaremos como constantes los parám etros r,p, t y u, que serán idénticos para todoslos m utantes del virus. La dinámica de las poblaciones totales de virus y del sistema inm unitario seobtiene sumando las ecuaciones anteriores. Obtenemos dv _ dt
Hemos utilizado x —
dx ~ — kv ~ uvx dt x,·. La población vírica quedará bajo el control del sistem a inmune si n
r ^ p ^
Vi '
V
1= 1
De la ecuación inicial para la dinámica de la población x,, vemos que la respuesta de las células del sistema inmune dirigidas a la variante i tiende a un estado estacionario, kvi uv Si empleamos este resultado y io introducimos en la ecuación para ía población vírica total, obte nemos Zi -
^ dt
—
/^ k r - p - irD \ ^ )
donde D — ^ ( t ', / i ’)^ es el llamado índice de Simpson, empleado en ecología corno una medida (inversa) de la diversidad. P ara una población vírica idéntica (totalm ente homogénea, de diversidad mínima) el índice de Simpson toma su valor máximo, D = 1. Si la población es completamente heterogénea, con iguales cantidades de virus de cada clase, se tiene D = 1/n. De la últim a expresión se sigue un resultado de enorme importancia: si el índice de Simpson decrece por debajo de cierto valor crítico, dado en el presente modelo por
entonces dv/dt > O y la población de virus escapa al control del sistema inmunitario. Si tomamos una distribución de virus uniforme (con D — 1/n) umbral de diversidad puede expresarse en
Retrovirus y Cuasiespecies: Entre el Orden y el Caos
473
Figura 13.8: Interacción VIH-sisteina inmunitario. El virus del SIDA se replica en las células infectadas, de las que salen nuevas partículas. La respuesta inm unitaria sufre una asim etría de gran im portancia en el desarrollo del síndrome: los virus pueden infectar (y replicarse a costa de) cualquier célula con los receptores adecuados (linfocitos T4, por ejemplo) m ientras que la respuesta es altam ente específica.
474
Orden y Caos en Sistemas Complejos
tiem p o
1500
Figura 13.9: Dinámica de la replicación vírica en el modelo de Nowak-May con parám etros ho mogéneos. Consideramos cinco variantes mutantes del virus (n = 5), descritas por la ecuación 13.8.1. (a) Concentración total de virus, (b) Concentraciones de las cuatro variantes víricas, (c) Inversa del índice de Simpson D como medida de la diversidad de virus. Parám etros em pleados: r = 1, p — 4.98, k = 1, u = 1, estos valores implican un umbral de diversidad íic = 1/Dc = 4.98 ~ 5. Las condiciones iniciales son: l'i = 0.1, V2 = 0.001, V3 — 0.0001, V4 = 0 .0 0 0 0 1 , 1^3 = 0 .0 0 0 0 0 1 : Xi = 0.
términos del número de variantes víricas presentes. La población de virus escapará dc la respuesta inmune si pk n > Tic = ru En la figura 13.9 se muestra un ejemplo de simulación numérica para un sistema formado por n = ó variantes. P ara los parámetros elegidos, el umbral de diversidad es Uc ~ 5.
13.9
D[vi^ ...,Vn) com o función de L yapunov
Una versión aún más simple puede obtenerse si suponemos (llevando a cabo una aproximación adiabática) que la dinámica de la respuesta inmune es rápida com parada con la dinám ica de la población del virus. Esto equivale a decir que las constantes u y k son grandes com paradas con r y p. Podemos entonces reemplazar los valores estacionarios de x, en la ecuación para la dinámica de las variantes víricas dvt di donde p. = v j v indica la frecuencia de la variante del virus. Bajo estas condiciones, podemos demostrar que el índice de Simpson D — D {v\, ..., t'„) es una función de Lyapunov (capítulo 2). Para demostrar esta afirmación, notemos en prim er lugar que dD dt
= 2E
1= 1
/ íit’, \ t', l
( d v ^ γ^ , V dt J
Retrovirus y Cuasiespecies: Entre el Orden y el Caos
475
Lo que nos da, substituyendo las ecuaciones para d v jd t y dv/dt, el siguiente resultado:
fot =2 -
I
l
J
Hemos utilizado la notación í Podemos demostrar que 5/D < O y que dtD — O únicamente si p, - \ / n
; Ví = 1,
n
La demostración es una consecuencia inmediata de la desigualdad de Jensen,
i
i
donde la igualdad se da si todos los son idénticos. Aquí f{ z ) es una función estrictam ente convexa definida sobre un intervalo dado íi, y las constantes a , > O son arbitrarias y tales que a, = 1 y € íi. Si elegimos / ( r ) = y a, = p,. obtenemos directamente
I
i
La igualdad se da obviamente en el caso de valores de pi iguales.
13.10
S ID A y evolución de p9 blaciones C D 4
A continuación, consideraremos una de las versiones más detalladas (y más com pletas) del modelo del um bral de diversidad. Aquí se introducen como variables la población total de linfocitos CD4 (el blanco del virus), las variantes víricas y las respuestas específicas e inespecíficas. Las ecuaciones dei modelo son ahora dt
= A - ¡J.X ~ uvX — h vX ~ k 'v X
dvt = Vt(^r(X + x z ) - sz dt dz^ — kv,X —uvx, . di
,
í-l,2 ,...,n
i= 1 , 2 , n
^ = k'vX — uvz dt En este modelo A' indica la población total de células CD4, incluyendo tan to las que están dirigidas contra el VIH como las que no lo están. Estas células CD4 se producen a una tasa constante A y son eliminadas de forma natural a una tasa ^ X . El VIH puede ehm inar células CD4 a una tasa u vX . Las células CD4, como sabemos, son activadas bajo la exposición a los antígenos víricos, dando lugar al ataque contra el virus. Indicaremos estas poblaciones celulares por (población que responde específicamente) y z (población con respuesta no específica). Tendremos esta vez nuevos términos de interacción dados por k v X y k 'vX . En este modelo partimos de cierto número de variantes (que pueden ser un sólo m utante) y generaremos nuevas variantes al azar con cierta
476
Orden y Caos en Sistemas Complejos
probabilidad p. De esta forma entran en acción nuevas cepa> del virus, que eventualm ente serán eliminadas por el sistema. El V'IH se replica en las células CD4. La tasa de replicación vírica será por lo tanto proporcional al nvimero de célula·^ CD4 presentes, esto es, X + a: + Para calcular el um bral de diversidad asociado a este ino{[elo, partirem os de la ecuación para las )>oblaciones víricas, e impondremos que dVt dt Sumando para todas las variantes, la condición de supresión del virus vendrá dada por n (r { X + x + z) — sz —px, j = n[ 7-(A' -f x -i- z) —sz] —px < O ¿=i con lo que el valor crítico Uc se obtendrá para la igualdad entonces
cero. El um bral de diversidad será
px r{X + X + Para una densidad dada de virus, v, el número de células CD4 converge a un valor A'
A
siendo u' = u + k + k '. De forma similar, tendremos x —► k X /u y z —* k 'X /u . Obtenernos entonces, sustituyendo, pk (ru' - sk'} Podemos sim ular este modelo por ordenador. El resultado obtenido es cualitativam ente equi valente al antes estudiado. El modelo de Novak explica satisfactoriam ente la gran variabilidad asociada a la fase asintom ática, así como el largo periodo de latencia. Modelos recientes indican que, de hecho, la aparición de dichas propiedades sería la consecuencia natural de un virus cuya dinám ica se hallara en las proximidades de una transición de fase (Solé y González-García, 1996).
13.11
H iperciclos y evolución molecular
La existencia del um bral de error que caracteriza la catástrofe de error introduce una crisis de información en los sistemas que comparten las propiedades básicas antes expuestas. Revisando las premisas asumidas en la construcción del modelo de Eigen y sus derivados, debemos recordar que hemos asumido linealidad en las interacciones, si excluimos los términos no-hneales (que podemos ehminar a través de un cambio de variable no-hneal) que permitían introducir restricciones. Las abundancias de las distintas poblaciones dependían básicamente de la producción de moléculas, con tasas proporcionales a las abundancias (por 1o tanto, lineales) y sin términos de orden superior. Manfred Eigen demostró que un sistema autocatalítico como el que hemos explorado con an terioridad podía superar la crisis de información m ediante interaciones de orden superior entre distintcLS moléculas que perm itieran el m antenim iento de varias cuasiespecies (para una discusión detallada de las distintas aproximaciones, véase Montero ci al., 1992) El modelo, denominado hiperciclo, resuelve, en cierta forma, un problem a de ingeniería: el problema de cruzar cierto umbral de complejidad (el que establece el umbral de error). El hiperciclo
jletrovirus y Cuasiespecies. Entre el Orden y el Caos
477
Figura 13.10: E structura básica de la organización en ia catálisis molecular definida por el modelo dei hiperciclo. está formado por un círculo cerrado de reacciones catalíticas en el que cada e.specie molecular cataliza la autorephcación de la siguiente (figura 13-10). Además, los hiperciclos perm iten estudiar cuestiones de gran profundidad, como es la evolución prebiótica y el origen de la información genética (Eigen et al., 1986). La idea es la siguiente: imaginemos, para una población de moléculas aütoreplicativas, que tenemos varias secuencias m aestras, con sus respectivas colas de m utantes y supongamos que, en ausencia de las dem ás, cada cuasiespecie es estable. El contenido en información de todas las cuasiespecies rebaba ei máximo perm itido para una sola secuencia m aestra en el umbral de error. P ara que el conjunto sea estable colectivamente y retenga toda la información, deben darse tres condiciones; • C ada cuasiespecie debe m antener su estabilidad, esto es, cada secuencia m aestra debe com petir con sus m utantes de modo que no se acumulen errores. • Las distintas secuencias m aestras, cada una con su propio valor selectivo, deben tolerarse entre si, a través de reacciones cruzadas adecuadas (cierto tipo de cooperación m olecular). • El conjunto debe mantener estables las poblaciones de cada uno de sus miembros y competir con otros conjuntos similares. En esta sección consideraremos un modelo simple de hiperciclo y sus propiedades básicas (Eigen et ai, 1986i Morán y Montero, 1992). Consideremos un conjunto de n especies moleculares con concentraciones Xi. La evolución tem poral de una de ellas quedará descrita por un sistem a dinámico - G ,(x i, .... Xn) —,Xi») dt donde una vez más es el térm ino de dilución y G, describe el tipo específico de interacciones entre moléculas. Supondremos que x = x, = 1 , con lo que Í. = ¿ G ,
478
Orden v Caos en Sistemas Complejos
lo que nos da una dinám ica para la población total
l= t^ · 1=1
De este resultado sabemos que la dinámica del sistem a quedará confinada al simplex Sn definido por el plano Sn = i(x i,...,x„ ) e R " ; X.' > = 1} j En un hiperciclo, la especie 1 actúa catalíticam ente sobre la autorephcación de la 2 , la 2 sobre la 3, y así sucesivamente, hasta completar el ciclo con la acción de la especie n sobre la 1. La función más simple para las interacciones será de la forma G, = con k, > O constante. Tendrem os por lo tanto un conjunto de ecuaciones dinámicas dx, ~dt
i = 1,
n
con $(xi,Xn) —
kjXjXj „ 1 J= 1
Observemos que para este modelo se tiene que, sí Xi(0) = O, esta especie estará ausente eu cualquier instante posterior: x ,(í) = O, ya que no hay térn:ünos de mutación que perm itan la creación de nuevas especies. La condición de equilibrio nos da ^ luego los posibles puntos fijos debrán verificar la propiedad kiXn = ^ 2^1 = -·· “ Ahora se tra ta de anahzar la estabihdad de este estado. Aunque un cálculo directo de los valores propios de la m atriz de Jacobi puede ser muy diñcil, un truco simple nos perm itirá obtener un resultado bastante sorprendente: la estabilidad del punto fijo depende únicam ente de y no de las tasa.s ki. Introduzcam os el siguiente cambio de coordenadas
yt _ 11kj+ií^i I Que nos perm ite obtener el sistem a dinámico áy, dt - y.
y .-i -
j^ l
Siendo t/i, y«) una función estrictamente positiva sobre el simplex Sn- Si omitimos este térm ino, simplemente llevamos a cabo un cambio en la velocidad de las reacciones. Obtenemos así el sistem a dinánúco dy. dt = y. y .-i - X^.Vj í/j-1 en el que todas las constantes de reacción se han normalizado a la unidad. El hiperciclo es por lo tanto simétrico, y el punto de equilibrio situado en el interior del simplex es ahora p- = C \ n- ..... - n) f L a matriz Jacobiana es obviamente cíclica.
ReÉroviriis y Cuasiespecies: Entre el Orden y el Caos
/
\
479
Cj i - 1 ^
Co
C l
C2
Crz — 1
Co
Cl
.
C „_2
Cl
C2
C3
·
CO
/
y los V.Llores propios para una m atriz cíclica nos dan n-l
Xj
/ y 7TT i* 1 \
e x p (? ^ ) \
n
,
i =
0 , 1 ........ n - l
/
ifc=o Los hiperciclos han servido de míirco de referencia teórico a m ultitud de estudios accrca de los orígenes de ia vida sobre ia Tierra. Se ha explorado su dinámica así como su valor para comprender el com portam iento de algunos virus de ARN (como el qf3, Eigen et al., 198Gl. Entre ios problemas teóricos abiertos, destaca el hecho de que la aparición de parásitos moleculares, (los cuales se rephcan a expensas de la ayuda de algún componente del hiperciclo, pero no contribuyen al m antenim iento de éste) puede dar lugar a su desaparición. O tra dificultad no menos im portante surge con la aparición de dinámicas complejas para hiper ciclos formados por N > 4 especies, que incluyen oscilaciones, cuasiperiodicidad y caos. A medida que N crece, las fluctuaciones temporales de las poblaciones de secuencias pueden ser muy grandes en am plitud, de forma que una especie som etida a una pequeña perturbación externa podría de saparecer, con lo que el hiperciclo podría colapsar. Aunque algunos de estos problemas se podrían resolver en presencia de compartim entos que aislaran el hiperciclo del entorno, esta solución está lejos de ser trivial. El problem a podría quedar resuelto de un modo notablem ente más simpie con ia introducción del espacio en nuestra descripción de ia dinámica (Boerjlist y Hogeweg, 1991: May, 1991). Podemos construir modelos de la dináirúca espaciotem poral de un hiperciclo empleando dis tintos modelos, como los autóm atas celulares o los modelos de reacción-difusión. En este segundo caso, podemos escribir las ecuaciones en distintas formas (Cronhjort y Blomberg, 1994). ü n modelo específico sería (C ronhjort, 1993) dxi = k i X i _ \ M - QiXi + DiV'^Xi , i = l , 2 , . . . , i V ~dt dP hpXf^PM - QpP -f DpV^P di dM , = a -b M Y L ,k ,X r - iM dt
;
Zq =
^
Puede probarse que, al menos en algunos casos, la aparición de las estructuras espacuües, en form a de ondas espirales, perm ite evitar la acción de los parásitos moleculares. En cualquier caso, éste es un campo en plena exploración, del que posiblemente surgirán nuevas y sorprendentes ideas acerca de los orígenes de la vida y la evolución molecular.
Bibliografía 1. M. Boerhjst y P, Hogeweg, Spiral wave structure in pre-biotic evolution: hypercycle.i stable against parasites. Physica D 48 17 (1991). 2 . M. B. Cronhjort y C. Blomberg, Hypercycles versus parasites in a two-dimensional partial
differential equations. J. theor. Biol. 169 31 (1994).
480
Orden y Caos en Sisteméis Complejos
3. M. B . Cronhjort, Hypercyclcs versus parasites in the origin, of life: modeldependence spatial hypercycle dynamics. Origins Life Ecol. Biosphere 25 227 (1993).
in
4. E. Domingo, Viru.
Adv. Chem. Phys. 75
149 (1989). 7. M. Eigen, W. Gardiner, P. Schuster y R. W inkler-Oswatistch, Origen de la información genética. Investigación y Ciencia, Abril 1986. 8 . M. Eigen, Cuasiespecies Víricas, Investigación y Ciencia, septiem bre 1993-
9. V. H. Engelhard, Presentación celular de los antígenos. Investigación y Ciencia, Octubre 1994. 10. R. M. May, Hypercycles spring to life. Nature 3S3 607 (1991). 11. A. M ikhailov, Foundations of Synergetics, I. Springer-Verlag, Berlin, 1990. 12. F. M ontero, J.C. Ñuño y M. A. Andrade, Evolución y selección en sistemas biológicos reales. R evista de la Real Academia de Ciencias Exactas, Físicas y Naturales, Madrid, 1992. 13. F. M ontero y F. Morán, Biofísica. Eudema, Madrid, 1992. 14. F. M ontero, J. C. Sanz, y M. A. Andrade, Evolución Prebiótica. Eudema, M adrid, 1993. 15. S. S. Morse, Emergent Virases. Oxford U. Press, Oxford, 1993. 16. G. J. V. Nossal, Sistema inmuniiaiño: entre la vida y la muerte. Investigación y Ciencia, Noviembre, 1993. 17. M. A. Nowak, R. M. Anderson, A. R, McLean, T. F. Wolfs, J. Goudsmit, y R. M. May, Antigenic Diversity Thresholds and the Development of AIDS. Science 254 963 (1991). 18. M. A. Nowak, H IV mutation rate. Nature 347 522 (1990). 19- M. A. Nowak y R. M. May, Maihemaiical biology of H IV infections: antigenic variation and diversity thresholds. Math. Biosci. 106 1 (1990). 20. M. A. Nowak, Whai is a qua.'iispecies? Trends in Ecol. E voi 7 118 (1991). 21- M. A. Nowak y McMichael, A sí destruye el sida las defensa.·^ inmunitarias.Investigación Ciencia Octubre, 1995. 22. M. A. Nowak, Variability of B IV infections. J. theor. Biol. 155 1 (1992), 23. P. Schuster, How do RNA molecules and viruses explore their RNA worlds? En “Complexity: M etaphors, Models and Reahty” , Addison-Wesley, Reading, 1994. 24. R. Solé e I. González-García, Phase transitions and long transients tn models o f retrovirus dynamics. (1996, preprint).
y
C a p ítu lo 14
B iodiversidad, Fragm entación del H á b ita t y E xtinción I.os ecosistem as, al igual que hemos visto en otros ejemplos anteriores, son sistenias altam ente no-hneales. Su dinám ica viene regida por leyes alejadas de la visión reduccionista clásica. En el mismo sentido, su respuesta a las perturbaciones externas es tam bién fuertem ente no-hneal. Puesto que los ecosistemas (tanto terrestres como acuáticos) están experimentando grandes cambios a-sociados a actividades humanas de distinto tipo e intensidad, deberíamos preguntarnos qué tipo de fenómenos no-hneales pueden aparecer cuando un ecosistema es perturbado en alguna forma. Esta perturbación puede ser, por ejemplo, un proceso de fragm entación. Este proce.so im plica la destrucción de porciones locales de un ecosistema extendido en un espacio dado. Se tra ta de un tipo de perturbación de gran interés: una buena parte de las actividades humanas en las que se lleva a cabo la explotación de ecosistemas destruye áreas de mayor o menor tam aiio que, muy a menudo, son irrecuperables. Esta destrucción no tiene porqué ser muy generalizada. Tal vez sólo uua fracción del área total (digamos el 30 por ciento) ha sido perturbada. En este caso nuestra intuición podría sugerir que el daño global ha sido bajo, en la m edida en que la mayor parte del ecosistem a se ha m antenido intacta. Pero como ocure a menudo con los sistem as complejos, esta intuición se ve traicionada por los modelos y, tam bién, por la reahdad. Como veremos, la destrucción del hábitat no necesita ser completa para producir un daño im portante (a veces enorm e) al ecosistema. Dadas las implicaciones de estos resultados, los modelos que vamos a presentar obligan a una reflexi
14.1
M od elo de Levins
Para em pezar (Tilm an, 1994). consideremos el siguiente modelo simple debido a Levins, en el que analizarem os la dinám ica de una sola especie que ocupa un hábitat formado por un conjunto de sub-áreas o “zonas” . Imaginaremos que se tra ta de plantas (sin pérdida de generalidad) y que cada zona se halla ocupada por uu único individuo. La muerte de un individuo dejará un espacio vacío que otro podrá colonizar. Nuestro modelo es implícito: no consideramos un área real. Sea p la fracción de zonas ocupadas, que llamaremos abundancia. El modelo de Levins se define m ediante la ecuación para la dinámica de p, — = cp(l - p) - rnp 481
482
Orden y Caos en Sistemas Complejos
donde c es la tasa de colonización y ru la tasa de extinción (m ortalidad) local. Vemos que la tasa dc ocupación de zonas vaaas, cp, está m ultiplicada por la fracción de lugares libres, dando como resultado la tasa de producción de lug.ires colonizados. Este modelo es en realidad muy similar al ya conocido de crecimiento logístico continuo. Puede demostrarse sin dificultad que el punto fijo
es globalmente estable. V'emos claranuMite (como era de esperar) que la especie persistirá si y sólo si c > m. La propiedad más interesante del modelo anterior es que esta especie nunca ocupará comple tam ente el habitat (esto es, nunca obtendremos p* =: 1 ) a menos que m = O o c —+ oo. Ninguna de estas dos condiciones es reahsta biológicamente.
14.2
C o m p eten cia entre dos esp ecies
Acabamos de ver que, según el modelo anterior, una especie aislada no ocupará todo el espeicio accesible, y dejará eventualm ente hueros en el mismo. Una especie adicional que sea un competidor inferior podría, bajo ciertcis circunstancias, subsistir ocupando estos lugares vacíos. Esta claro que para lograrlo deberá ser, en algún sentido, un buen colonizador. El modelo presente se basa en el planteam iento de Hastings (Hastings, 1978) y en su anáhsis por Tilman (Tilm an, 1994). Imaginemos estas dos especies cuyas interacciones estructurarem os de form a jerárquica. In dicaremos al competidor superior mediante el subíndice “ 1” y al com petidor inferior por “2”. Asumiremos que el competidor superior siempre desplaza al inferior cuando ambos llegan a una zona dada, pero que el competidor inferior no puede ni invadir ni desplazar al competidor superior en este dorrúnio. Estas hipótesis perm iten form ular el siguiente modelo
^ ^
^ c ip i(l - pi) - m ipí = fl
= C2P2(1 - P l -
P2 ) ~
ÍTI2 P2 “ CiPip-2 -
/2
El térm ino —Cipip -2 introduce la competencia asociada a la aparición de am bos competidores en un territorio dado. Aquí pi interfiere a p^ con una intensidad dada por ci. Los puntos fijos de la dinánúca se obtienen a partir de d p jd f — 0. El punto crítico no trivial de interés viene dado por las poblaciones el Ul2 - Cipi c2
Podemos anahzar la estabilidad de este punto siguiendo el procedimiento habitual. La matriz de Jacobi resultante tiene un elemento nulo (concretam ente d fi¡ d p 2 — 0) lo cual facihta el anáhsis de la estabilidad. La estabilidad de p\ no es distinta de la que vimos en el apartado anterior, y vendrá dada por la condición mi < ci- Para p 2' condición de estabilidad es C2(l -
P\
-
2
^2 ) ~
rri2 ~
cip; < O
lo que nos da una condición para la tasa de colonización del competidor inferior, si su población debe ser no nula
V 1 — p*
mi
Biodiversidad, Fragmentación del Hábitat y Extinción
1.00 1
1 00
- ....................
0 80 ]
0 BO
^a 0, 60 J1 1 _ j H 0 .4 0 -
S o GÜ &
■N
íi
^ 0 20 ^
0 00
483
j^ y n -r-' T1
40
f1
T
1
GO
J I 1n
90
1
^ 0 40 O,
2
0 .2 0
100
0.00
]20
tim e
tim e
Figura 14,1: Dinámica de dos especies com petidoras con estructura jerárquica. La especie 1 es el mejor competidor, (a) Parám etros empleados: Ci = 0.2, nii = 0.1 y C2 = 0.8, m 2 = 0.1. Ambas especies parten de una condicion inicial pi = 0.01. (b) En «*ste caso se tienen; Ci = 0.6, rrii = 0.4 y C2 = 0 . 6 , m 2 = 0 . 1 , con las mismas poblaciones iniciales.
En otros términos, el punto fijo (p l,p 2 ) será estable si se cumplen las condiciones Ci
C2 >
14.3
>
m i
ci(ci + m 2 - mi mi
C o m p eten cia m ultiespecífica
A continuación generalizaremos el argumento anterior al cíiso de n especies com petidoras (Tilman, 1994). Si m antenemos los argumentos anteriores y ordeníimos secuencialm ente los competidores de mejor a peor (con los criterios ya indicados), tendremos un conjunto de ecuaciones diferenciales no-lineales dp, dt
= f i í P í . P2,
Pn) = C,P ,
(
1 -
¿
j =l
Pj
-
/
JTl.P, ~ ^
C jP .p j
J= 1
(donde í = 1,..., n). Un competidor superior puede invadir una zona ocupada por un competidor inferior (cualquiera de ellos dentro de la jerarquía) y desplazarlo. Como antes, no existe simetría: un competidor inferior no puede invadir ni desplazar a un competidor superior. En el estado de equilibrio, tenemos un conjunto de valores poblacionales P* = (pt,---ipñ)i donde
i-l
Orden y Caos en Sistemas Complejos
484
time Figura 14,2; Dinámica de cuatro espccios competidoras con estructura jerárquica. La especie 1 es el mejor com petidor y la 4 el peor. Todas las especies poseen iguales tascis de colonización, (c, == 0.5; i = 1 , 4 ) pero distintas tasas de mortalidad: = 0.4, m 2 = 0.225, m 3 = 0.11, m 4 = 0.05. Todas las especies parten de la condicion inicial pi — 0.01. Podemos calcular, secuencialmente, las condiciones de estabilidad de este sistema. La m atriz de Jacobi del sistem a está form ada por los elementos
/ p.
Dada la estructura jerárquica que hemos establecido, la matriz de Jacobi es tal que L¡j = 0 para j > i, esto es, se tra ta de una m atriz triangular. Los valores propios, que definen la estabilidad de cada población, se obtienen entonces de forma directa a partir de los elementos de la diagonal principal. Tenemos así para cada especie 1 L,i
=
c,
-
m .
-
2ciPi -
+
c ,)]
A fin de evaluar L¡i en P* iremos calculando los valores correspondientes de las tasas de colonización de forma secuencial. Para ci obtenemos mi Ci =
1 -P l
lo cual nos perm ite calcular C2 C2 y nos lleva a la expresión general
Pim i + (I - Pl)m 2 (1 - p \ ) { l - P I - P 2 )
Biodiversidad, Fragmentación del Hábitat y Extinción
485
Para calcular los valores propios A,, introducimos los valores obtenidos para c,· y te iie ru 're o rd ^ 'nando (i - E j ; ' P j) +
’^ jp ]
Si el hábitat contiene una sola esjn.xie, ei único valor propio será Ai r.- —m ip Í/¡ 1 ) que es siempre negativo puesto que m i y p\ son positivos, y p\ < 1. Por lo tanto, siempre que la especie se haUc presente en el habitat, este estado será estable. Si sustituimos en la condición equilibrio el valor de pi = 1 ~ m i/c i, obtenemos Ai = mi —Ci. Para un hábitat con dos especies, los valores propios son -? 2
(1 - P Í)
í^ lP l + "Í2(l - P Í ) (1
- P i - P 2)
Ambos serán negativos para cuaitjuier valor de los parám etros biológicamente plaLL->ible (esto es, siempre que O < m i, m 2 < 1 y que O < pj, P2 < PÍ + P 2 — 1) 7 tanto el punto de equilibrio es localmente estable. En definitiva, como indica la ecuación para A,·, todos los valores propios serán negati’· os, lo cual implica que el equilibrio de este sistema con múltiples especies es siempre localm ente ♦^■^rable.
14.4
D estru cción del hábitat y coex isten cia
Consideremos a continuación una prim era aproximación al problema de la destrucción hábitat y su efecto sobre la coexistencia de especies competidoras. Este modelo fue introducido en 1992 por Sean Nee y Robert May y posteriormente reanalizado por distintos autores (D ytham , 1994). En él se explora el efecto de la ehminación de zonas de un ecosistema (su destrucción completa) sobre dos especies competidoras que, en condiciones normales, coexisten entre sí. Al igual que en los modelos previos, consideramos una estructura jerárquica: el competidor infe rior (B) es incapaz de invadir un área ocupada por el competidor superior (A). Por otra parte, si A invade un área ocupada por B, entonces B es ehminado (se extingue) inm ediatam ente. Supongamos que las tasas de colonización de los competidores superior e inferior son Ca y C{,, respectivamente, y que sus tasas de extinción local son a su vez y ej,. Consideraremos un entorno consistente en un gran número de áreas (conectadas entre sí de alguna forma) de las cuales una fracción h (habitables) es capaz de sostener una población, aunque puede estar vacía en un momento dado. Si indicamos por x^y, : las frecuencias para las áreas vaaas, áreas ocupadas únicamente por A y áreas ocupadas por B, respectivam ente, las ecuaciones que describen la dinárrdca de este sistem a son dx ™ = -Caxy + 6ay ~ CbX: + tbZ dy — = Caxy - e^y + Cazy dt dz — = CbXz - ebZ - CaZy dt que constituye en reahdad un sistem a bidimensional, dado que se cumple la conservación x ^y-\-z h. El diagram a del modelo y las transiciones posibles se indican en la figura 14.3. Estas ecuaciones poseen una solución no-trivial definida por el punto fijo P" — (x ‘ . , z ‘ ) dado por
486
Orden y Caos en Sistemas Complejos
Figura 14.3: E structura básica del modelo de Nee-May.
X*
~{hCa -
c
Ca + €(,)
Cr, _
ea{ca +
Cb)
e t
hcc
CaCb Cb Cb La condición necesaria para que el com petidor inferior persista será Cb ^ Cg y puede obtenerse si el competidor inferior tiene una estrategia de v'ida pionera ( “fugitiva’’), ca racterizada por una alta tasa de colonización. Pero el competidor inferior persistirá si su tasa de colonización es baja siempre y cuando tenga simultáneamente una tasa de extinción menor. Podemos analizar el efecto de la eUminación de áreas habitables, de la reducción de h. Se observa que • Increm enta el número total de áreas ocupadas por el competidor inferior (esto es, crece ia pioporción de áreas, tanto destruidas como ocupadas por el com petidorinferior), • Se reduce el número de áreas ocupadas por el competidor superior. • Disnúriuye el número de áreas vacías (no destruidas). Si el com petidor Inferior es un colonizador superior, entonces el número total de áreas ocupadas disminuye. Si es un colonizador inferior, el número de áreas ocupadas crece. Cuando h cae por debajo de cierto valor crítico, definido por C(X
el com petidor superior no puede seguir persistiendo. Más ahá de este punto, sólo el competidor infertoT persiste. Finalm ente, si h decrece por debajo de un segundo valor crítico a;
= -
¡}iodiversidad, Fragmentación del Hábitat y Extinción
487
Figura 14.4: (a) Efecto de la elim inación de áreas accesibles, A medida que nos desplazamos hacia izquierda, pasando de un sistem a con todas sus áreas intacteis a una destrucción progresiva, vemos que A decrece hasta extinguirse, y durante este proceso el com petidor inferior aum enta su frecuencia en el sistema. Más tarde la abundancia del segundo com petidor tam bién em pieza a declinar hasta extinguirse, (b) Efecto directo de la eliminación de áreas sobre am bas especies. la
el competidor inferior también desaparece. Para el caso en que am bas especies poseen la misma tasa de extinción y con un com petidor inferior que coloniza mejor, en la figura 14.4 vemos el resultado de un experimento numérico. En la misma figura indicamos un diagram a del efécto directo de la ehminación de áreas accesibles sobre am bas especies. Ei efecto directo del competidor superior sobre el inferior se da de dos formas: por una parte, hace crecer su tasa de extinción en el sistema y, por otra parte, hace dism inuir el número de áreas colonizables por B. De aquí se desprende que la destrución del h áb itat (la disminución de h) beneficia al com petidor inferior disminuyendo ia frecuencia de áreas ocupadas por el com petidor superior. El resultado de este estudio, confirmado por modelos más elaborados (D ytham , 1994) es de gran im portancia: no es preciso destruir todo el hábitat accesible para provocar la extinción de las especies presentes. La estructura no-hneal de las interacciones puede dar lugar a la extinción de especies mucho antes de que el h áb itat haya sido seriamente dañado. Este problem a se tra ta en las siguientes secciones bajo distintas aproximaciones.
14.5
Fragm entación y fenóm enos críticos
Hemos visto que para algunos valores críticos de la fracción de hábitat destruido se dan cambios súbitos en las abundancias. El cam bio más notable es, sin duda, la extinción de una especie cuando aún queda una fracción im portante del hábitat sin destruir. ¿Cómo interpretar de forma consistente este fenómeno, claram ente no-hneal? Un ingrediente de im portancia, que analizamos en esta sección, será la introducción exphcita del espacio. Hasta ahora, el espacio sólo había aparecido de form a implícita en las ecuaciones. Como se ha probado recientem ente (Bascompte y Solé, 1996), el fenómeno subyacente es un fenómeno crítico, del tipo discutido en el capítulo 7 (Solé eí ai, 1996). Como punto de partida, consideremos una red bidimensional. Como en otros modelos an-
488
Orden y Caos en Sistemas Complejos
Figura 14.5: (a) Tamaño de ia zona más grande de puntos no destruidos conectados entre si, en función de la fracción de iiábitat destruido. Se lia calculado para una red de 30 x 30 puntos. Se indican tres ejemplos (b,c y d)de diciia red para tres puntos representativos. P ara valores bajos de D todos ios lugares no destruidos están básicamente conectados entre si, form ando una sola zona, pero para cierto valor crítico se produce una transición brusca, y la zona anterior se fragmenta, presentando entonces una reducción brusca de tamaño.
teriores, el espacio está por lo tanto discretizado. Al principio, todos los lugares (puntos de la red) se consideran habitables. Por lo tanto, la especie o especies bajo consideración pueden sobrevivir en cualquier parte. En lo sucesivo, indicaremos por un cuadrado blanco dichos puntos. A continuación, simularemos el proceso de destrucción del hábitat: ehgiendo al azar un número dado de puntos de la red. los destruimos. La destrucción es perm anente y ninguna especie puede colonizar (ni sobrevivir en) dichos puntos. Los indicaremos m ediante cuadrados negros. Imaginemos que llevamos a cabo esta destrucción progresiva, y que indicamos por D la fracción de zonas destruidas. Podemos, para cada valor de D, calcular sobre la red sim ulada el tamaño de la zona más grande form ada por puntos no destruidos. En la figura 14.5 se m uestra la variación experim entada por esta cantidad. Como vemos, no sigue un cambio monótono, sino que presenta un decaimiento inicial lineal (comí) esperaríamos) seguido de una caída rápida. También se indican tres ejemplos dc redes en tres situaciones distintas, para tres valores de D. Como podemos im aginar (capítulo 7) existe un cambio de gran im portancia asociado a la aparición de un fenómeno de percolación. Para Dc ^ 1 —Pc ~ 0.41, esto es, cuando el umbral de percolación definido por la fracción Pc — 0.59 de lugares no destruidos se alcanza, se da una transición abrupta. La segunda red m ostrada ocupa precisam ente dicha posición en el diagrama. La fracción destruida de hábitat es ahora suficiente para dar lugar al aislanúento de distintas subzonas entre si. La zona grande inicial se ha dividido por lo tan to en varias, y este proceso sigue repitiéndose después de alcanzar DcPara separar el efecto cuantitativo de pérdida de h ábitat del efecto cualitativo de fragmentación, podemos intentar definir un parám etro de orden ^(jD) que caracterice aún mejor la transición. La idea básica, como sabemos, es la existencia de dos fases separadas por un punto crítico. En nuestro sistem a, la primera. D < Dc, está asociada a un hábitat básicamente "conservado” en la medida en que los puntos uo destruidos estarán conectados entre si. A pesar de que a m edida que nos
Biodiversidad, Fragmentación deí Hábitat y Extinción
489
Figura 14.6: Comportamiento del parám etro £!(£)). Se ha considerado el mismo sistem a empleado en la figura anterior, promediado sobre cinco réphcas. Se observa una rápida transición en el punto crítico Dr ^ 0.41. aproximemos a Dc el tamaño de dicha zona decrezca, este proceso es continuo y, cualitativam ente, no hay cambios de importancia. Por el contrario, para D > Dc, el sistema está claram ente formado por un conjunto de (muchas) zonas de pequeño tam año separadas (aisladas) entre si. Definiremos el parám etro de orden por:
Donde hemos indicado por S„¡ el tam año de la zona conectada de mayor superficie, y la suma del denominador está reahzada sobre toda la red, siendo 0 ( 2, j) = 1 si el punto (i^J) no está destruido y cero en caso contrario. Así, Q(D) caracteriza la densidad de zonas destruidas a la cual tiene lugar la fragmentación del hábitat. En la figura 14.6 mostramos la gráfica de Í2(D) para una red de 50 x 50 (prom ediando sobre cinco sistemas) y para distintos valores de D. El parám etro refleja dram áticam ente la aparición del punto crítico. Para valores por debajo del Dcel tam año de la zona mayor y eí número de zonas no destruidas es aproxim adam ente el mismo, puesto que prácticam ente toda la red de puntos habitables permanecerá conectada. Al alcanzar el punto crítico, esta relación deja de ser váhda de forma súbita, puesto que la zona de mayor tamaño se fragm enta, y Q(£?) m uestra una caída brusca. La implicación inmediata para un sistema ecológico que deba ser m anipulado por el hombre de form a racional es que la destrucción de un hábitat natural puede poseer efectos distintos en función de qué porcentaje se ha destruido previamente. Una destrucción de un 10 por ciento de un hábitat no perturbado tiene un efecto (en principio) cuantitativo (véase, sin embargo, la últim a sección). Pero si lo que hacemos es destruir un cinco por cien de un hábitat en el que la destrucción previa era del 35 por cien los efectos pueden ser dram áticos. Ahora, podemos incorporar al modelo anterior una población que ocupe las zonas habitables y que se propague a puntos vecinos con cierta probabilidad. Incluiremos en el modelo además
Orden y Caos en Sistemas Complejos
490
0.4
0.6
O.S
Habitat destroyed
:d )
d
Figura 14.7: (a) Existencia de un um bral de extinción ea el modelo de Levins incorporando des trucción (D) del hábitat. Más allá de cierta fracción Df. — 0.666 de hábitat destruido (aquíp^ —0.2 y p^ = 0.6) se produce la extinción completa, (b) Modelo de Lande, para distintos valores de K . una probabilidad de extinción. Supongamos que el punto de p artid a es la red anterior con todas sus zonas accesibles, no destruidas. Vamos a estudiar a continuación el com portam iento de la población que ocupa dichas zonas. Supondremos que consideramos una sola especie, que puede extinguirse (de hallarse presente en un punto dado de la red) con una probabilidad pe- Ün punto no ocupado puede ser colonizado por uno cualquiera de sus puntos vecinos (4 en nuestro estudio) con probabilidad pc siempre que dicho punto se halle ocupado. En, está definición del modelo vemos que la dispersión (y por lo tanto la colonización) está muy lim itada. Partiendo de una condición inicial arbitraria, esta situación inicial lleva al sistem a a evolucionar hacia un estado estacionario en el que cierta fracción del total de puntos se halla colonizada. Esta fracción es fácilm ente calculable a partir de un modelo determ inista. Sea V la fracción de puntos ocupados. El modelo de Levins (sección I) nos da la fracción de dichos puntos en el equilibrio. Empleando nuestra notación,
Pc
Este mismo modelo nos podría proporcionar una aproximación al problema que consideraremos a continuación: el efecto de la destrucción de una fracción D de zonas. Tendríamos entonces dV ^ p^V {l - V - D} - p ,V ~di que posee un nuevo punto de equilibrio dependiente de D V' = 1 - D~ ^ Pc
lo cual define una línea recta. En el plano {D, V"), esta recta corta el eje horizontal en un punto crítico Dc para el que V — O, D c
=
l
-
~
Pc
Biodiversidcld, Fragmentación del flábitat y Extinción 0 .8
1.0
-r
* > '- ^ 0.6 -j Xi
491
\
CU
I
\ \
Extincti^n t h r e s n o ; ti I
CX 0.4 o o
1
o
w 0.2
a;
-
c/: 0.0
- n - l
0.0
0.2
1
I
r 1
0 .4
0.6
I T
0.8
H ab itat d estro y ed
I
-r-r-(
1.0
(D)
Figiira 14.8: (a) Fracción de lugares aptos ocupados en el modelo espacialmente explícito. Se compara con el correspondiente modelo teórico (Levins). Hemos empleado una red de 50 x 50 puntos (zonas) y = 0,2. (b) Representamos aquí la fracción de pantos no-destruidos ocupados P en función de D. Tenemos (siguiendo la notación de Lande) K = 0.2. 0.6, 0.9. Observamos un claro decaimiento anterior al predicho por el modelo m atem ático.
y que denominamos umbral de extinción. Una vez más, pese a que el modelo permite la existencia de uua cantidad no nula de lugares no destruidos, se produce la extinción de la especie. Aunque podemos afinar en la descripción del problema, este resultado parece ser enormemente robusto. Siguiendo el estudio de Lande (1988) podemos introducir ciertas modificaciones en el modelo. Consideremos la ocupación del hábitat P dada por l-K \-D
D < K
donde K es el denominado potencial demográfico de la población, definido como la fracción de áreas ocupada-s cuando todas las áreas son accesibles (esto es, K — P para D — 0). Si realizamos una representación similar a la anterior para distintos valores de K , encontramos tam bién un um bral de extinción para Dc = K. ¿Qué ocurre en el caso representado por el modelo con espacio explícito? Para valores pequeños de destrucción del hábitat, el modelo matemático y el modelo espacialmente explícito básicamente coinciden (figura 14.8 (a)). La pérdida de áreas colonizables no afecta grandem ente al sistema, que sim plem ente refleja la disminución lineal del área total. Sin embargo, para valores progresivamente crecientes, el número de lugares ocupados cae con mayor rapidez, de forma no-Uneal. Este hecho conlleva una situación aún peor que la reflejada por el modelo de Levins con destrucción del hábitat. A la pérdida de áreas accesibles se unen los efectos locales derivados de la fragmentación del h áb itat. Si estudiamos el eciuivalente de la representación de Lande. dibujando la proporción de zonas ocupadas P en función del hábitat destruido, vemos otra vez el mismo efecto.
492
Orden y Caos en Sistemas Complejos
Figura 14.9: La deuda de la extmción: para valores pequeños de g. el valor de E crece con rapidez con la destrucción del hábitat.
14.6
La d eu d a de la extinción
Anahzemos, por último, un resultado teórico de enorme im portancia, basado en los modelos estu diados en las primeras secciones de este capítulo. Este resultado (Tilman et al., 1994) tiene grandes consecuencias en nuestra comprensión del efecto de la destrucción del hábitat sobre la evolución posterior (y las extinciones) que se producirá en el seno del ecosistema. Las ecuaciones de partida son una modificación simple de las ecuaciones de Tilm an. Concreta mente, emplearemos dpi dt
i-l l
-
D
~ ^ P j
\
/
-
m ,p , - ^
CjPiPj
j=l
Aquí D indica que cierta fracción del hábitat ha sido permanentem ente destruida. Los restantes parám etros, como vemos, son idénticos a los que hemos empleado anteriorm ente, y las especies se han ordenado también jerárquicam ente, del mejor al peor competidor. La colonización tiene lugar sólo entre las zonas no destruidas. Así, aunque la variación que hemos introducido parece mínima, en realidad tiene en cuenta un factor ecológico muy im portante. Las poblaciones de equilibrio son ahora P" — [p\{D), .... p*(D)), donde i
y nuevamente podemos obtener sucesivamente los valores de equilibrio para cada com petidor (par tiendo del primero). Tenemos entonces que p\{D) ^ l - D -
rrii Cl
Biodiversidad, Fragmentación del Hábitat y Extinción E sta especie se extinguirá de forma deternúnista
493 la fracción dc hábitat destruido iguala a
5U abundancia en el hábitat no perturbado, puesto que pl{D) = O cuando D > L — m i/c i y
Pj = 1 —m i/c i p ara D — 0. Si el com petidor dom inante ocupa, por ejemplo, un 10 por ciento del hábitat virgen, y destruimos al azar un 10 por ciento de dicho h áb itat, la intuición uos dice que, puesto que aún queda un 90 por ciento de hábitat libre, la supervivencia del com petidor queda asegurada. Sin embargo, la destrucción ai azar de un porcentaje del hábitat tiene como resaltado el mismo efecto que si hubiéramos destruido precisam ente las zonas habitadas por dicho competidor; su extinción. De hecho, y en general cuanto más rara es una especie, menor es la fracción de hábitat que debe destruirse para generar su extinción. P ara ajustar mejor la distribución de especies a laó que se observan en la naturaleza (de tipo geométrico), de la forma Pi = 9(1 - 9 ) '·^ (g es la abundancia del mejor competidor, y asumirnos m,· = m, Vi), las tasas de colonización necesarias deben ser C; = Si introducim os estos valores en p¿, obtenemos
io que nos da
Sustituyendo este resultado y resolviendo para D, obtenemos que la extinción de la i —ésima especie tendrá lugar si D. > 1 - ( 1 _ í;)^ '-i Observemos que se tiene la ordenación Di < Ü 2 < D 3 < ... < D, < ... < Dn con lo que las especies se extinguirán siguiendo el orden de mejor a peor com petidor a m edida que el hábitat sea destruido. El número de competidores superiores que acaba extinguiéndose debido a la destrucción per m anente del h á b ita t (la denonúnada deuda de la extinción, E) crece con rapidez con la destrucción del hábitat. Partiendo de la desigualdad > 1 - (1 y considerando el caso lím ite dado por log(-P - 1) ^ 2 r - 1 l o g ( l- g ) obtenemos, resolviendo esta ecuación para i e indicando el valor que representa el número de especies extinguidas, por E — i’ , l o g [ ( l - P ) ( l - 9 )l 2 log[l - ?)
494
Orden y Caos en Sistemas Complejos
(figura 14.9). De esta expresión se sigue que una pequeña destrucción adicional del h áb itat poiie en peligro muchas más especies de lo que esperaríamos utilizando nuestra intuición lineal. Como resul tado de este análisis, concluimos que la destrucción del hábitat pone en peligro más competidores superiores en una selva tropical que en un bosque templado, y a los grandes y raros vertebrados por encim a de los pequeños, típicam ente más abundantes. Cuanto más destruido está el hábitat, más im portante es la respuesta a la fragmentación sabsiguicut<‘. Estos resultados teóricos han sido confirmados por simulaciones espacialmente explícitas reali/,adas por Tilman y sus colaboradores (Tilm an ct al, 1993). En conclusión, aunque es bien sabido que la destrucción del hábitat causa la extinción de especies (W ilson, 1993), estos resultados indican claramente que dicha destrucción puede dar lugar a la extinción selectiva de los mejores competidores. Estas especies son a menudo las que emplean los recursos con mayor eficiencia y ejercen un control im portante sobre la regulación del ecosistema. En consecuencia, la deuda de la extinción cisociada a la destrucción del hábitat puede tener un efecto aún más perjudicial sobre los ecosistemas. Los efectos no-lineales son, en este sentido, un factor a tener muy en cuenta en estudios futuros de evaluación del impacto de las actividades hum anas sobre los ecosistemas.
Bibliografía 1. J- Bai5compte y R. V. Solé, Habitat fragmentaüon and extinction threshold in spatially explicit models. J. Anim. Ecol (en prensa, 1996). 2. C. Dytham, Habitat destruction and compeiitive coextiitence: a cellular m odel E col 63 490 (1994).
J. Anim.
3. A. Hastings, Spatial heterogeneity and the stability of predator-prey systems. Theor. Pop. Biol. 14 380 (1978). 4. R. Lande, Genetics and demography in biological conservatio 7i. Science 241 1455 (1988). 5. S. Nee y R. M. May, Dynamics of metapopulaiions: habitat destruction and cornpetitive coexistence. J. Anim. Ecol 61 37 (1992). 6 . R. V- Solé, S. C. M anrubia, B. Luque, J. Delgado y J. Bascompte, Phase Transitions and
Complex Systems. Complexity 4 (1996). 7. D. Tilm an, Competition and biodiversity in spatially structural habitats. Ecology 7S 2 (1994). 8 . D. Tilm an, R. M. May, C. L. Lehman y M. A. Nowak. Habitat destruction and the extinction debt. A^aiure 371 6o (1994).
C a p ítu lo 15
N eurodin ám ica Sin duda alguna, el cerebro es la estructura más compleja que conocemos. Diez mil millones de neuronas forman la m ateria prim a de este “órgano de la mente’'. A lo largo de la evolución, los prim eros sistemas neurales simples, constituidos por unas pocas neuronas, fueron modificándose, aum entando en tam año y en complejidad. Con la aparición de mayores estructuras, la percepción del m undo externo fue acom pañada por un procesamiento cada vez más refinado y a menudo constituido por varias etapas. Al explorar en la escala celular, descubrimos ua sistem a de notable sofisticación. Los diagram as de Ramón y Cajal, (figura 15.1) que no han perdido su vigencia, nos dan una idea de la delicada tram a de relaciones entre las neuronas de la corteza cerebral. Como ya mecionábamos con anterioridad, el cerebro es un buen ejemplo de cómo la información se procesa a distintas escalas. Las señales enviadas por una neurona a sus vecinas con las que conecta (de decenas a miles) pueden propagarse a distintas escalas hasta dar lugar a patrones macroscópicos. En la figura 15.2 vemos un ejemplo de una secuencia de propagación de ondas de potencial registradas sobre la superficie de la cabeza de un ser humano. El registro tem poral, que caracteriza el llamado electroencefalograma, nos da una clara idea de la existencia de elementos de coherencia junto a pautas desordenadas. Esta coherencia a gran escala nos recuerda, nuevamente, que incluso en sistemas de gran complejidad, donde los elementos son en si mismos estructuras complejas (como es el caso de las neuronas) pueden aparecer estructuras m acroscópicas regulares que implican la autoorganización coherente de centenares de miles de unidades básicas. Estas series de potenciales, por si mismas, no nos dicen demasiado, aunque cualitativam ente son enormemente sugerentes. Como sabemos, podemos llevar a cabo un análisis de estas señales y estudiar cuántas dimensiones implican, si la dinámica es o no caótica, etc. Es una situación especialm ente apasionante: el cerebro lleva a cabo procesos internos que conllevan funciones tan sorprendentes como el pensam iento. El sustrato m aterial es, en último térnúno, la m ateria neural. Pero es mucho menos claro en qué forma y a qué escalas tienen lugar los procesos cognitivos. Un resultado sorprendente y de enormes consecuencias fue la detección de atractores extraños en la dinám ica cerebral, en sistem as distintos y en situaciones normales y patológicas. Como veremos, es posible determ inar el número de dimensiones implicadas y éste es, muy a menudo, sorprendentem ente pequeño (del orden de 10*^), Las consecuencias de este resultado son aún hoy inim aginables, pero está claro que, en nuestra comprensión futura del cerebro, los fenómenos nolineales y el caos jugarán un papel im portante. 495
496
Orden y Caos en Sistemas complejos
Figura 15.1: Estructuras neurales básicas: las neuronas (C ajal, 1909).
15.1
A tractores extraños en sistem as neurales
En los capítulos dedicados al caos determ inista se mencionó la posibilidad de que la dinám ica de los sistemas neurales complejos, como el cerebro, sea de hecho caótica. Empleando las técnicas de estudio de series tem porales introducidas en el capítulo sobre análisis de fenómenos caóticos, podemos comprobar esta posibilidad. Uno de los primeros estudios en esta dirección fue llevado a cabo por Agnes Babloyantz y sus colaboradores de la Universidad Libre de Bruselas (Babloyantz y Destexhe, 1986; Ba^ar, 1990). El primero de estos estudios consistió en anaUzar un fenómeno patológico: un tipo de epilepsia llamado petit mal. En estos episodios, conocidos como ausencias, la actividad cerebral presenta una enorme coherencia, de forma que abandonamos las irregularidades del cerebro sano para observar un patrón espaciotem poral enormemente coherente (figura 15.3). La reconstrucción del atractor da un objeto claram ente ordenado para el que podemos calcular la dimensión fractal m ediante el método de Grassberger-Procaccia. El resultado de este cálculo fue un valor de la dimensión de correlación de D 2 = v = 2.05 ± 0.09 que, junto con ia estimación del exponente máximo de Lyapunov, que arrojó un valor de = 2.9 ± 0-6, dieron respaldo a la evidencia de atractores extraños en la dinám ica a gran escala del cerebro. Estudios posteriores, basados en series iriuclio más largas, han aum entado esta dimensionahdad hasta valores dc. u = Z.l ± 0 . 2 . Existen otras patologías que revelan una coherencia muy superior a la del cerebro humano normal. Una de ellas es la enfermedad de Creutzfeld-Jacob, asociada a la destrucción de las neuronas debida a la infección por un virus lento. En la figura 15.4 se presenta un ejemplo de EEG de esta patología, así como el espectro de Fourier asociado. Vemos que. pese a la alta periodicidad de las oscilaciones, aparece una amplia banda de frecuencias implicadas, típica de un sistem a caótico. El anáhsis de estos datos (Babloyantz y Destexhe, 1988) dio corno resultado una dimensión de correlación de — 4.4 ± 0.4. El estudio de estados normales de actividad ha revelado un am plio espectro de dimensiones que parecen estar fuertemente influenciadas por la actividad m ental. Algunos de estos resultados se resumen en la siguiente tabla;
.Ve u ro d ín á m j'ca
497
Figura 15-2: Dinámica cerebral: podemos obtener una prim era imagen macroscópica de lo que tiene lugar en la corteza cerebral (la parte evolutivamente más nueva del cerebro) a través de la exploración de su dinámica mediante los electroencefalogramas. En la figura indicamos las series de potenciales obtenidas ca distintas zonas.
498
Orden y Caos en Sistemas complejos
íH;'
> ;V n /v /,
\ l·' '
ÍM ' i ' ' 'f l i l/i l·
Figura 15.3: L'iectroencefalograma (EEG) obtenido durante un episodio de epilepsia (petit mal).
1 0 0
Q--
100^
- I I 1~ T '| I [ I | - | '1 I I -[ r ! ] I T ' I 'I
25
50
75 100 125
tievnpo
“r n ------------- '-1— r' I I I I I ; — ■— n \— i -
~ ri
0
0 .0 0 1
0 .0 1
i i i it
0 .1
/
Figura 15.4: Electroencefalograma (EEG) de un enfermo de Creutzfeld-Jacob. Se m uestra también el espectro de Fourier.
499
Neurodinámica
Figura 15.5; Reconstrucción de un atractor correspondiente a la actividad cerebral de un paciente con demencia, en dos puntos distintos de la cabeza. Autor Babloyantz ei ai, (1985)
Rapp eí ai. (19S6) Babloyantz ei ai. (1986)
Es tado/Sistem a Sueño (estado 2) Sueño (estado 4) Despierto (alfa) Ojos cerrados Creutzfeld-Jacob Epilepsia
Resultados
|
Ü 2 = 5.03 Ü 2 = 4.0 - 4.4 Ü 2 = 6.1 = 2.4 - 2.6 D 2 = 3.7 - 5.4 D 2 - 2.05
Tabla I ; Dimensiones fractaJes obtenidas por diversos autores sobre distintos estados de EEG en humanos. O tros trabajos experim entales se han basado en el empleo de animales de experim entación en los que se han llevado a cabo medidas intracraneales. En estos estudios se ha podido reaUzar uu análisis más pormenorizado de la dimensionalidad a distintas escalas de la estructura cerebral. En particular, destacaremos los estudios de Ba(;ar (1990) empleando gatos para los que obtuvo, en tres estructuras cerebrales distiuiíií, las dimensiones fractales de los atractores. Estos datos, especialm ente fiables, se resumen en la siguiente tabla. 1 Dimensión del atractor j Sistema neural [ JC>2 = 5 .0 ± 0 .1 Cortex D 2 = 4.0 ± 0.07 Hipocampo £>2 = 4 .4 ± 0.07 1 1 Formación reticular j j
Existen numerosos estudios en los que se ha llevado a cabo un análisis de la actividad dcl cerebro en busca de evidencias d»' caos. Algunos de ellos se basan en otro tipo de m edidas, como las que emplean la detección de predictibilidad en sistemas determ inistas (Gallez y Babloyantz, 1991; Bhnowska y Malinowski. 1991). Otros emplean métodos alternativos de caracterización, entre los que destaca el empleo de vanos canales simultáneos para obtener atractores reconstruidos (véase Rombouts ei a/., 1995, y ias referencias incluidas).
500
Orden y Caos en Sistemas complejos
Entre los problem as a-sociados a est.is medidas, está el hecho de la no-estacionariedad de las series obtenidcis. E sta no-estacionariedad, que volverá a analizarse algo más adelante (en relación con la existencia de transiciones de fase) podría ser debida a la existencia de m últiples atractores en la dinám ica del cerebro (figura 15.5) y el sistema llevará a cabo (posiblemente) trajasiciones entre éstos, sin necesidad de recurrir a tui origen externo. Si ello ocurre, la dim ensionalidad del EEG irá en aum ento con la longitud d·'! registro empleado (como sucede muy a m enudo). A mayor tiem po, mayor número de posible.s transiciones. Este problema podría resolverse empleando métodos de m edida de caos que pernútieran utilizar los grados de libertad espaciales, m ediante registros m ulticanal del EEG, ai estilo del exponente de Lyapunov espaciotem poral discutido en el capítulo 10 (Solé y Bascompte, 1995). Eventualmente, el método pernútiría además detectar transiciones en la dinánúca y, por lo tanto, la existencia de atractores m últiples.
15.2
S iste m a s neurales y duplicación de periodo
Los sistemas neurales simples pueden exhibir comportamientos complejos de distintos tipos, que incluyen transiciones hacia el caos por cuíüquiera de los tres tipos básicos de escenario previam ente analizados. Los resultados experimentales y sus contrapartidas teóricas son muy numerosos. Una de las m anipulacioaes típicas consiste en la estimulación periódica de una célula nerviosa o pequeños colectivos de neuronas, perturbación que permite observar la transición hacia el caos en diverseis formas. Un modelo simple que exhibe un escenario de bifurcación con duplicación de período fue analiZ E id o por E rm entrout (1984), quien demostró la existencia d e atractores extraños. El modelo parte del siguiente conjunto de ecuaciones: dP ~di
iS i(P ) — a 2 i S 2 ÍI) + <^3iS3{E) — — —k I + a i 2 ^i{P ) dE
-- —pE + a i 2 Si{P)
cuya arquitectura está lim itada a una pequeña red formada por una neurona piram idal, la activi dad de la cual indicamos por P , y un par de interneuronas indicadas por I y E con actividades inhibidora y excitadora, respectivamente. La función S i(r) será una función sigmoidal que intro duce el tipo específico de interacción. Un ejemplo podría ser S ,(r) = 1/ ( 1 -f exp( — pero otros, cualitativam ente similares, son igualmenre válidos. Erm entrout dem ostró que este modelo (y toda una famiha de modelos relacionados) adm ite una reducción a la forma normal (capítulo 4, apéndice), proporcionando un sistema reducido del tipo dx dt dt
el cual posee dos puntos de equilibrio, xq = (0, 0, 0) y Xi — (? / 7 , í ^ 9 / t ) · Ambos puntos son estables de forma simultánea, así que podemos concentrarnos en estudiar la estabilidad del
501
\ ’e u r o d i n á m J c a
Figura 15.6: Atractores en el modelo de Erm entrout: (a) atractor periodico y (b) atracto r caótico (ñguras obtenidas por J. M. Sánchez Ferrer). primero. E.sta estabilidad, como es habitual, puede obtenerse a partir ilei polinomio característico asociado a la matriz Jacobiana del sistem a en el punto fijo, í*(A) —
+ i/A -j- y — O
(15.2.1)
lo que requiere, para la estabilidad, la condición: ^ >
O;
¡y > O
;
7 >
O
fjiy — y > O
(15.2.2) (15.2.3)
La segunda condición (obtenida a partir del criterio de Routh) define la aparición de valores propios complejos con parte real positiva. Si la desigualdad 15.2.3 se invierte, podemos obtener una bifurcación de Hopf Supongamos que 7 = Entonces el polinomio característico poseerá raíces A = —j U y A ± = y si ias desigualdades anteriores se cumplen, es tas raíces son im aginarias. Para I7 — fii/\ pequeños, puede darse un ciclo límite (siguiendo los criterios presentados en el capítulo 4). De hecho así es, y al aum entar 7 (con ¡ jl ^ v — — ?>) obtenemos un escenario de Feigenbaum. En la figura 15.6 mostramos una solución periódica (p ar a 7 = 2.5) y un atractor e.xtraño (para 7 — 3.5). Estos atractores son de hecho del mismo ti p o qiu- los observados para el modelo dc Rossler. Vemos por lo tanto que un modelo simple, muy general, de un conjunto reducido de neuronas, puede m ostrar un escenario de bifurcación complejo. Este primer modelo perm ite ver que un sistem a neural puede generar de m anera espontánea oscilaciones. En la siguiente sección veremos que un mecanismo de este tipo, en el que intervienen neuronas inhibidoras y excitadoras, posee la capacidad de generar oscilaciones globales coherentes.
15.3
Oscilaciones y caos en el c o r tex cerebral
El córte.x visual de los vertebrados, emplazado en el lóbulo occipital, recibe información de las neurona^s de la retina. La información de cada ojo ocupa zonas adyacentes (pero claram ente
502
Orden y Caos en Sistemas complejos
Figura 15.7: E structura básica simplificada del modelo de una colum na cortical. diferenciadas) en form a de las denominadas columnas de dominancia ocular (Kandel et al., 1991). La organización del córtex visual está especialmente bien entendida. Este hecho, y la im portancia que juega la visión en nuestra percepción del mundo, convierten a esta región del cerebro en una zona de gran interés. Las neuronas de cada columna se encuentran conectadas entre si, y existe tam bién cierto grado de conectividad entre columnas adyacentes, ün hallazgo experimental de gran im portancia fue obtenido por G ray y Singer en 1989 al anahzar la respuesta del córtex visual de animales de experimentación frente a estímulos externos. La frecuencia de estas oscilaciones es de unos 40-60 Hz y ha sido tam bién observada por Freeman en el bulbo olfatorio (Freem an, 1975; Freeman et ai, 1988). Dado que esta coherencia está ligada al acto de la percepción, parece claro que existe un proceso dinám ico subyacente a dicha actividad. ¿De dónde procede esta fuente de organización espaciotemporal? H. Schuster y P. Wagner propusieron en 1990 un inodelo m atem ático de las oscilaciones de una columna cortical, modelizadas como subpoblaciones de neuronas excitadoras e inhibidoras, así como una extensión del modelo a la interacción entre columnas. La unidad básica del modelo se m uestra en la figura 15.7, en la que se indica por / y £" las poblaciones celulares de neuronas inhibidoras y excitadoras, respectivamente. Este modelo de columna única puede analizarse en profundidad. Las neuronas excitadoras poseen siiiapsis excitadoras (de valor positivo) y las inhibidoras poseen sinapsis inhibidoras (de valor uegativo). C ada neurona se describe por medio de cierta variable que indica la intensidad del estado y que, en térnúnos experimentales, se mide como tasas de disparo. Las indicaremos por {e.(í))
para neuronas activadoras e inhibidoras, respectivamente. Si suponemos (razonablem ente) que dentro de la colum na cada neurona está conectada con todas la demás, el modelo de SchusterWagner queda descrito por el siguiente conjunto de ecuaciones
de.l· di
dii dt
k -
1, 2 ,
k = l,2 ,...,N ,
Ni
^'enrodinámlca
503
f.a fiiiición ^ (x ) = fl + modeliza la respuesta sigmoidal, y vemos que si tanto las ronexiones como los estímulos exteriores pk (que sólo afectan, en este modelo, a las neuronas excitadoras) se anulan, todas las actividades caen a cero. Ahoia nuestro objetivo es explorar el coni[)ortamiento de este sistema y estudiar su dinámica global. Pese al carácter umltidim ensional de este sistem a dinámico formado por 4- Ni ecuaciones, la simulación nume'rica indica que la dinamica global se sincroniza con facilidad dando lugar a oscilaciones regulares globales. Un estudio formal del modelo perm ite ver còrno la dinámica global puede de hecho extraerse de las ecuaciones anteriores, dando un modelo de dos ecuaciones básicas para la dinám ica de ias poblaciones globales. Definamos las siguientes cantidades promedio,
'^■ =
^ .
N,
E '
’ ^^ = ]v: a= : E E ''* '
/=1
' Jt=l Í=1
A'.
jV.
E
N.
· <''' = V-' E E
‘ it = l f = l
'
k = l 1=1
y también las actividades promedio de las poblaciones celulares excitadora e inhibidora,
* /=! A partir de estas cantidades, llevaremos a cabo un estudio del sistem a de partida, y obtendrem os las ecuaciones globales de campo medio. Sumando sobre k las ecuaciones para de^ /dt y dividiendo por .Vg, obtenem os 1
dCk
dE
IT
^
¿hí
siendo ^ ( a |) el térm ino que incluye los promedios sobre la función sigmoidal. Supongamos que podemos escribir los valores de las conexiones, actividades locales y otras caiítidades como desvia ciones respecto de los valores promedio, esto es,
Uk¡ - ci
+
éuki
;
~ E + éef¡ ; y finalmente, supongamos q\ie
definimos a^’' =
i'ki
= c'2
+ évki
ifc = / 4- Sit donde
Desarrollando en serie de Taylor, obtenemos A'. dE = -E + í i dt N, ^ k=l Los térm inos de orden inferior no incluyen las fluctuaciones, y nos dan la ecuación de campo medio
504
Orden y Caos en Sistemas complejos
Figura 15.8: (a) Modelo de columnas acopladas; (b) acoplam iento efectivo entre osciladores acopia dos, en i'unción del estímulo externo P. Podemos apreciar una transición que presenta histéresis.
dE dt
-E + ifc=l
Los térm inos de primer orden tienden a cero por tener una medía cero (por construcción). Los términos de la forma N
i
se tratcui del modo siguiente. Supongamos que las cantidades ¿ujt/ tienen probabilidades asociadas p{éuki) independientes de k y L El teorema central del lím ite nos garantiza que
lo que nos lleva a las ecuaciones macroscópicas (de campo medio) dadas por dE dt
a ,(ciE ~^C2 l
+P)
a ,( c 3 f ;- C 4 /- 0 * siendo ahora 1
N,
rPk
La simulación numérica dem uestra que la aproximación dada por el modelo SW es enorme mente apropiada para describir el comportam iento macroscópico de los colectivos neurales del tipo definido al comienzo (Schuster y Wagner, 1990).
iVeurodi/2árnica
505
Podemos a continuación estudiar el comportam iento de dos columnas acopladas. Queremos ver si, bajo condiciones apropiadas, dichas colunmas presentarán sincronización, tal y como vemos en ei córtex visual normal. Tenemos un nuevo conjunto de ecuaciones,
^
= -E ,+ < i\A l-na,U ¡
^
= -Et
para (/:,/ = 1, 2 ; k ^ l) donde hemos empleado la siguiente notación abreviada Ut - aiE¡ — ü 2 l[ V¡ = asE¡ - 04 // A l = a , i c E k - C 2 h - Q ^ + Fk) A], = a,{csEk ~ c^Ik - 0 ‘)
Desarroihmdo a primer orden el acoplamiento rj, (para acoplamientos débiles), lo cual significa J¡ < <
ía a x { c j
e introduciendo las fluctuaciones Xk - Ek - Eko ^ rjk cos(
yk - h - h o
oc
rksin{(¡)k)
respecto del punto de equilibrio intestable {Eko^Iko)^ obtenemos (Schuster y W agner, 1990) las ecuaciones para las fases = u j i ~ K 12 s i n ( 0 i - <¿2) dt d
^
= -E t +
+ r,a,i'iA Í)U i
y una expresión equivalente para Ik, dan lugar a unos términos de acoplam iento
L ', = r?a.^'(A^)VÍ que dependen fuertemente de las entradas sobre los dos osciladores, como se indica en la figura 15.8 (b). en la que se ha calculado la constante de acoplam iento promediada sobre el tiempo, 'T' K{t)dt Podemos comprobar que el acoplam iento es débil si uno de los osciladores se halla inactivo (pasivo) m ientras que la actividad de ambos hace crecer este acoplam iento hasta un factor % 10. Bajo estas condiciones, esperaremos sincronización de columnas corticales.
506
Orden y Caos en Sistemas complejos
El mismo modelo perm ite obtener atractores extraños para amplios conjuntos de combinaciones de parám etros, como veremos en ia próxim a sección. De liecho, las r(;des de inuclios elementos con conexiones lo bastante numerosas (y asim étricas) exliiben, tipioarm’iite, com ponauiientos comple jos. Eventualm ente (de hecho, con m ucha frecuencia) estos com portanúentos sou notablem ente coherentes y pueden identificarse como caos de baja dimensión. Lo> estudio^ basados en modelos teóricos sou numerosísimos (Kürten y Clark, 1986; Aihara ct ai. 1990). Este tipo de modelos ha sido enormemente desarrollado y se dispone de un marco reóri< sólido (¿i bien no completo) de la dinám ica de sistemas de osciladores acoplados. Destaquemos, entre los muchos resultados experimentales y teóricos obtenidos, los estudios de Walter Freeman acerca de la dinám ica del bulbo olfatorio. La im portancia del trabajo de Freeman es doble, en la medida en que su modelo responde a un estudio experimental (llevado a cabo por el propio Freeman y sus colaboradores) que permitió un conocimiento detallado del córtex olfativo y de la existencia de caos determ inista en su dinámica. El modelo ofrece no sólo una aproximación detallada y acertada del sistema original, sino que la interpretación dada por Freeman tiene grandes implicaciones para la comprensión de cuál es la función del caos en la percepción. El bulbo olfativo es una estructura neural organizada de una forma relativam ente simple y la única que no posee ninguna estación de paso interm edia en su conexión con el córtex cerebral. Evolutivamente es predonúnante en los mamíferos primitivos (para los cuales jugaba un papel básico en un mundo dominado por los grandes reptiles) y fue haciéndose menos prom inente a medida que, en algunos grupos, el neocórtex fue ganando terreno. En el cerebro humano, el córtex olfativo se reduce a una muy pequeña porción del córtex cerebral, m ientras que en algunos manuferos insectívoros su presencia es predom inante. El modelo de Freeman se basa en un diagram a simplificado de los tipos celulares y de las conexiones presentes en el cortex olfativo real, y pernúte comprender detalladam ente el efecto de distintas perturbaciones (inducibles experim entalm ente) sobre la dinámica del cortex. Los EEGs obtenidos a p artir del modelo son enormemente similares a los reales, y Freeman ha lanzado una hipótesis, basada en sus experimentos, sobre el posible papel diuánúco de los atractores extraños en el cerebro (Freem an, 1991). Dos resultados son de especial im portancia. El primero: existe una fuerte evidencia en favor de un almacenamiento del recuerdo de los olores en forma de atractores periódicos y estructuras de actividad neural espaciales. El segundo: el caos podría ser empleado como mecanismo de atención. Yendo aún más allá, el cerebro generaría, según Freeman, atractores extraños que le perm itirían “dar sentido al mundo” (Skarda y Freeman, 1987),
15.4
C on trol de caos en el cerebro
Si los sistemas neurales pueden exhibir caos, deberíamos preguntamos si estos atractores extraños neurales pueden ser manipulados expe rimen tal mente para inducir codo tipo de bifurcaciones. Aún más interesante, está el hecho de que el caos puede ser controlado (capítulo 6 ) y por lo tanto no es descabellado que dicho control pueda obtenerse en sistemas neurales reales. De hecho, en 1994, un artículo publicado en Naiure se titulaba así: “Control de caos en el cerebro". Los autores de dicho artículo (Schiff et al, 1994) llevaron a cabo un experimento pionero en el que, actuando sobre cortes de tejido cerebral mantenidos en vivo, demostraron la posibilidad de controlar la dinámica irregular observada para obtener com portam ientos regulares. La región del cerebro de la que se obtuvo el tejido es el hipocampo, una estructura especial protegida en el interior de la cabeza, situada en el centro de la ma.sa encefáUca. El hipocampo es un componente enormemente im portante del cerebro, que participa en los procesos de memoria, en la orientación espacial (perm ite construir un ’‘mapa interno” del entorno) y en el cual se inician muy a menudo las ondas que desencadenan los ataques epilépticos. La estructura de la red neural que forma el hipocam po es bien conocida, y existen modelos de esta región muy bien estudiados. En la
IVeurodínámica
507
Figura 15.9: Sección del hipocampo, m ostrando la red neur.d que lo define. Este tipo de secciones pueden ser m antenidas in vivo experim entalm ente, con lo que podemos manipular una red neural real. figura 15,9 indicamos un esquema de la sección típica de éste. Las neuronas del hipocam po form an una red que en los cortes queda reducida a una arquitectura en una capa. Tenemos un conjunto de neuronas reducido, con una conectividad conocida y que en condiciones normales m uestra, en los individuos m aduros, dinámicas irregulares. El grupo de Schiff logró, empleando el método OGY de control (Shinbrot ei al., 1993), con trolan estas oscilaciones irregulares. El método consiste eu construir la? aplicaciones de prim er retorno en las que como variables se em plea el tiempo entre intervalos de oscilación. Cada cierto tiem po el sistem a muestra, en el registro con microelectrodos, un pico en el potencial, y se requiere cierto tiem po para generar el siguiente máximo. Si dibujamos en un plano (/„, /„.(-i) los pares obtenidos sucesivamente, obtenemos para el hipocampo normal un conjunto aparentem ente desordenado de puntos. Sin embargo, una inspección cuidadosa, analizando el com portam iento de las órbitas a lo largo del tiempo cerca de la recta bisectriz In+i = In (sobre la que, recordemos, se hallarían los posibles puntos fijos de u n a supuesta aphcación = /^(i^n)), dem uestra que el com portam iento de este sistema es de hecho consistente con el de un sistema caótico con un punto de silla inestable /*. En la figura 15.10 vemos una de estas gráficas, sobre la que indicamos algunos puntos consecutivos cuya secuencia indica claramente la existencia de dos variedades que atraviesan /*. A lo largo de la variedad estable los puiitos tenderán a acercarse, m ientras que a lo largo de la variedad inestable W'“ tenderán a alejarse. Este resultado posee un enorme valor en si mismo: la dinámica irregular del hipocam po, que en una inspección superficial del diagram a anterior sugeriría estocasticidad más que caos, es clara m ente de origen determ inista, con variedades estables e inestables bien definidas. Una vez carac terizadas estas variedades, podemos aplicar el método OGY de control. Experim entalm ente, se espera a que el sistem a se aproxime al punto fijo inestable [ ' (dentro de un radio e) a lo largo de la dirección definida por la variedad estable. A continuación, llevamos a cabo una perturbación que modifica la dinám ica de fornaa que el sistem a regrese de nuevo a un entrono próximo a I ' . De esta m anera empleamos la estructura interna del sistema dinámico (el punto de silla inestable) para devolver al sistem a a la variedad estable una y otra vez. E ntre otros resultados, los autores de este estudio también llevaron a cabo algo sorprendente:
508
Orden y Caos en Sistemas complejos
Figura 15.10: Detección de variedades invariantes a p artir de la aplicación de prim er retorno, obtenida experimentalmente. En los ejes de la gráfica se indica In frente a In+i, los tiempos consecutivos entre oscilaciones. El punto I* se halla en la intersección de las variedades estable e inestable, tai y como se pone de manifiesto observando la secuencia de valores indicada. lo que ellos llamaron anticontrol de caos. Como sabemos, existen situaciones patológicas (como la epilepsia) caracterizadas por una actividad cerebral enormemente coordinada, con una com ponente periódica muy evidente. Puesto que, dentro del mismo sistem a (el hipocam po) pueden darse ambos tipos de dinámica (la normal y la epiléptica) parece razonable sugerir que la epilepsia sea una transición entre atractores. Schiíf y sus colaboradores desarrollaron esta idea sugiriendo la posibilidad de que, perturbando débilmente un sistem a neural en régimen periódico (inducible experim entalm ente mediante el empleo de drogas) podrían devolverlo ai régimen caótico. Este ex perim ento fue llevado a cabo con éxito y el experimento ha abierto las puertas a futuros estudios. En particular, dado que las técnicas de control de caos no requieren el empleo de grandes pertur baciones en el sistema, podría darse ei caso de que un mecanismo simple que detectara indicios de una transición hacia un régimen muy ordenado (el comienzo de un ataque) pudiera tener utihdad médica inm ediata (Schiff, 1994, Glanz, 1994). Estudios experim entales posteriores han confirmado plenam ente ios resultados de Schiff. En este sentido, Hayashi e Ishizuka (1995) han analizado en profundidad la dinámica del hipocampo demostrando la existencia de escenarios de bifurcación claram ente definidos.
15.5
C ontrol de caos en redes neurales
Se han llevado a cabo estudios acerca de control de caos en redes neurales que emplean distintas estructuras neurales y métodos de control. Estos estudios (Sepulchre y Babloyantz, 1993; Solé y De la Prida, 1995; De la Prida y Solé, 1996) han perm itido comprobar hasta qué punto es posible controlar el caos. Algunos autores (Babloyantz, 1993) han sugerido que el m ecanismo de control podría emplearse en tareas cognitivas complejas. E n un estudio reciente (Solé y De la Prida, 1995; De la Prida y Solé, 1996) se ha comprobado que es posible controlar el caos en sistemas neurales formados por conjuntos reducidos de n e u ro n a s m anipulando un sólo elemento. Consideremos el modelo de Schuster-W agner introducido anterior-
iVeurodiná/nica
509
x(t) Figura 15.11: (a) Red neural de dos capas obtenida a partir de los osciladores neurales del modelo de Schuster-W agner. Presentamos un sistem a de cinco columnas conectadas entre sí localmente. Este sistema exhibe típicam ente caos, dando lugar a un atractor extraño que se indica en (b) en forma de líneas de trazos. Aplicando el m étodo GM a una de las neuronas excitadoras, podemos controlar distintas órbitas periódicas, como la que se indica en linea continua. m ente. Este modelo, del que nos hemos lim itado a estudiar los atractores periódicos, puede generar comportam ientos caóticos para ciertas combinaciones de parám etros que reduzcan la sim etría de las interaccioues. Un ejemplo de red compleja se indica en la figura 15.11 (a), form ada por cinco colunmas conectadas localmente (para un estudio detallado, incluyendo los parám etros empleados, véase De la Prida y Solé, 1996). EiíípiüdauLf cV nenzona (o grupo de neuronas) de la capa excitadora. Sea n el núraero de unidades en la capa excitadora, e indiquemos por Ef^ 6 {1,2, ...,n} el estado de la unidad sobre la que aplicamos ei control. El conjunto de ecuaciones empleado es por lo tanto dEk dt
‘i
.
OeiciEk ~ C2h -
+ Pk) - r}ae{a \^
?
a,(c3£jk - C 4h - 0') - r)ai
^«3 ^
.
Ej - a2 ^
íjj
■Tk
- «4
Ijj
donde F* es el térm ino de control, dado por Ffc = 1 +
r)
Aquí, empleamos la notación = l si k — fj. y cero eu caso contrario. Análogamente, ¿(í, r) — 1 si ¿ = T = m A t y cero en caso contrario. El método se reduce por lo tanto a perturbar la ^í-ésima neurona cada cierto m últiplo prefijado del paso de integración numérica,
Orden y Caos en Sistemas complejos
510
50 0
1000
1500
2000
2500
3000
3500
500
10 00
150 0
2000
2500
3000
3500
Figura 15.12: Anticontrol de caos: a ¡)artir de una red aeural periódica, se puede inducir un com portam iento irregular perturbando débürneate una de las unidades excitadoras; indicamos sólo dos registros sobre una red con cuatro columnas.
A t. La notación < j > indica vecinos más cercanos y g € N dependerá, en general, de la topología de la red. El control se puede obtener de forma efectiva sin dificultad (siempre que la red no sea muy grande y dependiendo de su topología). En la figura 15.11 (b) vemos un ejemplo de control de un atracto r extraño. La órbita controlada se indica en línea continua, y el atractor subyacente en línea discontinua. El mismo procedimiento sirve para lograr el anticontrol. M ediante perurbaciones muy pequeñas actuando sobre una sola unidad, podemos desestabilizar una órbita periódica y obtener compor tam iento caótico. El hecho de que experimentalmente se haya obtenido la modificación de la actividad global del hipocampo mediante la manipulación de una sola neurona (Miles y VVong, 1983) abre interesantes posibilidades de aplicación práctica de los resultados previos.
15.6
M o d elo de Hopfield
Los modelos anteriores han sido presentados con el objetivo de m ostrar cómo pueden ser repro ducidos los patrones dinámicos básicos observados en sistemas neurales naturales. H asta ahora, no hemos presentado ningún modelo en el que el proceso natural de reconocimiento de patrones y la existencia de memoria asociativa sean parte integrante de la dinámica. El modelo de Hop field es un ejemplo particularm ente simple de una red discreta, con dinám ica sencilla, capaz de aprender (alm acenar un conjunto de patrones) y de recordar con memoria asociativa. Este modelo (Hopfield, 1982) representa de hecho el punto de partida de un gran esfuerzo teórico basado, muy especialm ente, en herram ientas procedentes de la física de sistem as desordenados (para un enfoque de este tipo, con numerosas referencias, véase Amit, 1989).
Neurodinámica
15.6.1
511
Modelo teórico : dinámica
Supondremos que la red está form ada por un conjunto de A' unidades (que, genéricam ente y abusando del lenguaje se conviene en llam ar neuronas) cuyos estados indicaremos por S.(í) G S { - 1 , + 1 }
,
L2,...,A·
y cuya dinám ica quedará especificada por el conjunto de ecuaciones íV S.(í + l) = 4 > [^ W „ S j - fl, } =1 El conjunto de entradas definido por la suma dentro del paréntesis, A' =
(15.6.1) J=l
se denom ina campo local áa la neurona i—ésima. Observemos que cada elemento está, en principio, conectado con iodos los demás elementos. La conectividad es global. La función ^ ( 2 ) se toma aquí como la función signo, esto es, $(ir) = = +1 si z > O y —1 en caso contrario. Hemos indicado por B, cierto umbral que, en lo que sigue, y sin pérdida de generalidad, tom arem os como Bi = 0. La dinámica se reduce por lo tanto a N
S i(í + 1) =
(15.6.2) ;=i
Añadirem os que, tal y como se define aquí, la dinánoica seria de tipo síncrono, esto es, todos los elem entos perciben sim ultáneam ente sus campos locales y cambian de estado sim ultáneam ente en la m ism a iteración. En sistemas naturales, cierto grado de sincronía es másque clara (aunque no to ta l). En el modelo de Hopfield emplearemos, por el contrario, una dinám ica asincrona, de form a que, en cada iteración, modificaremos el estado de sólo una neurona, para la que habremos calculado el campo local previamente. Más específicamente, podemos im plem entar una dinám ica asincrona de dos formas: ♦ En cada paso de tiempo, seleccionamos al azar una unidad i y aphcamos la dinám ica definida por la ecuación 15.6.2. • Dejamos que cada unidad pueda calcular su nuevo estado de acuerdo con cierta probabilidad por unidad de tiempo. Ambas posibilidades son de hecho equivalentes. En lo que sigue, supondremos que las memorias que se desea almacenar están form adas por secuencias de N valores binarios, cuyas componentes indicaremos por í.(í) e E { -1 ,+ 1 ) ,
i · - 1, 2 , . . . , A
y serán por tanto de la forma í = (6 - Í 2....,Í n ) adem ás, asumiremos que los valores probabilidad.
se obtienen aleatoriam ente, siguiendo cierta distribución de
512
Orden y Caos en Sistemas complejos
Vemos que los eleuientos de la dinámica básica quedan (i-ífinidos, exce{>to en lo que se refiere a las conexiones. La m atriz Wij es, sin embargo, el elemento clave. En función de cómo definamos las conexiones, tendrem os o no capacidad de almacenar lü información adecuadam ente. Como veremos, existe un procedimiento simple para almacenar nitormación ba.sado en una adecuada elección de las conexiones en función de los valores de entrada sum inistrados por los patrones Para entender la forma de elegir los W ,j, consideremos uti caso muy simple, en el que la red debe almacenar sólo uu patrón. Para que dicha memoria se;i un estado estacionario de la dinámica (un punto fijo), debe cumplirse, como sabemos, la condición ¡\
Podemos ver que esto tiene lugar en particular si W{j oc
dado que
= 1, y por lo tanto
Escogeremos en nuestro caso una conexión normalizada por el número de neuronas N W, = Como vemos, de esta definición se sigue que las conexiones son simétricas, y habitualm ente tomaxemos Wii — 0 . La estabilidad de este punto fijo viene claram ente afectada por la m atriz d e conexiones. Notemos que, incluso si cierta cantidad de bits del patrón original están erróneamente representados, la suma sobre el total puede perm itir que, aún así, el punto fijo retenga su estabilidad. En consecuencia, una configuración inicial que contenga algunos bits erróneos rápidamente será reem plazada, a través de la dinámica, por una colección de bits correcta: el estado inicial es “atraído” hacia la memoria que es un atractor del sistema^. Vemos por lo tanto, por primera vez, que el reconocinúento de un patrón puede asociarse a la existencia de atractores en un sistema dinámico. El caso realmente interesante aparece cuando consideramos un conjunto de p patrones a al macenar, esto es, {í^}, con u = 1,2, ...,p. Tenemos por lo tanto un conjunto de p vectores N -dimensionales,
í‘=
e =
■... e =
.........í ' ’ = ( í f , í ? . - . í W
Puede probarse que la forma anterior de elegir las conexiones puede emplearse de forma eficiente en este caso general. Lo que tendremos por lo tanto será una superposición de productos cruzados de la forma w . = ^ { í , ‘í; + - + f r í j } =
i¿ ír í;
E sta expresión se conoce como regla de Hebb. Su origen tiene cierta base neurofisiológica. La idea básica es fácil de entender: tomemos dos neuronas, digamos la i y la j-ésim a. Supongamos que estas neuronas reciben, durante la fase de aprendizaje, ciertas señales de valores y cuando “mostramos" a la red el patrón it-ésÍmo. La regla de Hebb hace que los estím ulos correlacionados actúen reforzando la conexión entre neuronas, esto es, el valor de que suma \ ¡ N cada vez que dicha correlación se da. Por el contrario, las anticorrelaciones actúan debilitando el valor de la conexión. Observemos que esta regla tiene carácter local: sólo hacemos referencia a la información que llega a pares de neuronas conectadas entre si, y no introducimos, a este niv'el, más información ^De hecho, este s is te m a p o se e dos a tra cto re s: el e sta d o com plem en tario a to d o s los elem entos, ta m b ié n verifica las m ism as condiciones.
en el q u e in v ertim o s ei signo de
ATeurodinámica
513
de una e.srala mayor. En este sentido, las propiedades globales del patrón no forman part<í de las reglas locales: la capacidad de almacenar y recuperar la información eu la red de Hopfield surge estrictam ente de una propiedad global, asociada a la matriz de conectividad. Ahora podemos explorar la estabilidad de la red bajo condiciones mucho más generales. To memos uu patrón dado, digamos el i/-ésimo. La condición de punto fijo estará ahora dada [)or N
sffn(An = « < ;» [£ ir,¿ í ;] j=l
para todos los valores de i = conexiones, el campo local se escribirá
Empleando la definición de la regla de Hebb para las
y se puede separar en dos términos, uno para ¡j. = u y otro para los demás valores de /i, cou lo que tenemos
'*í'=í.‘' + F é £ w expresión a partir de la cual exploraremos la estabilidad. Notemos que, si el segundo térnuiio de la derecha fuera cero, podríam os garantizar inm ediatam ente la estabilidad del patrón. Pero de hecho ello ocurrirá tam bién si el segundo térm ino es lo bastante pequeño: si su m agnitud es menor que 1, no podrá modificar el signo del campo local y la condición de estabilidad se verificará. El térm ino cruzado, esto es, j =l será menor que 1 en muchos casos de interés si el niimero de patrones p es reducido. contin uación veremos cómo disponer de una estimación del número de patrones estables que ia red puede alm acenar en relación con el número to tal de neuronas N , lo que se denomina capacidad la red, o· = p / N . Consideremos la siguiente cantidad.
de hecho — veces el término cruzado Si Ti, es negativo, el ténrúno cruzado tendrá el mismo signo que la componente del patrón, y por lo tanto no habrá problem as de inestabilidad. Pero si Ft, es positivo y mayor que 1, cam biará el signo del campo local y el patrón b'-ésimo se hará inestable. F(, depende únicam ente de los patrones almacenados. Si consideramos que éstos son puramente aleatorios, siendo la probabilidad de los valores +1 y —1 idéntica, con lo que 5 [ '5 ( Í Í - 1 ) + <5«Í‘ + 1) e independiente de cada j y de cada podemos estimar ia probabilidad de que obtengamos inestabilidad en algún bit concreto. La probabilidad de error será Pe = P[Tt> > l]i y claramente deberá crecer con el número de patrones p almacenados. Si establecemos un criterio de error
Orden y Caos en Sistemas complejc^
ó 14
X Figura 15-13: Distribución de probabilidad de los valores de Fi,. El área rayada indica la proba bilidad de error. tolerable, esto es, definimos un 1 > > e > Otal que aceptamos el error en tanto que < e, podremos estim ar la capacidad del sistem a. Obviamente, deberemos introducir cierta cota subjetiva para €. Supongamos que tanto N como p son grandes. La distribución de Fi, es una binomial, de media cero y varianza <7^ = p / N , pero puede ser aproximada por una distribución G aussiana, con la m isma m edia y varigmza (figura 15.13). La probabilidad de error será ia integral que define el área indicada en la curva Pe =
P[T^ >
f
1) =
J\
1 - e r/( 1/V 2^ ^
l - e r / ( l / v ^ 7 2 p)
con er/(ar) la función error, definida por e rf{x) =
dx
í Jo
Como es sabido, estos valores asociados a la distribución normal tipificada se hallan tabulados. En la siguiente tabla damos algunos valores indicativos. Pe (P error)
p /N
0.001
0.105 0.138 0.185 0.37 0.61
0.0036 0.010
0.050 O.lOO
Si elegimos, por ejemplo, P^ < 0.01, obtenemos que eí máximo número de patrones almacenable será del orden de pmax = 0.15ÍV.
Neurodinámica
515
Tenemos por lo tanto una estim ación aproximada de la capacidad de la red de Hopfield. Bajo las restricciones empleadas, está claro que sólo es una indicación de ia estabilidad: una cota superior. Si el cambio afecta a muchos bits, puede ocurrir que el sistem a (que es no-lineal) se desestabilice, yendo a parar a un patrón o atractor distinto. En cualquier caso nos indica en las proximidade.s de qué cocientes p /N tendrem os problemas. Señalemos además que, a medida que introduzcam os nuevas memorias en la red, ésta no presentará problemas hasta alcanzar las proxim idades de la capacidad en la que tiene lugar una transición brusca (Amit, 1989). De un m odo similar, la red resiste la destrucción de conexiones (o elementos) relativam ente bien hasta que pierde sus capacidades de forma rápida. No deja de ser interesante el hecho de que, en algunas patologías del cerebro de tipo degenerativo (como en algunas demencias) la degradación sea habitualm ente lenta, pero se acelere en algunas etapas. Ello podría sugerir (sin que la extrapolación sea exacta) cierto papel de los fenómenos cooperativos que se pone de manifiesto en la aparición de estos cambios rápidos.
15.6.2
Función energía
Una de las propiedades más interesantes del modelo de Hopfield reside en la posibilidad de intro ducir una función energía f f dentro de la teoría de redes neurales. Para la red de Hopfield ésta se define por F = H ( S i,S
n -, Wij)
= -1
IV.^S,5,
Se dice que esta función energía define un “paisaje’’ o “relieve” de energía. E sta superficie es, lógicam ente, de alta dimensión. Será además, típicamente, muy rugosa. La propiedad fundam ental de esta función energía es que los mínimos corresponderán a los atractores/m em orias de la dinámica del sistem a. Puede dem ostrarse fácilm ente que, de hecho, la dinám ica definida previam ente siempre conduce a valores decrecientes de B , como esperaríamos de cualquier sistema físico cerrado. Efectivam ente, supongzmios que tiene lugar un cambio en una unidad, como consecuencia del campo local, esto es, obtenem os un valor S' a partir del cálculo del campo local. El cambio en la energía que resulta de este cam bio en una unidad es
VVijiSl J
S,)S, =
- 2 ( 5 ^ W.,) J
s g n iY ^
Wt,)
}
donde hemos considerado el hecho de que, si una unidad presenta un cambio, se tendrá 5 ' = —5,. Este resultado puede representarse en una visión idealizada tal y como se m uestra en la figura 15.14. Aquí hemos dibujado la función energía como una superficie en un espacio tridim ensional, cuando en realidad tendríam os un espacio de alta dimensión. El estado inicial, que correspondería a un patrón conocido pero deteriorado (donde algunos bits estarían cambiado de signo), puede verse como un punto en ei relieve de energía, dentro del valle de atracción del estado de memoria com pleto. La dinámica del sistem a desplaza este valor espontáneamente hacia el fondo del valle, y a m edida que ello ocurre los bits erróneos son reemplazados por los correctos. Una vez alcanzado el fondo, el atractor es estable, dado que H es una función de Lyapunov, y la red recuerda el patrón completo. La minimización locad de la función energía pernrüte de hecho recuperar de forma independiente la elección de la matriz de conectividades que define la regla de Hebb. Lo que deseamos es que la m inimización de H nos lleve a dism inuir el solapamiento entre la configuración adoptada por la
516
Orden y Caos en Sistemas complejos
Figura 15.14; Dinámica cualitativa asociada a la red de Hopfield. Existe una función energía H asociada al conjunto de estados de la red que se comporta, cerca de los estados de memoria, como una función de Lyapunov del sistema. Si el estado inicial es un punto cercano (en eí espacio multidimensional) a uno de los atractores del sistema, entonces cabe esperar que la dinám ica espontánea del mismo lo conduzca al minimo, siempre que estemos dentro de su valle de atracción. A medida que nos acercamos, vamos recuperando la información no presente inicialm ente: el sistema presenta memoria asociativa.
517
VíMirodjnáiru'ca r· '1 y el patrón aimaceníido
Escribamos
V .
!' ira el caso d^’ ui·;'
/
patrones, tenemos
^ -é E Í E « .) f. =l \ .
/
(jue nos da, operando. 1
^
~^
^ /
X] (
V .
\ í
\
/
/
V .
1 ” 2^
/ 1 P ( TV S
.,j V
\ /
{»recisamente la fur.c.on energía definida por la regla de Hebb. Señalemos que ui-s vez cruzado el valor de la capacidad la red genera estados e.'fpúreos, (jiie no son sino a t:r.:'o re s de la dinám ica no definidos por las memorias introducidas, sino por combinaciones dc En térrrúnos del paisaje de energía que hemos dibujado anteriorm ente, el crecimiento en el n-^-'^ero de memorias almacenadas hace que aquel sea más rugoso. P ara valores bajos de a < a^. tericrem os valles (cuyo tam año puede calcularse) grandes y bien definidos, que se harán de tam año cóca vez menor a m edida que crezca p. Para valores por encima de la capacidad, ia rugosidad (y los estados espúreos) crecen con rapidez.
15.6.3
Red de Hopfield estocástica
Consideremos ahora, una generalización del modelo de Hopfield en el que introduciremos términos estocásticos. La dinám ica se definirá de forma parecida al tratam iento dado al modelo de Ising en ei capítulo de sisterr,as críticos. Siguiendo con el procedimiento anterior, ahora definiremos una probabilidad de f r a j i lición por P ( 5 . —> - S . ) =
1 1 -f exp(-5i2/?/j.,)
De form a similar modelo de Ising, el parám etro 0 actúa como una cantidad proporcional al inverso de la "tem p'rratura” de la red o, de forma más general, del nivel de ruido de la misma. Podemos tener primera idea del comportamiento de la red estocástica m ediante una apro.ximación de
\ Se tra ta de un ¿istema de ecuaciones no-Uneal, no directam ente resoluble, pero para ei que podemos plantear is. hipótesis (ansatz) de proporcionahdad; < 5 , > = i cual nos lleva a un nuevo sistema /
Orden y Cao^ en Sistemas complejos
518
que podemos (de forma similar al tratam iento anterior) separar en dos térm inos, uno propor cional a y un térm ino cruzado que, para p << N , será despreciable. Eucontrcimos entonces = tanh(/3/u4^ ) o, dado que la tangente hiperbólica cumple la relación tanh(—z) = - tanhfx·), rn = tanh(/3/n)
(véase la teoría de campo medio para el modelo de Ising. capítulo 7) La últim a relación nos dice que los estados de memoria serán estables para tem peraturas menores que 1. La tem peratura crítica para la red estocástica Te es, en esta aproximación. Te — 1. Tenemos un punto de transición de fase en el que el aumento de tem peratura marca aqm' la pérdida de memoria por la red, que tiene lugar de forma abrupta, ü n estudio más detallado de esta transición requiere el formalismo de la mecánica estadística. En la próxima sección llevamos a cabo un estudio formal de la capacidad de la red estocástica (Amit et al, 1985; Hertz, 1991). El lector no interesado o no familiarizado con este formalismo puede prescindir de esta sección y seguir en 15.9.
15.7
Capacidad de la red esto c á stica
Partirem os en nuestro análisis empleando el parám etro o — p /N que ahora consideraremos del orden de la unidad (seguiremos los pasos indicados ea Hertz, 1991). N será grande, de forma que ignoraremos las diferencias entre p y p - l. Consideremos las variables de solapam iento, definidas por el conjunto m Supongamos que estamos anahzando un patrón concreto, digamos el prim ero, con lo que supon dremos que mi 1 m ientras que los restantes solapam ientos son del orden de ~ 1 /\ÍÑ . En estas condiciones, la suma
será próxima a uno. El método que ÍntroflucÍmos aquí requiere un cálculo autoconsistente de r y de rrii. Partirem os de las ecuaciones de campo medio antes escritas, que introducirem os en la forma / i r tanh m, / si separamos los términos para /i = 1 y para p ^ u tendremos (para í/ / 1 ),
/J El primer término en la tangente hiperbólica es del orden dc la unidad (tal y como hemos supuesto) y el último es grande dado que sumamos sobre p térnúnos. Pero el segundo térm ino es pequeño (del orden de l/\/]V ). Podemos por lo tanto llevar a cabo un desarrollo en Taylor ■m.
Neurodinámica
519
A continuación, asumiremos que lf)s solapam ient''s son (ahora // / 1) variables aleatori.'vs independientes con media cero y varianza o r/p . Empíí'ando el teorema central del limite, el prome dio sobre i es un promedio sobre variables Gaussiana ■^'arianza a r. Tendremos entonces ;ri, t
/
de donde tanh / 1 - /?( 1 - q)
con
g= y
e
tanh^ |.í ^mi-
t - j
dz
Ahora procederemos al cálculo de r. Haciendo el cuadrado de la últim a expresión para tenemos que 1
\■
tanh /í?'! t/
/J
y promediaremos el resultado sobre el conjunto de memorias. Dado que el 2/-esimo patrón no aparece dentro de la tangente hiperbólica, los factores pueden ser promediados de forma separada y únicamente nos quedará el j = i. En consecuencia, el promedio da un factor q y el resultado es independiente de j/: í J Necesitaremos tambie'n una ecuación para rui y, empleando la misma aproximación, partiendo de u — 1, podemos dem ostrar fácilmente que dz Ahora, las ecuaciones obtenida.s para q, r y m \ pueden ser resueltas sim ultáneam ente, lo cual se llevará a cabo en general de forma numérica. El caso de tem peratura cero {Q —► oc ) puede ser resuelto anah'ticam ente. En este línúte tenemos que q l pero C = 3(1 — q) es finita. El caso h'mite perm ite aproxim ar las integrales anteriores mediante el empleo de las identidades siguientes
/ i '· · "
tanh^ I3(a2+b)
''
X y [l —tanh^ 3{az + 6)] dz
y, por otra j)arte, tenemos que, para tem peraturas cercanas a cero podemos aproxim ar la integral a la función error
í
J v27t
tanh[/ 3(a 2 + fe)] dz
te í
-
J v2t
[¡3{az +
¿)Jdz
Orden r Caos en Sistemas complejos
520
Figura 15.15: Diagrama de fases del modelo de Hopfield. Presentamos los parám etros más rele vantes: Ct y la tem peratura T. Para tem peratura cero, recuperam os el resultado de la capacidad crítica a % 0.13 obtenido con anterioridad.
Jb/a 'b/
v 2 ^
\ v 2 a /
Y por lo tan to las tres ecuaciones iniciales se convierten en ^
o ,.
C = P{l-q) = y
/
2
/ V 2ar
------- e x p ( - - —
V Trar 1
( 1 - C )2
Podremos calcular la capacidad de la red resolviendo estas ecuaciones. Si hacemos y — m /\/2 a t\ obtenemos la siguiente ecuación
v /í que nos perm ite calcular el valor crítico a-c para el cual las soluciones no triviales m ^ O desaparecen. Obtenemos numéricamente un valor Oc ~ 0.138. El salto experim entado por rn en este punto crítico es enorme: pasamos de m w 0.97 a m = O (tenem os de hecho una transición de fa^se de primer orden). Estas ecuaciones perm iten, finalmente, obtener el espacio de parám etros del modelo de Hopfield, que mostramos en la figura 15.15. Observamos distintas regiones, de las cuades sólo la región sombreada correspxDnde a la de estados de memoria, en los que la red funciona correctam ente y los estados de entrada corresponden a mínimos de la función energía. Las zonas restantes corresponden a uua red desordenada (un vidrio de espín).
521
SeuTodinámica
Capa Oculta Neuronas de entrada
Neuronas de Salida
Conexiones
Conexiones
Figura 15-16: Estructura de una red m ulticapa.
15,8
R etro p ro p a g a ció n (back propagation)
Los m odelos del tipo de la red de Hopfield se basan en la idea de aprendizaje no-supervisado: la red, form ada por un sistema altam ente interconectado, posee una forma particular de readaptar las conexiones en función de las entradas. Otros tipos de redes, típicam ente formadas por varias capas, llevan a cabo lo que se denomina aprendizaje supervisado, en el que, dada una entrada a la red (que tiene lugar sobre una capa dada) el sistem a procesa la información para dar una salida que comparamos con lo esperado. El aprendizaje está supervisado en la medida en que las modificaciones de la red se llevan a cabo en función de nuestra comparación. El back propagation es un me'todo de aprendizaje supervisado de redes neuronales que se aplica a sistem as con varios niveles de neuronas ocultas entre los niveles de entrada y de salida. Supongamos que un sistem a capaz de aprender está formado por N niveles. El primero está constituido por neuronas de entrada que reciben una serie de estímulos { Ij} · Las señales de salida {Oj} se leen en las neuronas del último nivel. Entre estas dos capas hay (A" —2) niveles de unidades ocultas. Sólo están conectadas entre si las neuronas que corresponden a niveles vecinos. El número total de unidades en una capa puede variar de uno a otro nivel. Cuando la neurona i en el nivel n recibe la señal produce a su vez una señal de salida (fl)
y]
=
1 -f exp (-x j"^ )
(15.8.1)
La señal de entrada recibida por la unidad j en el nivel siguiente, (n + 1 ) se forma como una suma ponderada de las señales de salida en el nivel anterior, n (15.8.2)
522
Orden y Caos en Sistemas complejos
Los pt'^os puedtíu tomar valores tanto positivos como negativos. Lo> estímulos dc entrada para las neuronas del prim er nivel están dados por el conjunto de valores presentados para analizar, es decir = I j . La salida dc la última, capa es el resultado de procesar csta.s entradas, = Oj. Si lo-s pesos de las conexiones, Jj¡, se <'stablecen de forma aleatoria, la respuesta del sistema será t.imbién aleatoria. El propósito del m'’todo de aprendizaje por “back propagation” es ajustar los pesos de forma que se produzcan las salidas deseadas. Formulemos el problem a de la forma siguiente. Supongamos que deseamos que un sistema clasifique todos los posibles conjuntos de estímulos de entrada en diversas categorías de acuerdo con un cierto criterio. Formamos entonces un conjunto suficientemente amplio de estímulos de entreno. correspondientes a diferentes categorías, e indicamos paca cada uno de ellos la categoría de salida esperada, {Dj^rn}· Durante el proceso de aprendizaje, el sistem a deberá de ajustar los pesos de forma que, finalmente, cada vez que se presente cierto estím ulo se obtenga la salida deseada. Una vez finalizado el entrenamiento, si se presenta un estím ulo que no estuviese incluido en el conjunto esperamos que el sistem a sea capaz de clasificarlo en la categoría correspondiente. Esto sucederá si eí conjunto de estímulos de entrenam iento era suficientemente amplio y representativo. Definamos la función error como ( ‘5.8.3) ni=:l i donde Oj^m = son las salidas reales de los elementos del último nivel cuando el conjunto de valores de entrenam iento m—ésimo, {Ij,m} se ha presentado a las unidades de la primera capa. Evidentem ente, esta función tendrá un mínimo cuando, para todos los M conjuntos de entrenanúento, las salidas reales coincidan con las salidas deseadas, Nuestro propósito ahora es encontrar los valores de los pesos que m inimizan 15.8.3. 'El aprendizaje es, pues, un problema complejo de optimización. A fin de m inimizar E utilizando el método del steepest descent (descenso en gradiente, figura 15.17) debemos calcular las derivadas parciales de E respecto del peso de cada una de las conexio nes. Cada una de las derivadas involucradas está dada por una suma de cantidades relacionadas con cada uno de los conjuntos de entrenamiento. Para un conjunto de entradas dado, estas derivadas pueden ser calculadas exph'citamente mediante la técnica del "‘back propagation” (Rum elhart et a/., 1986: Le Cun, 1985). Obsérvese, para empezar, que se verifica
Sc ha supuesto que uno de los conjuntos de entrenarrúento se ha aphcado al nivel de entrada, así y son Icis señales correspondientes a la entrada y a la salida de este ejemplo particular, , (n) (n) es decir, y) ~ Vj^mUtilizando 15.8.1 y 15.8.2, obtenemos de 15.8.4 una fórm ula recurrente, que
dy\
J dy\
Esta expresión nos perm ite calcular las derivadas d E jd y para un cierto nivel si se conocen las derivadas para el nivel siguiente. Para el último nivel se puede hallar fácilm ente la expresión de las derivadas, de 15.8-3,
Neurodinánúca
523
En-jreij
Figura L5.17: Descenso en gradiente: representamos una superficie de energía bidimensional (para una red neural se tra ta en realidad de un sistem a multidim ensional). Partiendo de un punto dado, el m étodo expuesto en el texto nos permite escoger la dirección de dism inución de la función error en la dirección del gradiente (la de variación más rápida).
dE
=
dyi
-
A
Así que empezando por el nivel inferior y moviéndonos en sentido contrario es posible cailcular. utilizando 15.8.5, todas las derivadas parciales requeridas para cada una de las capas. Además podemos utilizar la identidad dE
Q jín-i)
{") dx («) dE dy^ S!/]” ’ a jj” - n
(15.8.6)
que puede ser escrita como 15.8.7 dy)
j’ aplicando 15.8.1 y 15.8.2. Una vez que se han calculado todas las derivadas, esta últim a espresión pernúte hallar la variación de los pesos, d E jd J , para cada conexión y para cada uno de los distintos conjuntos de entrenam iento. E stas derivadas permiten corregir los pesos tras la presentación de cada grupo de entradas. Podríam os también optar por la actualización de los pesos tras la presentación de todos los patrones de entrada: en este caso, sólo después de haberlos m ostrado todos se reahza la actualización de los pesos, y la corrección introducida se corresponde con la suma de todas las correcciones individuales. En cualquiera de los dos casos, el procedirrúento incluye presentación de los conjuntos de entrenam iento, cálculo de las derivadas de la función error E respecto de los pesos de las conexiones y una pequeña modificación de cada peso, mediante una corrección dE (n) dJY,
15.8.8)
524
Orden y Caos en Sistemas complejos
tras lo cucJ el ciclo vomploto de eiitrenainiento se repite. El aprendizaje d<;be continuar hasta que se obtiene un valor aceptablem ente pequerio del error 15.8.3. Si el proceso no permite alcanzar el error deseado, se puede repetir increm entando esta vez el número de unidades ocultas. En lugar de 15.8.8 es preferible usar el algoritmo de corrección =
1)
(i5-«.9)
donde el tiem po discreto t aum enta en una unidad tras cada ciclo de aprendizaje, y el coeficiente K, con valor entre O y 1, especifica la ‘‘inercia” del sistem a queaprende. Las capacidades de aprendizaje son mayores si las unidades del sistem a presentan unas desvia ciones perm anentes, de forma que 15-8.2 sea reemplazada por =
+ 6<"» }
El valor de las desviaciones también puede ser ajustado durante el proceso de aprendizaje. La introducción de estos valores no implica ningún cambio esencial en ios argum entos anteriores. Se pueden interpretar como la aparición de una conexión perm anente — 1 con peso 6^"^ En consecuencia, se la.s puede con.siderar en igualdad respecto de los pesos 15.8.7 se encuentra
De form a sinúlar a
y*"Vi - yí"·) Conocidas las derivadas, la corrección se puede introducir, por ejemplo, m ediante
Una tarea que no se podría reaUzar sin unidades ocultas (es decir, conectando un nivel de entrada a uno de salida, sin más) es la determinación de series unidimensionales de datos sim étricas respecto de su punto central, capicúas. En cambio, una solución a este problema se puede obtener con tan sólo dos unidades ocultas, y el método del "back propagation” es eu este caso óptim o para determ inar los valores de las conexiones. La técnica del ‘'back propagation'’ emplea un algoritmo de optimización determ inista para en contrar los pesos requeridos. Existe en consecuencia el riesgo de que, moviéndonos estrictam ente en la dirección del gradiente de la función error E, se alcance uno de los mínimos locales de esta función, y el proceso de aprendizaje se detenga a pesar de no haber llegado a ninguna solución genuina. Si esto sucede, se puede intertar añadir nuevos niveles de unidades ocultas. Esto in crem enta la dimensionahdad del espacio de los pesos. Podemos esperar que aparezca algún valle nuevo que destruya las barreras que separan los rm'nimos locales indeseados del espacio de menor dimensionahdad. Sin embargo, no existe ninguna prueba de la convergencia del algoritm o, y se duda incluso de si ésta existe. En cualquier caso, el éxito de este tipo de red ha sido enorm e, y se ha empleado en numerosas aphcaciones, que van desde el reconocimiento de voz hasta el anáhsis de imágenes^ predicción de series temporales, etc. (Hertz ei ai, 1991).
15.9
La m áquina de B oltzm an n
La máquina de Boltzmann fue propuesta por Hinton y Sejnowski (1983), y es el sistem a más universal con aprendizaje analógico. En general, el proceso del aprendizaje se puede contem plar
NeurodinámicH
525
como la construcción, por parte cic una máquina analógica, de algún tipo de representación interna, de modelo interno, que sea capa/ do reproducir regularidades en las relaciones entre distintos esquemas en el ‘‘mundo exterior” . Supongamos que el “mundo exterior” contiene dos clases de elementos, los de la clase A y los de la clas<' B. Los elementos pertenecientes a la prim era clase estarán especificados por un subíndice a = l, 2 , . . , , A', y los de la segunda |)or 3 — 1 ,2 ,..., M . Supongamos que la relación entre los elementos de cada una de estas clases es de naturah>za estadística, es decir, está deternúnada por las probabilidades conjuntas p(a,/5) d e observación de varios elementos ¡3 y a. Podemos también definir probabilidades coiidicioncudas,
P (q )
que nos dice cuaJ es la probabilidad dt> observar el elemento (3 si otro elemento a está presente en el medio (y p(tt) es la probabilidad de observar a a ). Supóngase además que un elemento q corresponde a una cierta entrada de la m áquina analógica, en tanto que los elementos ¡3 corresponden a las respuestas posibles. Diremos entonces que esta m áquina tiene un modelo interno válido si las relaciones estadísticas entre sus entradas y sus respuestas son las mismas que entre los elementos correspondientes del m undo exterior. El apren dizaje puede ser interpretado como el proceso de construcción gradual de un modelo interno. La m áquina de Boltzm ann representa una red de unidades biestables, cada una de ellas con dos estados especificados por una variable binaria, 5,, que tom a valores O y 1. Las unidades no se agrupan ea niveles, sino que cada una de ellas está sim étricam ente conectada a las demás. Para cada patrón de actividad {sj} de esta red, la energía B se define como
donde los pesos de las conexiones son J¿j, con Ja O, y í>,- son las desviaciones. Todas las unidades en una m áquina de Boltzmann se dividen en visibles (unidades de entrada y de salida) y ocultas. Los estímulos externos se aplican a las unidades de entrada,y las respuestas correspondientes se obtienen en las unidades de salida. La aplicación de un estím ulo particular fija el valor de las unidades de entrada,pero deja libres todas las demás. Las unidades Ubres experimentan transiciones de acuerdo con el algoritm o que a continuación especificaremos. Al igual que en la sección anterior, donde hemos tratado con el algoritm o de “back propagation” , las desviaciones b¡ perm anentes pueden ser interpretadas como conexiones entre la unidad i y una unidad de entrada adicional que estuviese continuam ente en el estado activo. El peso de dicha conexión sería b,. En consecuencia, desde el punto de vista físico es suficiente con considerar una red sin desviaciones, es decir, con energía E — Cuando la unidad i cam bia del estado inactivo al activo, la energía aum enta en una cantidad AfJ, =
·/>; Sj j
El algoritm o probabilístico de transición es tal que, para estados dados de todas las demás unidades, la unidad i pasa al estado activo (s¿ — 1) en el siguiente paso de tiempo con una probabilidad p, = [1 * exp (A T ./^)] -!
526
Orden y Caos en Sistemas complejos
donde $ juega el papel de la tem peratura. Mediante métodos generales de la física estadística, se puede ver que este tipo de transiciones probabüistas lleva finalmente al sistem a a uu estado de equilibrio tcrmico, donde la probabilidad de observar una configuración particular {5,} de la red está tlada por la distribución de Boltzmann, P ({ s,} )= Z - ' exp[-E({»,l)/«l
donde Z es el (actor de normalización. Como se ha mencionado, una máquina de Boltzmann ha aprendido cuando ha conseguido un modelo interno correcto, que reproduce las relaciones pro hábil ís ticas entre los elementos de la clase A y B en el mundo exterior. Esto implica que algunos elementos de ambas clases deben ser previamente codificados en una serie de conjuntos binarios de actividcid, 1^“ ^ — · · .,/n^^), y de unidades de em rada y de saüda. Cada modelo interno representa un conjunto particular de pesos J¡j en la máquina de BoltZ' maon. Cuando todos estos pesos están fijados y las unidades de entrada se han especificado de acuerdo con una cierta configuración la red generará con cierta probabilidad diferentes confi guraciones en las unidades de salida. iMediante la observación del com portam iento del sistem a se puede calcular la probabilidad condicionada -k{3\
=
In
z '(
0\ a )
a,p que juega el papel análogo al error en el algoritmo de '‘back propagation” . Debemos calcular la derivada logarítm ica de tt' respecto de para las configuraciones de actividad I y O de las unidades de entrada y de salida, respectivamente. Llamemos S = {á,·} a una configuración de actividad determ inada de las unidades ocultas. Entonces, cuando se fija una cierta entrada I, la probabilidad de hallar los subsistem as de unidades ocultas y unidades de salida en los estados S y O, respectivamente, está dada por la expresión P l ( S , 0 ) = Zj ' exp [ - S i ( S , O ) / 0 ]
(15.9.1)
donde Z j se define como Z l=
^
«p
[-£i(S .O )/«l
s,o Dado que la probabilidad condicionada Tr'(O.I) se relaciona con P j(S , O) m ediante t'(O !i) = 5 ^ P i ( s , 0 )
s tenemos 7r'(OjI) =
exp [-£ ^ i(S ,0 )/^ ] S
Introduciendo la cantidad
(15.9.2)
Neurodinámica
527
^1,0 = E s
l-£i(s,o)/e)
que se calcula m anteniendo fijos los estados de las unidades de entrada y de las unidaxies de salida, ambas sim ultáneam ente, podemos reescribir 15.9.2 como rr'(OlI) =
Zr o
En consecuencia, (15.9.3) Si consideramos las definiciones dadas para Z j q y Z j, así como la dependencia de la energía E en las conexiones, deducimos de la expresión anterior que ^
In t ' ( 0 | I ) = ^ (< s.sj >1,0 “ <
>I
donde < SiSj > j y < s,Sj > j q son los valores medios temporales determinados bajo la condición de que los estados de las unidades de entrada se m antengan fijos o tanto los estados de entrada como los de salida lo estén, respectivamente. Sustituyendo 15.9.3 en 15.9.1 obtenemos dG 1 Qj — 0 ^ ^ '■>
>a,í3)
(15.9.4)
a , (3
Cuando se conocen las derivadas d G /d J ij, éstas pueden ser utilizadas para m odificar los pesos Jo a fin de dism inuir el valor de G. Un posible criterio para realizar lo especificado es A J, = - . g
(15.9.5)
En un caso particular especialmente interesante, cuando cada elemento de entrada a está unívo camente asociado a cada elemento de salida 0 , a = y los elementos o son equiprobables, la ecuación 15,9.4 tom a la forma BG
~
1
>Q - < s.sj >a./3(oi) (15.9.6) a donde K es el número total de elementos de entrada en la clase A. Demos prim eram ente la descripción del ciclo de aprendizaje en este caso sencillo. C onsta de los pasos siguientes: 1. Las unidades de entrada son fijadas en los estados que corresponden a un elem ento de entrada a , en tanto que las unidades de salida se fijan en los estados ¡3(a) impuestos por el de entrada. La red se lleva al equilibrio térm ico y, promediando durante intervalos de tiem po largos, se calculan las correlaciones < s¿sj >a,i3 {a) para todas las parejas (L j). Este paso se repite para todos los elementos o en el conjunto de entrenam iento. 2. Se fijan las unidades de entrada de nuevo en la configuración especificada por el elem ento o, pero las unidades de salida se dejan libres. Se lleva de nuevo la red al equilibrio térm ico y se calculan las correlaciones < s,sj >c para todas las parejas. Este paso se repite para todos los elementos q.
528
Orden y Caos en Sistemas complejos
3. Las correlaciones < s ,s j >a,/3(a) Y < >a calculadas se usan para determ inar la derivada 15.9.6 y para modificar los pesos de acuerdo con 15.9.5. Los ciclos anteriores deben repetirse hasta que se obtiene una frecuencia aceptable de asocianones correctas. Si no acaba obteniéndose una buena convergencia, se repite el proredimiento entero con un número mayor de unidades ocultas. A pesar de su aparente simplicidad, este algoritm o dc aprendizaje tiene un punto sutil. Si deseamos construir una m áquina de Boltzmann capaz de a-sociación deteraúnista, se requiere una tem peratura 9 baja. De no ser así, las fluctuaciones estadísticas serán grandes y no se conseguirá una asociación clara. Cuando la tem peratura es baja, la red se encontrará mayorm ente en las con figuraciones de actividad de energía menor, una vez que se haya alcanzado el equilibrio térmico. Pero además de un mínimo central más profundo, la red debe poseer otros mínimos locales sepa rados del principal por barreras suficientemente grandes. En el proceso de relajación, el sistema puede alcanzar algún rm'aimo local y permanecer allí hasta que una fluctuación suficientemente grande le pernúta sobrepasar la barrera. El tiem po de espera diverge exponencialm ente con la disminución de la tem peratura. Así que si empezamos con un valor de $ excesivamente bajo, nece sitarem os un tiempo inaceptablem ente largo para llevar a la red al equihbrio térnúco supuesto en la expresión 15.9.6. E sta dificultad puede ser eliminada mediante la aphcación del proccdinúento del simulated anne.aling. En cada paso A o debemos empezar con una tem peratura suficientemente grande, y rebajarla de forma gradual de forma que la red perm anezca en el equilibrio térm ico. El valor de 9 en la ecuación 15.9.6 es aquel en el cual este procedirrúento acaba. Se puede utihzar un proceso similar para aprender las asociaciones probabilísticas. Como se ha dicho, en este caso el elemento de entrada a puede estar asociado a diferentes respuestas /?, con frecuencias relativas determ inadas por la probabilidad condicionada %(a\3) inicial. En el paso I. fijamos las unidades de entrada y de salida m ediante elementos arbitrariam ente escogidos, a y ¡3, y tras el simulated annealing, se determinan las correlaciones < SiSj >a ,3 en el equilibrio térmico para un conjunto dado de pesos Jij. El paso 2. no cambia. En el paso 3., se debe usar 15.9.4 en lugar de 15.9.6 para calcular las derivadas dG /dJij. Se puede modificar el proceso de aprendizaje de forma que todos los pesos cambien en una cantidad
a,/3 cada paso 1., y en una cantidad
€t cada paso 2 . Por tanto, los pesos aum entan tras la aplicación de 1. y disminuyen tras 2. Podemos decir que en el primero se da un aprendizaje positivo, durante el cual la información del medio se almacena en los pesos de las conexiones. La segunda fase representa un “desaprendizaje” , durante el cual el sistem a colecta estados aleatoriam ente de acuerdo con la distribución de Boltzmann. La mayor desventaja de la máquina de Boltzmann consiste en el tiempo tan laxgo requerido para el aprendizaje, debido al proceso de “anneahng” y a las largas series necesarias para muchas parejas de elementos, a fin de producir una buena estadística.
Neurodinàmica
15,10
529
R ed es con interm ediarios
La cíiracterística que distingue a los modelos de redes neuronales es su alta conectividad. Por ejem plo, en el modelo de Hopfield de memorias asociativas, cada uno de los elementos está conectado a todos los demíLs. Dado que el numero total de conexiones requeridas crece como el cuadrado del numero de elementos, aparece uua seria dificultad cuando se intenta im plem entar estas redes a escala microscópica, digamos en dispositivos electrónicos moleculares. Desde el punto de vista tecnológico, es preferible utilizar redes a tener únicam ente conexiones locales regulares. En esta sección mostraremos que muchos modelos de redes neuronales pueden ser reformulados en términos locales, con interacciones entre unidades transm itidas por intermediarios. Consideremos para empezar un modelo de Hopfield probabilista con N espines S, ■ Supongamos que, en una unidad de tiempo, cualquier espín puede realizar un salto S¿ —► S,' con una probabilidad W { Si S·} que está determ inada por las configuraciones de los espines en ese m omento. Es decir, asumimos W (S,
S¡) = w exp
- S¡)/e]
donde, como antes, tenemos hi —
JijS j
i Cuando la tem peratura B tiende a cero, sólo están perm itidas las transiciones que dism inuyen la energía total. El ritm o global de transiciones de los espines está especificado por un parám etro Si utilizam os la regla hebbiana de aprendizaje, tendremos M
El modelo local cori-espondiente con interm ediarios se construye de la forma siguiente. Supon gamos que los espines (en realidad unidades con dos estados) están inmersos en el medio, donde ciertas partículas llamadas intermediarios se hallan en difusión. Hay diversos tipos de interm edia rios, y cada uno de ellos corresponde a una m em oria {(^f } particular. Por simplicidad, supondremos que la difusión de los interm ediarios es suficientemente rápida como para asegurar una mezcla ideal [mixing), de forma que finalmente no se considerará ninguna distribución espacial de sucesos. Cualquier espín, localizado en la celda R , genera intermediarios del tipo fx cuando 5, = í f , es decir, cuando su vector estado coincide con el sentido de este espín para la m em oria almace nada /2—ésima. P ara una configuración fijada de espines {5i}, el ritmo de generación local de interm ediarios ß en el punto r es ^ T ,( ^ tS i + l)S (r -R i)
(15.10.1)
1
donde V es el volumen del medio. Todos los interm ediarios están sujetos a una desintegración a ritm o constante y (lo cual previene su acumulación en el medio). Los intermedieirios de cada tipo p. actúan sobre los espines, forzándolos a presentar el estado definido por la mem oria ^ -é sim a correspondiente. Los ritmos locales de transición entre estados de los espines están dados por *i(S . - 5 ' ) =
exp
- l)(s; - S , )
(13.10.2)
Orden y Caos en Sistemas complejos
530
donde es la densidad local de intermediarios /i. Comparando la últim a expresión con la proba bilidad W de transición entre estados, observamos que los espines presentan transiciones térmicas en un cam po efectivo
que se deteniúna a partir de las densidades de los interm ediarios en cada instante. Las ecuaciones cinéticas para la densidad de intermediarios son simplemente (15.10.3) donde D es la constante de difusión del intermediario. Si la difusión es suficientemente rápida, de forma que se garantice una mezcla ideal, se man tendrá la distribución uniforme de intermediarios. Si además las vidas medias de éstos son mucho más cortas que el intervalo entre dos trajisiciones sucesivas de los espines, (es decir, 7 > > ly), en tonces las densidades uniformes de los intermediarios se ajustan adiabáticam ente a la configuración de los espines, de forma que
que sustituida en la expresión 15.10.2 proporciona ^i{Si —^S¡) = w exp
ON
Esta expresión coincide con el ritm o de transición de los espines en el modelo de Hopfield pro babilístico con la regla de aprendizaje hebbiana. Así pues, en el límite 7 > > u; el modelo con interm ediarios se reduce al modelo de Hopfield estándar. Es interesante considerar el h'mite opuesto, 7 << w, en donde las transiciones de los es pines entre estados son extremadamente rápidas. En este caso, son los espines ios que se ajustan adiabáticam ente a la población de intermediarios, la cual determ ina el campo efectivo. La dis tribución de probabilidad de Boltzmann para un espín S,· en un campo dado /i, a tem peratura 9 es
exp(h,S¿/0) exp(—h i/ 0 ) + e xp (h i/ 0 ) Dado que los tiempos característicos de los intermediarios son muy largos, éstos únicam ente reac cionarán a los valores promedio de las variables de espín, las cuales coinciden con los promedios estadísticos < 5, > estimados a partir de la distribución de Boltzm ann, es decir < S, > -
X
5,· p(S,) = tanh (hi/9)
s,=±i
Sustituyendo el valor medio en 15.10.3 y considerando la expresión dada para el campo efectivo, se obtiene la siguiente ecuación cinética para las concentraciones de intermediarios,
Hrt -
tanh
-h 1 ^ ¿ (r - R .) +
(15.10.4)
.Veurod in ámí ca
531
Hemos derivado por tanto un sistema de ecuaciones de reacción-
+T
S{r - R i)
V
+
D
Am,,
(15.10.5)
supongam os ahora que la difusión es muy rápida y que los interm ediarios están uniformemente distribuidos en el medio. Entonces. 15.10.5 proporciona
A bajas tem peraturas, este conjunto de ecuaciones diferenciales tiene muchos puntos fijos estables. En el líniite B d, tenemos tanh (x/B) te sp n (í), y la ecuación anterior se convierte en xi^ sgn
E í . “'
rn.
(15.10.6)
A continuación consideramos el caso en el que todas las memorias almacenadas son ortogonales. En este caso, existen soluciones estacionarias sencillas para 15.10.6: = <$^a, con a = 1 , 2 , ----- M. Estas soluciones son estables frente a pequeñas perturbaciones. Efectivam ente, para encontram os de 15.10.6
K
=
= -T m ; i
Estos puntos fijos estables tienen una interpretación sencilla. En el equihbrio se cumple la igualdad m.
= ^ E íí'< ^ .>
y por tan to representa solapamientos entre la configuración {5,} y las diferentes memorias alm acenadas, Cuando uno de los solapamientos iguala la unidad, la configuración de los espines coincide con ia memoria alm acenada correspondiente. Por tanto, el punto fijo rn^^ — corresponde a la configuración de la a —ésima memoria. Dependiendo de las condiciones iniciales la evolución del sistema conduce a uno u otro punto fijo. Por tanto, en el límite 7 < < u; el sisfema con interm ediarios tiene las mismas propiedades dinámicas que el modelo de Hopfield. De hecho, puede ser considerado como el parámetro de orden ^ del modelo de Hopfield. El anáhsis anterior m uestra que en ambos casos límite, y << w y y >> w, el modelo local con interm ediarios es efectivamente equivalente al modelo de Hopfield de memorias asociativas si la difusión es suficientemente rápida como para mantener una mezcla ideal en el volumen V del sistem a, es decir, si D /y » Un examen más sofisticado conduce a la equivalencia en las propiedades dinámicas asintóticas para cualquier relación entre ~ y iv. Es m ás, el modelo local con interm ediarios se puede generahzar para otras reglas de aprendizaje que perm itan escribir la m atriz en la forma 2V é a s e
«1 c a p ítu lo sobre fenómenos críticos.
532
Orden y Caos en Sistemas complejos
donde y í '~j} son parejas d^· memorias. Entonces, debe de ser reem plazado por en 15.10.1 y por en 15.10.2. Para resumir la discusión de esta sección, diremos que el análisis previo revela una relación íntim a entre la^^ redes neuroncJes y los medios activos descritos por ecuaciones de reacción-difusión multicomponenres.
15.11
Ti-ansiciones de fase en el cerebro
Para term inar, volvamos a la dinámica de gran escala del cerebro y a las conjeturas realizadas con anterioridad acerca de la complejidad y los puntos críticos. La dinámica de gran escala del cerebro es, como hemos visto, un fenómeno sorprendente. Su caracterización m ediante medidas basadas en la teoría de sistemas no-hneales nos ha demostrado que la presencia de caos determ inista es muy plausible \ que. en consecuencia, una descripción teórica basada en un modelo dinámico con pocos grados d<‘ libertad (o parámetros de orden) es factible. En la discusión acerca de las medidas de caos y dimensionalidad aplicadas a los EEG, ya introdujim os el problema de la no*estacionariedad de la actividad cerebral. Sería deseable que, para explorar las transiciones asociadas a los cambios entre (posibles) atractores, recurriéramos a situaciones experimentales adecuadamente controladas. Algunos resultados experim entales han arrojado una considerable luz acerca de la naturaleza de las transiciones entre distintos estados de actividad cerebral. Los trabajos dei grupo de J. Scott Kelso y su grupo del Centro de Sistemas Complejos en ia Universidad de Florida, en colaboración con Hermann Haken, del Instituto Max Planck en S tuttgart, han perm itido ver cómo dichas transiciones pueden ser interpretadas consis tentem ente como transiciones de fase de no-equilibrio (Kelso et al., 1992; Fuchs et al., 1992; Kelso, 1995). El experimento básico consiste en exponer al sujeto experimental a un estím ulo acústico de tipo periódico y la tarea a reahzar es apretar un botón entre dos tonos consecutivos. Se tra ta por lo tanto de llevar a cabo un patrón de coordinación sincopado. La frecuencia del estím ulo al principio del experimento es de 1 Hz, incrementándose 0.25 Hz cada 10 repeticiones del estímulo. A una cierta frecuencia dada, alrededor de 2 Hz, el sujeto es incapaz de m antener la respuesta sincopada, pasando espontáneamente a pulsar el botón en fase con el estímulo, esto es: a un comportam iento sincronizado. Durante este experimento, el campo magnético fue registrado m ediante un dispositivo SQUID de 37 canales dispuesto eu forma circular (véase la figura 15.18). Las [)ropiedades dinámicas del sistema antes y después de la trajisición han sido exploradas en detaüe por estos autores, así como las del punto en el que la transición tiene lugar. Kelso y sus colaboradores han anahzado este experimento llevando a cabo distintos tipos de medidas que pernúten comprobar la aparición de un súbito cambio en el com portam iento de la actividad cerebral. En la figura 15.19 mostramos un ejemplo de estas medidas, así como el resultado de su promedio sobre todos los canales. Se ha representado la diferencia de fase entre las señales de respuesta y las medidas obtenidas sobre la actividad cerebral (con el SQUID) relativas al estímulo de entrada. En todos los canales se percibe un cambio en cierto instante dado que es muy claro en el promedio. Los datos experimentales anteriores, cuyo análisis ha revelado claros indicios de que la transición anterior es una verdadera transición de fase de no-equilibrio, pernúten plantear un modelo teórico basado en un sistema no-hneal simple. El desarrollo de dicho modelo, llevado a cabo en otro contexto por Haken, Kelso y Bunz (Haken ei al., 1985) se basa en el planteanúento del principio
533
Neu rodinámi ca.
Figura 15.IS; Modelo de la cabeza del sujeto experim ental y localización de la red de sensores. Los detectores se basan en nn dispositivo denominado SQUID. El sistem a incluye 37 canales, y detecta los campos m agnéticos generados en el interior de la corteza cerebral. A diferencia de las medidas clásicas basadas en EEG, estos campos magnéticos pueden medirse sin ver afectado su valor por las distorsiones introducidas por el cráneo. En este tipo de medidas, el cráneo es transparente al campo m agnético generado por las corrientes cerebrales. Podemos añadir que en este caso no es preciso recurrir a un punto de referencia dado (como ocurre en el caso de los EEG) para obtener una m edida del cam po local.
90. . .-s^~ .."i’j 1
/f
.
'. .
...1
37 ..
...
..
i ...... ^
•y»',.'',-. .
...--k: s
..... .
»*
..m
A
... ■
^
1 ....li^·· .-- --| · -1 . -,. . ;. ■. K ··^ ·............
'>·
..... .
*
Figura 15.19; Diferencias de fase entre las señales del cerebro (registradas por el SQUID) y la respuesta m anual relativ’as al estímulo (Fuchs ei ah, 1992).
534
O rde n
y Caos en
S iste m a s
complejos
de control, discutido en el capítulo 2. Recordemos que, en un sistema alejado del equilibrio, la descripción dinámica viene dada, ea principio, por un conjunto de ecuaciones no-lineales
dt
í(1) - f l ((ll, - 1
E n las proximidades dc puntos de bifurcación, sólo algunas
^
= N „(q ) + F ( i )
donde q = (íi, y los términos N^(q) y F(í) indican la interacción entre variables y el ruido asociado a las fluctuaciones internas, respectivamente. Variando el parámetro /i, un estado estable qo puede sejar de serlo y ser reemplazado por un estado inestable que p odemos representar en la forma general
q = qo + ve·^' siendo v independiente del tiempo y determinado, c o m o sabemos, por la ecuación lineal asociada L^v = Av donde, en un caso general, v = v(r), (dependerá de las coordenadas espaciales), y de hecho tendremos cierta variedad de vectores propios {v} posibles. El paso siguiente ahora consiste en considerar el estado (o solución) del sistema dinámico ^(r, í) c o m o una superposición
q { r ,t) ^ f/o(r) + u en la que hemos separado los vectores inestables Vu(f), para los que A > O, de los estables, v,(í) para los cuales A < 0. Las amplitudes ^„(0 en ia primera s u m a de la derecha son los parámetros de orden. Las amplitudes estables definen los mod os estables. Típicamente, lejos del equilibrio el número de parámetros suele ser grande mientras que el número de parámetros de orden ^«(0 será m u y pequeño, quedando en ocasiones reducido a uno solo, tal y c o m o predice el principio de control de Haken. E n estas condiciones el comportamiento del sistema (en principio de alta dimensión) puede ser reducido a las ecuaciones para los parámetros de orden, i. e.
f
= A-(Í.) + Í-
que describirán el sistema a una escala macroscópica (en lugar de la rrúcroscópica, definida por las ecuaciones de partida) ^N o te m o s q u e este análisis tie n e p ro fu n d a s sim ilitudes con el an álisis de la e s ta b ilid a d de ias e stru c tix ra s d isip a tiv a s en siste m a s de reacción-difusión, a n a liz a d a s en el capitulo LO.
Neurodinámica
535
Los parámetros de orden pueden competir o cooperar. Cuand o compiten, sólo uno de ellos so brevive. Así ocurre por ejemplo en el experimento de convección de Béuaid (discutido en el capítulo 5, apéndice) cuando se forma un rollo convoctivo. C a d a rollo en el fluido posee u n movimiento propio dominado por un parámetro de orden específico. El resultado final, en el que el sistema ha Mecidido” por rotura de simetría la configuración final de rollos convectivos, es el resultado de la competencia entrt' parámetros de orden. Las Huctuaciones tienen, por lo tanto, un papel básico en la decisión final acerca de qué parámetros d«· orden subsisten. El proceso de rotura de simetría puede representarse, c o m o sabemos, mediante un potencial V^(0 bajo ciertas condiciones, experimentará un cambio cualitativo cuando el parámetro de orden cruce un punto de bifurcación Tendremos una ecuación dinámica (de tipo gradiente) para ^ dada por
Ila cual define un decaimiento de hacia el equihbrio cuando /i < fi^· Para valores cercanos al punto crítico, las fluctuaciones asociadas al sistema se amplificarán hasta hacerse divergentes en (j-c - Este fenómeno, conocido c o m o relajación critica [criticai slowing down) caracteriza la aparición de cierto tipo de transiciones, y aparece en particular en los experimentos de Kelso. M á s allá de
el
parámetro de orden puede tomar distintos valores por medio de procesos de rotura de simetría, que pueden hacerse más complejos a medida que atravesamos distintos puntos de bifurcación (Haken, 1983). Kelso y sus colaboradores han empleado el conjunto de medidas obtenidas mediante el S Q U I D para estudiar detalladamente el comportamiento temporal de la dinámica de los m o d o s espaciales de la actividad cerebral. La señal espaciotemporal, que indicaremos por H(r, t) se descompone en funciones ^¿(r) de tal forma que podemos escribir
i= l siendo ^i(t) las amplitudes asociadas (en cada instante) a las funciones Para una elección adecuada de { $ , ( r ) } , la serie anterior puede truncarse a TV = 5, dando u n a m u y buena aproxi mación a los datos experimentales. Existen distintos procedimientos para elegir estas funciones espaciales, entre los que destaca el desarrollo estándar en serie de Fourier. Kelso emplea en su estudio la denominada descomposición de Karhunen-Loéve (KL) que minimiza el error definido por la expresión integral
E k = j ^ d t j |H (r,í) -
*
para cada K (que define el orden del truncamiento). A lo largo del tiempo, las amplitudes asociadas a caAa m o d o se van modificando con la dinámica. Las dos primeras, (^i(r), $ 2(1“)} dan cuenta del 75 por cien de la señal obtenida y el primero de los m o d o s representa de hecho el 60 por cien de dicha señal. T o m a n d o esta amplitud íi(í) como parámetro de orden, podemos caracterizar m u y bien la transición. U n estudio del comportamiento de esta amplitud revela que presenta una caída dramática en el punto crítico, tal y como es peraríamos en una verdadera transición de fase, y experimenta relajación crítica cerca de ese punto. Pero el anáhsis de la dinámica de esta amplitud aún ha resultado m á s sorprendente. Antes y después de la transición íi(í) presenta un comportamiento dinámico claramente distinto, com o ve m o s en la figura 15-20 (a), en la que representamos las series temporales medidas (Kelso, 1995). Si
536
Orden y Caos en Sistemas complejos
Antes de la transición
g model
Después de la transición
^ model
time
Atractores reconstruidos
1-------- ■ 1........r ’
.........
. . . .
1
. . .
11
.
.
1
.
1
Modelo
. 1 . i
.1 . . . .
i .
i ..
.
Figura 15.20: Comparación entre la dinámica de la amplitud ^i(f) asociada al primer m o d o en la descomposición K L y el modelo de Kelso-Fuchs (Kelso, 1995). (a) Series temporales medidas y (b) simuladas antes de la transición así c o m o las (c) posteriores a ésta y (d) junto al espectro de Fourier correspondiente. (e,f) Atractores reconstruidos a partir de los datos anteriores antes y después de la transición ((e) datos experimentales; (f) atractores simulados).
Xe urodinámica
537
rcpiesentamos además los atractores reconstrviidos, vemos también una clara transición dinámica <;ntre el estado anterior y el posterior al fenómeno crítico. El segundo atractor rs, de hecho, un buen ejemplo de caos de tipo Shilnikov (capítulo 5). A partir de estos datos, Kelso y sus colabo radores han obtenido un modelo teórico que reproduce notablemente bien no sólo las propiedadc.s rualitativas de la transición, sino también algunas características ruaxititativas. co m o el espectro de Fourier asociado (figura 15.20). Estos resultados y otros obtenidos de forma independiente por otros autores indican que el cere bro es un sistema autoorganizado que opera en las proximidades de puntos críticos, permitiéndole posiblemente saltar de forma flexible y espontánea de un estado coiierente (atractor) a otro (Kelso
et al., 1992). Esta conjetura ha recibido un notable soporte teórico en el desarrollo llevado a cabo partiendo del formalismo de la Sinergética (Haken, 1983). Se ha obtenido un modelo simple (Jirsa et aL. 1994) que permite interpretar los resultados anteriores en térrmnos de la dinámica de un parámetro de orden que experimenta u n a transición de fase de no-equihbrio. Para terminar, señalemos que esta aproximación se halla bastante alejada dc otras, basadas imph'citamente en la separación de la actividad del cerebro descrita c o m o compartimentos sepa rados. Así, la denominada iomografta por emisión de positrones (T EP) en la que se presenta la “actividad” del cerebro durante u n a determinada tarea (como leer, oír música o calcular) está basada en métodos de sustracción de dudosa significación. Así, por ejemplo, se compara la actividad del cerebro en dos casos: leer y hablar se compara con leer solamente. Se toman las imágenes correspondientes a ambas situaciones, y se lleva a cabo la diferencia. Pero la diferencia es una operación lineal, no lo olvidemos. Si bien es posible que ciertas zonas del cerebro se hallen más activas, las taxeas cognitivas no están aisladas en compartimentos, sino distribuidas, en mayor o menor grado, en la actividad cerebral global (Kelso, 1995). Decir (como se hace a menudo) que se “ha fotografiado”, pongamos por caso, el “centro de la música” suena m u y bien, pero no es más que u na cara nueva de un reduccionismo con rostro tecnológico.
B ibliografía 1. K. Aihara, T. Takabe y M. Toyoda, Chaotic Nueral Networks. Phys. Lett. A 144 333 (1990). 2. D. Amit, Modelling brain function. Cambridge U. Press, Cambridge, 1989. 3. D. Amit, H. Gutfreund y H. Sompohnsky, Spin-glass modeh of neural netvwrks. Phys. Rev.
A 3 2 1007 (1985), 4. A. Babloyantz, M. Salazar y C. Nicolis, Evidence of chaotic dynamics of brainactivity during ihe sleep cycle. Phys. Lett. j4 1 1 1 152 (1985). 5. A. Babloyantz y A. Destexhe, Low-dimensional chaos in an instance of epilepsy. Proc. Natl.
Acad. Sci. U S A 83 3513 (1986). 6 . A. Babloyantz y A. Destexhe, The Creutzfeld-Jacob disease m the hierarchy of chaotic attrac tors. E n “F r o m chemical to biological organization”, M. Markus, S. C. Muller y G. Nicolis (eds.), Springer-Verlag, Berhn, 1988. 7. E. Bagar (ed.). Chaos in Brain Function. Springer-Verlag, Berlin, 1983.
8 . G, B. Ermentrout, Period doubling and possible chaos in neural models.S I A M Math. 4 4 80 (1984). 9- W . J. Freeman, Fisiología de la percepción. Investigación y Ciencia, Abril 1993.
J. Appl.
538
O rden
y Caos en Sistemas complejos
10. A. F uc h s, J. A. S. Kol^n y H. Haken, Phase transitions in ihe huma n brain: spatial mode
dynamics. Int. J. Bif. Chaos 2 9 1 7 (19 92 ). 11. .-V. Garfinkel, M.L. Spano, W.L. Ditto y .T.N, Weiss, Controlling cardiac chaos. Science 257 1230 (1992). 12. J. Glanz, Does chaos control techniques offer hope for epilepsy?. Science 2 6 5 1174 (1994). 13. C. M. Gray y W . Singer, Neuronal oscillaiions in orientation columns of cat visual cortex. Proc. Natl Acad. Sci. U S A 8 6 1698 (1989). 14. .1. G ü é m e z y M.A. Matías, .Phys. Lett. A 181 29(1993). 15. M. A. Matías y J. Güémez, . Phys. Rev. Lett. 72 1 4 5 5 ( 1 99 4) . 16. H. Haken, Advanced Synergetics. Springer-Verlag, Berlin, 1983. 17. H. Haken y M. Stadler, Synergetics of cognition. Springer-Verlag, Berh'n, 1985. 18. H. Hayashi y S. Ishizuka, Chaotic responses of the hippocampal C A 3 region to a mossy fiber
stimulation in vitro. Brain Research6
8
G 194 (1995).
19. J. Hertz, A. Krogh y R. G. Palmer, Introduction to the theory of neural computation. Addison-Wesley, R e d w o o d City, California, 1991. 20. G. E. Hinton y T. J. Sejnowski, Optimal perceptual inference. Proc. of ihe I E E E Computer Society Conference on Computer Vision and Pattern Recognition, W'ashington, 1983. 21. J. Hopfield, Neural networks and physical systems with einergent computational habilities. Proc. Natl Acad. Sci. U S A 75 2554 (1982). 22.
V. K.
Jirsa, R. Friedrich, H. Haken y
J. A. S.Kelso,A theoretical model of phase transitions
in the human brain. Biol Cybem. 71 27 (1994). 23. K. E. Kurten y J. W . Clark, Chaos in neural systems. Phys. Lett. A 114 413 (1986). 24. E. R. Kandel, J. H. Schwartz y T. M. Jessell, Principles of neural science (3a edición). Prentice-Hall, Londres, 1991. 25. J. A. S. Kelso, S. L. Bressler, S. Buchanan, G. C. D e Guzman, M. Ding, A. Fuchs y T. Holroyd .^4 phase transition in human brain and behavior. Phys. Lett. A 169 134 (1992). 26. J. A. S. Kelso, Dynamic Patterns: the self-organization of brain and behavior. M I T Press, Cambridge, 1995. 27. J. A. S. Kelso y A. Fuchs, Self-organizing dynamics of the human brain: intermittency,
antimonotonicity and Shilnikov^s chaos. Chaos (en prensa, 1995). 28. Y. Le Cun, Proc. Ini. Conf. Cogniiiva 85. Paris, 1985. 29. L. Menendez de la Prida y R, V. Solé, Conirolling chaos in continuous layered neural net works. Physica D (en prensa, 1996). 30. A. S. Mikhailov, Foundations of Synergetics I. Springer-Verlag, 1990. 31. R. Miles y R. K. S. Wong, Single neurons can initiate synchronized population discharge in
the hippocampus. Naiure 3 0 6 371 (1983).
Neurodinámica
539
32. S. A. Ronvbouts, R. W . Keuuen y C. J. Stam, Investigation of nonlinear structure in multi
channel EEG. Phys. Lett. A 202 352 (1995). 33. D. E. Ruiiiclhart, G. E. Hinton y R
.1. Williams, Learning internal representations by error·
propagation. Nature Z23 533 (19S6). 34. D. E. Runielhart, G. E. Hinton y R. J. Williams, Parallel Distributed Processing Vol. 1. M I T Press, Cambridge, M A 1986. 35- S.J. SchifF, K- Jerger. D.H. Duong, T. Chang, M.L. Spano y W.L. Ditto, Controlling chaos
in the brain. Nature 3 70 615 (1994). 30. H.G. Schuster y P. Wagner, A model of neuronal oscillations in the visual cortex.
Biol.
Cyber. 64 77 (1990). 37. T. Shinbrot, C. Grebogi, E. Ott y ,).A. Yorke, Using small perturbations io control chaos.
Nature 363 411 (1993). 38. C. A. Skarda y W . J. Freeman, H o w brains make chaos in order to make sense of the world.
Behav. Brain Set. 10 161 (1987). 39. R.V. Sole y L. Menendez de la Prida, Controlling chaos in discrete neural networks. Phys.
Lett. A 199 65 (1995). 40. R. V. Sole y J. Bascompte, Measuring chaos from spatial information. J. theor. Biol. 175 139 (1995).
C apítulo 16
R e d e s N eu ra les F lu id as A lo leurgo de los capítulos precedentes, hemos visto cómo los sistema-s complejos exhiben propieda des emergentes. La interacción no-hneal entre elementos simples puede dar lugar a fenómenos en una escala de organización superior. Estos pueden ser la aparición de estructuras ordenadas cerca de puntos de bifurcación, de estructuras fractales o de comportamientos temporales periódicos o caóticos. Existe cierta famiha de procesos que, genéricamente, podemos agrupar bajo el nombre de
computación. La idea de cálculo es fácilmente asimilable en términos de dispositivos artificiales; un ordenador lleva a cabo un cálculo procesando información de entrada y generando una salida, siguiendo para ello uu conjunto de instrucciones especificadas. Este proceso de computación puede, en último término, reducirse a la manipulación de un conjunto de símbolos pertenecientes a un eJfabeto binario E = {0,1}. Com.o ya vimos en el capítulo dedicado a los autómatas celulares, podernos formalizar el problema de la computación mediante la m á q u m a de Turing. Detengámonos a reflexionar acerca de este problema. Parece claro (aunque tal vez no lo sea tanto) que en algunos sistemas naturales se llevan a cabo procesos dinámicos que podemos iden tificar, externamente, como procesos de cálculo. De forma esquemática, p o demo s imaginar estos sistemas c o m o capaces de ser modificados por ciertas señales procedentes del medio y de cambiar posteriormente de estado para “responder’’ a la información de entrada. El cerebro procesa in formación, de alguna forma, y aunque dicho procesamiento parte -en principio- de la percepción del entorno, también se lleva a cabo sin necesidad de que dicha información se halle presente. A ú n así, podemos quedarnos con la visión simplista de estímulo-respuesta en la que la percepción proporciona las entradas, que son procesadas y que, finalmente, generan una respuesta. Existe otro tipo de sistemas complejos capaz de llevar a cabo procesos de computación que incluyen la memoria asociativa y el reconocimiento de patrones. A este grupo pertenecen el sistema inmunitario y los insectos sociales, de los que hablaremos en este capítulo (Wilson, 1971; HoUdobler y Wilson, 1990). Aunque popularmente los individuos de estos grupos son vistos c o m o dotados de una inteÜgencia especial, la reahdad nos muestra una evidencia bien distinta: los individuos c o m o tales son realmente simples aunque, colectivamente, las sociedades puedan llevar a cabo actividades de gran complejidad. D e hecho, junto con la metamorfosis y el vuelo, la aparición de estas sociedades ha sido una de las grandes revoluciones experimentadas a lo largo de la evolución de los insectos. Las especies sociales aparecen en todos los hábitats del m u n d o bajo condiciones enormemente diversas. Encontramos hormigas en zonas desérticas y en lugares helados. En las selvas tropicales, donde su papel ecológico es m u y importante, hormigas y termitas s um an la tercera parte de la biomasa animal total existente. ¿Qué tiene de especial la sociedad por encima del comportamiento individual? Parte de la respuesta tiene m u c h o que ver con las propiedades de lo^ sistemas neurales, que 541
542
Orden y Càos en Sistemas Complejos
Figura 16.1: Hormigas y cerebros: aunque las diferencias entre a m b o s sistemas son patentes, comparten probablemente más puntos en c o m ú n que diferencias.
hemos estudiado en el capítulo anterior, y con los que los insectos sociales comparten numerosas propiedades comunes. Las sinrúhtudes entre las hormigas (como colectivo) y el cerebro son muchas y han sido discutidas en el pasado por diversos autores (Hofstadter, 1979; Gordon ei al, 1992; Solé
et ai, 1993a, 1993b, 1995; Adler y Gordon, 1992). Entre otras, destacaremos las siguientes: • El comportamiento de los elementos aislados (hormigas o neuronas) uo nos da prácticamente ninguna información acerca de c óm o funciona el hormiguero o el cerebro. De alguna forma, los fenómenos de interés son generados por medio de la interacción, dando lugar a estructuras a una escala m u y superior a la de los elementos implicados ^ • Las propiedades computacionales observadas son el resultado de la interacción de los indi viduos no sólo con su entorno, sino entre si. • La destrucción parcial de una fracción del colectivo (la desaparición de algunas hormigas o de algunas neuronas) no modifica, en general, la habilidad colectiva del sistema. Parece clairo que la colonia de hormigas puede visuahzarse c o m o un sistema distribuido, en el que la información procedente de distintos puntos del espacio es transmitida al sistema. U n a vez (o simultáneamente) que la información llega, es procesada colectivamente y el colectivo responde de alguna forma. Algunos de estos procesos son simples: un individuo detecta una fuente de ahmento, transmite esta información y el colectivo responde explotando dicha fuente. Sin embargo (en general) Isis situaciones habituales serán más complejas. La colonia puede tener que “^decidir” entre varias fuentes de ahmento distintas. Puede ser necesario llevar a cabo varios procesos de anáhsis de información externa de distintos tipos. Además, la propia estructura interna de la colonia requiere un “conocimiento” del estado interno para disponer de los recursos adecuadamente 'E s t r ic t a m e n te h a b la n d o , deben'am os m a tiz a r e s ta afirm ación. P o r u n a p a r te , e sta m o s su p o n ie n d o sociedades de insectos de c ie rto ta m a ñ o . E xisten especies de h o rm ig a s con coloruas de t a m a ñ o m uy reducid o en el que la c o m p lejid ad de los in d iv id u o s define en b u e n a m ed id a la del colectivo, si bien esto s g ru p o s son de h e ch o los m enos evolucionados.
Redes
Neurales Fluidas
543
Collective Behavior
Figura 16.2: Hormigas y propiedades emergentes: la actividad del nivel inferior, en nuestro caso la escala individual de las hormigas, genera el parámetro de orden (la actividad global) que pasa a afectar a los propios individuos.
así c omo para mantener en buen estado el nido. El propio proceso de construcción de ua nido implica la emergerAcia de un orden de gran escala que parte de la interacción entre elementos que reciben información básicamente local. Aquí, nuevamente, la idea de propiedad emergente aparece claramente definida. E n la figura 16.2 resumimos la existencia de comportamiento emergente en la estructura de una sociedad de insectos. Siguiendo la propuesta de H e r m a n n H a k e n (1977, 1988; capítulo 2), el comportamiento colectivo, que podemos imaginar como la actividad del grupo, actúa c o m o un parámetro de orden (adecuadamente definido) sostenido a partir de la actividad de los individuos, a la vez que controla el comportamiento de éstos. Aparece una vez m á s la causalidad circular en la que los elementos del sistema definen (y son modificados por) el comportamiento colectivo, que no es reducible al de los elementos. E n este caso, el comportamiento global que emerge de las interacciones locales se identifica con un proceso de computación. Este hecho ha llevado a acuñar la definición de computación emergente (Forrest, 1990). L a prenúsa de la computación emergente es que pueden coustruirse sistema.s computacionales interesantes y útiles explotando la interacción entre componentes simples. En algunos casos (como en la modehzax:ión del comportamiento intehgente) podría ser, de hecho, el único método factible. Los requerimientos mínimos para la aparición de computación emergente parten de la pre sencia de cierto tipo de información colectiva que se halla ausente en los niveles inferiores. Los constituyentes serían (Forrest, 1990): • U n grupo de agentes, cada uno capaz de seguir cierta colección de instrucciones (íí) exphcitamente definidas. • Interacciones entre los agentes (de acuerdo con Q) que generarían patrones globales a un nivel macroscópico, esto es, un epifenómeno. U n a interpretación natural del epifenómeno en términos de computación.
544
O rde u
y Ca.os rn Sistemas Complejos
50 •J· ' 40 H
r·
•u. • t·r.
~s'
30
! “ ** fir * •í*
í·
r,
20
0
. .
• I
10
i· -
ao
80
60
40
10-· ·.·.
^ 20 ¿0
o)
. 2^
; ·' = j V / 40
50 'i.
~ t.
-j' ‘
60
80 8
V -,
-
· -u
·
4 0 -I
··
k-_
·
i ]
20-·.
r ·
20 V
.*á* ·* 10
o -o
•
'j
10
l Mtm.
’ ·I ai *
20
.
■■■
* ·^ ·^ 40
•1
60
80
:............ r20
40
60
r '· ^
60
Figura 16.3: Proceso de ordenamiento en el modelo de Deneubourg (véase texto). A partir de uii conjunto de objetos repartidos al azar, (a) las ‘‘hormigas” (no mostradas aqui) van desplazando los objetos siguiendo unas reglas m u y simples, de tipo local. E n pasos sucesivos, vemos c ó m o se van separando los distintos tipos de objetos en grupos bien definidos. Si esperamos lo suficiente, al final sólo se forman dos grupos.
Volviendo al tratamiento general de los procesos de autoorganización, la aparición de cálculo emergente implica la generación espontánea de orden a partir de un sistema inicialmente desorde nado (al menos hasta cierto punto) y con elementos que, en general, no serán fiables. Aquí por fiabilidad entendemos que cometerán errores o mostrarán algún tipo de aleatoriedad. P o demo s en tonces emplear la idea de orden por fluctuaciones (Prigogine y Stengers, 1984; Nicolis y Prigogine, 1994) c o m o punto de partida.
16.1
D in ám ica de la distribución colectiva
ü n primer ejemplo de modelo de comportamiento colectivo en grupos de insectos sociales, que presentaremos en esta sección, intenta explicar de forma simple y emergente c ó m o los insectos sociales, por ejemplo las hormigas, llevan a cabo una distribución efectiva de los distintos objetos que se encuentran en el interior del nido (Deneubourg et al. 1992). E n mi hormiguero, hallaremos las larvas, huevos o semillas distribuidos en lugares concretos bien definidos. A u n q u e al observar un individuo que acarrea uno de estos objetos nos dará posiblemente la impresión de que lo hace con cierto grado de aleatoriedad (una hormiga puede de repente coger una semilla, desplazarla durante un rato y dejarla en otra posición) es evidente que, de un m o d o u otro, el sistema logra ordenar espacialmente estos objetos de fornaa eficiente. Si experimentalmente manipulamos un nido de hormigas y mezclamos al azar los distintos objetos, veremos que, con el tiempo, las hormigas volverán a separar los objetos en sus clases anteriores. El algoritmo de comportamiento que describiremos (Deneubourg, 1992) no es tanto un modelo de la forma real en que las hornúgas actúan, sino una demostración de que semejante algoritmo
local es posible y efectivo. El modelo se bcisa en un conjunto de individuos que se desplazan al azar
Redes Neurales Fluidas
545
iobr- ina superficie bidimensioaal. E n el instante inicial un cierto número de horrrúgas/autómatas ce hadla distribuido al azar junto con un conjunto de elementos, también azarosamente repartidos. Estof elementos son de dos clases, y se indican por círculos blancos o negros según el caso. C a d a in diviGuo coge al azar uno de estos objetos si se encuentra aislado, llevándolo consigo y depositándolo o:ra -ez en otro lugar. El modelo añade adicionalmentc una memoria a corto plazo para cada indivic'io. de forma que éste puede "recordar” qué tipo de objetos ha ido encontrando durante la.s m
iteraciones.
Si indicamos por A y B los dos tipos, un individuo podría retener una
secuencia digamos de m = 10 iteraciones. O O A B O A A O B O en la que los ceros indican ausencia de objeios. A partir de esta secuencia, el individuo posee una información aproximada (de carácter local!acerca de la abundancia de objetos del mismo tipo que ha ido encontrando. Para la secuencia anterior, la frecuencia de encuentros con objetos de tipo A será — 3/10 y la de objetos de tipo
B será / b = 2/10. La probabilidad de coger un objeto si el autómata no lleva ninguno es k+ =
siendo / la fracción de lugares cercanos ocupados por el m i s m o tipo de objetos (definido previa mente) y k'^ una constante. V e m o s por lo tanto que esta probabilidad decrece con la cantidad dc objetos cercanos, luego es tanto mayor cuanto m ás aislado esté el objeto y tanto menor cuantos m á s objetos del m i s m o tipo se hallen en ia proximidades. La decisión de abandonar el objeto depende también del nú m e r o de objetos de la m i s m a clase que se encuentran, pero de forma que ahora, cuanto m ayor sea dicho número, más probabilidades hay de que abandone el objeto. Específicamente, estos autores emplean
=
/
c o m o probabilidad de abandonar el objeto, siendo / el número de objetos del m i s m o tipo y k_ una nueva constante. E n la figura 16.3 vemos cuatro instantáneas del proceso de clasificación, generado a partir de las reglas locales anteriores. V e m o s claramente que surgen estructuras diferenciadas que incluyen objetos de tipos distintos, y que su tamaño y agregación aumentan con el tiempo. Este es precisa mente el proceso que observamos en colonias de hormigas que, eventualmente, po demo s someter a manipulación en el laboratorio de forma que llevemos a cabo una homogeneización de objetos que los individuos deberán separar posteriormente. El proceso implica un feedback positivo (una vez más, fenómenos no-lineales) que permite la creación de estructuras a partir del desorden y la-s aleatoriedades que rigen a nivel microscópico. U n a vez que algunas pequeñas fluctuaciones se han visto amplificadas, el proceso se automantiene hasta obtener los agregados observados.
16.2
C o m p o rta m ien to probabilista: la estr a teg ia del error
El error cometido por los elementos de un sistema complejo es considerado, en general, c o m o uua fuente de ruido no deseable. El ruido se identifica, en este sentido, con la incapacidad de llevar a cabo, de manera fiable, cierta tarea o ejecución de instrucciones. Aunq ue esta intuición parece m u y clara, ciertas especies de hormigas explotan el error intrínseco a sus elementos como fuente de exploración del medio. E n este sentido, como ha demostrado J. L. Deneubourg y sus colegcis de la Universidad Libre de Bruselas (Deneubourg et al., 1986, 1989) el error asociado al ruido interno dei sistema puede ser empleado c o m o capacidad de exploración en un ambiente variable. L a aleatoriedad puede tener una ventaja adaptativa para las hormigas.
Orden y Caos en Sistemas Complejos
546
tiempo Figura
16-4:
(min)
tiempo
(min]
(a) Evolución del número de hormigas en las proximidades de dos fuentes de alimento
de distinta riqueza (52 > SI) introducidas en instantes distintos, introducidas simultáneamente (Deneubourg et ai, 1986).
(b) Idem,
para dos fuentes
Imaginemos un grupo de hormigas que lleva a cabo la búsqueda de ahmento y su explotación una vez cDcontrado.
E n un ambiente predecible, donde existen fuentes estables de ahmento, la
mejor estrategia es localizar dichas fuentes y llevar a cabo su explotación de forma estable. La situación es m á s compleja si el ambiente (por tanto las fuentes de nutrientes) es m á s impredecible. E n este caso, el colectivo debe llegar a un compromiso: debe explotar de forma efectiva las fuentes detectadas, a la vez que necesita mantener la exploración activa. Puesto que el segundo proceso, en el que se descubren nuevas fuentes a través de una búsqueda individual aleatoria, depende del azar, y el primero de una respuesta colectiva fiable, orden y desorden (una vez más) deben hallarse presentes. Consideremos el siguiente problema: colocamos dos fuentes de ahmento, SI y S2, en las proximi dades de una colonia de hormigas. Supongamos que primero coloccimos una (Si) que es descubierta por las hormigas, las cuales inician su explotación. El número de hormigas cerca de esta fuente de ahmento crecerá con el tiempo. Ahora, cuando la explotación de la fuente Si ya se ha estabilizado, introducimos la fuente S2 que es más rica en alimento. Esta fuente será descubierta si existen hormigas que, de forma aleatoria, abandonan la hilera de individuos que se hallan explotando la fuente SI, de forma que puedan eventualmente descubrir otra fuente mejor. Cuando así ocurre, vemos experimentahnente (figura 16.4 (a)) que el número de hormigas en las proximidades de S 2 aumenta rápidamente, mientras que cerca de SI disminuye. Las hormigas de hecho deposi tan mayor cantidad de marcador quírrúco (que las demás seguirán y reforzarán) en función de la riqueza de la fuente explotada. Así, pese a que los individuos llevcin a cabo una interacción local, crean de hecho estructuras globales (la pista química que emerge a medida que por ella pasan m á s individuos) que a su vez pasan a controlar la actividad de los individuos. Si suponemos que SI y 52 denotan además las concentraciones de cada fuente, vemos que las hormigas han llevado a cabo, colectivamente, un proceso de cálculo: decidir si SI > 52, algo que los individuos obviamente no pueden realizar de forma individual. Se trata por lo tanto de un ejemplo simple pero claro de cálculo emergente. Existe además un caso adicional m u y interesante para ver el efecto de las no-hneahdades en acción. Supongamos que mostramos al hormiguero dos fuentes exactamente iguales (51 =
52)
Redes Neurales Fluidas
547
Figura 16-5: Soluciones estacionarias para ei modelo con dos fuentes, que nos da el n úme ro de hormigas en una fuente en función del tamaño de la colonia (en reahdad, del número potencial de posibles recolectores, que será en principio proporcional al tamaño de la colonia).
situadas a distancias idénticas. E n la figura 16.4 (b) vemos el resultado de la dinámica obtenida en el experimento: pese a la simetría del problema, las hormigas rompen la simetría y explotan preferentemente una de las fuentes de ahmento (véase el capítulo 4, bifurcaciones). D e hecho, el grado de explotación de la segunda nos dará una medida del grado de ruido presente en el sistema. Las pequeñas fluctuaciones, en todo caso, deciden fortuitamente cuál de las dos fuentes se explota. V e m o s por lo tanto que el sistema es capaz de tomar una decisión, vía rotura de simetría, cuando las cdternativas son idénticas. Los resultados anteriores pueden resumirse mediante el siguiente modelo matemático
dXi
^ a X i /i(iV - X - E ) - b X i + c E
dt dX2
^aX2
- X - E ) ^ b X 2 -^cE
dt - = „ Ar n(1 donde indicamos por JV = A'i + A'2, siendo A', la cantidad de hormigas sobre la fuente í^ésima,
E
es el número de “hormigas perdidas“" Qo siguen las marcas químicas colectivas y se desplazan al azar) N es el número (potencial) de hormigas que se dedican a la recolección y a es el número de hormigas ‘‘reclutadas” por hormiga, por unidad de tiempo. D e las a Xi }j.{N — X — E) hormigas reclutadas, cierta fracción fj. € [0,1] alcanza la fuente, y una parte 1 — ^ se pierde. Las hormigas que alcanzan la fuente permanecen un tiempo promedio b~^ cerca de la fuente. Las hormigas perdidas, E, tienen una probabilidad c de encontrar la fuente (por unidad de tiempo) o bien volverán al nido después de p~^ unidades de tiempo. Si el reclutamiento depende de la densidad de elementos (como es razonable suponer), podemos introducir una dependencia natural en la forma
g^x,
Orden
548
r Caos
en Sistemas Complejos
que permite reproducir m u y bien los resultados experiuieiitales, incluyendo las roturas de simetría antes mencionadas. Su dependencia respecto del número de hormigas es especialmente interesante, c o m o vemos en la figura 16.5. Indicamos por S'^ la solución simétrica, que se bifurca para cierto en dos ramas posibles, A ~ . Esta figura se ha obtenido para g = 24.3. 6 = 0.1, p = 0.033, a = 0.001 y c = 0.018. Para valores pequeños de .V, amba.s fuentes se explotarían
16.3
T erm itas y orden por fluctuaciones
E n 1977, Jean-Louis Deneubourg propuso el primer modelo de comportamiento colectivo en in sectos sociales basado en un modelo matemático no-lineal (Deneubourg, 1977). Este problema es bien conocido por los estudiosos: el problema de la construcción de nidos en termitas. Los nidos de termitas pueden i)oseer dimensiones enormes, de varios metros de altura y varias toneladas de peso. E n su interior, encontraremos cavidades de tamaños característicos m u y superiores a los de los individuos que los construyeron, que interaccionan de forma local. El modelo que vamos a describir intenta explicar de forma simple el mecanismo mediante el cual semejantes estructuras coherentes pueden emerger de la interacción, aparentemente desordenada, entre los individuos. Las hipótesis del modelo son las siguientes: • El material que forma el termitero, que es manipulado por los individuos, adquiere como consecuencia de esta manipulación cierto olor o marca química característica (mediada por una feromona). Indicaremos por P{r,t) la cantidad de material de construcción marcado en la posición r y el instante t. La feromona puede disociarse de su soporte sóhdo; sea H(r, í) la concentración de feromona libre, y supongamos que el material de construcción carece de las propiedades marcadoras de la feromona. • H puede difundirse libremente en el medio circundante de forma que se cree un gradiente de concentración local. • Supondremos que el número de elementos “activos”, esto es, termitas que transportan m a y sea C{r, i) su densidad.
terial, presenta un flujo constante
• Los insectos portadores de material son atraídos positivamente por el gradiente de feromona de forma que tienden a desplazarse a las zonas de mayor concentración (presentan, por lo tanto, quimiotropismo). Esta orientación estará en principio compitiendo en todo m o m e n t o con los efectos aleatorios del desplazanúento. • El depósito de material en un punto del espacio es proporcional al número de insectos activos en dicho punto. Supondremos que no existe una interacción directa entre el material y las termitas. Las hipótesis previas nos llevan a construir el siguiente modelo, basado en tres ecuaciones de reacción-difusión
at
= i , C - Í-2P
(16.3.1)
en ésta indicamos que la cantidad de material marcado depende de la abundancia local de individ uos activos (que transportan material) proporcionalmente. El marcador se degrada (término de decaimiento local) según
k^P - k ^ H + D h V ^ H at
(16.3.2)
K edes
Neurales Fluidas
549
; 3 S5
Figura 16.6: Estructura ordenada generada por interacción entre termit¿is. calculada a partir
que nos indica, razonablemente, que la cantidad de feromona libre crece con la cantidad de material marcado (de la que la feromona se disocia) y decrece por degradación proporcionalmente a su abundancia local. El último término indica la difusión pasiva de la feromona libre hacia posiciones vecinas. Finalmente, la ecuación
(16.3.3)
introduce la dinámica espaciotemporal del número de elementos activos, que posee un término de flujo constante un térirúno lineal de decaimiento (asociado a los individuos activos que dejan de serlo al abandonar el material) y finalmente un término de difusión junto a un térnúno de movimiento no pasivo, que depende del gradiente de concentración de hormona dHjdr. El coefi ciente 7 es especialmente importante, dado que introduce la intensidad con la que los individuos detectan y siguen el gradiente. Este coeficiente se llama constante qunniotáctica. Aquí el oper ador Laplaciano es ~ Analizaremos el comportanúento de este modelo siguiendo el tratamiento que ya vimos en el capítulo sobre estructuras de Turing. El modelo que constituyen 16.3.1, 16.3.2 y 16.3.3 posee una solución estacionaria, dada por:
\ki
k^)
a partir de la cual consideraremos las perturbaciones del estado espacialmente homogéneo.
C{r,t) - Cj +c(r,t)
JÍ(r,t) = I f , + h ( r , t )
P ( r \ t ) = P, + p ( r , f)
550
O rd e n
La matriz de Jacobi asociada es,
y
Caos en
Sistemas Complejos
calculada en (C,, ií.,, P,),
/ki + Dk'^
\
yk^C,
O
k.\ + Dh^~
— k\
O
O
\
k2
/
El determinante det[Lp — l] = O proporciona la ecuación característica
P(A) =
4- BA + E = O
La ecuación que sigue, para la amplificación de leis perturbaciones, se obtendrá, tal y c o m o vimos en ei capítulo 10, de la condición;
D D h k ^ + k'^iDkk, + Dkki + 7 ^) + k^k4 - O donde k — (2Tvn/L). C o m o sabemos, n G Z será un entero que nos dará el número de máximos observados en un sistema de longitud L. Esta última expresión puede ser reescrita en la forma
_
^i) +
DDfik^ + k“(Dhk 4
y presenta su m á x i m o valor para
Para este valor existirá un 7c dado por
7c = l { k c ) = -
-í·
el cual define la frontera de aparición de estructuras espaciales macroscópicas. U n ejemplo de las estructuras obtenidas, calculado por integración numérica del sistema anterior, se muestra en la figura 16.6. Así pues, para ciertas combinaciones de parámetros esperaremos encontrar estructuras macros cópicas que emergen de ia interacción entre elementos que sólo obtienen información de forma local. Este es el principio básico en el que descansa la capacidad colectiva de construcción que observamos en los insectos sociales (Bonabeau y Theraulaz, 1994). Existen otros muchos ejemplos de interés en los que semejantes estructuras adquieren una gran sofisticación, c o m o es por ejemplo la construcción de panales en las abejas. Existe una enorme regularidad en la generación tanto de las estructuras hexagonales que definen las celdas como en otras de mayor escala, c o m o las estructuras paralelas en que se organizan los panales, de gran tamaño en relación al de los individuos. E n este último caso, destaca el estudio llevado a cabo por el grupo de Deneubourg (Skarka ei al.^ 1990) que considera el mecanismo de formación de panales bcisado en las interacciones entre individuos así c o m o en las que se producen entre éstos y la cera. Todas estas interacciones son de naturaleza local. Al igual que ocurría en el caso de las termitas, el material actúa atrayendo a las abejas, y se produce un feedback positivo entre ambos mecanismos básicos. Las abejas depositan cera, cuya cajitidad local depende de la interacción m u tua entre individuos, que a su vez se ve modificada por la cera presente. Construyendo un sistema de tres ecuaciones de reacción difusión, estos autores obtienen soluciones para éstas que muestran la estructura paralela antes mencionada (figura 16.7) y que pernúte interpretar distintos experimentos llevados a cabo sobre colmenas reales.
Redes Neurales Fluidas
.53
6-0
40
551
2 0
o o
-2 0
-
-6 0
/Ó 6-0
4-0
20
OO
-2 0
-4 0
Figura 16,7: Creciniien:o paralelo de panales obtenido a partir del modelo de Skarka et al., (1990). A la derecha se indica la cantidad local (sobre un espacio bidimensional) de individuos (abejas) y a la izquierda la correspondiente cantidad de cera, lo cual proporciona una idea del tipo estructuras formadas.
Para terminar, señalemos que otros tipos de estructuras emergentes m u y distintas, de tipo dinámico, pueden exphcarse fácilmente a través de ias aproximaciones anteriores.
Entre ellas
destaca la formación de patrones de búsqueda observados en las hormigas legionarias, m u y co m u n e s en distintas zonas de la Tieria. Estos insectos llevan a cabo la exploración masiva de su territorio cubriendo a lo laxgo de un día un área de hasta 1000 m^. L a forma del flujo de hormigas en exploración (que constituye toda la colonia, ya que no poseen ninguna estructura fija en la que refu giarse) es m u y compleja, ramificándose en estructuras de gran detalle. Estas estructuras sugieren algún tipo de control central que, sin embargo, es totalmenie inexistente, c o m o debería deducirse de todo lo anteriormente expuesto. Las hormigas son prácticamente ciegas y sólo interaccionan entre si mediante señajes quíinicas locales y contactos de individuo a individuo. Sin embargo, un patrón macroscopico m u y coordinado emerge de manera espontánea. Se han ideado modelos m u y simples, basados eu autómatas que se desplazan siguiendo reglas mínimas, observadas en el estudio de los individuos en la selva. Dichos modelos proporcionan patrones de exploración m u y similares, que nos muestran otra vez las capacidades de la autoorganización colectiva (Deneubourg et ai. 1989).
16,4
O scilaciones y redes neurales fluidas
U n fenómeno especialmente sorprendente de autoorganización en colonias de hormigas se da en el género Lepiotkoraz. Estos hormigueros son de tamaño reducido (con unos 100-200 individuos c o m o tamaño típico) y las especies de este género aparecen en todos los hábitats del mundo. El fenómeno en cuestión tiene que ver con la forma en que la actividad de los individuos se distribuye a lo largo del tiempo. El estudio del interior de los nidos llevado a cabo en el laboratorio demuestra que la actividad de la colonia es periódica, con una periodicidad de unos 20-30 minutos (Franks et al., 1990). E n estos intervalos, se observa una oscilación aproximada del número total de horirúgas activas (en movirrúento, llevando a cabo algún tipo de tarea) de forma tal que en algunos intervalos
-& 0
O rden
552
y Caos en
S istem as
Complejos
Figura 16.8; Oscilaciones colectivas de la actividad de hormigas del genero Lepioikorax.
Los
individuos aislados presentan un comportamiento desordenado, que no se observa en el colectivo. Para este caso, la colonia exhibe oscilaciones globales de actividad (Franks, 1990).
de tiempo ningún elemento está activo mientras que en otros (típiccimente cortos) puede ocurrir que todos los individuos mantengan su actividad. Este resultado es sorprendente si tenemos en cuenta que, hasta ahora, los sistemas vivos en los que encontrábamos oscilaciones eran tales c o m o el corazón, el cerebro, etc. ¿De dónde proceden estas oscilaciones? y, lo que es m á s diñcil de exphcar, ¿tienen alguna función? Este comportamiento fue estudiado detalladamente por B. Cole, quien analizó además la dinámica de los individuos aislados. Podríamos esperar que las oscilciciones observadas fueran el resultado del acoplamiento entre elementes de por sí periódicos, pero no es así. Los individuos aislados, que podem os estudiax por separado, no exhiben oscilaciones^ sino caos (Cole, 1991). Al añadir individuos a un nido artificial de superfìcie constante (de manera que vamos aumentando progresivamente la densidad de elementos) puede comprobarse que el comportanúento colectivo se va sincronizando progresivamente de forma que, para ciertas densidades, las oscilaciones se hacen visibles (en particular aparece un pico en el espectro de Fourier que se va haciendo m á s y más dominante a medida que aumentamos la densidad) y cada vez más regulares. C o m o consecuencia, la aparición de oscilaciones colectivas es claramente un a propiedad emergente no reducible a la dinánúca de los elementos aislados. Para dar respuesta a las preguntas previamente formuladas, R. V. Solé introdujo un nuevo formalismo que permitiera anahzar mediante modelos simples las propiedades de estos sistemas (Solé et ai, 1992; Solé y Miramontes, 1995; Miramontes eí a/., 1993). El formalismo ha recibido el nombre de redes neurales fluidas, y su inspiración, c o m o se discutió en la introducción del capítulo, proviene de las analogías entre sistemas neurales y grupos de insectos sociales. La idea es llevar a sus últimas consecuencias dichas analogías, considerando la colonia de hormigas c o m o una verdadera red neural, solo que con una propiedad nueva: los elementos pueden desplazarse en un espacio dado, y en consecuencia las conexiones dejan de estar fijadas. Consideremos por lo tanto un conjunto de N bidimensionaJ A(L) de lado colectivo será
L,
A(I-) =
{k
^autómatas” (hormigas) definidos sobre una red
= (i, j) ¡1 < i, j < L}. El estado global Sf(A') del
s,-{s,(k.,o}
¿ = i,...,.v .
Debido a la movihdad, las propiedades del entorno local de cada autómata (sus vecinos) se modi ficarán con el tiempo, y algunas correlaciones, por lo tanto, se destruirán (en este sentido, la red es “fluida”). Para explorar y reproducir las oscilaciones observadas, introduciremos el siguiente conjunto de reglas:
Redes Neurales Fluidas
553
Actividad: Cdda autómata puede estar activo o inactivo. E n el último caso, el elemento permanece inmóvil en su posición. U n a vez activo, el elemento se m u e v e al azar hacia alguna de las ocho posiciones más próximas (si hay espacio accesible). U n elemento inactivo puede activarse ya sea por interacción con sus vecinos, o bien por medio de un mecanismo de activación espontánea al azar (o por medio de un proceso caótico subyacente, Solé et aL, 1993). Re d neural: los autómatas se consideran c o m o cierto tipo de ‘"neuronas" y sus interacciones son análogas a las de una red neural típica. El estado de la neurona, que será en este modelo continuo, sigue una función sigmoidal $(x). Para un autómata dado, con estado Sj(t) los nuevos estados se obtienen de
ff
5y(¿ + 1) =
.
-
I
./j
La matriz de conexiones no está fijada, sino que, tal y c o m o ocurre en la realidad, depende del estado de los individuos que interaccionan. Así, tendremos conjunto de posibles estados de cada autómata es de tamaño M , entonces (Jij) tomará algún valor dentro de una matriz de posibles pares de estados, de t a m a ñ o M
x M .
Tal y c o m o indican los experimentos, los individuos aislados pueden activarse espontáneamente, así que deberemos introducir una regla asociada a esta propiedad. Los individuos inactivos, definidos a través de la desigualdad S(t) < 9, siendo 9 cierto valor umbral, pueden activarse espontáneamente (en ausencia de vecinos) con cierta probabilidad pa- U n a vez activados, alcanzan un estado 5o. Aquí emplearemos ^(z) = tanh(y2), así que las ecuaciones dinámicas serán de la forma 5 i -I-1) = tanh
fJ,Si(t)
(con fi — gJ,t, y J,i > 0). Puede demostrarse fácilmente que, para /j < Hc —
sólo tenemos un
punto fijo estable, 5q = 0. Para ¡j. > /ici tenemos una bifurcación, con la aparición de dos estados simétricos 5±. E n aproximación lineal, tenemos que 5^(0) 5(0
dS para 5 = 5o, esto es, S{t + 1) = fJ.S{t). Para un individuo recién activado, se tiene 5(0) = 5o, y su estado después de r iteraciones será
5 (r) = 5 o/i’’- D e aquí podemos estimar el número de pasos de tiempo, r, requeridos para alcanzar la inactivación, esto es, (5(r) < 9). Nos da log(r)
^og(gJi) con r = (^/5o)· V e m o s que, para cierto F, a medida que crece, con u n a singularidad en n —
= gj,
fXc el tiempo de relajación r
Orden y Caos en Sistemas Complejos
100
200
tiempo
300
0.01
o.l fre c u e n c ia
Figura 16.9: Oscilaciones colectivas de la actividad de la red neural fluida con activación espontánea. Las gráficas se han obtenido para 5o = 0.1, L =: 10, g ~ O . l y las densidades indicadas. Para densidades bajas, no se observa ningún patrón regular de comportamiento, tal y c o m o esperamos a partir de ias reglas empleadas. A medida que la densidad crece, la coherencia del sistema aumenta hasta generar oscilaciones m u y bien definidas. A la derecha se representan los espectros de Fourier correspondientes.
Redes
Neurales Fluidas
555
Scari los subconjuntos di; elementos activos <
y iV_ — N —
~
respectivamente. Si uo se introduce la regla de activación espontánea, el sistema fluido
tienrlo hacia un atractor global dado por {S,(oo) — 0} ; V? = 1 , iV para /i < ^c> o bien hacia dos estados alternativos simétricos (por medio de un mecanismo de rotura de simetría) en caso contraxio. El mecanismo de activación espontánea poseerá la capacidad necesaria para desplazar al sistema del atractor global y generar las oscilaciones observadas. Observemos que, tal y c o m o se ha definido el sistema, los elementos aislados no poseerán perio dicidades intrínsecas. Se desactivarán al cabo de r pasos de tiempo, y se activarán estocásticamente con cierta probabilidad pa. L o único que podremos decir por lo tanto, dinárrúcamente, es que la probabilidad de que, después de inactivarse, un autómata se active de nuevo en un instante t seguirá una distribución Pac{i) = 1 — exp(— p<,¿)· -^.1 añadir elementos, la interacción puede generar nuevas propiedades. ¿Qué ocurre con el modelo que acabamos de definir? E n la figura 16,9 podemos ver el resultado de variar la densidad de elementos p — N/L^ sobre la dinámica del sistema. Podemos ver con claridad cómo van apareciendo oscilaciones regulares cada vez m á s claras a medida que aum ent a m o s la densidad, tal y c o m o veíamos en los experimentos de Franks y c o m o evidencian los espectros de Fourier correspondientes.
16.5
Inform ación y transiciones de fase
La transición entre la dinámica desordenada que vemos a bajas densidades y la dinámica coherente que se obtiene a densidad alta puede caracterizarse mediante el empleo de una medida estadística adecuada. Acudiremos una vez m á s a las cantidades bcisadas en la teoría de la información, que fueron introducidas anteriormente (capítulo 1), Analizaremos en primer lugar el comportamiento de la entropía de Boltzmann, asociada al número de elementos activos, y posteriormente estudiaremos la transferencia de información entre dos autómatas. Sea Tj el número de iteraciones en las que j elementos se encontraban simultáneamente activos. Si llevamos a cabo una simulación empleando T iteraciones, la frecuencia relativa de dicho estado será p(p,i) = Tj/T, y la entropía de Boltzmann correspondiente N
1=0 C o m o ya sabemos, H(p) está acotada superiormente por if"*‘**(p) := log(A'’ 4- 1) e inferiormente por
= 0. A medida que la densidad aumenta, la entropía crecerá, simplemente debido a
que N aumenta. Pero parece claro a partir de las simulaciones que, con la aparición de oscilaciones y por lo tanto de autoorganización, la entropía se verá acotada en alguna medida. M á s allá de cierto punto, las correlaciones asociadas a la sincronización del sistema harán que éste presenre entropías reducidas. C o m o vemos en la figura 16.10, aparece un m á x i m o en cierta densidad que separa, por medio de una transición suave, el dominio de fluctuaciones irregulares del de oscilaciones colectivas. Aquí tenemos 5o = 0.1, pa — 0.01, B = 10~® y ff = 0.1. El valor m á x i m o depende de hecho básicamente de los parámetros (p, g) y los empleamos c o m o espacio paramétrico básico. En la figura 16.11 se muestra el resultado de anahzar este espacio- Para valores m u y pequeños de g, concretamente g < g^ = 0.025, la entropía antes definida no presenta ningiin máximo, sino que crece aproximadamente según H % log(;V). Los elementos son básicamente independientes y es en este sentido que la red fluida es aleatoria. A continuación, consideraremos una medida aún m á s interesante, en tanto que, c o m o hemos visto anteriormente, puede emplearse de forma efectiva c o m o medida de complejidad; la infor mación conjunta transmitida entre pares de elementos. También es importante en la medida en
O rde n
556
y
C aos en
Sistemas Complejos
Figura 16.10: (a) Entropía de Boltzmann H{p) siendo p{p, i) la probabilidad de encontrar exax:tamente i individuos activos simultáneamente. Los parámetros son £ = 10, g — 0.08. La gráfica muestra claramente la existencia de una densidad crítica en la que la entropía alcanza un máximo. En (b) se muestra la m i s m a representación [L — 10) para valores distintos de densidad y del parámetro g.
steady sta te s
0.5 -
Random N etw ork
Figura 16.11: Espacio paramétrico para la red neural fluida con activación espontánea. Se indican los distintos dominios correspondientes a distintos estados dinámicos.
Redes Neurales Fluid^^
557 0.10
0.10
5x15 =0.025
0.00
0.20
0.40
q=0.10 5rnin=0.
0.60
0.80
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
H(a)
D e n s ity
Figura 16.12; (a) Información conjunta entre elementos en función de ia densidad de los mismos. Ve m o s que presenta ua m á x i m o para cierta densidad crítica Pc- (b) Diagrama información-entropía (véase texto).
que la información m u tua es una cantidad directamente relacionada con la existencia de procesos implícitos de compuración. Si tenemos en cuenta que lo que las hormigas manipulan colectiva mente es precisamente información, deberíamos esperar que, para cierta densidad crítica especial, la información transnútida fuera máxima. Ei procedimiento, por otra parte, puede implementarse fácilmente en el estudio de otros sistemas. Para calcular la información m u t u a I{p) entre dos autómatas arbitrarios, digamos el i— ésimo y el j— ésimo, debemos seguir su dinámica a lo largo del tiempo a fin de obtener las trayectorias
Oi(p) = {5 ,{í),
4- m)J·
durante m iteraciones. Nos restringiremos, m á s concretamente, a los conjuntos (asociados a los anteriores) Aij(/)), cuyos elementos se definen por a,-(¿) = 1 si 5,(¿) > S y a,(¿) = O en caso contrario, y que corresponden de hecho a los estados observados experimentalmente. Tendremos por lo tanto A,(p) = |u,(í), ···, a,(í + m ) |
Aj(p)=
6 S = {0> 1}), los cuales proporcionan una descripción basada en un alfabeto E. Sea Pi(r) la probabilidad de encontrar el i-ésimo autómata en el estado r 6 S y sea p¿j(r, s) la probabilidad conjunta de hallar simultáneamente al ¿— ésimo autómata en ei estado r y al 7 -ésimo en el estado s; p,j (r, ,s) = P[{a, = r} Pi {aj = s}]. La información m u t u a entre estos elementos es, (con
como sabemos,
I Íp )( A . , Aj ) = ff(Ai) + f f ( A , ) - H { A . , A , ) con H(Ak) la entroj)ía de Boltzmann de un elemento dado,
H{Ak) = - Y^Pk{r) log 2 Pk{r]
Orden y Caos en Sistemas Complejos
558
La entropía conjunta
está definida por
log2
H{Ai,Aj) = r
donde las probabilidades
p,ji'\s)
5
y p,(r, s) se han obtenido siguiendo a dos elementos dados a lo
largo del tiempo, y han permitido obtener las entropías y la información transferida entre dichos autóniatas (notemos que el canal de comunicación es ahora la propia colonia). E n la figura 16.12 resumimos los resultados obtenidos. Para densidades bajas o altas, la información es baja, pero alcanza un m á x i m o (para los parámetros indicados) en un valor p — pc [pc ^ 0.18) que corresponde de hecho al punto en que aparecen las oscilaciones. También se muestra la gráfica informaciónentropía. E n ésta observamos que el má x i m o de información se da a un valor intermedio de las entropías individuales, Para > H^, la transferencia de información es difícii dada la baja densidad del sistema, que impide la propagación de las activaciones. Para densidades altas, tenemos
Hfj < ligada a la aparición de comportamiento colectivo coherente, que introduce efectos de memoria: los individuos propagan la actividad y además colaboran en mantenerla, lo cual genera intervalos de tiempo cada vez m á s largos en los que todos los elementos se hallan activos. E n la frontera entre a m b o s comportamientos, esto es. en la frontera orden-caos, aparece la óptima transferencia de información. V e m o s por lo tanto que estamos frente a un ejemplo de computación en la frontera del caos, concepto discutido en eí capítulo sobre autómatas celulares. La evidencia experimental indica con claridad que las densidades observadas coinciden con las obtenidas por el modelo. U n estudio reciente (Delgado y Solé, 1995) indica claramente que la transición está correctamente definida en términos de las llamadas transiciones de fase inducidas por ruido. Pod e m o s obtener medidas adicionales de complejidad que permitaji caracterizar el sistema. Por ejemplo, podemos calcular la longitud r de las series que necesitaremos para describir es tadísticamente ei sistema de forma correcta (tamaño del transitorio). Esta longitud diverge en los puntos críticos, así que debemos esperar que adopte un valor m á x i m o para Pc- Para medir este tiempo, recurriremos a la función:
denominada ganancia de información o información de Kullback (Haken, 1989; Solé y Miramontes, 1995) siendo {F,(r)} la distribución de probabiliad estacionaria y {P(r; í)} la distribución calculada hasta el
ésimo instante de tiempo. C o m o antes, r G {O, 1), y tendremos
r
r
La función K^(t) posee una propiedad m u y interesante (Nicolis y Prigogine): K^{t) > O, y tendremos igualdad si y sólo si Ps{r) ~ P{r:t) para todo valor de r. La variación temporal de A'^(í) nos da la expresión
dK
dt donde U/'(r|r') definen las probabilidades de transición. A partir de éstas, puede probarse que
esto es, la ganancia de información siempre decrece con el tiempo.
Redes Neurales Fluidas
559
Partiendo de uaa condición inicial arbitraria, calculamos en primor lugar la distribuci'^n esta cionaria, (Fj,(0), F,(l)} sobre A continuación, definiremos el taiuaiio del transitorio r por el primer valor de t tal que:
K„{t )< ( siendo e = 0.0025. El estudio de estos tiempos muestra un m á ximo bien definido en el punto crítico. Estudios recientes (Miramontes. 1995) han mostrado que las propiedades estadísticas temporales del modelo coinciden con las experimentales.
16,6
H orm igas y m áquinas de Turing
E n esta última sección introduciremos una propuesta teórica relacionada con el problema de la capacidad efectiva de cálculo de una red neural fluida (Solé y Delgado, 1995). Emplearemos c o m o sistema formal el que hemos introducido previamente (con algunas modificaciones en las reglas específicas). Consideremos ahora un conjunto de autómatas (hormigas) S,(í) ~ (S/(í),..., Sf^íí)) que ahora adoptarán un conjunto discreto de estados, concretan-icnte S¿ € S = {0 , 1}. La dinámica de la red vendrá definida mcíliante un conjunto de probabilidades de transición,
F(Si
-Si) = 5 { 1 + taah ( 3
Si(í) - 0,)I }
en las que hi{t) indica el c a m p o local (o c a m p o externo) sobre los autómatas vecinos,
hi(t) =
JijSj(t)
siendo -B,(p) la vecindad considerada (a ocho vecinos en nuestro estudio). Introducimos además un umbral 0^. Al igual que antes, las conexiones serán en general dependientes del estado de los pares de individuos que interactúan;
= A(Si(f), Sj{t)) € R, v tendremos una tabla
A_+
A _^
en la que indicamos que Jij = A+ + si los elementos {i,j} son tales que Si =
= +1, J,j =
si Si = 4-1 y Sj = -1, etc. Existe un caso particular tratable, definido por la red fluida con conexiones unidad, i.e. A,j = 1 para todos los pares de interacciones. E n este caso, podemos desarrollar una teoría de c a m p o medio (capítulo 7) en la que empleamos el promedio m({S}) =
Sj/N que evolucionará siguiendo la
ecuación
_5 m r
dt
= —m -I- ta n h
f3p{rn + 7 )
donde 7 es el c a m p o externo. Para 7 = O, el único atractor estable es ttíq = ú ú J = 0p < O = Jc y tendremos dos atractores ^ O (con m*^ = — rn*_) para J > Je- C o m o ya sabemos, este resultado tiene lugar a través de un proceso de ruptura de simetría, que se da en Je — 0. E n térnúnos de información (capítulo 1) podemo s decir que el sistema ha “duplicado” la información existente al cruzar el punto crítico (Haken, 1988; Haken y Stadler, 1990). Estos atractores corresponderán a los mínimos de la función energía libre, dada por
dm"
560
O rd e n V'
Caos en Sistemas Complejos
Figura 16.13: Transición entre atractores. A la derecha, vemos la función energía cuyos mínimos definen posibles estados globales. Partiendo de uua señal externa, el sistema debe modificar su función energía en forma adecuada para lograr cambiar colectivamente de estado. Típicamente, esta transición debe ser reversible.
y que pod e m o s elegir en la forma
7 ) = 0 (m, 7 ) =
pin l cosh
0
{pm + 7 )
I
(también conocido como potencial de Ginzburg-Landau, véase ei capítulo 7). De esta forma la dinámica del sistema viene dada, en la aproximación de c a m p o medio, por uu sisterxxa gradiente, dm
5$ ( m , 7 )
dt
dm
H e m o s introducido este desarrollo porque ilustra la conjetura reahzada por Haken acerca de los mecanismos dinámicos de procesamiento de información en sistemas complejos (Haken, 1977; Haken y Stadler, 1990: Solé et al, 1993b). Para almacenar información, el sistema debe ser capaz de estabilizar sus atractores (que en nuestra aproximación corresponderían a estados dinámicos globales) en mínimos de un potencial, c o m o aquellos definidos por <&(m,';.). Pero a la vez, el procesamiento de información requiere ía capacidad de saltar de un atractor a otro, en caso dc que sea necesario. Si, por medio de un mecanismo adecuado (autoregulado por el propio sistema) podemos modificar la función ^( 777,7 ) para acceder a nuevos mínimos, entonces el procesamiento de información y los procesos de cálculo serán posibles (figura 16.13). U n a red neural fluida puede presentar distintos atractores en varias formas. U n a posibilidad simple sería una red con matriz ferromagnètica, esto es.
Af =
1 1
1 1
y tal que f] pueda variar. Para ¡S = O la mitad de los autómatas estarán en el estado -|-1 y la otra mitad en el estado O, que de ahora en adelante supondremos que representan dos tipos de
Redes NeuraJes Fluidas
561
comportamiento (tareas). Cu a n d o ,3 > O, tendremos rotura de sinietría y d;>s nuevos atracl'ores alternativos, Otra posibilidad es, por ejemplo, emplear un valor 3 > O pequeño y una matriz A apropiada, de m a n e r a que las transiciones hacia un estado concreto sean m ás factibles. Por ejemplo, no cs difícil ver que así ocurrirá por ejemplo con
(con € € (0,1)), que hará que el sistema tienda a poseer todos sus elementos en el estado 5,· = +1, y por lo tcinto, m — ► m ^ . L a definición de la última matriz nos permite almacenar información, pero necesitamos, tal y c o m o h e m o s indicado, un mecanismo de procesamiento que permita la transición entre atractores. Para ello requeriremos la formación de una señal colectiva, que el sistema putida crear y automantener de forma estable, que tenga la capacidad de modificar la función ene>rgía y pernútir así la transición. Siguiendo la observación de las colonias de hormigas, consideraremos la comunicación quínaica c o m o mecanismo básico. Nuestro deseo es conseguir que los elementos del sistema posean la capacidad de detectar señales externas y generar a su vez u n a señal que otros individuos puedan detectar y amplificar colectivamente, de manera que el sistema logre cambiar de atractor. Esto es posible, por ejemplo, si los individuos pueden dejar una marca química detectable por los demás, c o m o ocurre con las hormigas. S u p o n g a m o s que un individuo detecta una señal externa, o sea una fuente de a hmen to local, y que emite una marca química dada. Esta señal tendrá una concentración local C(i,j) (con
1 ^
hj S
cuadrada) y supondremos que sigue una ecuación de difusión
(capítulo 10),
dC dt donde ¡j. es la tasa de degradación, D el coeficiente de difusión y
+ dy el término de
difusión pasiva. Si n o hay individuos, este c a m p o de concentración se difunde y decae hasta desaparecer. Si los elementos se hallan activos, detectarán el c a m p o y, eventualmente, lo modificarán, siendo a su vez afectados por el c a m p o (tenemos una propiedad emergente, c o m o discutíamos al principio). Tanto el primero de los factores (la formación de un c a m p o químico) c o m o el segundo (la modificación del comportamiento individual a trav-és de la acción del campo, véase Gordon. 1988) son conocidos y observables (Wilson, 1971; HoUdobler y Wilson, 1990). P o d e m o s ahora plantear un modelo completo, basado en los ingredientes anteriores. Nuestro objetivo será similar al que explorábamos en el capítulo 9 en relación con el problema de la C o m putación Universal (CU). La capacidad de C U (Hopcroft y Ullman, 1979) puede probarse, como ya h e m o s indicado, bien demostrando que una Máquina de Turing Universal ( M T U ) puede ser simulada por el sistema definido o, c o m o hicimos en el caso del juego de la vida, demostrando que p o d e m o s emular los dispositivos lógicos necesarios para construir una M T U . P o d e m o s demostrar que es posible construir una puerta N C R empleando una red neural fluida eu la que los elementos generan, y se ven afectados por, un c a m p o de concentración (Solé y Delgado. 1995). L a puerta N C R está definida por; Input 1 (II) ü
1 0 1
1 I
Input 2 {I2 )
Q 1
0
i 1 oJ
ü
1 1
i i
Orden y Caos en
562
S iste m a s
Complejos
2 O
10 c:
0.0 -
1O4
-2 0
150
200
tim e Figura 16.14: (a) Transición entre atractores en la red neural fluida descrita en el texto. U n a vez introducida la señal [C > 0), vemos que ésta es amplificada durante un tiempo, hasta que resulta ehminada y el sistema regresa a su atractor. Se indican Q y m. (b) Espacio paramétrico (/?, /i) con las distintas dinámicas, definidas a partir de la puerta lógica Ñ O R .
en la que se indica por Q cierta respuesta colectiva, expresable en forma binaria. Supongamos que > O y que la matriz de conectividad es Aq. C o m o consecuencia de esta elección, obtendremos cierta distribución de actividad definida por uu conjunto de elementos que, mayoritariamente. estarán en el estado S, = -|-1. A continuación definimos dos entradas externas, /i e I2 . Esta.s serán dos señales emplazadas en dos puntos del espacio (el ‘^ambiente” externo), que aquí tomamos c o m o los vértices opuestos. C o m o señal, emplearemos una concentración fija C q que puede hallarse (/, = 1) o no (/,· = 0) presente (aunque existen muchas otras posibilidades). C u a n d o un autómata detecta, en un punto dado de la red, cierta concentración C >
(0 es un umbral), reforzará el
c a m p o en una cantidad Finalmente, el c a m p o local actuará sobre un individuo modificando la probabilidad de transición,
hi{t,Ci) =
^ ^ JijSj{t) — Ci
dc forma que, en presencia de una concentración lu bastante grande, los elementos tenderán a cambiar de estado. La '‘sahda” colectiva se define por la función
a = H j= l donde H{z) es la función de Heaviside, esto es, H{z) = 1 para 2 > 0 y i í ( 2 ) = ü e n caso contrario. Bajo estas condiciones, podemos comprobar que, efectivamente, el sistema puede llevar a cabo una transición colectiva desde el estado m + al estado m _ . U n ejemplo de esta transición se muestra en la figura 16.14 (a) para un conjunto dado de parámetros. Vemos cómo, una vez introducida la señal en un punto de la red, el sistema responde generando un cambio transitorio en el estado global, c o m o vemos en la variación del número de individuos según el parámetro de salida fì. U n estudio
Redes
.V euraies
Fluidas
563
del e s p a c i o <■!>· parámetros 'o. fj) (figura 16.14 (b)) nos muestra tres dominios bien definidos. Kn el primero (R.X ) tenemos u na red fluida aleatoria, en la que las entradas no pueden set amplificadas para dar luear a u n a transición. E n el otro extremo (zona sombreada) la amplificación es exce.^iva y el sistema incapaz de regresao: a su estado anterior. E n la zona intermedia (zona blanca) aparece un do n ii m c- · n el que la puer:a Ñ O R está correctamente definida y es reversible. U n a vez el estímulo ha p a s a d o . . \ amplificacióii decae y el sistema recupera su estado anterior (que. en un hormiguero, correspond-'TÍa a la distribución de actividades normal). Para densidades intermedias (como ocurre en las c o l o n i a s reales) el sisz^ema. posee la capacidad de almacenéir y procesar información de forma estable.
B ib lio g ra fía 1. F. R. .\dler y D. M . Gordon, Information collection and spread by neAworks of patrolling
ant^. A m . Nat. 1 4 0 373 (1992), 2. D. .]. Amit. Modellinc Brain Function. Cambridge U. Press, Cambridge, 1989. 3. E. Buijabeau y G. Theraulaz, IntelligGucG Collective. Ed. Hermes, Paris, 1994. 4. B. Cole, h animal be\-czyior chaotic? Evidence from the activity of ants. Proc. R. Soc. Lond.
B 2 4 4 253 (1991). 5. J. Delgado y R.. V. Sole, Evidence of a noise-induced transition in fluid neural networks,
Physica Z> (en prensa. . 6 . J. L. Deneubourg, A^licaiion de Vordre par fiuciuations a la description de ceriaines ¿tapes de la construction dz -nid chez les termites. Ins. Soc. 24 117 (1977). 7. J. L. Deneubourg, S. Aron, S. Goss , J. M. Pasteels y G. Duerinck, R a n d o m behavior, ampli-
ficaiion processes anc number of pariicipants: how they contrHbute to the foraging properties of anij:. Physica D 2 2 176 (1986). 8 . J. L. Deneubourg, S. Goss, N. Franks y J. M. Pasteels, The blind leading the blind: modeling chemically mediated z'-my ant raid patterns. J. Insect Behav. 2 719 (1989). 9. J. L. Deneubourg, S. Goss, N. Franks, A. Sendova-Franks, C. Detrain y L. Chretien, The dy
namics of collective {:~iing robot-like ants and ant-like robots. E n *"From animals to animals” M I T Press. 1992, 10. S. Forrest, Emergen: Computation. Physica D
42
I (1990).
11. N. Pk.. Franks, S. Brysnt, R. Griffiths y L. Hemerik, Synchronization of the behavior within
the neits of the ant Li-piothorax acervorum. Bull. Math. Biol. 5 2 597 (1990). 12. D. M. Gordon, Dync'-.zcs of task switching in harvester ants. Anim. Behav. 38 194 (1988). 13. D. M. Gordon, B.C. G oo dwin y L. E. H. Trainor, A parallel distributed model of the behavior of artt colonies. J. t^ior. Biol. 1 5 6 293 (1992), 14. H. Haken. Synerget:^:^. A n Introduction. Springer-Verlag, Berlin 1977. 15. H. Haken. Informatw.·^. and Selforganization. Springer-Verlag, Berlin, 1988. 16. H. Haken y M. Stacker. Synergetic of cognition. Springer-Verlag, Berlin, 1990.
Orden y
564
Caos en S istem as
Complejos
17. n . HofsLadter, Gddel, Eschcr, Bach. Harvester Press, B r i g h t o n , 1979. 18. M. J- Hatcher, C. Tofts y N. R. Franks, Mutual exclusion as a mechanism for information exchange within ani nests. Naturwiss. 79 32 (1992). 19.
V. Holden, J. V. Tucker, H. Zhang y M. J. Poole, Coupled m a p lattices as computational
.•systems. Chaos 2 367 (1992). 20- .1. E. Hopcroft y J. D. Ulhneui, Introduction to automcLta theory, languages and computation, .-Vddison-Wesley, Reading, M A , 1979. 21. B, HoUdobler y E.O.Wilson, The Ants. Springer, Berh'n, 1990. 22. M. Lachmaji y G. Sella, Universal computation in an, ant colony: the power of systems with
many simple elements. Proceedings of E C A L ’95 23. .A. Mikhailov, Collective dynamics in models of communicating populations. E n “Interdisci plinary Approaches to Nonlinear Complex Systems'’ H. Haken y A. Mikhailov, eds. Springer Series in Synergetics Vol. 62, Berhn, 1993. 24. O. Miramontes, Order-disorder transitions in ihe behavior of ant societies. Complexity 1 56 (1995). 25. O. Miramontes, R. V. Solé y B. C. Goodwin, Collective behavior of random activated mobile
cellular automata. Physica D 63 145 (1993). 26. G. Nicolis e I. Prigogine, La estructura de la complejo. Alianza Universidad, Madrid, 1994. 27. I. Prigogine e Í. Stengers, Order out of chaos. Heinemann, N e w York, 1984. 28. V. Skarka, J. L. Deneubourg y M. R. Belie, Mathematical model of building behavior in Apis
melifera. J. theor. Biol. 1 47 1 (1990). 29. R. V. Solé, O. Miramontes y B, C. Goodwin, Oscillations and chaos in ant societies. J.
theor. Biol. 161 343 (1993a). 30. R. V. Solé, 0. Miramontes y B. C. Goodwin, Emergent Behaviour in Insect Societies: Global Oscillations, Chaos and Computation. E n “Interdisciplinary Approaches to Nonlinear C o m plex Systems” H. Hake n y A. Mikhailov, eds. Springer Series in Synergetics Vol. 62, 77 (1993b). 31. R. V. Solé y O. Miramontes, Information at ihe edge of chaos in fluid neural networks.
Physica D 80 171 (1995). 32. R. V. Solé y J. Delgado, Universal computation in fluid neural networks. prensa, 1996). 33. E. O. W'ilson, The Insect Societies. Harvard U. Press, Cambridge, 1971.
Complexity (en
C apítulo 17
C aos H a m iito n ia n o Este capítulo versará sobre una clase aunplia de sistemas que presentan caos determinista: son los sistemas hamiltonianos. Para nosotros, un sistema hamiitoniano será aquel que conserva la energía total que posee, aunque en rigor el formalismo hamiltonióino puede ser aphcado también a sistemas cuya energía total dependa del tiempo. Los sistemas conservativos hamiltonianos se hallan en la raíz del desarrollo del estudio de los sistemas caóticos. La primera vez que el caos apareció fue en la mecánica clásica, a finales del siglo pasado. (Por supuesto, ei tipo de dinámica que ahora designamos con el nomb re pomposo de caos determinista aún no se llamaba así. Y quizá la adopción de otra denominación hubiese evitado muchos malentendidos en la actualidad.) Henri Poincaré, quien trabajó durante algún tiempo en el problema de los tres cuerpos (preocupado por la estabilidad del sistema solar) fue el primero en encontrarse frente a la dinámica caótica desarrollada por un sistema conservativo. Es probablemente en el c a m p o de la mecánica celeste donde el formalismo hamiitoniano se revela de m a y o r utihdad. Desde los tiempos de Poincaré han sido muchos los problemas no disipativos estudiados en los que se ha encontrado caos determinista.
Describiremos brevemente en este
capítulo algunos de ellos, y comentaremos la influencia que la dinámica caótica puede tener en el movimiento de los asteroides, en la estabilidad de la resonancia rotacional de Júpiter y Saturno, en la variación del ángulo de rotación de la tierra, ... Comenzaremos con una breve introducción al formalismo hamiitoniano (como es costumbre, en la bibhografía del final del capítulo se encontrará dónde buscar el tema desarrollado) para pasar a estudiar las peculiaridades de los sistemas conservativos, la aparición de resonancias y, no obs tante, la posibilidad de encontrar caos. Posiblemente el resultado m ás brillante en relación a la estabilidad de las órbitas periódicas de los sistemas conservativos es el llamado teorema K . \ M (por Kolmogorov, Arnold y Moser), el cual nos garantiza la estabilidad de estas órbitas frente a per turbaciones que, en principio, podrían desestabilizar un sistema conservativo y, c o m o consecuencia m á s catastrófica, nuestro propio sistema solar podría ser inestable. El teorema K A M pernúte que respiremos tranquilos por unos 100 millones de años...
17.1
La m ecán ica de H am ilton y Jacobi
Describamos en lo sucesivo nuestro sistema dinámico mediante dos conjuntos de variables: q para las posiciones y q para las velocidades, q = (91,92, -· .,9n) q = (91,92, ·-*,9n) 565
Orden y Caos en Sistemas Complejos
566
El número de coordeiiadíis dcl sistema en el espacio de posiciones (o de velocidades), n, se denomina número de grados de libertad del sistema. Es esencial conocer primeramente la llamada
función lagrnngiana o lagrangiano L de sistema. Si llamamos T a la energía cinética total y F a la energía potencial del sistema, L se define de la forma siguiente: L = T - V
(17.1.1)
La energía cinética es siempre el producto
donde = q.q, es un producto escalar (al que se debe aplicar la métrica adecuada, o en general considerar el cambio de coordenadas). Sólo si trabajamos con coordenadas cartesianas podremos escribir
q-q = 9Í + 92 + --- + 9n La energía potencial es una función que sólo depende de las posiciones,
V = h{qi,q2 ,...,qn) Si definimos los momentos pj asociados a las variables qj c o m o las cantidades
expresaremos lets ecuaciones de Neviton del movimiento, c o m o
^ df
dqj
A partir del lagrangiano antes definido podemos escribir las llamadas ecuaciones lagrangianas del movimiento, que representan la dináinica de cualquier sistema para el que conozcamos su función lagrangiana,
dL\
dL
dt \ d q j j
dqj
La siguiente trajisformación, que permite llegar a la función hamiltoniana. o hamiitoniano, H de un sistema, consiste en sustituir L(q, q; t) por una nueva función íí^(q, p; ¡!), de la forma siguiente;
^(q,P;0
^
(17.1.3)
j^l
H es una función de q y p, posiciones y momentos. Estos últimos están definidos por la expresión 17.1.2. E n esta£ últimas líneas hemos incluido explícitamente la posible dependencia de L y H con el tiempo t. Sin embargo, tratamos en este capítulo únicamente con sistemas conservativos y ello implica que ni i ni jET pueden depender exph'citamente del tiempo t. Es decir, si nuestro sistema es conservativo,
f Esto implica que existe una cantidad conservada sobre las trayectorias del sistema, la energía E,
CcLOS H a m iito n ia n o
567
¿ ■ ( q . p) = El hamiitoniano permite escribir las ecuaciones del movimiento del sistema en la forma
dt “
dqj
dt ~ dpj
^
'
Estas son las llamadas ecuaciones del movimu nto de HamiHon-Jacobi, las cuales forman uu con junto de 2n ecuaciones diferenciales de primer orden, en lugar de las n de segundo orden que proporcionaban las ecuaciones de Newton. D a d o que tratamos con sistemas conservativos, no encontraremos regiones atractivas en el espacio de las fases (puntos fijos, ciclos límite o atrac tores extraños) c o m o en los casos disipativos. El caos aparecerá aquí de forma diferente, con una topología diferente, c o m o veremos. Demostremos con un ejemplo sencillo la forma en que podemos llegar al hamiltoriiano de un sistema.
E jem p lo Consideremos el problema de los dos cuerpos en el caso simplificado en que uno de ellos (el de masa M , y consideramos M > m, con m la masa del segundo cuerpo) está fijo en un punto del espacio. Ei cuerpo menor, de m a s a m, se mueve bajo la acción gravitatoria del primero, con una energía cinética T y una energía potencia] gravitatoria V que son
+
T =
V = -G v V
+ y^
donde se ha considerado, sin pérdida de generalidad, que el movimiento tiene lugar en el plano (r,y) Es más conveniente en este caso utilizar coordenadas polares,
X = r eos {6 ). y = r sin (0) Derivando ¿ = r eos (6>) - á r sin (0 ) Ì y = r sin (9) + 9i' eos (í?) J y considerando que
-f- y' =
¿.2 , -2 _ -2 , „2¿2
la energía emética se escribirá ahora c omo
+ r^é'^)
T = y la energía potencial
,mM
r Ei lagrangiano del sistema en coordenadas polares será pues 2
L = T ~ V
-m(r^ -hr^9^) +
2
r
Orden y Caos en Sistemas Complejos
568
Figura 17.1: E sq uema del problema integrable de los dos cuerpos tratado en la sección 17.1.
Para escribir el hamiitoniano del sistema recordemos que necesitamos la expresión de los m o mentos correspondientes a cada una de l¿tó variables del sistema. Las variables hamiltonianas son en este caso q ^ (r. 0 ),
p ^
y los mome n t o s se obtienen de 17.1.2, proporcionando
dL
di-
. — mr.
dL y
Pe
= mr^i
(17.1,5)
de
El hamiitoniano será ahora
mM
que debe de ser reescrito en función de coordenadas y momentos, lo cual, utilizando las relaciones 17.1.5 se reduce finalmente a
1
M m
2/7Í Las ecuaciones del movimiento que se obtendrán a partir de H y 17.1.4 serán
dH
Pr
dpr
m
'S i el p o ten c ial es cen tral, el m o vim iento siempre tiene iu g a r en u n plano, y a que el v e c to r m o m e n to a n g u la r es u n a c a n tid a d conservada, y re p rese n ta el vector no rm al del p lan o que contiene la d in á m ic a . U n sim ple giro de ejes p e rm ite s itu a r el m o m e n to a n g u la r en el eje y p o r ta n to el m o v im ien to en el plano { x , y ) . ^O b sérvese que, debido a que no utilizam os co o rd en a d as c a rte s ia n a s, aparece en la e n e rg ía c in é tic a el term ino r^ , c o rre sp o n d ie n te a la m é tric a en c o o rden adas polares, p a r a Icis cuaies
C aos
Hamiltoniasio
569
dpe dU
rn
. — P r
^ M m G
—
1 p|
-
dr
m r®
dH Z. - P 0 =r 0 = > nièr'^ - ci D e esta última relación se obtiene un resultado importante, que puede darnos u n a idea de . a . potencia del formalismo hamiitoniano: cuando el hamiitoniano no contiene exph'citamente la coor denada el m o m e n t o conjugado de ésta, p¿, es una cantidad conservada sobre las trayectorias dei sistema. A qi se la denomina entonces coordenada cíclica. Las cantidades conservadas juegan uji papel fundamental en la resolución de estos sistemas dinámicos, c omo veremos a continuación.
17,2
Sistem as dinám icos integrables
Decimos que un sistema dinámico es nitegrable cuando podemos averiguar que ejds:en solucionaí para el sistema dependientes de funciones conocidas. Obsérvese que no decimos que s^ranios capac es de escribir esta solución, sino de determinar su existencia.
D e hecho, u n sistema, dinámico -r.'
integrable cuando existe un número suficiente de constantes del movimienio ademáí de la energ: í:. las cuales permiten reahzar una predicción cualitativa del movimiento en el espacio las fases. £:l el ejemplo que hemos dado en la sección anterior se ha hallado casi de maner a trivial una canticac conservada, el m o m e n t o angular, además de la energía. N o siempre es tan sencillo encontrar esCÁ.^ cantidades de forma explícita^ aunque su presencia se puede reconocer cualitativamente porq -·;■ generan (oros invariantes en el espacio de las fases. Si un sistema es integrable no puede ser caótico, asi que la determinación de la existencia (o -e·] resultado negativo de la no existencia) de constantes del movinúento es fundamental en el caso c zznos ocupa. Si una cantidad F es una constante del movirrúento de un sistema dinánico, verific-i
n-
^ rí
I
d Fdqi\
^
- dt
^
(a p . di
^
fóH£f
E
1 dp, dq¡
dqi
dt
i
^
(1T.-2:·
dqi dpi J
La última línea define el paréntesis dc Poisson, [H, F], que se puede calcular paró cualquier r e de funciones en el espacio de fases. Si [H, Fj = O en todo el espacio de fases, F e¿ 'ina consta^' del movimiento. La interpretación geométrica del este resultado lleva a la concl'^¿^ión de q u - r . dinámica del sistema tiene lugar sobre la intersección de las hipersuperficies F =
c :.
H - ct.
Utilizando el paréntesis de Poisson podemos escribir las ecuaciones de Harrúlton en la fornui
dqi dt
= (ír,d
dpi dt
= [-ff. P.Ì
U n hamiitoniano con n grados de libertad será integrable cuando existan n funciones difereace¿, a determinar, tales que [JY.F,] = 0 ,
570
O rd e n
y
C aos
en Sistemas Complejos
E n general, sin embargo, en lugar de n constantes del movimiento encontraremos, digamos, k cons tantes, energía incluida, que restringirán el movimiento a un a liipersuperficie (2 n — fc)— dimensional en el espacio de fases. La estructura interna de esta hipersuperficie no tiene porqué ser simple, en principio, a no ser que todos los paréntesis de Poisson entre las constantes del movimiento se anulen, caso en el cual se dice que estéis constantes están en involución. Supongamos, en el caso más favorable, qu<· hemos hallado n constantes del movimiento que están en involución. Entonces, se puede demostrar que el movimiento del si.stema tiene lugar sobre un tOTO n -d im e n s io n a l Las trayectorias del sistema se localizan sobre estos toros invariantes, y el sistema es integrable. Lo m á s adecuado en estos casos es el uso de ias llamadas variables acción-ángulo, sobre las que no nos extenderemos, pero que tratan de aprovechar la topología de estas hipersuperficies para describir la posición del sistema únicamente mediante un conjunto de ángulos (de forma análoga a lo visto en la parte dedicada a movimiento cuasiperiódico en el capítulo 4). El conjunto de variables ángulo, .it;2,···, tVn) define las frecuencias, Q, del sistema. El movimiento será periódico si las relaciones entre las frecuencias son racionales, es decir, si éstas son conmensurables. El conjunto complementario de variables, las variables de acción es (7i, Í25 ■··?In), las cuales juegan el papel de momentos respecto de las variables ivi. N o daremos la forma en que se pueden hallar las transformaciones que pasan de (pi,g¿) a (iji;,,7¿). El lector interesado puede consultar Lanczos (1970) o Gantmacher (1975), entre muchos otros. Sup ongamos que hemos haUado una función 5, llamada transformación canónica que nos per mite realizar el cambio de coordenadas citado, y de forma que, expresado en las nuevas coordenadas, el hamiitoniano del sistema resulte ser uua función únicamente de los momentos, a5(q,I) q. con
_ 55(q,I)
_ 5S(q,I)
^
51
así que las ecuaciones del movimiento quedas reducidas a .
dHo oivi
Ii = - - - —
dHo dl,
.
w , - = u)i(I)
y pueden ser integradas para proporcionar la solución completa a la dinámica del sistema, /, = ct
w¡ = Qit +
6
i
(17.2.2)
Estas últimas ecuaciones son análogas a las que se obtendrían para un conjunto de n osciladores no acoplados. L a introducción de algún término de acoplanúento en el anterior hamiitoniano integrable podría provocar que las frecuencias fí, ya no fuesen todas independientes. Los acoplamientos pueden inducir resonancias y llevar las relaciones Q^/Qj a cocientes racionales. Este es el mi s m o caso que se había visto para la cuasiperiodicidad en sistemas disipativos (capítulo 4). Las resonan cias en el caso hamiitoniano pueden llegar a desestabilizar el sistema, c o m o se verá en las próximas secciones. El problema de hallar las constantes del movinúento de un sistema, a fin de saber si éste es integrable, y por tanto si presentará un movinúento regular, se convierte en la esencia del estudio de los sistemas dinámicos conservativos. E n caso de que no existan n constantes del movimiento en un sistema con n grados de libertad, nos hallamos ante la posibilidad de la dináirúca caótica.
Caos
Hasniltoniano
El primer sist^n.-, problema de los
571
donde se descubrió la posibilidad de movimiento "irregular” fu»· eii el cuerpos.
Consideremos, para fijar ideas, el Sol, la Tierra y la Lima, y
prescindamos de la. influencia de ios d e más planetas. El espacio de fai>es de este sistema triple tiene 18 dimensioi:-i5. Habitualmente se considera el movimiento referido al sistema de referencia del centro de ma.-a.' de los tres cuerpos, con lo cual las coordenadas espaci.iles requeridas son: 3 para el centro de rr-s¿as del sistema, 3 para el vector que apunta desde el centro del Sol hasta el centro de masas d-r. conjunto Tierra-Luna, y otras 3 para el vector que va de la Tierra a la Luna. Considerando los mo m e n t o s correspondientes a cada uno de estos vectores obtenemos un total de 18 dimensiones. E u este sistema se pueden reconocer inmediatamente 10 constantes del movimiento; 1. D a d o que el c-entro de masas de los tres cuerpos tiene un movimiento uniforme que no influye en los movirr-ientos del Sol, la Tierra o la Luna, podemo s considerar el sistema de referencia del centro d-r masas en reposo, y ehminar seis dimensiones (posición y m o m e n t o del centro de masas). 2. El m o m e n t o e^ngular del sistema es constante. Su dirección determina un plano invariante a través del c-fz:ro de masas. }■ nos permite ehminar otras tres dimensiones. 3. L a energía cr'. sistema es constante, lo cual permite en adición determinar el eje mayor del movimiento i-íi centro de masas Tierra-Luna alrededor del Sol. La energía permito reducir en 1 la dim-rrasión del sistema. Esto nos deja :on un sistema de dimensión real 8 . Y nos preguntamos, ¿existe alguna otra constante del mo'- imiento. a p a ñ e de las citadas? La respuesta la dio el teorema de Bruns y Poincaré; no exi^'.z ninguna otra constante del movimiento que ■permita rebajar la dimensión del
sistema. El problema dí los tres cuerpos fue el primero en descubrir todo un m u n d o de dinámica irregular. Poincaré encontro esta dinámica compleja, y concluyó hace ya 100 años que la no integrabilidad del problema de los tres cuerpos implicaba la posible inestabihdad del sistema solar (Petersoa, 1994). C o m o aproximad :*n al problema completo, Poincaré inició el estudio de las órbitas periódicas del sistema. Las siguientes palabras (Poincaré, 1892) describen la impresión que en él causó la M i ná m i c a caótica" que acababa de descubrir:
“lo que proporciona a estas órbitas pei^dicas su valor es que ofrecen, por decirlo de alguna mc'-.^Ta, el único camino por el cual penetrar en esta fortaleza que tiene la reputación it ser inexpugnable. ” Sin embargo. íis condiciones iniciales que sitúan la dinámica sobre órbitas periódicas tienen una medida de :»esgue cero entre el total de condiciones iniciales posible. Poincaré había hallado que. en consecu-ricía, el movimiento de los cuerpos en el sistema solar no se repetía casi nunca exactamente. .V ; babía recurrencia a la que aferrarse. El futuro, aunque determinista, se había convertido en iir-.^redecible. Para entender cualitativamente lo que esto significa, consideremos una aplicación discreta sen cilla y conserva':-. a. Esta aphcación proviene de una simplificación del potencial de Hénou-Heiles que da lugar al í.s'uiente hamiitoniano no integrable
^
^2 + *?2 +
^
el cual simula ió acción de la galaxia sobre una estrella. La aphcación resultante (Hénon, 1969) es la siguiente
Orden y Caos en
572
S istem as
Complejos
Xn + l = Xn eos (ö) - (j/„ - X^) s m (or) yn+l = Xn sin (a) + (y„ - xl) eos (o)
(17.2.3)
Si tomamos uu conjunto suficientemente amplio de condiciones iniciales sobre el espacio de fases (x, y) hallaremos una mezcla sorprendente de órbitas periódicas y órbitas caóticas. Véase la figura 17.2, la cuai muestra claramente la Vcniación de la dinámica con el a umento de energía en el sistema. Cuando la energía es pequeña, las órbitas son periódicas (centro del atractor), en tanto que cuando aumenta, las órbitas periódicas quedan atrapadas en islas de estabilidad y rodeadas por un m ar de órbitas caóticajs. La figura 17.3 representa concretamente tres órbitas correspondientes a este sistema. Las dos exteriores soncaóticas y lainterior es cuasiperiódica. C a d a una de ellas corresponde ala elección de una condición
inicial diferente. Si la órbita es caótica, la superficie ocupada por las imágenes
sucesivas del punto inicial es extensa. Si la órbita fuese periódica ocuparía un conjunto discreto de puntos, y si es cuasiperiódica se sitúa sobre una curva cerrada.
17.3
Teoría d e perturbaciones
La mayoría de problemas clave en mecánica es integrable, entre ellos el movimiento de un planeta alrededor del sol (problema de los dos cuerpos) y el oscilador armónico.
Resulta pues tentador
intentar resolver los problemas má s comphcados partiendo de éstos sencillos, perturbando el harrúb toniano resoluble con el término no integrable. L a teoria de perturbaciones que posibilita esta aproximación falla, sin embargo, cuando nos encontramos ante resonancias en las frecuencias que caracterizan un sistema, c o m o veremos. Recordemos que, para un sistema integrable, podíamos dar su solución en función del conjunto de variables acción-ángulo, y habíamos reducido la dinárrúca a una hipersuperficie topològicamente equivalente a ua toro rz— dimensional. Sobre esta variedad, T", las posibles dinánúcas se reducen a dos casos: periodicidad (cocientes racionales entre algunas de las frecuencias Q;) o cuasiperiodicidad (frecuencias inconmensurables). U n a aproximación sencilla a un problema no integrable, pero que posea un hamiitoniano H cercano al anterior H q ,consiste en considerar la parte no integrable c o m o un a perturbación al caso integrable que se ha podido solucionar, en la forma
F (I,w ) = ff o (I )+ f^ i(I ,w ) con € pequeño. El hamiitoniano H se ha expresado mediante el conjunto de variables (I, w, ), pero para él simplem«>ute representa un cambio de coordenadas, que, debido al térnúno (Hi, no permite ahora encontrar la solución en la forma antes indicada: ahora, las variables 7, no son constantes del movimiento. El hamiitoniano ffo(I) sí que corresponde a un problema integrable, escrito en coordenadas cajiónicas mediante las variables acción-ángulo para ese caso. Intentemos encontrar un nuevo conjunto de variables acción-ángulo, (w', I') medisuate una trans formación canónica 5 para el hamiitoniano perturbado H, de forma que se verifique
dS Wi dwi ’ q\ie es la condición que debe cumplirse para obtener las constantes del movimiento 7,· y llegar a la integración total del sistema. Escribamos la nueva función 5 c om o 5(i',w) = w r + cSi(r,w)
Caos H a m iito n ia n o
573
— , 0.19
0 . 63
0 . 18
0.16
0 . 14
0 . 12
0 .1 0.7
0.72
0.74
0.76
0.78
0.8
-0.5
0.4
-0.3
Figura 17.2: M a p a de fases de la aplicación conservativa de H é non 17.2.3, con cosa = 0.24, arriba a la izquierda. Las otras tres imágenes son ampliaciones del conjunto inicial, en las ventanas indicadas en cada una de las figuras.
574
Orden y Caos en
-O
S is te m a s
Complejos
.
- 0.8
0.2
-0.3
0.7
Figura 17.3; Tres órbitas independientes para tres condiciones iniciales diferentes (correspondientes a tres valores diferentes de la energía) en la aplicación de Hénon 17.2.3. La interior es cuasiperiódica y las dos exteriores son caóticas.
y con esta definición desarrollemos nuestro hamiitoniano a orden e;
g o (I') +
+ t g i (I'.
W) +
=
H '( I')
(17.2.4)
C o m o la expresión de la izquierda no puede depender de w, debemos exigir
(17.2.5;
dw lo cual determina 5i, y donde
dHo
a =
dl son las frecuencias características del sistema no perturbado (ecuación 17.2.2). D a d o que se supone Hi (y por tanto también Si) periódico en las componentes de w, podemos intentar resolver 17.2.4 utilizando desarrollos en serie de Fourier para H\ y Si, S,(I',w)= ^ K /0
K^o con K
2 7r(rni, 7712, ·-·, ^«n), Y
valorcs enteros. Vi. Por sustitución en 17.2.5 e igualando los
coeficientes de los términos iguales eu la serie de Fourier se obtiene
5,(r,w) = w r . . 5 : Kjeo
M
e
-
K
w
Caos
Hamiitoniano
575
Por desgracia, obtendremos divergencias en la expresión ant^'rior cuando el denominador se anule, es decir, cuando K í í = O — t- mií^i + ^772^2 + -.- —
-
o
lo cual quiere derir cuaudo existan rt-áonancias entre kis frecuencias, cuando éstas sean conraensiirables. Este es el conocido problema de los denominadores pequeños: el sistema no puede ser tratado mediante teoría de perturbaciones debido a la probable anulación de los denominadores de algunos términos de ia serie (supuesta en principio formada por términos pequeños y convergente, a fin de que la teoría de perturbaciones sea útil). La situación es en realidad aún peor, y a que incluso en el caso en que K í í O, es decir, cuando las frecuencias son inconmensurables, siempre es posible encontrar un conjunto de valores m para el que
K íl < 6 con <5 arbitrariamente pequeño. Esta situación nos hace dudar de la convergencia de la serie incluso en ausencia de resonancias. Por tanto, nos encontramos ante el problema de la convergencia de la s u m a en K y el de la convergencia del desarrollo en potencias de e. C u a n d o se tratan ciertos problemas de mecánica celeste, se encuentra que algunas relaciones de frecuencias están alejadas de ser conmensurables para valores de m, pequeños (aunque otras relaciones están asombroscunente próximas a un racional, c o m o se verá). Por ejemplo, la frecuencia de revolución de la Tierra alrededor del Sol es 11.86 veces la de Júpiter, su principal pert\irbación. Podríamos considerar únicamente unos cuantos términos de la serie, en lugar de la serie completa, para predecir la dinámica durante un intervalo de tiempo finito, que puede ser m u y laigo a escala celeste. El éxito de estas predicciones, sin embargo, no soluciona el problema de la integrabilidad del hanúltoniano H y de la existencia o no de toros n-dimensionales para su dináinica. El problema de la predicción puede ser m u y diferente dependiendo del tiempo característico del sistema, dei v-^alor de SI,. Por ejemplo, en mecánica estadística se trabaja con unos “tiempos moleculares” del orden de 10^^ revoluciones por segundo, lo cual corresponde, a escala planetaria, a 1000 veces la edad del universo. Tras este análisis, queda planteada la siguiente pregunta: ¿qué ocurre en el sistema original cuando una órbita con K f l = O se perturba mediante el térnúno eHi^. o bien, ¿qué ocurre en el caso K í i = 6 (con <5 pequeño) bajo esta nú s m a perturbación? El teorema K A M nos da parte de la respuesta.
17.4
R eson an cias y el teo rem a K A M
Podríamos razonar que el problema de tener relaciones racionales entre las frecuencias de un sistema no debería ser tai, puesto que, si escogemos al azar un valor en la recta real, la probabilidad de que sea racional es cero a priori. Sin embargo, la existencia del fenómeno de la resonancia lleva a estos valores en principio arbitrarios a presentar efectivamente relaciones racionales. Probablemente la m á s conocida de esteis resonancias a nivel celeste es el hecho de que la Luna siempre nos ofrece la m i s m a cara. Es decir, su frecuencia de rotación y su frecuencia de traslación alrededor de la Tierra se encuentran en la relación 1:1. La explicación a este hecho, conocido desde la antigüedad, no fue hallada hasta 1764 por Lagrange. Otro caso, quizá no tan popular, es el de la resonancia de los periodos de traslación de Júpiter y Saturno alrededor del Sol. El primero invierte 12 años, y el segundo 30 en realizar u na revolución completa. C a d a 60 años estos dos planetas se encuentran exactamente en la m i s m a posición relativa. La relación entre sus periodos es 2:5 con m u y buena
576
O rd e n
y Caos en Sistemas Complejos
aproximación. Así pues, parece ser que nos eucoutrareraos efectivamente con la relación o bien con un valor m u y cercano a un racional.
Krt
= O,
El teorema K A M (Kolmogorov, 1954; Arnold. 1963; Moser, 1967) da una respuesta al c o m p o r tamiento de los toros n — dimensionales bajo la arción de la perturbación eHi. Consideremos el caso 2 — dimensional en el que las frecuencias imi)Iicadas en la dinámica sean < ^ 2 - Entonces, si el cociente ÍI1 / O 2 es suficientemente irracional de forma que se verifique
el toro 2— dimensional definido por fìi y Q 2 no se destruye; únicamente sufre una deformación topológica. El valor k es independiente de r y y verifica k{e 0) 0. Los toros 2— dimensionales no incluidos en 17.4.1 y que son en su mayor parte destruidos por la perturbación son los que satisfacen
I - ;í ' para algún valor de r y a entero. El conjunto de valores de Üi/ÍÍ2 para el que se verifica ia relación 17.4.1 es no vacío, es decir, tras la perturbación, existen toros que '‘sobrevíveu’· eu el espacio de las fases. Calculemos aproximadamente la cantidad de toros (el intervalo total de frecuencias) que será destruida bajo la perturbación. Supongamos que el cociente de frecuencias está acotado entre O y 1 (sin pérdida de generalidad, O < < 1)· Entonces, suprimamos un intervalo de longitud k/s"^'^ alrededor de cada racional r/s en el rango [O, I). La longitud total eliminada es
* 1
í= 1
cantidad que tiende a cero cuando e — ‘ O, y que proporciona un límite superior a la cantidad total de toros destruidos. El teorema demuestra resultados análogos para n dimensiones. Resurrúmos el resultado ge neral: en un sistema perturbado, la mayoría de las órbitas se localizan sobre toros en el espacio de las fases. Las que no se mueven sobre estos toros forman un conjunto pequeño pero finito, patológicamente distribuido en el espacio de fases cerca de cada toro no perturbado que soporta órbitas cerradas o parcialmente cerradas. Desde el punto de vista físico, los intervalos correspon dientes a valores grandes de s son difíciles de estudiar, ya que son m u y estrechos, y pequeñas perturbaciones aleatorias (presentes en cualquier sistema real) añadidas a € pueden llevar al sis tema fuera de este intervalo, y colocarlo en el dormnio de uno de los toros vecinos. Los intervalos de orden menor (s pequeño), que resultan de las resonancias de bajo orden entre las frecuencias no perturbadas, son relativamente amplios, y dan lugar a efectos observables y computables, c o m o veremos en la sección 17.6.
17.5
El teo rem a de Poincaré-BirkhofF
El teorema K A M
ha proporcionado la respuesta sobre el destino de los sistemas con relaciones
de frecuencias casi racionales cuando son perturbados. A ú n nos queda por determinar qué sucede con las relaciones racionales entre frecuencias. \'eremos que. cuando esto sucede, el toro original perfectamente determinado se descompone en toros más y má s pequeños, algunos de los cuales serán nuevamente estables de acuerdo con el teorema K A M , en tanto que otros inestables seguirán
Hamiitoniano
577
desromponiéndose.
Entre los toros estables hallaremos una dinámica irregular, quo eu sistenia-s
Caos
con n >
2
podrá cubrir todo el espacio
Consideraremos en esta ocasión una sección de Poincaré de nuestros toros 2 -dimensionales para visualizar mejor lo que sucede bajo perturbaciones. D e nuevo H q es el hamiitoniano que hemos podido resolver exactamente, el cual posee dos frecuencias caxacterísticas que verifican una relación racional, y Hi es el hamiitoniano perturbador. Los toros correspondientes al sistema integrable presentarán una sección de Poincaré formada por c\irvas concéntricas que en el caso más simple serán cerradas. Estas curvas se convierten en círculos mediante el uso de las variables acción-ángulo. El sistema integrable puede ser reducido a la aplicación 2 — dimensional P i + \ = Pt
+ 27TO:(Pí)
+I
o bien escrito en forma m á s compacta
4-1 /
V
donde T representa la transformación efectuada sobre el punto [p, 6 ). Se llama número de rotación a o{p), y se puede ver que, para un sistema integrable, la aplicación anterior es la m á s general que representa su sección de Poincaré, y que a(p) s depende del ángulo 6 (Berry. 1978). Consideremos a continuación la aplicación perturbada
+
p, + ef{pi,e,)
Bi+i = 9 , + 2^a{pi) -f- €g{pi,Oi) o, tal y c o m o se ha hecho en el caso anterior,
donde las perturbaciones f y g dependerán evidentemente de Hi. hamiitoniano H
=
H
q
Estamos suponiendo que el
+ eHi es conservativo, así que la aphcación anterior también debe de
serlo. Esto implica que las áreas obtenidas por aphcaciones sucesivas de deben de ser iguales. Analicemos los puntos fijos de T(. Consideremos un círculo racional C no perturbado, sobre el cual
c(p) = J Todos los puntos P 6 C son puntos fijos de TP (resultado de aplicar T p veces), y el teorema K A M no nos dice nada acerca de lo que les ocurrirá cuando se aplique la perturbación. La respuesta la da el teorema de Poincaré-Birkhoff del punto fijo^ que afirma que un múltiplo par de 5 de puntos fijos sobrevive a la perturbación. Analicemos, pues, los puntos fijos de T(. E m p e c e m o s considerando dos círculos cercanos a C, uno en el cual ív(p) > r/s, al cual llamaremos y otro en el que a(p) < r/s, denominado C ~ (véase la figura 17.3). La aphcación aplica los puntos de C ~ en el sentido de las agujas del reloj, y en sentido contrario en . E n C, los puntos son fijos y por tanto no sufren ningún giro bajo la aphcación sucesiva de T. C u a n d o consideramos la aphcación Tf, los giros relativos serán preservados cuando e sea sufi cientemente pequeño. Debemos por tanto poder localizar algún punto que uo gire entre las dos curvas anteriores, algún punto que no cambie su coordenada angular bajo T^. S u p o n g a m o s que todos los puntos para los que esto se verifica forman una curva cerrada
cercana a C, para ^
Orden y
578
Caos en
Sistema-; Complejos
Figura 17.4; A la izquierda; curvas cerradas a las que sc aplicará Tf. A la derecha; deformaciones sucesivas de los círculos anteriores. Las intersecciones corresponden a puntos que no giran cuando se les aphca T^. Esta imagen geométrica permite deducir que los puntos hiperbóhcos (h) y los puntos ehpticos (e) aparecen en parejas necesariamente.
suficientemente pequeño. La imagen de esta curva será Tc(iíe)i y debe intersectar en un número par de puntos, ya que el área encerrada por ambas curvas debe ser la misma, por ser la aphcación conservativa. Los puntos P tales que P 6
{R( C\ T f ( Ü J }
deben de ser puntos fijos de
Tf.
D e la aplicación
sucesiva de aparece una secuencia de puntos fijos ehpticos e hiperbólicos. V e a m o s cuáles son sus características. Consideremos la aplicación
linealizada alrededor de sus puntos fijos, que p o demo s considerar
situados en el origen de coordenadas (véase eí capitulo sobre sistemas dinámicos). Tendremos
L a naturaleza del punto fijo está determinada por sus valores propios. A^, así que. utilizando la matriz Ihaeal, debe verificarse Tu-A
T2 i
■ 12
T-n - A
D a d o que la aplicación es conservativa, no existe contracción de las áreas en el espacio de las fases, y esta condición se traduce matemáticamente en det(A) = 1, lo cual implica
(17.4.2) Por tanto los valores propios asociados a cada punto fijo deben ser o bien números reales que verifiquen 17.4.2, o bien números complejos conjugados en el círculo unidad. E n el primer caso, el punto fijo se denomina hiperbólico, ya que las trayectorias en su vecindad pueden ser reducidas a hipérbolas, y en el segundo caso el punto fijo es elíptico, dado que las curvas invariantes son elipses (figura 17.4). Los puntos fijos elípticos e hiperbóhcos son lo que queda de los toros con frecuencias racionales tras ia aphcación de la perturbación.
C aos
HamiltoDÍano
Figura 17.5: Estructura autosimilar formada por la perturbación. infinita de toros encajados.
579
Se ha generado una cascada
U n punto fijo elíptico está rodeado por curvas c e rra d c L S (recordemos que estamos sobre la aphcación de Poincaré) que corresponden a nuevos teros menores, formados por la descomposición del anterior. A algunos de éstos se les podrá aphcar el teorema K A M , que nos dará su estabilidad, y los restantes se descompondrán de nuevo de acuerdo con el teorema de Poincaré-Birkhoff, formando una estructura autosimilar infinita de toros encajados. El movimiento rotacional alrededor de los puntos elípticos es estable. Los puntos fijos hiperbólicos son los responsables de la aparición de dinámica caótica. Para cada uno de estos puntos fijos tendremos dos variedades, una estable W * y u na inestable W “ (véase el capítulo sobre sistemas dinámicos) que tienen un comportamiento altamente irregular. Primeramente, no pueden autointersectarse, debido a la existencia y unicidad de las soluciones. En segundo lugar, sí pueden intersectarse una a otra. Esto sucede en los puntos llamados homoclínicos. C o m o la aphcación Tf es continua, si un punto pertenece a la variedad estable debe permanecer en ella siempre, para cualquier valor de p. Lo m i s m o se aplica a los puntos que pertenecen a la variedad inestable. Así que, si un punto pertenece simultáneamente a a mbas variedades, estas deben intersectairse u n número infinito de veces antes de llegar a ningún punto fijo. Este es el origen del caos en sistemas hamiltonianos. La imagen geométrica de los plegamientos y estiramientos que am b a s variedades padecen se corresponde con ia herradura de Smale, que se ha descrito en el capítulo sobre caos. Esta fue la geometría del caos que descubrió Poincaré hace más de un siglo estudiando el problema de los tres cuerpos. Por desgracia, él no pudo ver las complicadas formas que ecuaciones tan sencillas c o m o las anteriores generan. Este privilegio se hizo esperar hasta la aparición de los primeros ordenadores. Sin embargo, Poincaré pudo adivinar esta complejidad. Son sus propias palabras:
uno queda impactado por la complejidad de esta imagen, que ni siquiera intento dibujar. Nada puede damos una idea mejor de la complejidad del problema de los tres
Orden 7
580
Caos en S istem as
Complejos
Figura 17.6; Intersección de las variedades invariantes cuando se acercan a los puntos fijos.
cuerpos, y en general de todos los problemas de la dinámica... ’’ C o m o resumen de esta sección diremos que, cuando las órbitas regulares sobre toros de un sis tema integrable son perturbadas por un término no integrable, p o demo s obtener dinámica regular o dinámica completamente irregular, dependiendo de la condición inicial. Aunque la medida de las condiciones iniciales que llevan al movimiento regular no es nula (el teorema K A M lo explica) para cada relación racional de frecuencias (densamente distribuidas en la recta real) se obtienen toros m á s y m á s pequeños y órbitas irregulares debidas a los puntos fijos hiperbólicos. Por tanto,
un cambio arhitrariamente pequeño en las condiciones iniciales conduce a compoTÍamienios a largo término completamente diferentes. H e m o s obtenido sensibilidad en las condiciones iniciales en sistemas hamiltonianos, la hueUa del caos.
17.6
C aos en el Sistem a Solar
Quizá las secciones anteriores, que llevan a la posibilidad de comportamientos altamente irregu lares en sistemas conservativos, provoquen una sensación de irrealidad. ¿Podemos ver en realidad los toros estables, las zonas de caos con islas estables, las resonancias destructivas o los punto.-? hiperbóhcos? La respuesta, afortunadamente, es sí. La mecánica ct'leste nos provee con gran cantidad de ejemplos sorprendentes. En esta sección aphcaremos los conceptos anteriores a casos reales. Algunos datos procedentes de sistemas reales serán la mejor confirmación del formalismo que hasta ahora hemos visto.
17.6,1
El c in tu r ó n de a s te ro id e s
Consideremos el movimiento de un pequeño cuerpo alrededor del Sol (de masa M), por ejemplo un asteroide, con m a s a fi. Podríamos imaginar que. en este problema de dos cuerpos con solución conocida desde Newton, aparece un elemento perturbador; Júpiter, el más grande de los planetas, con m a s a m. Este nuevo problema resulta ser no integrable, como Poincaré demostró. El movinúento del asteroide podría pues inestabilizarse si la relación entre la frecuencia no perturbada del asteroide, fí, y la frecuencia angular de Júpiter, fíj. fuese racional. Nos encontramos en el anillo de asteroides
Caos Hamiitoniano
581
con u na gran cantidad de cuerpos que permiten verificar la validez de las ttorías expuestas. La existencia de órbitas estables es en este caso una confirmación del teorema K A M . Véase la figura 17.8, donde se ha representado el número de asteroides catalogados en función del periodo orbital de Júpiter. L a escasez de asteroides con periodos que presenten relaciones simples racionales respecto del periodo de Júpiter fue advertida por Kirkwood en 1857.
Su estudio inicial se basó en los 50
asteroides conocidos en ese momento* Las relaciones racioncdes entre los periodos, las resonancias, son importantes porque signifi can que un asteroide y Júpiter (o cualquier pareja de cuerpos en generai) se encuentran en la n ú s m a posición relativa a intervalos regulares. Estas coincidencias pueden acumularse, como si el movimiento fuese periódicamente perturbado por u n a fuerza externa, y ei asteroide podría ser finalmente desplazado de su posición observada, llevándolo en algunos casos a cruzar la órbita de Saturno y a escapar del Sistema Solar, incluso. Por otra parte, las resonancias que observamos a nivel plcinetario no son coincidencias, sino el resultado de una disipación de energía lentísima que puede acabar situando dos cuerpos en resonancia. Por ejemplo, hace 25í)0 millones de años el periodo de rotación de la Tierra era de 20 horas, y la L u n a se encontraba a una distancia media de 348.000 k m del centro de la Tierra (a comparar con los 384.000 k m actuales). Sin embargo, los efectos de marea (pérdida de energía por disipación viscosa) hicieron que la Tierra ralentizara su rotación, y paulatinamente la Luna se fue alejando. Finalmente, llegamos a la situación actual. Puede ser que el lector esté m á s famiharizado con algunos problemas de osciladores forzados y amortiguados: un péndulo, por ejemplo, con cierta frecuencia de oscilación natural w q , que pierda energía por rozamiento y al cual se aphque una fuerza periódica externa de frecuencia w, acaba oscilando con esta m i s m a frecuencia, en resonancia con la fuerza aphcada. El tiempo que tarda el movimiento en ser ‘^capturado” por la fuerza externa depende del ritmo de disipación de energía en el péndulo. Esta lenta disipación de energía no debe considerarse cuando planteamos problemas a nivel celeste. Es totalmente despreciable en comparación con las escalas temporales a las que se intenta predecir la dinámica. Sería equivalente a intentar utihzar mecánica relativista para descibir el movimiento de una bicicleta. Existe un grupo de asteroides, los llamados Troyanos, que parecen violar la escasez de asteroides
1.0
0.0
Perxodo orbital Figura 17.8: Esta representación dei número de asteroides a varias distancias dei Sol (lo cual corresponde a diferentes relaciones respecto del periodo de Júpiter) revela <{ue m u y pocos tienen órbitas con periodos correspondientes a fracciones simples del periodo orbital de Júpiter.
a relaciones racionales. Estos asteroides están situados en la misma órbita d·: Júpiter, por tanto la relación de frecuencias es 1:1. Sin embargo, representan un caso particular que debe ser tratado aparte. Los grupos de asteroides troyanos, el Sol y Júpiter forman los vértices de un triángulo equilátero. Lagrange descubrió en 1772 dos soluciones exactas al problema de los tres cuerpos: en los vértices de un triángulo equilátero y sobre una línea recta, a ciertas distancias, Lagrange consideró estas soluciones c o m o una curiosidad, pero en 1906 se descubrió el primer asteroide en el grupo de los troyanos, que representan la única violación en la predicción que el teorema K A M realiza sobre los huecos que deben encontrarse en el cinturón de asteroides. Las posiciones que los troyanos ocupan se denominan punios de Lagrange. Debemos remarcar que estos puntos no corresponden a toros, sino a órbitas cerradas aisladas.
17.6.2
L os anillos de S a tu r n o
El problema de los tres cuerpos discutido aquí, con uu cuerpo mayor M comt.» guía dei movimiento, un cuerpo pequeño /i afectado por su influencia y una perturbación m, cou < < m < < Af, es aphcable a otros subsistemas en el Sistema Solar, ü n ejemplo típico lo dan los anillos de Saturno. Saturno guía la dinámica de las partículas materiales que constituyen sus anillos, y sus satélites actúan perturbando a estas últimas, de m o d o que, análogamente a los huecos eu ei cinturón de asteroides, hallamos la división de Cassini en los anillos de Saturno, entre otros huecos. Los anillos de Saturno son esencialmente “toros invariantes”,y los espacios entre ellos pueden denominarse huecos K A M . La fuerza perturbadora principal es Mimas, la mayor luna de Saturno. Presentamos a continuación un modelo m u y simple que proporciona una aphcación conservativa capaz de reproducir la estructura de los anillos. Supongamos que tenemos un cuerpo de prueba con una velocidad angular w situado a una distancia r dcl centro del planeta. Sobre una órbita circular, la fuerza centrípeta (oc w'^r) iguala la fuerza gravitacional (oc r~^) con lo que la cantidad
w'^r'^ será constante sobre todas las trayectorias circulares. Escojamos ro c o m o radio de referencia. El tiempo que una partícula tarda en realizar una revolución situada a esta distancia se toma c o m o
Caos
Hamiitoniano
583
Figura 17.9; Posición relativa eie los dos grupos de satélites t r o y a n o s . el Sol y Júpiter.
distancia unidad. Llamemos On al ángulo que ei radio vector forma con alguna dirección fijada. E n general, el crecimiento de $n en cada paso de tiempo está dado por
2
rrr Z¡ 2
(17.6.1)
para una órbita circular. Supondremos que las desviaciones respecto de ésta son tan pequeñas que la ecuación 17.6.1 es válida en generaL E n el caso de Saturno, supongamos que M i m a s se m ueve en la órbita de referencia. C o m pletaremos la aplicación e.xigiendo que sea conservativa y buscando la forma de actualizar también la distancia radial en cada paso de tiempo. La perturbación crea aceleraciones ea la parte radial. U n a aplicación que cumple todas las exigencias anteriores es
A eos (0 „) (ro ^n + l — junto con 17.6.1, para órbitas tales que r„ < tq. Los resultados de este modelo para un gran número de partículas de prueba se muestran en la figura 17.10. Los anillos de Saturno reales presentan una estructura m u c h o m á s comphcada de la que el presente modelo es capaz de proporcionar, pero el aspecto básico se reproduce. El modelo anterior se ha extrm'do de Fr0 yland, 1992. L a constante A se puede estimar a partir de magnitudes reales. Es directamente proporcional a la m a s a de Mimas, y se puede tomar c o m o parámetro para variar la anchura de los huecos. Si se sigue con detalle el movimiento, se encuentran oscilaciones casi regulares en la dirección radial (figura 17.11), acotadas entre ciertos valores. Si se incrementa el valor de A, el periodo de estas oscilaciones decrece, en tanto que las cotas de oscilación prácticamente no varían.
17.6.3
E l m o v im ie n to de H ip e r ió n
Hiperión es uno de los satélites de Saturno, m u y conocido por su forma irregular, m u y lejana de la ^perfección” de la esfera. Hiperión es dos veces más laxgo que ancho. Su diámetro menor es de unos 200 km.
Orden y Caos en
584
S iste m a s
Complejos
200
LOO
-100
-100
100
O
Figura 17.10: Resultado de la aplicación 17.6.2 aplicada a un gran número de condiciones iniciales diferentes. La mayoría divergen en tiempos m u y cortos, pero algunas son estables (no necesaria mente regulares) y forman las zonas más densas del conjunto. U n a parte no despreciable de los puntos representados puede pertenecer a estados transitorios, pero a nivel celeste estos transitorios son significativos en ocasiones. Los ejes se han pasado a coordenadas cartesianas con origen en el centro de Saturno, y sus unidades son de 10^ km.
110 106
i
-
!¡ i
II
li !i
■. , ■ : I
I
i: ;'
i
i
■ i !
94
5000
10000
Figura 17.11; Oscilaciones en el valor de la distancia radial al centro de Saturno para una partícula situada en el anillo m á s oscuro de la figura 17.10. El valor del parámetro yl es de 2 x 10^^ km^. Aun que cerca de un movimiento periódico, las oscilaciones en el valor de r no siguen ninguna pauta.
Caos HamiltoDÍano
585
El movimiento de Hiperión presenta dos curiosidades. Por uua parte, la rotación del satélite alrededor de su eje es caótica. Se conocen muchos otros cuerpos cu el Sistema Solar que presentan la resonancia orbitahrotacional que hemos descrito en la Luna: siempre ofrecen la m i s m a cara ai planeta alrededor del cuai orbitau. También he m o s comentado que esta resonancia es posible debido a las fuerzas de marea que disipan energía y que permiten que finalmente el cuerpo quede atrapado en esta resonancia. Sin embargo, el tiempo necesario para que esto ocurra puede ser extremadamente largo. E n el caso de Hiperión, se ha demostrado cjue este tiempo es del orden de la edad del Sistema Solar. E n general, y hablando cualitativcimeute, se puede decir que cualquier sistema que intente llegcir a un compromiso entre dos frecuencias competidoras (en el caso de Hiperión, por ejemplo, su periodo rotacional y su periodo traslacional), se encuentra empujado hacia el caos. E n particular, todos los satéhtes de forma irregular han debido de pasar un cierto tiempo presentando dinámica caótica antes de ser atrapados en la resonancia orbital-rotaciona!. L a segunda curiosidad de Hiperión está relacionada con su aislainiento orbital. N o se encuentra ningún otro cuerpo en sus proxinúdades, lo cual resulta sorprendente si consideramos que, en algún m o m e n t o de su historia, habrá sido golpeado por cuerpos celestes que, si bien no lo han apartado de su órbita, pueden haber sido suficientemente fuertes c o m o para arrancar fragmentos de su superficie. Es lo que se observa en mu chos otros casos, fenómeno que provoca que haya toda una colección de pequeños fragmentos “satéhte” orbitando alrededor de asteroides o satélites, por ejemplo. ¿Por qué no se observa esta agrupación de fragmentos alrededor de Hiperión? R. Devilacqua ei al. (1980) han demostrado que existe una zona caótica cercana a la órbita de Hiperión, la cuaJ es la causante de la expulsión de estos pequeños fragmentos e impide su reagrupación. El sistema que origina esta zona caótica es el trío Saturno-Títán-Hiperión. Los fragmentos son expulsados tras un encuentro próximo con Titán.
Existen muchos otros ejemplos de caos real, detectado en series de niedidas de cuerpos celestes, especialmente en el Sistema Solar. L a discusión que se inició hace m á s de cien años, sobre la estabilidad de dicho sistema, sigue aún viva. Actualmente se debaten ejemplos m á s concretos. Entre ellos, se habla del papel estabilizador de la L u n a en la oblicuidad de la Tierra, y se apunta a la posible ausencia de vida en ca-so de no poseer un satéhte del tamaño de la Luna (Laskar, 1994). Si el eje de rotación de la Tierra no hubiese poseído durante periodos de tiempo astronómicos una gran estabilidad, los cambios climáticos que se hubiesen derivado podrían haber obstacuhzado el desarroUo de la vida, al m enos en la forma en que hoy la conocemos. D e hecho, los estudios realizados sobre las variaciones en la oblicuidad de otros placetas apuntan efectivamente a la existencia de grandes variaciones eu ausencia de un elemento estabilizador (Laskar y Robutel, 1993). A m p h o s estudios numéricos sobre el movinúento de Plutón, por ejemplo, parecen concluir que el planeta presenta movimiento caótico (Sussman y Wisdom, 1988). En estos análisis se han llegado a utihzar todos los planetas exteriores para evaluar el c a m p o gravitacional total sobre Plutón. Este se halla en una resonancia 3;2 con el periodo orbital de Neptuno, y llega en ocasiones a cruzar su órbita. Estas perturbaciones son suficientemente grandes como para desestabilizar el planeta en un tiempo estimado de 20 millones de años. Finalmente comentaremos la posible existencia de caos en el movimiento de la nube de cometas. E n particular, es éste un proceso altamente dinámico, en el sentido de que algunos cometas pueden ser capturados por el Sistema Solar, especialmente debido a la influencia gravitacional de Júpiter, núentras que simultáneamente otros cuerpos son expulsados, originando un flujo constante en el aparentemente inmutable Sistema Solar. Los cometas tienen un tiempo de vida limitado y corto a las escalas que estamos tratando, a causa de la gran cantidad de materia que pierden en sus tránsitos cerca del Sol. Se ha hablado de la posible existencia de una nube de cometas alrededor del Sistema Solar, cuya causa sería una fuerte resonancia entre el periodo de J úpiter y el movimiento
586
O rden
y
C aos
en
S istem as
Complejos
de los cometas (Pctrosky, 1987).
B ibliografía 1. V. I. Arnold, Small denominators and problems of stability of motion in classical and celestial mechanics. Usp. Mai. Nauk. S S S R 18 (1963). 2. M. V. Berry, Regular and irregular motion, A J P Conference Proceedings 4:6 16 (1978). 3. B. Burke y J. Hubbard, Ley y orden en el universo. Investigación y Ciencia, Marzo 1995. 4. R. Cuerno, A. F. Raxíada y J. J. Ruiz-Lorenzo, Deterministic chaos in the elastic pendulum: a simple laboratory for non linear dynamics. Am. J. Phys. 60 73 (1992). 5. J. Fr0ylcind, Introduction io Chaos and CoherencelOP Publishing Ltd., 1992.
6. F. Gantmacher, Lectures in Analytical Mechanics. Mir, Moscú, 1975. 7. C. Grebogi, E. Ott y J. A. Yorke, Crises, suden changes in chaotic attractors, and transient chaos. Physica D 7 181 (1983).
8 . M. C. Gutzwiller, Chaos in Classical and Quantum Mechanics. Springer-Verlag, N Y , 1990. 9. M. Hénon, Astron. Asirophys. 1 223 (1969);
9
25 (1970).
10. M. Hénoa, Numerical study of quadratic area-preserving mappings, Quarterly Appl. Math. X X V I I 2^1 (1969).
Astron.
Asirophys.
11. M. Hénon. y C. Heiles, The applicability of the third integral of motion: some numerical experiments. Astronomical Joui^al 69 63 (1964). 12. A. N. Kolmogorov, Presei^ation of conditionally chaotic movements with small change in
ihe hamiltonian function. Dokl. Akad. Nauk, SSSR 98 527 (1954). 13. A. N. Kolmogorov, General theory of dynamical systems and classical mechanics. Proc. Int. Cong. Math. 1 315 (1954). 14. C. Lanczos, The Variational Principles of Mechanics Univ. of Toronto Press, Toronto, 4a ed., 1970. 15. J. Laskar y C. Froeschle, El caos en el sistema solar. Afundo Científico 115 732 (199Ü). 16. J. Laskar y P. Robutel, The chaotic obliquity of the planets. Nature 361 60S (1993). 17. J. Laskar, La luna y el origen del hombre. Investigación y Ciencia, Julio 1994. 18. R. S. M a c K a y y J. D. Meiss, Eamilionian Dynamical Systems. A d a m Hilger, 1987. 19. J, Moser, Lectures on Hamiltonian Systems. Mem. A m . Math. Soc. 81 1 (1968). 20. I. Peterson, El Reloj de Newton, Caos en el Sistema Solar, Alianza Editorial, 1995. 21. T. Y. Petrosky, The cometary cloud in the solar system and the Résibois-Prigogine singular
invariants of motion. Jour. Siat. Phys. 48 1363 (1987).
C&os Hamiitoniano
22. H. Poincare, Les Méthodes Nouvelles de la Mécanique Céleste.
Tome I Paris, Gauthier-
Villars, 1892. 23. H. G. Schuster, Deterministic Chaos 2a éd., V C H 1989. 24. G. J. Sussman y J. Wisdom, Numerical evidence that the motion of Pluto is chaotic. Science 4 3 3 22 Julio 1988.
In d ice a lfa b e tic o ADN
teoría de c a m p o medio 442 control 408 expresión 455
Barro Colorado 323 Belousov 15
número de genes 410 agentes predictivos 204 agregación limitada por difusión 116 aliasing 235
Belousov-Zhabotinsky 202 bifurcación 153 con rotura de simetría 124 de Poincaré-Andronov-Hopf 126 en horquilla 124
ammonites
genérica 124
fluctuaciones 436 análisis de tamaño finito 299
silla-nodo 122 transcrítica 123
anticaos 424 aplicación 90 circular 140
bola abierta 88 cerrada 86
de Poincaré 129 lineal 91 logística 72
Boltzmann 17, 25 máquina de 524 brusselator 57, 371 bifurcaciones 375
triangular 162, 182 ARN transcripción 410, 455 asteroides 580 troyanos 581 atractor
estabilidad 372 calor específico 276 latente 271
cuasiperiódico 137 de Róssler 242
c a m p o de vectores 43
extraño 148, 151
caos 148, 156, 175 cardíaco 217
autómatas celulares 337
en el sistema solar 580
computación 348 deterministas 338
espaciotemporal 384 hamiitoniano 565
elementales 338 entornos 338 expouentes de Lyapunov 347
homoch'nico 205 capacidad de un canal 3 1
legales 339
catástrofe de error 465
totalistas 339
células estimación del n ú m e r o 409
autoorganización 62 autosimilaridad 78
tipos 408 ciclo h'mite múltiple 132
estadística 118
cinturón de asteroides 580
azar 16 y evolución 449
backpropagaíion 521
clase de universahdad 279 clasificación de Wolfram 338 c h m a terrestre 253
Bak-Sneppen, modelo de 440
competencia 482 589
Orden y
590
espacial 396 estabilidad 398 complejidad 15, 37 algorítmica 21 composición de funciones 90 computación universal 350
Caos en S iste n ia s C om p le jo s
atractores 499 señal 498 criticalidad autoorganizada 309 cuasiespecies 462 cuenca de atracción 167 en redes booleanas 414
condiciones iniciales 43 conectividad 23, 89 congruencia 91 conjetura de Kaplan-Yorke 256 conjunto abierto 88 acotado 89 cerrado 88 compacto 89 complementario 88 conexo 89, 107 de Borel 90 de Cantor de Julia 104, 167 de Mandelbrot 106 de puntos de escape 104 de puntos prisioneros 104 diferencia 88 intersección 88 no numerable 88 numerable 88 totalmente desconexo 89 unión 88 a — h m t e 135 liJ— límite 135
determinismo 147 detección de 258 diagrama de fases 272 difusión 363 ecuación de 365 discreta 385 estabilidad 369 solución 367 dimensión de óox-countmff 113 de correlación 113, 245, 250 de orden q 113 de Hausdorff 95 de información 113 de Kolmogorov 345 de medida 80 fractal 100, 114, 169 topológica 80 dinámica simbóUca 176 distancia 86 divergencia potencial 335 diversidad 21 D L A 116 duplicación de periodo 152 en sistemas neurales 500
constante de Feigenbaum 156 control del caos 260
ecuación
en el cerebro 506 en el hipocampo 508
de Fokker-Planck de Hamilton-Jacobi del movimiento 56i
en redes neurales 266, 508 método G M 265
de Mackey*Glass 204 de Ne w t o n dcl movimiento 566
método O G Y 261
de Perron-Frobenius 171
convección de Bénard 149, 223 convergencia uniforme 93
de reacción*difusión 369 electroencefalograma 49o
coordenadas 128
dimensión fractcd 496
corazón h u m a n o
y caos 496
estructura 249 señal del 249 251 córtex cerebral modelos 502 oscilaciones y caos 501
entropía 15, 17, 19 condicionada 29 conjunta 29 métrica 344
Couette-Taylor 213
topológica 344 epicentros 318
Cre u tzfeld-J acob
epilepsia 496
índice alfabético equilibrio de N ash 439
591
de desplazamiento 131 de Hólder 91
puntuado 432 equivalencia topológica 239 ergodicidad 172
de Lipschitz 92 de Lyapunov 65
escenario
diferenciable 93
de partición 25, 115, 275
de Feigenbaum 190 de L a ndau 213 de Ruelle-Takens 212 espacio de fases 43 espectro de dimensiones fractales 113 de potencia 235 estabilidad 48, 52, 65, 71 en redes booleanas 415 estructural 54
en continuidad 93 genes control 409 modelos 410 número de 408 genoma control 408 gradientes 374 grupo de renormalizéición 279
estado metaestable 311 evolución azar en 429, 449 teoría darwiniana 427 y criticahdad 436 exponente de Lyapunov 160, 164, 219, 251, 255 espaciotemporal 390 exponentes críticos 273, 275, 286, 298. 316 relaciones entre 278 extinción de fondo 429 deuda de la 492 modelos 445 y macroevolución 429
hábitat fragmentación 481 y coexistencia 485 y fenómenos críticos 487 hanúltoniano 274, 287, 566 Hebb, regla de 512 H é n o n 165 herradura de Smale 186, 208 hiperciclos 476 dinánúca espacial 479 modelo de Eigen de los 477 Hiperión, movimiento de 583 hipocampo control de caos 508 estructura 507
fago A 411 regulación 412
hipótesis de la frontera del caos 355
Feigenbaum 156, 190
de la Reina Roja 432 homeomorfismo 93
fenómeno crítico 271 fluctuaciones 277 flujo de Couette-Taylor 142 espectro de Fourier 237
foresi fire 313 fractal 77, 81, 273, 309 ciudad 78 en taxonomía 437 estadístico 307 no determinista 110 frontera 88 , 104 del caos 355 función de autocorrelación 231 de correlación 3o, 276, 298
homotecia 97 hormigas 542 comportanúento probabilista 545 oscilaciones colectivas 551 y distribución de tareas 544 y máquinas de Turing 559, 561 IFS 96 ínfimo 89 información 17 conjunta 28, 30, 244, 294 genética 455 inmersión 240 insectos sociales 541
Orden y Caos en Sistemas Complejos
592
intermitencia 210 intervalo abierto 88 isometría 91 directa 91 juego
de córtex cerebral 502 de Eigen de rephcación 458 de evolución con extinción exphcita 445 de Gierer-Meinhardt 376 estabilidad 377 patrones 2 D 380
de la vida computación 350 reglas 349 deJ bosque 322 Julia, Gaston 104 Kauffman, redes de (véase redes de Kauff man)
de Ginzburg-Landau 286 de Hénon 165 control del 264 de Hopfield 510 capacidad 513, 518 función energía 515 de huésped-parasitoide 400
lagrangiana 566
de Ising 274 simulación del 290 de la pila de arena 310
ley
de Levins 481 de escala (o potencial) 305
de Lorenz 148, 223
de Gutenberg-Richter 317 de Zipf 306
de los anillos de Saturno 582 de Lotka-Volterra 73, 163, 209 espectro de Fourier 236
hgaduras 23 h’mite de una función 92 inferior 92 superior 92 longitud de correlación 276 Lorenz 148, 223 magnetización 276 Mandelbrot, Benoit B. 77, 106 máquina de Boltzmann 524 de Turing 349 computación universal 561 y hormigas 559 maxent 23, 28 May, Robert 152 mecánica estadística 114 medida 93 de Hausdorff 95 de masa 94, 112 laplaciana 117 soporte de u na 94, 114 medio excitable 355 método de Derrida 419, 423 de Wolf 255 mezcla {mixing) 172, 185 modelo de Bak-Sneppen 440
de Murray 380 de Novak 470 de Rossler 198 de Schuster-Wagner 502 de terremotos 321 de virus 470 del bosque en llamas 313 del juego del bosque 322 H K F 534 N K 413 N K C 438 morfogénesis 361 multifractal 112, 327 multiplicadores de Lagrange 24 multiplicidad 132 mutación, matriz de 459 neurodinámica 495 número de Lyapunov 127, 132 de rotación 140 mai aproximable por racionales 141 ondas espirales 400 operador shift 177 órbita cuasiperiódica 121, 137 heteroclínica 121 homochnica 121, 205
In d ic e
alfabético
periódica 129 orden por fluctuaciones 548 organización 61
593
región laminar 211 regla de H e b b 512 relaciones de hiperescala 300 relajación crítica 535
paisaje adaptativo 433 parámetro de orden 63, 272, 276 A de Langton 353
renormaUzación en ei espacio real 279, 289, 300
paréntesis de Poisson 569
grupo de 279 resonancia 572, 575 retropropagación 521
Peano, curva de 81, 84
retrovirus 456
percolación 295 en redes de Kauffman 421 predicción 147, 157, 334 principio de control 61 probabilidad 112 problema
y mutabiUdad 465 y sistema inmune 468 rotación 91 rotura de simetría 63 espacial 397 ruido l/f 308, 328
de los denominadores pequeños 141, 575 de los dos cuerpos 567 de los tres cuerpos 571 procesos estocásticos 39 puerta lógica 350 punto de Lagrange 582 punto fijo 46, 49, 96, 98, 105, 281 eKptico 578 hiperbólico 55, 578 puntuacionismo 432
salto adaptativo 438 Saturno, anillos de 582 sección de Poincaré 133, 198, 203 secuencia de Bernouilli 186 sensibilidad a las condiciones iniciales 106, 156, 179, 184, 580 Shigamare 340 S I D A 456 Sierpinski, W a c l a w 85 triángulo de 85
random walk 19, 24, 116, 307 recubrimiento 95 red de Hopfield 510 redes acopladas 384 estabilidad estructural 394 logísticas 385 bifurcaciones 388 estabilidad 386 redes de Kaufímaa booleanas 407, 413 generahzadas 422 mecánica estadística 419 percolación. 421 red = 1 417 red K = 2 417 red ir > 5 416
l e á K = N 415 transición de fase 421, 425 redes neurales con intermediarios 529 control de caos 508 fluidas 541, 552 reflexión 91
Sierpinski-Menger, esponja de 85, 87 sistema crítico autoorganizado 305, 309 de funciones iteradas (IFS) 96 débilmente caótico 335 sistema dinámico 43 continuo 46 integrable 569 lineal autó nomo 46 sistema dinámico discreto 43, 69 de Lotka-Volterra 73, 163 en 3 D 209 sistema inmune y redes neurales 541 sistema no autóno mo 204
slaving principie 61 S Q UID, dispositivo 532 sucesión convergente 89 supertransitorios 393, 395 supremo 89 susceptibihdad térmica 277 temperatura crítica 275
594
Orden y Caos en Sistemas Complejos
teorema de Li y Yorke 195 de de de de
Poincaré-Bendixson 135 Poincaré-Birkhoff 576 Sharkovsky 198 Shilnikov 206
de inmunodeficiencia humeina (VIH) 468 emergentes 457 modelo 470, 472 von Koch, Helge 78 curva de 78 von N e u m a n n 338
de Smale 189 de Whitney 239, 241 de Whitney-Takens 241 del Collage 99 K A M 575 teoría de c a m p o medio 282, 318 de Landau 288 de perturbaciones 572 terremotos 317 tiempo de retardo 244 de retorno 318 toros 121, 138 encajados 579 transcripción 411, 455 transformación afín 91, 97 de semejanza 91, 97 del panadero 168 transformada de Fourier 233 transición de fase 28, 271 crítica 272 de primer orden 272 e información 555 en el cerebro 532 inducida por ruido 558 modelo H K F 534 transitividad topológica 172, 176 traslación 91 Turing, Alan 363 estructuras de 365 caos en las 397 umbral de diversidad 470 universahdad 279, 303 valores propios 47, 122 variables acción-ángulo 570 variedad 51, 57, 123, 142 centro 142 vectores propios 47 de A R N 456
Zhabotinsky 16