Los monográficos de
TEMAS 1er trimestre 2019
·
N.o 95
·
6,90 € investigacionyciencia.es ·
Complejidad y caos La ciencia de los fenómenos emergentes emergentes
5 9 0 0
SISTEMAS DINÁMIC DINÁMICOS OS
ECOLOGÍA
TEORÍA DE REDES
NEUROLOGÍA
¿Qué es el caos La arquitectura Del metabolismo El cerebro, un determinista? de la biodiversidad biodiversidad a Internet sistema complejo
0
8 6 6 5 5 3 1 1 4 8 7 7
ESPECIAL MONOGRÁFICOS DIGITALES Descubre los monográficos digitales que reúnen nuestros mejores artículos (en pdf) sobre temas de actualidad
www.investigacionyciencia.es/revistas/especial
Presentación
Más es diferente
¿Q
0 . 3 A S Y B C C / S N O M M O C A I D E M I K I W A Í V , R E Y E B G N A G F L O W
ué tienen en común una pila de arena, el clima, los ecosistemas, el len guaje o la economía? Aunque sin duda se trata de sistemas muy distintos, todos ellos comparten una im portante propiedad: pueden describirse a partir de un gran número de constitu yentes básicos que interaccionan entre sí mediante reglas sencillas. A su vez, esas interacciones dan lugar a fenómenos nue vos, o «eme rgentes», los cuale s generan un todo que es mucho más que la simple suma de sus partes. Tales fenómenos son los que intenta describir la ciencia de los sistemas com plejos. Una ciencia que en las últimas décadas ha cobrado cuerpo propio y ha comenzado a revelar toda una serie de leyes, muchas de ellas sorprendentemen te universales, en sistemas tan dispares como las células, el cerebro, la tecnología o la sociedad. El presente monográ co ofrece un recorrido por sus principios fundacionales ( págs. 6-49) 6-49) y por algunas de sus aplicaciones más representativas ( págs. págs. 52-94). 52-94). En 1972, en un famoso artículo cuyo título hemos tomado prestado para esta presentación, el premio nóbel Philip W. Anderson argumentó argumentó a favor del carácter fundamental de las leyes emergentes. En él Anderson no ponía en duda el postula do reduccionista que durante siglos había dominado la ciencia; esto es, el hecho de que todos los procesos físicos se hallen controlados en última instancia por el mismo conjunto de leyes elementales. Sin embargo, sí enfatizó que ello no im plicaba la hipótesis construccionista: la posibilidad de derivar el mundo a partir de dichas leyes. Que todo pueda reducirse a la física de partículas no implica que, una vez conocidas sus reglas, seamos ca paces de reconstruir el universo. Así pues, la química no sería simple mente física aplicada, la biología no sería química aplicada y la neurología no sería biología biología aplicada. aplicada. En cada nivel de organización surgen fenómenos completamente nuevos y leyes que no guardan ninguna relación obvia con las que rigen el nivel anterior. Anderson defendió que esas le yes emergentes revestían un carácter tan fundamental como las primeras, hasta el
punto de que su entendimiento exigía el mismo grado de inspiración y creatividad por parte de los investigadores. Un gran número de constituyentes en interacción no solo da lugar a un sistema mayor, sino a uno fundamentalmente distinto. Más es diferente. En los últimos años, ese punto de vista ha engendrado una nueva ciencia y una nueva manera de entender el método cientíco ( pág. 47 ). ). Un indicio de que el todo es algo más que la suma de las partes apareció en el último tercio del siglo de la mano de la teoría del del caos, el hecho aparentemente paradójico de que leyes deterministas puedan dar lugar a fenómenos intrínsecamente imposibles de predecir ( pág. 6 ). ). Poco después, el hallazgo de que numerosos sistemas natura les parecen organizarse espontáneamente en un estado que opera al borde del desorden ( pág. 18) 18) y el nacimiento de la
moderna teoría de redes ( págs. págs. 26 y 44) 44) acabarían asentando el estudio de los sistemas complejos. Sistemas que, pese a todas sus diferencias, han demostrado obedecer una insólita cantidad de leyes comunes ( pág. pág. 36 ). ). Tales leyes se han aplicado para describir fenómenos tan variados como las selvas tropicales, las mutaciones víricas, los hormigueros y la evolución biológica ( pág. pág. 52). 52). Han servido para abordar con nuevas herramientas la estabilidad de los ecosistemas ( pág. 60) 60 ) o la dinámica del cerebro ( pág. pág. 70). 70). Y han permitido investigar con métodos físicos y matemáticos ámbitos hasta hace poco vedados al análisis cuantitativo, como el lenguaje humano ( pág. pág. 78) 78) o la propia deriva de la sociedad ( pág. pág. 88). 88 ). Desde el metabolismo celular hasta la evolución de la tecnología, la nue va ciencia de la complej idad ha venido para quedarse. —La redacción
CONJUNTO DE MANDELBROT: Las estructur estructuras as fractale fractaless subyacen a la dinámica de numerosos sistemas complejos.
C
1
SUSCRÍBETE A LA REVISTA
TEMAS Selecciones temáticas de nuestr n uestros os mejores artículos
Ventajas para los suscriptores:
Envío puntual Envío puntual a domicilio
Ahorro sobre Ahorro sobre el precio de portada 27,60 € 22 € por un año (4 ejemplar ejemplares) es)
Acceso gratuito a gratuito a la edición digital de los número númeross incluidos en la suscripción
www.investigacionyciencia.es/suscripciones Teléfono +34 934 143 344 Los monográficos de
TEMAS 1.er trimestre 2019
·
N.o 95
Complejidad y caos 1 Presentación Más es diferente La redacción redacción
ENTENDER LA COMPLEJIDAD
6 Caos James P. Crutchfeld, Crutchfeld, J. J. Doyne Farmer, Farmer, Norman H. Packard Packard y Robert Robert S. Shaw Shaw
18 Criticalidad autoorganizada autoorganizada Per Bak y Kan Chen
FENÓMENOS EMERGENTES
52 Complejidad en la frontera del caos Ricard V. V. Solé, Jordi Bascompte, Bascompte, Jordi Delgado, Bartolo Bartolo Luque Luque y Susanna C. Manrubia
60 Redes mutualistas mutualistas de especies Jordi Bascompte y Pedro Jordano
26 Redes sin escala Albert-László Barabási y Eric Bonabeau Bonabeau
36 Leyes universales K C O T S I / W E R D N A S G A / S E G A M I Y T T E G
Terence Tao
44 La ciencia de redes cumple 20 años Alessandro Vespignani Vespignani
47 ¿Cómo deberían deberían ser las teorías de los sistemas complejos? Sophia Kivelson y Steven A. Kivelson
70 Cuando las neuronas sincronizan sus relojes Raúl Vicente Vicente y Claudio R. R. Mirasso
78 Lenguaje, redes y evolución evolución Ricard V. V. Solé, Bernat Corominas Corominas Murtra y Jordi Fortuny
88 Complejidad, tecnología y sociedad Carlos Gershenson
EN PORTADA Durante siglos, el paradigma dominante en la ciencia ha sido reduccionista. En los últimos años, sin embargo, varios avances han puesto de manifesto la importancia de entender los fenómenos emergentes. Del efecto mariposa a la autoorganización y la teoría de redes, la nueva ciencia de la complejidad ha aportado un fructífero prisma para entender fenómenos tan dispares como el clima, la evolución biológica o Internet. Internet. Ilustración: Getty Images/agsandrew/iStock
C
3
Entender la
complejidad
K C O T S I / W E R D N A S G A / S E G A M I Y T T E G
ENTENDER LA COMPLEJIDAD
Caos Hay orden en el caos: el azar tiene una forma geométrica subyacente. El caos impone límites fundamentales a la predicción, pero también sugiere relaciones causales donde nadie las había sospechado James P. P. Crutchfield, Cru tchfield, J. J. Doyne Farmer, Farmer, Norman H. Packard Packard y Robert S. Shaw
E
generar comportamiento aleatorio. Este azar es fundamental: capacidad de relacionar causa y efecto. A reunir más información no hace que se esfume. A la aleatoriedad partir de las leyes de la gravedad, por ejem así generada la llamamos «caos». plo, los eclipses pueden predecirse con miUna aparente paradoja es que el caos es determinista, generales de años de antelación. Hay otros fenódo por reglas jas que no encierran en sí mismas ningún elemenelemen menos naturales cuya predicción no es tan sencilla. Aunque los to de azar. En principio, el futuro está enteramente determinado movimientos de la atmósfera obedecen las leyes de la física en por el pasado. Pero, en la práctica, las pequeñas incertidumbres la misma medida que los movimientos de los planetas, las prese agrandan, de suerte que, si bien el movimiento es predecible dicciones meteorológicas se realiz an todavía en términos de proa corto plazo, no lo e s a largo plazo. Hay orden en el caos: bajo babilidades. El clima, el ujo de un torrente y el rodar de los este comportamiento errático subyacen elegantes formas geomédados tienen, todos ellos, aspectos impredecibles. Al no aparetricas que generan el azar, como ocurre con el tahúr que baraja cer una relación clara entre causa y efecto, decimos que estos los naipes o el repostero que bate la masa del pastel. fenómenos poseen elementos aleatorios. Y, sin embargo, hasta El descubrimiento del caos ha creado un nuevo paradigma hace un tiempo pocas razones hacían dudar de que la predicen la construcción de modelos cientícos. Por una parte, estaesta tibilidad exacta podía alcanzarse, al menos en principio. Se su- blece nuevos límites fundamentales en la capacidad de de avanzar ponía que para ello bastaría con recoger y procesar una cantipredicciones. Pero, por otra, el determinismo inherente al caos dad suciente de información. muestra que muchos fenómenos aleatorios son más predeciEste enfoque se ha visto alterado por un descubrimiento sor- bles de lo que se había pensado. Mucha información información de aspecto prendente: algunos sistemas deterministas muy simples pueden aleatorio recogida en el pasado —y archivada porque se suponía
EN SÍNTESIS
En contra de lo que se pensó durante largo tiempo, que un sistema esté gobernado por leyes completamente deterministas no garantiza que su comportamiento pueda predecirse en el futuro. En un sistema caótico, minúsculas variaciones en las condiciones iniciales derivan muy pronto en enormes diferencias en la evolución del sistem a. Ello implica que cualquier imprecisión microscópica en el conocimiento del estado inicial se transformará con rapidez en una imprecisión a escala macroscópica. Con todo, el comportamiento de un sistema caótico no es completamente arbitrario: las leyes deterministas que lo rigen se traducen en regularidades geométricas y estadísticas. Este nuevo paradigma ha transformado la manera de hacer y entender la ciencia en numerosas disciplinas.
6 TEMAS 95
ORIGEN DEL CAOS: El establecimiento de una dinámica caótica puede entenderse a partir de una serie de transformaciones transformaciones de estirado y plegado en un espacio abstracto, abstracto, denominado «espacio de
conguraciones». El efecto se ilustra aquí con un retrato digitalizado del matemático francés Henri Poincaré. La imagen inicial ( 0) es sometida a una serie de estiramientos, como si estuviese dibujada
sobre una lámina elástica. Cuando la lámina se sale del recuadro, se corta y se reinserta por el otro lado ( 1, el número en cada imagen indica las veces que se ha aplicado la transformación). La repetición de este proceso mezcla los píxeles de la imagen ( 2-18). En ocasiones, algunos puntos regresan a su posición inicial, lo que provoca una fugaz reaparición del retrato ( 47-48 47-48 y 239-241), un fenómeno conocido como «recurrencia de Poincaré». En la naturaleza, dicho fenómeno suele suceder tras un tiempo extremadamente largo, equiparable a la edad del universo; ello implica que, en la práctica, toda la información inicial acabará perdiéndose. perdiéndose.
0
1
2
3
4
5
7
10
18
47
48
237
239
240
241
D L E I F H C T U R C . P S E M A J Y N O S R E D N A S L L I B
C 7
demasiado compleja— puede explicarse ahora a través de leyes simples. El caos permite encontrar orden en sistemas tan di versos como la atmósfera, los grifos que gotean y el corazón. El resultado es una revolución que está incidiendo en múltiples ramas de la ciencia.
EL ORIGEN DEL AZAR ¿Cuál es el origen del comportamiento estocástico? El mo vimiento vimiento browni browniano ano ofrece un ejemplo clásico de azar. azar. Si a través través del microscopio observamos una partícula de polvo suspendida en agua, veremos que sigue un zigzag continuo y errático. Ello se debe al bombardeo que sufre por las moléculas de agua próximas. Puesto que las moléculas de agua no se distinguen y su número es muy elevado, el movimiento detallado de la partícula de polvo resulta completamente impredecible. Aquí, la red de inuencias causales entre las subunidades puede llegar a ser tan enmarañada que la pauta de comportamiento resultante se vuelve absolutamente estocástica. El caos del que trataremos aquí no requiere un gran número de subunidades o de inueninuen cias no visibles. La existencia de comportamiento aleatorio en sistemas muy simples nos obliga a reconsiderar las fuentes de azar incluso en macrosistemas como el clima. ¿Por qué motivo es mucho más difícil predecir el movimiento de la atmósfera que el del sistema solar? Ambos están constituidos por una gran cantidad de elementos, y ambos están
gobernados por la segunda ley de Newton, F Newton, F = = ma, ma, la cual puede considerarse un procedimiento sencillo para predecir el futuro. Si las fuerzas que actúan sobre cierta masa son conocidas, lo mismo ocurre con la aceleración. Se sigue de las reglas del cálculo que, si la posición y la velocidad de un objeto pueden determinarse en un instante dado, quedarán determinadas para siempre. Esta es una idea tan potente que el matemático francés del siglo Pierre Pierre Simon de Laplace se jactó en cierta ocasión de que, si conociera la posición y la velocidad de todas las partículas del universo, podría predecir el futuro para el resto de los tiempos. Aunque ante este objetivo se interponen varias dicultades prácticas evidentes, durante más de cien años nada pareció oponerse a que esto fuese así, al menos en principio. La aplicación literal del apotegma de Laplace al comportamiento humano llevó a la conclusión losóca de que este se halla determinado y de que el libre albedrío no existe. La ciencia del siglo ha ha presenciado el hundimiento del determinismo de Laplace por dos razones muy diferentes. La primera es la mecánica cuántica. Un dogma central de esta teoría es el principio de incertidumbre de Heisenberg, el cual arma que hay una limitación fundamental en la exactitud con que pueden medirse la posición y la velocidad de una partícula. Esta incertidumbre proporciona proporciona una buena explicación para algunos fenómenos aleatorios; entre ellos, la desintegración radiactiva.
A N T E C E D E N T E S H I S T Ó R IC IC O S
Determinismo Determinismo y predictibilidad En el siglo XVIII, el matemático francés Pierre S imon de Laplace sostuvo que las leyes de la naturaleza i mplicaban un determinismo estricto y una predictibilidad completa por más que, en la práctica, las imperfecciones en las medidas exigiesen trabajar con probabilidades. Más tarde, el también francés Henri Poincaré preguraría el punto de vista contemporáneo. Las pequeñas incertidumincertidum bres en el conocimiento de un sistema pueden crecer exponencialmente con el tiempo, lo que hace imposible predecir el futuro.
Laplace (1776) «El estado presente del sistema de la naturaleza es evidentemente una consecuencia de lo que era en el momento anterior; y, si imaginamos una inteligencia que en un instante dado abarabarcara todas las relaciones entre los entes de este universo, podría decir las posiciones respectivas , los movimientos y las propiedades generales de todos esos entes en cualquier tiempo del pasado o del futuro. La astronomía física, la rama del conocimiento que hace el honor más alto a la mente humana, nos da una idea, aunque imperfecta, de lo que sería tal inteligencia. La simplicidad de la ley del movimiento de los cuerpos celestes y las relacio nes entre sus masas y distancias permite al análisis seguir su movimiento hasta cierto punto; y, para determinar el estado del sistema de estos grandes cuerpos en los siglos pasados o futuros, le basta al matemático que sus posiciones y velocidades sean conocidas por la observación en cualquier momento del tiempo. El hombre debe esta c apacidad al poder del instrumento que emplea y al pequeño número de relaciones q ue utiutiliza en sus cálculos. Pero la ignorancia de las diversas causas implicadas en la producción de sucesos, así como su complejicomplejidad, junto a la imperfección del análisis, impide que lleguemos a la misma certidumbre sobre la vasta mayoría de los fenómenos. Por ello hay cosas inciertas para nosotros, cosas más o menos probables, y buscamos compensar la imposibilidad de cono-
8 T EMAS 95
cerlas determinando su diferente grado de probabilidad. Es así como debemos a la debilidad de la mente humana una de las más delicadas e ingeniosas de las teorías matemáticas, la cienciencia del azar y la probabilidad.»
Poincaré (1903) «Una causa muy pequeña que escapa a nuestra atención determina un efecto considerable que no podemos dejar de observar, y entonces decimos que el efecto es debido al azar. Si conociésemos exactamente las leyes de la naturaleza y la situación del universo en el momento inicial, podríamos prepre decir exactamente la situación de ese mismo universo en un momento posterior. Pero, aun cuando se diese el caso de que las leyes de la naturaleza no tuvieran ningún secreto para nosotros, incluso así solo podríamos conocer la situación inicial aproximadamente . Si esto nos permitiese predecir la situación siguiente con la misma aproximación , eso es todo lo que necesitaríamos, y diríamos que el fenómeno había sido predicho, y que está gobernado por leyes. Pero no siempre es así; puede ocurrir que pequeñas diferencias en las condiciones iniciales produzcan otras grandes en el fenómeno nal. Un pequeño error en las primeras producirá un abultado error en las segundas. La predicción se hace imposible y aparece el fenómeno fortuito.»
EL ESPACIO DE ESTADOS, o de
conguraciones, permite representar el comportamiento de un sistema
dinámico. Se trata de un espacio abstracto cuyas coordenadas son
los grados de libertad del sistema. El movimiento de un péndulo (arriba) se halla completamente determinado por su posición y
Velocidad
velocidad iniciales. Su estado queda denido por un punto en un plano
Velocidad
cuyas coordenadas coordenadas son la posición
y la velocidad (abajo). Mientras el péndulo oscila de un lado al otro, sigue una órbita en el espacio de
Posición
E I T S I R H C W E R D N A
Un núcleo atómico es tan pequeño que el principio de incerti dumbre impone un límite fundamental al conocimiento de su movimiento, imposibilitando así obtener suciente información para predecir cuándo se desintegrará. Sin embargo, la fuente de la impredecibilidad a gran escala debe buscarse en otro sitio. Algunos fenómenos macroscópicos son predecibles y otros no. Esta distinción no tiene nada que ver con la mecánica cuántica. Por Por ejemplo, la trayectoria trayectoria de una pelota de béisbol es predecible: un jugador se aprovecha de ello cada vez que la atrapa. En cambio, la de un globo que vuela impulsado por el aire que sale de él a gran velocidad no puede predecirse. El globo da tumbos en momentos y lugares imposi bles de vaticinar. vaticinar. Pelota y globo obedecen las leyes de Newton; entonces, ¿por qué el movimiento de este resulta mucho más difícil de predecir que el de la bola? El ejemplo clásico de esa dicotomía nos lo ofrece el mo vimiento de los uidos. Bajo ciertas circunstancias, el discurrir de un uido es laminar (constante, estable y regular) y fácil mente predecible a partir de las ecuaciones. Bajo otras, es turtur bulento (inconstante, (inconstante, inestable e irregular) y difícil de predecir. predecir. La transición de un régimen a otro le resultará familiar a todo aquel que haya viajado en avión y haya pasado súbitamente del aire en calma a una tormenta. Pero ¿qué provoca la diferencia esencial entre el ujo laminar y el turbulento? Para entender el enigma que esto encierra, imagínese el lector que está sentado al borde de un torrente. El agua corre y salpica como si tuviese ideas propias, moviéndose primero de un modo y luego de otro. Sin embargo, las piedras del del lecho del torrente están rmemente sujetas en su sitio, y los auentes entran a velocidades velocidades casi constantes. constantes. ¿A qué se debe, pues, el movimiento movimiento aleatorio del agua? En los años cuarenta del siglo , el físico soviético Lev Landáu proporcionó una explicación del movimiento estocástico de los uidos que dominó durante muchos años. Esta se basaba en suponer que el ujo turbulento incluye muchas oscilaciones distintas e independientes. A medida que un uido se mueve más deprisa y la turbulencia aumenta, esas oscilaciones se ponen en movimiento de una en una. Y aunque cada oscilación por separado puede ser simple, su combinación complica el movimiento y hace que el ujo ujo resulte imposible imposible de predecir. predecir.
Posición
conguraciones. En el caso de un péndulo ideal sin rozamiento, la órbita es una curva cerrada ( abajo a la izquierda); con rozamiento, la órbita es una espiral que se acerca al punto de reposo (abajo a la derecha).
Sin embargo, la teoría de Landáu no es correcta. El mo vimiento aleatorio aparece incluso en sistemas elementales, sin necesidad de complicación o indeterminación. El matemático francés Henri Poincaré se dio cuenta de ello a nales del si glo , cuando indicó que algunos fenómenos impredecibles podían acontecer en sistemas en los que un pequeño cambio en el presente causaba otro mucho mayor en el futuro. La idea es clara si se piensa en una roca en equilibrio en lo alto de una montaña. Basta un leve empujón a un lado o a otro para preciprecipitarla hacia abajo, tras lo cual dará tumbos por caminos completamente distintos. La roca es sensible a pequeños estímulos solo en la cima de la montaña, pero los sistemas caóticos son sensibles en cada punto de su movimiento. Un ejemplo sencillo sirve para ilustrar cuán sensibles pueden ser ciertos sistemas físicos a inuencias externas. Imaginemos un billar idealizado en el que las bolas corren por la mesa y chocan sin pérdidas apreciables de energía. Con un simple golpe, el jugador provoca una prolongada sucesión de colisiones. Naturalmente, desea conocer el efecto de su golpe. ¿Durante cuánto tiempo podría predecir la trayectoria de las bolas un jugador con un control control perfecto de su taco? taco? Si ignorase un efecto efecto tan minúsculo como la atracción gravitatoria gravitatoria de un electrón situado en el borde de la galaxia, ¡la predicción sería errónea al cabo de un minuto! Ese extraordinario aumento de la incertidumbre se debe a que las bolas están curvadas, por lo que las pequeñas diferencias en el punto de impacto se amplían en cada colisión. Dicha ampliación es exponencial: crece en cada colisión, como la reproducción de bacterias con espacio y alimento ilimitados. Cualquier efecto, por pequeño que sea, adquiere rápidamente proporciones macroscópicas. Esta es una de las propiedades básicas del caos. El crecimiento exponencial de los errores debido a la dinámica caótica es la segunda razón del fracaso del punto de vista de Laplace. La mecánica cuántica arma que las mediciones iniciales no pueden ser totalmente precisas, y el caos asegura que esas imprecisiones acabarán muy pronto con nuestra capacidad de predecir. Sin caos, Laplace podría esperar que los errores permaneciesen acotados o, al menos, que crecieran lo bastante despacio para poder avanzar predicciones durante períodos
C 9
a
b
c
d
e
f
UN ATRACTOR es una región del espacio de estados que caracteriza el comportamiento de un sistema a largo plazo; es decir, la conguración a la que tiende el sistema con el paso del tiempo. Estas guras muestran distintos atractores en color azul; los estados iniciales se indican en rojo. Las trayectorias ( verde) acaban acercándose a los atractores desde el estado inicial. El tipo más simple de atractor es un punto jo ( a). Este es el caso asociado a un péndulo con rozamiento, el cual llega siempre a la misma posición de reposo con independencia del modo en que empiece a oscilar. El que sigue en complejidad es el ciclo límite ( b), que forma un bucle en el espacio de conguraciones. Este describe oscilaciones estables, como el movimiento de un reloj de péndulo o el latido del corazón. Las oscilaciones compuestas, o comportamiento cuasiperiódico, corresponden a un atractor con forma de toro ( c). Estos tres atractores son predecibles: el comportamiento del sistema puede pronosticarse con exactitud. Los atractores caóticos, en cambio, corresponden a movimientos impredecibles y adquieren formas geométricas más complejas. Aquí se ilustran los descubiertos por Edward Lorenz ( d), Otto Rössler ( e) y uno de los autores a utores (Shaw, f ). ).
largos de tiempo. Con caos, sin embargo, las predicciones están rápidamente condenadas a devenir en graves inexactitudes.
GEOMETRÍA OCULTA El marco general del que emerge el caos es la llamada teoría de los sistemas dinámicos. Un sistema dinámico consta de dos partes: la noción de estado (la información esencial sobre el sistema) y una dinámica (una regla que describe cómo evoluevolu ciona el estado en el tiempo). Su evolución puede representarse en el «espacio de conguraciones», o «espacio de estados»: un espacio abstracto cuyas coordenadas denen el estado. Dichas coordenadas varían según el contexto. En el caso de un siste ma mecánico, pueden ser posiciones y velocidades; en el de un modelo ecológico, las poblaciones de las diferentes especies que lo componen. El péndulo simple constituye un buen ejemplo de sistema dinámico. Todo lo que necesitamos para determinar su mo vimiento son dos variables: posición y velocidad. El estado es, pues, un punto en un plano cuyas coordenadas son la posición y la velocidad. Las leyes de Newton dan una regla, expresada
10 TEMAS 95
matemáticamente en una ecuación diferencial, que describe la evolución de dicho estado. Conforme el péndulo oscila a un lado y a otro, el estado estado se se mueve a lo largo de una una «órbita», «órbita», o camino, camino, en ese plano. En el caso ideal de un péndulo sin rozamiento, la órbita es un bucle; con rozamiento, describe una espiral que converge a un punto a medida que el péndulo se frena. La evolución temporal de un sistema dinámico puede desarrollarse de manera continua o discreta en el tiempo. En el primer caso hablamos de un ujo; en el segundo, de una apli cación (mapping (mapping ). ). Un péndulo se mueve continuamente de un estado a otro y, por ello, queda descrito por un ujo continuo en el tiempo. El número de insectos que nacen cada año en una cierta región o el intervalo temporal entre gotas sucesivas de un grifo que gotea se explican de modo más natural mediante una aplicación discreta en el tiempo. Para saber cómo evoluciona un sistema desde un estado inicial dado, podemos recurrir a la dinámica (las ecuaciones del movimiento) para avanzar poco a poco a lo largo de la órbita. Para determinar de esta manera el comportamiento de un sistema, necesitamos un trabajo de cálculo que es proporcional al
D L E I F H C T U R C . P S E M A J
) o j a b a
( D L E I F H C T U R C . P S E M A J , ) a b i r r
a ( E I T S I R H C W E R D N A
tiempo durante el que se deseamos seguir la órbita. En el caso de sistemas simples, como un péndulo sin rozamiento, puede ocurrir que las ecuaciones admitan una solución explícita; es decir, una fórmula que exprese cualquier estado futuro en función del estado inicial. Una solución explícita proporciona un atajo: un algoritmo simple que solo requiere introducir el estado inicial y el tiempo nal para predecir el futuro, sin necesidad de pasar por todos los estados intermedios. Con una solución así, el trabajo de cálculo necesario para seguir el movimiento es en esencia independiente del tiempo deseado. A modo de e jemplo, dadas las ecuaciones del movimiento planetario y lunar, y las posiciones y velocidades de la Tierra y la Luna, los eclipses pueden predecirse con años de antelación. En los inicios de la física, los éxitos a la hora de obtener soluciones explícitas para numerosos sistemas simples hicieron albergar la esperanza de que tales soluciones existirían para cualquier sistema mecánico. Por desgracia, hoy sabemos que no siempre ocurre así. El comportamiento impredecible de los sistemas dinámicos caóticos no puede expresarse mediante una solución explícita. Y, como consecuencia, no hay atajos para predecir su comportamiento. No obstante, el espacio de conguraciones proporciona una poderosa herramienta para describir la evolución de un sistema caótico. Su utilidad reside en la posibilidad de representar dicho comportamiento de manera geométrica. Por ejemplo, un péndulo con rozamiento terminará por dete nerse. Eso signica que su órbita se aproximará a un punto concreto del espacio de conguraciones. Dicho punto no se mueve: es un punto jo. Y dado que atrae a las órbitas próximas, recibe el nombre de «atractor». Si damos un pequeño empujón al péndulo, este aca bará regresando al m ismo punto jo. Todo sistema que con el tiempo tienda al reposo quedará caracterizado por un punto jo en el espacio de conguraciones. Lo anterior constituye un ejemplo de un fenómeno muy general: las pérdidas debidas al rozamiento o a la viscosidad provocan que las órbitas en el espacio de conguraciones acaben atraídas hacia una región más pequeña de dicho espacio, una caracterizada por un núnú mero menor de dimensiones. Toda región así recibe el nombre de atractor. En términos simples, un atractor es aquella región donde se asienta el comportamiento de un sistema. Algunos sistemas no tienden tienden al reposo reposo a largo largo plazo, sino que recorren periódicamente una sucesión de estados. Fijémonos en un reloj de péndulo; en él, la energía perdida por rozamiento se repone con la almacenada en un muelle o un peso. El péndulo repite su movimiento una y otra vez. En el espacio de congu raciones, tal movimiento corresponde a un ciclo, a una órbita periódica. Con independencia de cómo empiece a balancearse el péndulo, el ciclo al que se aproxima a largo plazo es siempre el mismo. Por ello, tales atractores se denominan «ciclos límite». Otro sistema familiar con un ciclo límite es el corazón. Un sistema puede tener varios atractores. Si así ocurre, diferentes condiciones iniciales pueden desembocar en atractores distintos. El conjunto de puntos que evoluciona hacia un mismo atractor se conoce como «cuenca de atracción». El reloj de péndulo tiene dos cuencas: los desplazamientos pequeños desde su posición de reposo lo devuelven de nuevo al reposo; con desplazamientos grandes, sin embargo, el reloj empieza su tictac y el péndulo ejecuta oscilaciones estables. El atractor que sigue en complejidad es un toro: una gura semejante a la supercie de una rosquilla. Este describe movimovi mientos que constan de dos oscilaciones independientes, llamados a veces movimientos cuasiperiódicos; un ejemplo físico
A'
A B' B A'' A''
B' B A
A'
LOS ATRACTORES ATRACTORES CAÓTICOS poseen pose en una estructura estructu ra mucho más compleja que los atractores predecibles. A gran escala, un atractor caótico no constituye una supercie suave, sino una que se pliega sobre sí misma. Esta ilustración muestra los pasos necesarios para construir el atractor caótico más elemental: el atractor de Rössler
(abajo). Primero, las trayectorias próximas deben «estirarse», de modo que diverjan de forma exponencial ( arriba). En el caso ilustrado aquí, la distancia entre trayectorias se ha multiplicado por dos. Después, para que el objeto siga siendo compacto (de tamaño nito), debe doblarse sobre sí mismo ( centro): la supercie se pliega, de suerte que sus dos extremos se encuentren. El atractor de Rössler ha sido observado en numerosos sistemas físicos, desde uidos hasta reacciones químicas.
C 11
0
400
600
900
1100
1500
1700
2100
6000
EL ALEJAMIENTO EXPONENCIAL de las trayectorias inicialmente vecinas constituye la razón última por la que el caos lleva a la impredecibilidad. Una medición perfecta del estado inicial de un sistema correspondería a un punto en el espacio de conguraciones. Sin embargo, embargo, toda medición es imprecisa, por lo que solo puede determinar una pequeña región en el espacio de estados; el verdadero estado inicial podría hallarse en cualquier punto de dicha zona. Estas guras muestran la evolución en el atractor de Lorenz. La incertidumbre en la medida inicial queda representada por 10.000 puntos rojos. Inicialmente, estos se hallan tan próximos entre sí que resultan indistinguibles. Sin embargo, a medida que el sistema evoluciona, se dispersan con rapidez. Primero forman un lamento que después se pliega sobre si mismo repetidas veces. Al nal, los puntos cubren todo el atractor: el estado nal puede hallarse en cualquier lugar, por lo que la predicción se ha tornado imposible. Las cifras de cada imagen indican el paso del tiempo en unidades de 1/200 segundos.
lo hallamos en los osciladores eléctricos. La órbita se enrolla rodeando el toro en el espacio de conguraciones, de modo que una frecuencia queda determinada por la rapidez con que la órbita rodea el toro por el camino más corto, y la otra por la rapidez con que lo hace alrededor del camino más largo. Los atractores pueden ser también toros de más dimensiones, lo que representa la combinación de más de dos oscilaciones.
12 TEMAS 95
Una característica importante de los movimientos cuasiperiódicos es que, a pesar de su complejidad, son predecibles. Aun cuando la órbita no se repite nunca exactamente, si las frecuencias carecen de divisor común, el movimiento sigue siendo regular. Dos órbitas que comiencen cerca una de otra en el toro permanecerán siempre cercanas, por lo que la predictibilidad a largo plazo está garantizada.
D L E I F H C T U R C . P S E M A J
a
b
c
d
EL CAOS GENERA FRACTALES, estructuras que no cesan de revelar nuevos detalles a medida
que las examinamos a escalas cada vez menores. Como resultado, los atractores caóticos exhiben una bella estructura microscópica. Michel Hénon, del Observatorio de Niza, descubrió una regla simple que estira y pliega el plano, cambiando de sitio cada uno de los puntos. Estas imágenes muestran aplicaciones aplicaciones sucesivas de la regla de
Hénon partiendo de un punto inicial. La forma geométrica resultante resultante (a) proporciona un ejemplo simple de atractor caótico. Cada imagen amplía la zona señalada en rojo en la anterior por un factor de 10. Al repetir el proceso ( b, c, d), la estructura microscópica del atractor se maniesta en detalle. La ilustración en color muestra otra parte del
atractor de Hénon.
LA LLEGADA DEL CAOS
D L E I F H C T U R C . P S E M A J
Hasta los años sesenta del siglo , los puntos jos, los ciclos límite y los toros eran los únicos atractores conocidos. En 1963, sin embargo, Edward Lorenz, del Instituto de Tecnología de Massachusetts, descubrió un ejemplo de un sistema con pocos grados de libertad que presentaba un comportamiento comple jo. Motivado por el deseo de e ntender la impredecibilidad del tiempo meteorológico, partió de las ecuaciones de movimiento de un uido y, simplicándolas, obtuvo un sistema con tan solo tres grados de libertad. A pesar de ello, el sistema se comportaba de un modo aparentemente estocástico, uno que escapaba a toda caracterización adecuada por cualquiera de los tres tipos de atractor entonces conocidos. El atractor que observó, llamado hoy atractor de Lorenz, fue el primer ejemplo de atractor caótico, o extraño. Usando un ordenador para simular su modelo, Lorenz dilucidó el mecanismo básico responsable del azar observado: las perturbaciones microscópicas se amplicaban hasta afectar al comportamiento macroscópico. Dos órbitas con condiciones iniciales próximas se alejaban rápidamente una de otra de forma exponencial, por lo que solo permanecían cercanas durante un corto período de tiempo. Esa situación difería cualitativamente de la descrita por los atractores no caóticos. En ellos, las órbitas vecinas se mantienen cerca, los pequeños pequeños errores siguen siguen acotados y el comportamiento es predecible. La clave para entender el comportamiento caótico se halla en una simple operación de estirado y plegado que se produce en el espacio de estados. La divergencia exponencial constituye una propiedad local: puesto que los atractores tienen tamaño nito, dos órbitas que se encuentren en uno de ellos no podrán divergir exponencialmente de manera indenida. Como conseconsecuencia, el atractor deberá «plegarse» sobre sí mismo: aunque
las órbitas diverjan y sigan caminos cada vez más alejados, en algún momento habrán de acercarse de nuevo entre sí. Así pues, en un atractor extraño las órbitas se mezclan de un modo muy parecido a como lo hacen los naipes de un mazo cuando los barajamos. El azar de la s órbitas caóticas e s consec uencia de esta mezcla. El proceso de estirar y doblar se repite una y otra vez, creando pliegues dentro dentro de otros pliegues pliegues ad innitum. innitum. Un atractor caótico es, por tanto, un fractal: un objeto que siempre revela nuevos detalles a medida que lo amplicamos. El caos mezcla entre sí las órbitas en el espacio de conguconguraciones exactamente del mismo modo en que un panadero mezcla los ingredientes cuando trabaja la masa. Para imaginar lo que ocurre con las trayectorias vecinas en un atractor caótico, coloquemos una gota de colorante azul en la masa. El amasado consta de dos acciones: estirar la masa, con la consiguiente extensión del colorante, y plegarla sobre sí misma. Al principio, la gota de colorante solo se alarga. Pero luego acaba por plegarse sobre sí misma y, con el paso del tiempo, se estira y repliega muchas veces. Una inspección detallada muestra que la masa consta entonces de numerosas capas alternadas de color azul y blanco. Tras veinte pasos, la gota inicial se ha estirado hasta más de un millón de veces de su longitud original y su espesor ha disminuido hasta la escala molecular. El tinte azul se mezcla por completo con la masa. El caos opera de l mismo modo, con la diferencia de que, en vez de mezclarse con la masa, se mezcla en el espacio de estados. Inspirado por e sta imagen, Otto Rössler, de la Universidad de Tubinga, propuso el ejemplo más eleme ntal de atractor caótico en un uido.
INCERTIDUMBRE CRECIENTE Cuando se llevan a cabo observaciones de un sistema físico, los inevitables errores de medición impiden especicar su estado
C 13
con total exactitud. Como consecuencia, el estado del sistema no está situado en un punto único, sino en una pequeña región del espacio de conguraciones. Aunque la incertidumbre cuán tica ja el tamaño mínimo que puede tener dicha región, en la práctica diversas clases de ruido limitan la precisión de la medición e introducen errores bastante mayores. La pequeña región especicada por las incertidumbres inherentes a la medición resulta análoga a la gota de colorante en la masa. Situar el sistema en una región pequeña del espacio de estados mediante una medición proporciona cierta cantidad de información. Cuanto más precisa sea nuestra medida, más conocimiento obtendremos sobre el estado del sistema. En un sistem a no caótico, los puntos próximos permanecen cercanos entre sí a medida que pasa el tiempo, por lo que la medición aporta una cantidad de información que se conserva en el tiempo. Este es el sentido en que tales sistemas pueden denominarse predecibles: las mediciones iniciales contienen información que puede usarse para predecir su comportamiento futuro. En otras palabras, los sistemas predecibles son aquellos que no se muestran especialmente sensibles a los errores de medición. Las operaciones de estirado y plegado de un atractor caótico eliminan sistemáticamente la información inicial y la sustituyen por otra nueva: los estirones amplían las incertidumbres en escalas pequeñas, mientras que los pliegues acercan trayectorias que estaban muy separadas y destruyen información en escalas grandes. De esta manera, los atractores caóticos actúan como multiplicadores que elevan las uctuaciones microscópicas a una escala macroscópica. Ello explica por qué no existen las soluciones exactas, los atajos para predecir el futuro. Tras un breve período de ti empo, la in certidumbre asociada a la medición inicial cubre el atractor por completo y perdemos toda capacidad de predicción: simplemente, no hay conexión causal entre el pasado y el futuro. Los atractores caóticos funcionan localmente como ampliampli cadores de ruido. Una uctuación pequeña, debida quizás a la agitación térmica, causará una gran desviación en la posición de la órbita poco después. Pero hay un aspecto importante en el que los atractores caóticos dieren de los simples amplicadores de ruido. Debido a que las operaciones de estirar y plegar son repetitivas y continuas, cualquier minúscula uctuación acabará por dominar el movimiento, y el comportamiento cualitativo será independiente del nivel de ruido. Por ello, los sistemas caóticos no pueden «silenciarse», por ejemplo, bajando la temperatura. Generan azar por sí mismos, sin necesidad de inuencias aleatorias externas. Ese comportamiento aleatorio se debe a algo más que a la amplicación de los errores y a la pérdida de la capacidad de predecir: se origina por la complejidad de las órbitas generadas por los estiramientos y plegamientos. Conviene advertir que tanto el comportamiento caótico como el no caótico pueden darse en sistemas sin disipaciones, en los que la energía se conserva. En ellos, las órbitas no se relajan hacia un atractor, sino que permanecen connadas en una susu percie que tiene asociada una cierta energía. Sin embargo, la disipación es importante en muchos de los sistemas de mundo real —si no en la mayoría— y cabe esperar que el concepto de atractor sea de utilidad general.
CAOS EN LA NATURALEZA Los atractores caóticos abren un nuevo campo en la teoría de los sistemas dinámicos. Con todo, debemos preguntarnos por su relevancia a la hora de e xplicar la aleatoriedad observada en algunos sistemas físicos. La primera prueba experimental de
14 TEMAS 95
que los atractores se hallan tras el movimiento estocástico de los uidos fue más bien indirecta. El experimento en cuestión fue efectuado en 1974 por Jerry Gollub, del Haverford College, y Harry Swinne y, de la Universidad de Texas en Austin. L a prueba resultó ser indirecta porque los investigadores no se concentraron en el atractor en sí, sino en las propiedades estadísticas que lo caracterizan. El sistema que examinaron era una célula de Couette, la cual consta de dos cilindros concéntricos. El espacio entre ellos se llena con un uido y uno de los cilindros, o ambos, giran con una velocidad angular ja. Según aumenta la velocidad angular, el uido exhibe pautas de comportamiento progresivamente más complejas y con una dependencia temporal complicada. Lo que hicieron Gollub y Swinney fue, en esencia, medir la velocidad del uido en un punto dado. Al incrementar la velovelo cidad de rotación, observaron transiciones desde una velocidad constante en el tiempo hasta otra que variaba periódicamente y, por último, a otra que cam biaba de forma a periódica. Esta transición hacia un movimiento aperiódico constituía el punto central del experimento. El experimento se había diseñado para de cidir entre dos concepciones teóricas que predecían comportamientos diferentes del uido a medida que cambiaba la velocidad de rotación. La teoría de Landáu predecía que, al aumentar la rotación, se excitaría un número siempre creciente de oscilaciones independientes, y que el atractor atractor asociado asociado sería un toro toro de muchas dimensiones. Esta idea había sido puesta en duda por David Ruelle, del InsIns tituto de Altos Estudios Cientícos de París, y Floris Takens, de la Universidad de Groninga. Adujeron argumentos matemáticos que sugerían que era poco probable que el atractor asociado a las ideas de Landáu apareciera en el movimiento de un uido. Por el contrario, sus resultados indicaban que cualquier toro de muchas dimensiones debería originar un atractor caótico, como había postulado Lorenz. Gollub y Swinney encontraron que, para velocidades de rotación bajas, el ujo no cambiaba con el tiempo: el atracatractor subyacente era un punto jo. Al aumentar la velocidad, el agua empezaba a oscilar con una frecuencia independiente que correspondía a un ciclo límite atractor (una órbita periódica). Y, si la velocidad de rotación aumentaba aún más, la oscilación presentaba dos frecuencias independientes, lo que indicaba la existencia de un atractor con geometría de toro bidimensional. La teoría de Landáu predecía que, conforme se aumentara la velocidad de rotación, la pauta debería continuar: aparecerían gradualmente más y más frecuencias distintas. Sin embargo, no ocurría así; más allá de cierta velocidad crítica de rotación, aparecía de repente una banda continua de frecuencias. Esta observación era coherente con el ujo determinista no periódico de Lorenz, lo que corroboró la idea de que los atractore s caóticos subyacían a la turbulencia de los uidos. Aunque el análisis de Gollub y Swinney apoyaba la idea de que los atractores caóticos estaban tras el movimiento aleatorio de los uidos, su trabajo distaba mucho de ser concluyente. Era deseable demostrar explícitamente la existencia de un atractor caótico simple en los datos experimentales. Sin embargo, lo normal es que en un experimento no se registren todos los aspectos de un sistema, sino tan solo unos pocos. Gollu b y Swinney no podían registrar, por ejemplo, todo el ujo de Couette, sino solamente la velocidad en un punto. A partir de ahí, el atractor debía reconstruirse a partir de un conjunto limitado de datos. Está claro que esto no siempre puede hacerse: si el atractor es demasiado complicado, algo se perderá. En algunos casos, sin
N I T S U A N E S A X E T E D D A D I S R E V I N U , R E T A T S D N A R B E K N A Y Y E N N I W S . L Y R R A H
o n o f ó r c i m l e d a d i l a S
Micrófono
t1
t2
t3 t2 ,t3 1 + n
t
t1 ,t2
t n
Tiempo
a
c
e
Datos
Datos
Datos
b
d
f
Modelo
Modelo
Modelo
UN GRIFO QUE GOTEA proporciona un ejemplo sencillo de un sistema capaz de experimentar una transición caótica. El atractor subyacente se reconstruye representando los intervalos temporales entre cada par de gotas sucesivas ( arriba). Los atractores reconstruidos con un grifo real (a, c) guardan una clara correlación correlación con los obtenidos a partir de variantes de la regla de Hénon ( b, d). Las ilustraciones e y f corresponden corresponden a un caudal elevado y probablemente representan secciones de otros atractores caóticos. Las grácas emplean intervalos temporales como coordenadas. El eje horizontal es tn, el intervalo temporal entre la gota n y la n–1. El vertical representa el intervalo temporal siguiente, tn+1, y el tercero, perpendicular a la página, tn+2. Cada punto corresponde así a una terna de números ( tn, tn+1, tn+2) de una muestra de 4094 datos. En las ilustraciones b y d se ha añadido ruido simulado.
D L E I F H C T U R C . P S E M A J
embargo, sí podemos reconstruir la dinámica a partir de un número reducido de datos. Una técnica introducida por los autores de este artículo y fundamentada matemáticamente por Takens posibilitó reconstruir el espacio de conguraciones para buscar atractores caóticos. La idea básica es que la e volución de toda componente individual de un sistema está determinada por los demás componentes con los que interactúa. La información sobre los componentes relevantes se halla, pues, implícitamente contenida en la historia de cualquier componente individual. Para reconstruir un
espacio de conguraciones «equivalente», basta con observar un componente y tratar los valores medidos a intervalos de tiempo jos (hace un segundo, hace dos segundos, etcétera) como si fueran dimensiones nuevas. Esos valores retrasados pueden considerarse nuevas coordenadas que denen un punto en un espacio multidimensional de estados. Repitiendo el procedimiento y tomando valores retraretra sados con respecto a diferentes tiempos, se generan muchos de esos puntos. Se puede hacer uso entonces de otras técnicas para determinar si esos puntos están o no en un atractor caótico. Aun-
C 15
que esta representación es en muchos aspectos arbitraria, las propiedades importantes importantes de un atractor se conservan y resultan independientes de los detalles de la reconstrucción. Ilustraremos esta técnica con un ejemplo que tiene la venven taja de ser familiar y accesible a todos. La mayoría de la gente conoce la pauta periódica de las gotas que caen de un grifo mal cerrado. Puede suceder que el tiempo que transcurre entre gotas sucesivas sea muy regular, lo que ha mantenido despiertos a muchos insomnes esperando la caída de la siguiente gota. Sin embargo, menos conocido resulta el comportamiento de un grifo cuando el caudal de agua es algo mayor. En general, es posible encontrar un régimen en el que las gotas, aunque caigan separadamente, lo hagan sin repetir nunca su cadencia, como una batería que nunca repitiera lo que haya tocado antes. Los cambios de la pauta regular a la aparentemente aleatoria recuerdan la transición entre los ujos laminar y turbulento de un uido. ¿Podría ocurrir que un atractor caótico simple se ocultara tras este fenómeno? El estudio experimental de un grifo que gotea fue realizado en la Universidad de California en Santa Cruz por uno de nosotros (Shaw) en colaboración con Peter Scott, Stephen Pope y Philip Martein. La primera parte del experimento consistía en dejar caer las gotas de un grifo ordinario sobre un micrófono y medir los intervalos temporales entre los pulsos sonoros resultantes. Al represe ntar grácam ente pares de interv alos tempora les, se obtiene una sección del atractor subyacente. En el régimen periódico, por ejemplo, el menisco desde el que cae la gota se mueve de forma suave y repetitiva, lo cual podría representarse mediante un ciclo límite en el espacio de estados. Pero este mo vimiento suave es inaccesible en el experimento real: lo único que registramos son los intervalos temporales entre las caídas de las gotas. Podemos comprarlo a aplicar luz estroboscópica sobre un movimiento cíclico y regular: si la sincronización es la adecuada, no veremos más que un punto jo. La parte más interesante del experimento llegó cuando, en efecto, encontramos atractores caóticos en el régimen no periódico del grifo. Podía haber ocurrido que la aleatoriedad en la caída de las gotas se debiese a inuencias inobservadas, como pequeñas vibraciones o corrientes de aire. Si así fuera, no habría ninguna relación particular entre un intervalo y el siguiente, por lo que el gráco de los datos tomados de dos en dos solo habría mostrado una mancha sin ningún rasgo distintivo. Sin embargo, el hecho de que en las grácas apareciese siempre alguna estructura indicaba que el comportamiento estocástico se apoyaba en un andamio determinista. En concreto, muchos conjuntos de datos mostraron una forma de herradura, que es la señal del sencillo proceso de estirado y plegado que exponíamos más arriba. Esta forma característica puede considerarse una «instantánea» del proceso de pliegue. Otros conjuntos de datos más complejos pueden entenderse como secciones de atractores de más dimensiones.
LOS LÍMITES DEL CAOS Si un sistema es caótico, ¿en qué grado lo es? Una medida del caos es la «entropía» del movimiento. Esta cantidad viene a constituir un promedio del ritmo de estirado y plegado, o la tasa media de creación de información. Otro dato indicador es la dimensión del atractor. Si un sistema es simple, su comportamiento debería poder describirse mediante un atractor de pocas dimensiones en el espacio de estados, tal y como ocurre con los ejemplos citados en este artículo. Para especicar el estado de un sistema más complicado pueden ser necesarios
16 TEMAS 95
más números, con lo que el atractor correspondiente debería tener más dimensiones. La técnica de la reconstrucción, combinada con mediciones de la entropía y de la dimensión, hace posible reconsiderar el ujo de Couette estudiado por Gollub y Swinney. Así lo hicieron varios miembros del grupo grupo de Swinney en colaboración colaboración con con dos de nosotros (Crutcheld y Farmer). La técnica de reconstruc ción nos permitió obtener imágenes del atractor subyacente. En este caso, las imágenes no demuestran claramente que haya un atractor de pocas dimensiones, como sí sucede en otros sistemas, como el grifo que gotea. Sin embargo, las mediciones de la entropía y de la dimensión revelan que el movimiento irregular de un ujo de Coue tte cerca de la transición puede describirse mediante atractores caóticos. Al aumentar la velocidad de rotación en la célula de Couette, hacen lo propio la entropía y la dimensión de los atractores subyacentes. Hay un gran número de sistemas que exhiben un compor tamiento estocástico provocado por un atractor caótico. Entre ellos, el diagrama de convección de un uido calentado en una caja pequeña; la oscilación de los niveles de las concentraciones en reacciones químicas inestables; los latidos de las células del corazón de pollo, y muchos osciladores eléctricos y mecánicos. Esta forma simple de aleatoriedad ha aparecido asimismo en simulaciones informáticas de fenómenos muy diversos, desde la modelización de epidemias o la actividad eléctrica de una neurona hasta oscilaciones estelares. Y la emergencia del caos también se ha explorado en sistemas tan dispares como las ondas cerebrales y la economía. Con todo, hemos de enfatizar que la teoría del caos está lejos de constituir una panacea. La existencia de muchos grados de libertad puede hacer que aparezcan movimientos complicados y aleatorios. E incluso cuando seam os capaces de determ inar que un sistema es caótico, esto por sí solo no aclara mucho. Un buen ejemplo lo hallamos en las moléculas de un gas. Aunque sabemos que se trata de un sistema caótico, ello no facilita la predicción de su comportamiento. Son tantas las partículas que intervienen que lo más a lo que podemos aspirar es a una descripción estadística, y las propiedades estadísticas esenciales pueden obtenerse sin tener en cuenta el caos. Hay otras cuestiones en las que se desconoce el papel desempeñado por el caos. ¿Qué ocurre con los patrones que cambian sin cesar, como las dunas del Sáhara o aquellos que aparecen en un uido completamente turbulento? No está claro que las formas espaciales complejas puedan describirse describirse de manera adecuada mediante un único atractor en un esp acio de conguracioconguraciones. Pero quizá la experiencia con los atractores más elementales sirva de guía para obtener una imagen más completa de estos sistemas, en la que intervengan conjuntos de estructuras deterministas similares a los atractores caóticos.
CAOS Y REDUCCIONISMO La existencia del caos afecta al mismo método cientíco. El procedimiento clásico para vericar una teoría consiste en hacer predicciones y contrastarlas con los datos experimentales. No obstante, si un fenómeno es caótico, las predicciones a largo plazo se tornan intrínsecamente imposibles. Ello debe tenerse en cuenta a la hora de evaluar los méritos de una teoría. El proceso de vericación se vuelve mucho más delicado y debe basarse en propiedades estadísticas estadísticas y geométricas, más que en predicciones detalladas. El caos plantea un nuevo desafío al punto de vista reduccionista, según el cual un sistema puede entenderse descompodescompo -
niéndolo en sus partes constituyentes y estudiando cada una por separado. Si esta idea ha prevalecido en ciencia, es en parte porque hay numerosos sistemas en los que el comportamiento del todo es realmente la suma de los comportamientos de sus partes. El caos demuestra, sin embargo, que un sistema puede exhibir un comportamiento complejo que emerge a partir de interacciones simples pero no lineales entre unos cuantos componentes. El problema se ha agudizado en un amplio abanico de disciplinas, desde la física microscópica hasta la construcción de modelos del comportamiento macroscópico de organismos biológicos. La capacidad para obtener un conocimiento detallado de la estructura de un sistema ha experimentado enormes avances. Sin embargo, la posibilidad de integrar ese conocimiento se ha visto frenada por la falta de u n ma rco con ceptual apropiado que permita describir cualitativamente el comportamiento. Por ejemplo, ni siquiera con un mapa completo del sistema nervioso de un organismo simple, como un nematodo, es posible deducir su comportamiento. Y, de igual modo, la esperanza de hacer de la física una ciencia completa a partir de un conocimiento cada vez más pormenorizado de las interacciones y los constituyentes elementales es totalmente infundada. La interacción entre componentes a una escala puede inducir un comportamiento global muy complejo en otra escala mayor. Un comportamiento que, en general, no puede deducirse a partir del conocimiento de los componentes individuales. A menudo, menudo, el caos caos se considera considera en función de las las limitaciones limitaciones que impone, como la falta de predictibilidad. Pero la naturaleza puede usar el caos de manera constructiva. A través de la amplicación de pequeñas uctuaciones, permite que los sistemas naturales desarrollen comportamientos novedosos. Una presa que escapa del ataque de un predador puede usar el control caótico del vuelo como un elemento de sorpresa para e vitar ser capturada. La evolución biológica necesita variabilidad genética. El caos proporciona una forma de estructurar los cambios
aleatorios, haciendo posible que dicha variabilidad se halle bajo un control evolutivo. El mismo progreso intelectual se basa en la inyección de nuevas ideas y en nuevos modos de conectar las viejas. La propia creatividad podría basarse en un proceso caótico que amplica se selectivamente pequeñas uctuaciones y las moldease hasta dar lugar a los estados mentales macroscópicos que experimentamos en forma de pensamientos. En algunos casos, esos pensamientos pueden ser decisiones, o lo que experimentamos como un ejercicio de nuestra voluntad. Desde esta perspectiva, el caos proporciona un mecanismo que permite el libre albedrío en un mundo gobernado por leyes deterministas. Artículo publicado publicado en Investigación y Ciencia , febrero febrero de 1987 1987
LOS AUTORES
James P. Crutchfe ld, J. Doyne Far mer, Norman H . Packard y Robert S. Shaw han destacado por sus investigaciones pioneras en el estudio de los sistemas caóticos. Crutcheld es catedrático de física en la Universidad de California en Berkeley, donde dirige el Centro de Ciencias de la Complejidad. Farmer es catedrático de matemáticas en la Universidad de Oxford y director del programa de Economía de la Complejidad en el Instituto para el Nuevo Pensamiento Económico, en la misma universidad. Packard ha sido profesor de física en la Universidad de Illinois en Urbana-Champaign y actualmente es director de Daptics, una compañía de inteligencia articial. Shaw ha investigado en la Universidad de California en Santa C ruz y en el Instituto de Estudios Avanzado s de Princet on. PARA SABER MÁS
Geometry from a time series. Norman H. Packard, James P. Crutcheld, J. Doyne Farmer y Robert S. Shaw en Physical Review Letters, vol. 45, págs. 712-716, septiembre de 1980. Dynamics: The geometry of behavior. Ralph Abraham y C hris Shaw, 2. a ed. Basic Books, 1992. Deterministic chaos: An introduction. H. G. Schuster, 3. a ed. Wiley-VCH, 1995. Caos: La creación de una ciencia. James Gleick. Crítica, 2012.
BOLETINES A MEDIDA Elige los boletines según tus preferencias temáticas y recibirás toda la infor in formación mación sobre las revistas, las noticias y los
contenidos web que más te interesan.
www.investigacionyciencia.es/boletines C 17
ENTENDER LA COMPLEJIDAD
Criticalidad autoorganizada Los sistemas interactivos de gran tamaño pueden evolucionar hacia un estado crítico: uno en el que un acontecimiento banal provoca una catástrofe. Este fenómeno explica la dinámica de terremotos, mercados y ecosistemas Per Bak y Kan Kan Chen
E
, , los analistas la atribuyan a una rara con junción de circunstancias circunstancias o a cierta combinación de poderosos mecanismos. Cuando San Francisco sufrió un tremendo seísmo, los geólogos ubicaron su origen en una inmensa zona inestable coincidente con la falla de San Andrés. Cuando el mercado de valores se vino abajo el Lunes Negro de 1987, 1987, los economistas culparon al efecto desestabilizador de la informatización y automatización de las transacciones. Cuando los registros fósiles re velaron la extinción en en masa de los dinosaurios, los paleontólo paleontólogos la atribuyeron al impacto de un meteorito o a la erupción de un volcán. Es posible que estas teorías sean correctas. Pero sistemas tan grandes y complicados como la corteza terrestre, el mercado de valores o un ecosistema no solo pueden romperse por los efectos de un golpe titánico, sino t ambién por la caída de un aller. Los grandes sistemas interactivos se organizan perpetuamente a sí mismos hasta llegar a un estado crítico. Cuando eso ocurre, un acontecimiento menor puede causar una reacción en cadena capaz de producir la catástrofe. En el pasado, los grandes sistemas interactivos se han analizado del mismo modo que los sistemas pequeños y ordenados. Esto se debía, sobre todo, al éxito de los métodos desarrollados para los sistemas reducidos. Se pensaba que el comportamiento de un gran sistema podía predecirse estudiando por separado sus elementos individuales y analizando sus mecanismos microscópicos. A falta de una teoría mejor, los investigadores dieron por hecho que la respuesta de un sistema de gran tamaño sería proporcional a la magnitud de la perturbación. Estaban convencidos de que su dinámica podía describirse en función
de un estado de equilibrio, perturbado de vez en cuando por una fuerza e xterior. Sin embargo, hoy sabemos que muchos sistemas complicados y caóticos son refractarios al análisis tradicional. tradicional. En 1987, 1987, uno de los autores de este artículo (Bak), Kurt A. Wiesenfeld y Chao Tang, del Laboratorio Labor atorio Nacional de Brookhaven, Bro okhaven, en EE.UU EE.UU., ., desarrollamos un nuevo marco para explicar el comportamiento de grandes sistemas, aquellos compuestos por millones y millones de elementos que interactúan a pequeña escala. A tal n propusimos la teoría de la criticalidad autoorganizada. Según esta, mu chos sistemas compuestos evolucionan de manera espontánea hacia un estado crítico: uno en el que un acontecimiento banal da inicio a una reacción en cadena capaz de afectar a un número cualquiera de constituyentes. Aunque los sistemas compuestos producen muchos más acontecimientos banales que catástrofes, las reacciones en cadena de todos los tamaños posibles constitu yen una parte parte integral de su dinámica. dinámica. Según Según nuestra teoría, teoría, el mecanismo que conduce a sucesos de poca entidad es el mismo que el que desencadena grandes acontecimientos. La criticalidad autoorganizada es una teoría holística: las características características globales, como el número relativo de sucesos grandes y pequeños, no dependen de los mecanismos micros cópicos. Resulta imposible, pues, comprender las características globales del sistema analizando por separado las partes que lo componen. Hasta donde sabemos, la criticalidad autoorganizada es el único modelo o descripción matemática que ha dado pie a una teoría holística de los sistemas dinámicos. A lo largo de los años, varios varios experi experimentos mentos y modelos modelos teórico teóricoss han puesto de maniesto que muchos sistemas compuestos que subyacen a la geología, la economía, la biología o la meteorología
EN SÍNTESIS
Alguno s siste mas formados por un gr an número de constituyentes pueden evolucionar de manera espontánea hacia un estado crítico. Cuando eso ocurre, una pequeña perturbación puede provocar una reacción en cadena de proporciones gigantescas.
18 T EMAS
95
Los sistemas que se encuentran en un esta do crítico autoorganizado se hallan a menudo al borde del caos. Aunque las incertidumbres crecen con el tiempo, lo hacen a un ritmo mucho más lento que un sistema caótico típico.
Existen signos de criticalidad autoorganizada en fenómenos naturales muy dispares, desde los movimientos sísmicos y la economía hasta el tráco rodado o la dinámica de uidos. El fenómeno podría explicar incluso algunos aspectos fundamentales de la vida y la evolución biológica.
X / F O N I M O D Y E K R U B / A D A S E U Q
LAS FICHAS DE DOMINÓ ilustran la criticalidad, la subcriticalidad y la supercriticalidad. supercriticalidad. En el sistema crítico (arriba), las chas se dispusieron al azar en la mitad de las casillas de una red. Al derribar las de la la inferior, se produjeron cascadas de todo tipo de tamaños.
En el sistema subcrítico ( abajo a la izquierda), donde la densidad de chas era mucho menor, solo se produjeron cascadas pequeñas. El
sistema supercrítico (derecha ), con una densidad superior a la crítica, mostró en cambio una actividad explosiva.
C 19
muestran signos de criticalidad autoorganizada. Este enfoque ha mejorado nuestra comprensión del comportamiento de la corteza terrestre, los mercados de valores y los ecosistemas.
PILAS DE ARENA Dado que un sistema compuesto puede estar formado por un gran número de elementos y gobernado por multitud de interacciones, no es posible construir modelos matemáticos que sean a la vez totalmente realistas y teóricamente manejables. En consecuencia, los investigadores han de recurrir a modelos simplicados e idealizados que reejen las características bá sicas de los sistemas reales. Si dichos modelos demuestran ser robustos con respecto a varias modicaciones, podremos usarlos para extrapolar a situaciones reales los hallazgos efectuados con ellos. Este enfoque ha sido de gran éxito en la mecánica estadística del equilibrio, donde el estudio de modelos sencillos ha permitido entender fenómenos universales en sistemas con muchos grados de libertad. Hay un sistema engañosamente simple que sirve de paradigma para entender el fenóme no de criticalidad autoorganizada: una pila de arena. Algunos investigadores han simulado su dinámica mediante programas programas de ordenador; otros, como Glenn A. Held y sus colaboradores, colaboradores, de IBM, han procedido procedido a efectuar experimentos. Tanto los modelos como los experimentos han puesto de maniesto las mismas características. Held y sus colaboradores idearon un aparato que vert ía arena de manera lenta y uniforme, a razón de un grano por vez, sobre una supercie circular plana. Al principio, los granos se quedan cerca del lugar donde cayeron, pero pronto comienzan a formar un pequeño montón de pendiente suave. De tanto en tanto, cuando la pendiente se inclina demasiado en algún lugar de la pila, los granos se deslizan ladera abajo, provocando un pequeño alud. Conforme vamos añadiendo más arena y la pendiente media de la pila aumenta, crece también el tamaño medio de las avalanchas. avalanchas. Algunos granos caerán por el borde de la supercie circular. El montón deja de crecer cuando, en promedio, la arena que añadimos se compensa con la que cae por el borde. En ese momento, el sistema ha alcanzado el estado crítico. Si añadimos un solo grano de arena a un montón que se halla en estado crítico, podremos desencadenar un alud de cualquier tamaño; en particular uno «catastróco». No obstante, la ma yoría de de las veces el grano caerá sin producir producir avalanchas. avalanchas. Puede Puede comprobarse que, incluso en los mayores desprendimientos, apenas interviene una pequeña proporción de los granos apilados; por tanto, ni siquiera los acontecimientos catastrócos hacen que la pendiente de la pila se desvíe signicativamente de la pendiente crítica. Las avalanchas constituyen un tipo particular de reacción en cadena, o «proceso de ramicación». Simplicando un poco la dinámica de los aludes, podemos identicar los rasgos principales de esta reacción en cadena y confeccionar un modelo. Al principio de la avalancha, un único grano s e desliza ladera abajo a causa de alguna inestabilidad en la supercie de la pila. El grano solamente se detendrá si cae en una posición estable; de lo contrario, continuará ladera abajo. Si en su descenso golpea otros granos poco estables, provocará que caigan también. Cada uno de esos granos puede detenerse o continuar cayendo y pro vocar la caída de otros granos. El proceso cesará cuando todas las partículas activas se hayan detenido o hayan abandonado la pila. Para medir el tamaño de la avalancha, basta con contar el número de granos caídos. La pila mantiene una altura y pendiente constantes porque la probabilidad de que la actividad se
20
TEMAS 95
extinga queda compensada, en promedio, con la probabilidad de que la actividad se ramique. Como consecuencia, la reacción en cadena mantiene un estado crítico. Si la pendiente de la pila es menor que la crítica (un estado subcrítico), las avalanchas serán de menor tamaño. Como consecuencia, una pila subcrítica crecerá hasta alcanzar el estado crítico. Por el contrario, si la pendiente es mayor que la crítica (un estado supercrítico), las avalanchas avalanchas serán mucho mayores, por lo que la pila se desmoronará hasta alcanzar una vez más el estado crítico. Así pues, tanto los apilamientos subcríticos como los supercríticos se ven arrastrados de forma espontánea hacia el estado crítico. ¿Qué sucede si usamos arena húmeda en lugar de seca, o si intentamos evitar las avalanchas con un parapeto? Al principio, el montón húmedo produce avalanchas menores y a un ritmo menor que el seco. Y, tras cierto tiempo, habrá crecido hasta adquirir una pendiente mayor que su homólogo seco. Pero, antes o después, también la pila húmeda alcanzará un estado crítico en el que se producen aludes de todos los tamaños. Una dinámica similar se observa en los apilamientos protegidos con parapetos. En general, el estado crítico es robusto con respecto a pequeñas modicaciones en las reglas del sistema. Nuestro montón de arena posee dos características incongruentes a primera vista: el sistema es localmente inestable en múltiples lugares; sin embargo, el estado crítico es absolu tamente robusto. Por un lado, los rasgos especícos, como las conguraciones locales de la arena, cambian sin cesar a causa de las avalanchas. Por otro, las propiedades estadísticas, como la distribución de tamaños de las avalanchas, permanecen permanecen esencialmente idénticas. Un observador que estudiase una región especíca de la pila podría identicar con facilidad los mecanismos que provocan la caída de la arena, e incluso podría predecir si se originarán desprendimientos en un futuro próximo. Sin em bargo, para un observador observador local las grandes avalanchas avalanchas resultan impredecibles, impredecibles, ya que estas son una consecuencia de la historia total de la pila entera. Poco importa cuál sea la dinámica local: las avalanchas persistirán de manera implacable y se producirán con una frecuencia que no e s posible alterar. La criticalidad es una propiedad global del montón de arena. Aun cuando cuando sigamos sigamos añadiendo añadiendo arena arena a un ritmo ritmo uniforme, uniforme, la cantidad de granos que caerán fuera de la pila variará e normemente a lo largo del tiempo. Si dibujamos ese ujo de granos que escapan en función del tiempo, veremos un patrón muy errático caracterizado por intervalos de todas las duraciones. Las señales de este tipo reciben el nombre de «ruido de parpadeo» ( ficker noise) noise) o «ruido 1/ f 1/ f ». Durante largo tiempo, los cientícos han sospechado que este tipo de señal indica que la dinámica de un sistema depende fuertemente de los acontecimientos pasados. En contraste, el llamado «ruido blanco», una señal aleatoria, implica que la dinámica presente no guarda ninguna correlación con la pasada. El ruido de parpadeo es extraordinariamente común en la naturaleza. Se ha observado en la actividad del Sol, en la l uz de las galaxias, en la corriente eléctrica que atraviesa una resistencia y en el uir del agua en un río. De hecho, la ubicuidad de este tipo de ruido constituye uno de los grandes misterios de la física. La teoría de la criticalidad criticalidad autoorganizada sugiere una interpretación muy general. El ruido de parpadeo consta de una superposición de señales de todos los tamaños y duraciones: señales producidas cuando un sistema dinámico en estado crítico genera reacciones en cadena de todos los tamaños y duraciones.
100.000
s o t o m e r r e t e d o r e m ú N 1
10,000
1000
100
10
100
1000
10,000 100,000
1
1
10
100
1000
10,000 100,000
Energía liberada (unidades arbitrarias)
ESTE MODELO DE BLOQUES conectados por muelles simula los terremotos en la corteza terrestre. Cada vez que la fuerza ejercida sobre un bloque excede un valor crítico, el bloque se desliza y la fuerza se transmite a los bloques adyacentes. Los cuadrados blancos representan bloques en deslizamiento; cada cúmulo de ellos, un terremoto. El modelo produce seísmos de todos los tamaños, desde el corrimiento de un solo bloque hasta agrupaciones «catastrócas» «catastrócas» que se extienden por todo el sistema. El número total de deslizamientos en una misma agrupación proporciona proporciona una medida de la energía liberada durante un terremoto. La gráca superior izquierda muestra los resultados acumulados tras 10.000 simulaciones; como referencia, la gráca derecha ofrece la distribución correspondiente a terremotos reales (ambas escalas son logarítmicas). Tanto los resultados del modelo como los datos reales siguen una ley de potencias: el número de terremotos terremotos de energía E es proporcional a 1/ E b, donde b es una constante.
MOVIMIENTOS SÍSMICOS
N E K C E E D . R N H O J
Nosotros y nuestros colaboradores hemos diseñado numerosos modelos informáticos que exhiben criticalidad autoorganizada. Dichos modelos nos han ayudado a entender la dinámica de los terremotos, los ecosistemas y los fenómenos de turbulencia en los uidos. Quizá sean los modelos sismológicos los que mayor éxito han logrado. En 1956, los geólogos Beno Gutenberg y Charles F. Richter, famoso por la escala que lleva su nombre, descubrieron que el número de grandes terremotos guardaba una relación con el de seísmos pequeños. Dicha relación se conoce hoy como ley de Gutenberg-Richter: el número de terremotos que cada año liberan cierta cantidad de energía, E , es proporcional a 1/ E b, donde b es un exponente cuyo valor ronda 1,5. Dicho valor es universal, en el sentido de que no depende del área geográca concreta. Por tanto, los grandes terremotos escasean mucho más que los pequeños. Si, por ejemplo, en una zona se produce cada año un seísmo de energía 100 (en ciert as unidades), en el mismo intervalo de tiempo se generarán unos mil pequeños temblores de energía 1. Dado que el número de terremotos pequeños guarda una relación sistemática con el de seísmos grandes, cabe sospechar que ambos emanan del mismo proceso me cánico. La ley de potencias constituye un signo de criticalidad autoorganizada. Pero, para poner a prueba esta hipótesis, hemos de simular el proceso que origina los terremotos. Se cree que los seísmos están provocados por un mecanismo de adherencia y deslizamiento: ciertas regiones de la corteza terrestre se adhieren y, después, se deslizan. Cuando esto ocurre, se liberan tensiones mecánicas que se propagan a regiones ad yacentes. Para reprod ucir este mecanismo en e l l aboratorio, Vladimir Brobov y Mihail L ebyodkin llevaron a cabo un experimento consistente en aplicar presión a una barra de aluminio, la cual representaba una región de la corteza terrestre. L a presión provocó una transición desde el ujo elástico (en el que la barra recupera su forma original cuando cesa la presión) al
plástico (cuando la deformación se torna irreversible). irreversible). En la fase plástica, la barra generó una «falla» en la que dos partes se deslizaban una contra otra. Bobrov y Lebyodkin observaron «terremotos» cuyo tamaño y frecuencia quedaban relacionados por una ley de potencias. Al repetir los experimentos con barras de n iobio, obtuviero n l os mismos resultados , a pesar de que los mecanismos microscópicos de uno y otro material son diferentes. Por nuestra parte, diseñamos un modelo informático sencillo que reproducía varias características de los seísmos. Nuestro modelo consta de una placa elástica y una rígida. La elástica queda representada por una matriz bidimensional de bloques, cada uno de los cuales se halla conectado a sus cuatro vecinos mediante muelles. Al comprimir el conjunto, los muelles ejercen sobre los bloques una fuerza proporcional a la compresión (modicar el tipo concreto de fuerza apenas produce cambios en la dinámica). Al mismo tiempo, los bloques de la placa elástica interaccionan con la placa rígida por rozamiento. Cuando la fuerza ejercida por un muelle sobre un bloque determinado excede cierto valor crítico, este comienza a deslizarse. Después, continua moviéndose hasta que la fuerza cae por debajo del valor crítico. La fuerza «perdida» por el bloque se transere por igual a sus cuatro vecinos. (Durante el proceso, la energía potencial almacenada en los muelles se convierte primero en energía cinética y después se disipa, cuando las fuerzas de rozamiento frenan los bloques.) El modelo describe la distribución de fuerzas ant es y después de cada episodio, pero no los movimientos de cada bloque ni otros detalles del proceso. Al aumentar de manera progresiva y en una misma dirección la fuerza que ejercemos sobre los bloques, comienzan a producirse terremotos. Estos son pequeños al principio, pero luego el modelo evoluciona hacia un estado crítico, en el que se generan seísmos tanto grandes como pequeños. En el estado crítico, el aumento uniforme de la fuerza aplicada se ve compensado por la liberación de fuerzas en los bordes de la placa.
C 21
La criticalidad autoorganizada y los montones de arena La teoría de la criticalidad autoorganizada formula una sencilla predicción sobre las pilas de arena. Cuando sobre un mo ntón de arena dejamos caer granos uno a uno, por lo general se producirá el desprendimiento de unos pocos granos. Sin embargo, de vez en cuando la caída de un solo grano podrá provocar una avalancha de gran tamaño. Para vericar esta predicción, Glenn A. Held y sus colaboradores de IBM concibieron en 1990 un ingenioso experimento. La mayor dicultad con que t ropezaron los investigadores fue construir un aparato capaz de aportar lentamente arena a la pila, a razón de un grano por vez. Para ello, montaron un motor de velocidad variable en un soporte de laboratorio y le acoplaron un embudo de 250 mililitros, en cuya salida se hallaba un tubo capilar de 23 centímetros de largo y 2 milímetros de diámetro. Después, llenaron el embudo con arena y lo inclinaron unos dos grados con respecto de la ho rizontal, a n de que los granos de arena se deslizasen hacia el interior del tubo c apilar pero sin que cayesen por él. Cuando el motor hacía girar el embudo en torno a su eje, los granos de arena se alineaban en el tubo e iban viajando en la hasta el extremo. Al ajustar el ángulo del embudo y la velovelo cidad de rotación del motor, los investigadores lograron calibrar el aparato hasta hacer que cayera un grano cada 15 segunsegundos. Situaron entonces la boca del capilar a unos 10 cm de altura sobre el platillo de una balanza. La balanza tenía una precisión de 0,0001 gramos y una capacidad de 100 gr. Cada grano de arena pesaba unos 0,0 006 gr, y una pila de arena de 4 cm de base pesaba 15 gr. Como soporte de los montones, los autores usaron bandejas circulares de entre 1 y 8 cm de diámetro. Cada una estaba sujeta a una peana de 2,5 cm de altura y 0,5 cm de diámetro. Esta, a su vez, se encontraba conectada a una base circular de 4 cm de diámetro. El montaje entero descansaba sobre el platillo de la balanza. Los autores construyeron un faldón de metal en torno a la peana para evitar que la arena desprendesprendida del montón cayera sobre el platillo; de este modo, la balanza únicamente registraría el peso de la pila. La balanza fue cubierta con una caja transparente para evitar que las corrientes de aire la perturbasen o arrastrasen los granos de arena. Por último, todo el montaje se instaló sobre una mesa pesada para minimizar el efecto de las vibraciones. En los primeros experimentos, Held y sus colaboradores usaron partículas de óxido de aluminio, aunque después comprobaron
En nuestro trabajo, estudiamos con detalle el comportamiento del modelo después de que el sistema hubiera alcanzado el estado crítico. Cabe suponer que la corte za terrestre ha evolucionado ya hasta su fase crítica, estacionaria, de modo que los terremotos reales pueden simularse por los que tienen lugar en el modelo en su estado crítico. En este, la energía li berada dura nte un terremoto guarda relación con e l núme ro
22
TEMAS 95
que la arena de playa servía igual de bien . Prepararon la arena secándola en un horno, haciéndola pasar por una criba gruesa y después por otra más na. Conservaron los granos que atraatravesaron la malla gruesa (con 8 hilos por cm), pero eliminaron los que se colaron a través de la na (10 hilos por cm). Tras los preparativos, los autores llenaron el embudo de arena y formaron una pila sobre una bandeja circular de 4 cm . Para garantizar que el montón se es tabilizase de forma natural, dejaron caer granos sobre la pila durante varias horas . Después, observaron avalanchas de arena caer en cascada ladera abajo. Conforme la arena caía por los bordes de la bandeja, midieron las uctuaciones de la masa de la pila. Cuando el ordenador detectaba un cambio de masa correspondiente a un grano de arena, detenía la rotación del embudo y, con ello, el ujo de arena. arena. Una vez estabilizada la balanza de nuevo, el ordenador registraba la masa y volvía a poner en marcha el motor para reanudar el proceso de caída. Los autores mantuvieron el sistema en funcionamiento durante dos semanas, tiempo durante el que registraron la c aída de más de 35.000 granos de arena sobre la bandeja de 4 cm. Observaron avalanchas de un amplio abanico de tamaños: la masa de la pila uctuó entre uno y varios centenares de granos hasta varios miles de ellos. Ello sugería que la pila había alcanalcanzado un estado crítico. Sin embargo, cuando el equipo aumentó el diámetro de la base de la pila usando una bandeja de 8 c m, vio que solo se proproducían avalanchas de gran tamaño (de unos 4 gr). Así pues , las pilas tan grandes no parecían exhibir critic alidad autoorganizada. Los autores no consiguieron encontrar la razón por la cual solo los montones de tamaño reducido evolucionaban hacia un estado crítico.
Montaje experimental de Held y sus colaboradores.
de deslizamientos que se producen como consecuencia de una inestabilidad individual ocurrida en un cierto «epicentro». Y, de hecho, si contamos el número de terremotos de cada tamaño, obtenemos una distribución con forma de ley de potencias similar a la de Gutenberg-Richter. Gutenberg-Richter. Los terremotos catastrócos corresponden a la región de alta energía en dicha curva, la cual interpola suavemente entre los terremotos grandes y los peque-
M B I E D N O S T A W . J S A M O H T O R T N E C , D L E H . A N N E L G
ños. No existe un mecanismo particular que sea responsable de los seísmos de gran tamaño. Diseñamos modelos de dos, tres y cuatro dimensiones, en los cuales cada bloque estaba conectado a sus vecinos por cuatro, seis y ocho muelles, respectivamente. La dimensión determina el exponente b de la ley de potencias. En la imagen típica de la reacción en cadena, diferentes valores de b corresponden a distintos acoplamientos entre los procesos de ramicación individuales. Sergei P. Obukhov, del Instuto Landáu de Moscú, ha demostrademostrado que, en dimensión cuatro o superior, los procesos de ramicación individuales son en esencia independientes, siendo posible determinar determinar por medios analíticos que el valor de b es 1,5. Las regiones activas de los terremotos reales son tridimensionales. Hasta el momento, la única forma de predecir el valor de b es mediante simulaciones por ordenador. No podemos esperar que un modelo tan simplicado proporcione los exponentes exactos de las distribuciones de terremotos reales. No obstante, el modelo sugiere que las leyes de potencias deberían tener su origen en sistemas con criticalidad autoorganizada, y que, por tanto, la ley de Gutenberg-Richter sería una señal de que la corteza terrestre se halla en un estado crítico perpetuo. Investigadores de todo el mundo han aplicado la teoría de la criticalidad autoorganizada para dar cuenta de otras peculiaridades de los seísmos. Keisuke Ito y Mitsuhiro Matsuzaki, de la Universidad de Kobe, lograron explicar la distribución espacial de los epicentros gracias a un m odelo ligeramente modicado. Este también daba cuenta de la ley de Omori, una sencilla relación empírica acerca de los terremotos secundarios de una magnitud determinada. Anne y Didier Sornette, de la Universidad de Niza, estudiaron los intervalos que median entre terremotos grandes y hallaron regularidades que podrían tener importantes aplicaciones en la predicción de terremotos a largo plazo. Y Jean M. Carlson y James S. Langer, de la Universidad de California en Santa Bárbara, crearon un modelo unidimensional que simulaba los movimientos de la corteza terrestre a lo largo de una falla, el cual también evolucionaba de manera natural hacia un estado crítico.
tanto las condiciones iniciales como las reglas que gobiernan su dinámica. En los sistemas no caóticos, como la órbita de la Tierra alrededor del Sol, la incertidumbre se mantiene constante en todo momento: podemos determinar la posición de nuestro planeta dentro de un millón de años casi con la misma precisión con que podemos determinarla hoy. En los sistemas caóticos, sin embargo, las incertidumbres iniciales crecen exponencialmente con el tiempo. Por regla general, es ese crecimiento exponencial lo que nos impide efectuar predicciones a largo plazo. Para vericar la precisión de las predicciones de nuestro modelo sísmico, procedimos a efectuar dos simulaciones del estado crítico. Una y otra se diferenciaban en una pequeña fuerza aleatoria aplicada sobre cada bloque, lo representaba pequeñas incertidumbres en la determinación de las condiciones iniciales. Al ejecutar ambas simulaciones, comprobamos que la incertidumbre inicial también crecía con el tiempo. Sin embargo, lo hacía mucho más despacio que en el caso de un sistema caótico: en lugar de obedecer una ley exponencial, seguía una ley de potencias. El sistema evoluciona al borde del caos. Este comportamiento, conocido como «caos débil», aparece como resultado de la criticalidad autoorganizada. El caos débil se diferencia notablemente del caos absoluto. Este último se caracteriza por una escala temporal más allá de la cual resulta imposible efectuar predicciones. Los sistemas caóticos débiles, sin embargo, carecen de dicha escala temporal, por lo que sí permiten predicciones a largo plazo. Y, dado que los sistemas críticos autoorganizados son débilmente caóticos, cabe esperar que este fenómeno sea muy común en la naturaleza. En concreto, sería muy interesante saber si la imprecisión de las predicciones sismológicas, económicas o meteorológicas aumenta según una ley potencial o una exponencial. La diferencia es notable. Supongamos que las observaciones de 100 estaciones estaciones meteorológicas meteorológicas bastan para pronosticar pronosticar el tiempo con dos días de antelación. Si el tiempo me teorológico es plenamente caótico, las observaciones de 1000 estaciones alargarían las predicciones hasta cuatro días; sin embargo, si fuese débilmente caótico, las mismas 1000 estaciones permitirían hacer pronósticos con veinte días de anticipación.
EN LA FRONTERA DEL CAOS La teoría de la criticalidad autoorganizada no solo logra explicar la evolución de los terremotos, sino también la distribución de sus epicentros. Hace años que los investigadores saben que la distribución espacial de todo tipo de objetos, desde montañas y nubes hasta hasta las galaxias galaxias o los vórtices vórtices en un ujo turbulento, turbulento, pueden describirse mediante mediante leyes de potencias. Así, el número de objetos comprendidos en el interior de una esfera de radio r suele ser proporcional a r D para algún exponente constante D constante D.. Tales distribuciones suelen ser fractales. La distribución de los epicentros de los terremotos, por ejemplo, puede describirse mediante tales patrones. Y aunque los fractales son ubicuos en la naturaleza, el tipo de dinámica que los genera no ha comenzado a entenderse hasta hace poco. En nuestra opinión, los fractales pueden entenderse como «instantáneas» de procesos críticos autoorganizados. Las estructuras fractales y el ruido de parpadeo vendrían a ser, respectivamente, la huella espacial y la huella temporal de la criticalidad autoorganizada. La predicción de terremotos sigue siendo una tarea difícil. La estabilidad de la corteza terrestre parece ser extremadamente sensible a las condiciones iniciales. En ocasiones, acontecimientos muy distantes del epicentro pueden afectar a la evolución de un terremoto. Para evaluar la exactitud de las predicciones relativas a un sistema dinámico, hemos de conocer con cierta precisión
AUTÓMATAS Y VIDA Con un cambio de lenguaje y una pizca de imaginación, resulta posible transformar el modelo del montón de arena o el de terremoto en situaciones de otro tipo. Se ha demostrado, por ejemplo, que el tráco en una autopista también exhibe ruido de parpadeo. En las retenciones, los constantes arranques y paradas de los automóviles pueden entenderse como una serie de «avalanchas» críticas que se propagan por el tráco. Los modelos de tráco, los apilamientos de arena y los terre motos tienen en común que el número de constituyentes se conserva en el tiempo. El número de granos de un montón de arena es siempre igual a la cantidad de granos que dejamos caer menos los que abandonan la pila. Tales leyes de conservación son una característica de muchos sistemas que evolucionan espontáneamente hacia un estado crítico. Sin embargo, la teoría de la criticalidad autoorganizada no se limita a ellos. En 1970, el matemático John H. Conway concibió un sis tema hoy famoso conocido como «juego de la vida». Se trata de un autómata que remeda la evolución de una colonia de organismos y que simula la generación de complejidad en la naturaleza a partir de reglas muy sencillas. Al comenzar, las piezas, u «organismos», se sitúan al azar sobre un tablero de casillas cuadradas. Cada ubicación está, o bien oc upada por un
C 23
organismo («viva»), o bien vacía («muerta»). ( «muerta»). Para determinar el lo simplicado de un sistema coevolutivo. Cada casilla puede estado de una casilla en cada turno del juego, es preciso cont ar interpretarse como un gen de una especie muy sencilla, el cual el número de organismos que moran en sus ocho emplazamienpuede adoptar los valores 0 o 1. La estabilidad de cada valor detos vecinos. Si en torno a una celda dada hay dos casillas vivas, pende del entorno, expresado por los valores de los genes de las especies vecinas. El proceso coevolutivo lleva al sistema desde su estado no cambiará. Si hay tres, en la celda aparecerá un nuevo organismo si esta se hallaba muerta, o se conservará el un estado inicial arbitrario hasta uno crítico, altamente organique ya habitaba en ella en caso de que estuviese viva. En los zado y dotado de conguraciones complejas. Esa complejidad guarda una íntima relación con la criticalidad de la dinámica. restantes casos, los organismos mueren, ya sea por superpo blación (cuatro o más casillas vecinas ocupadas) o por soledad De hecho, bien podría ocurrir que las teorías de la complejidad (menos de dos celdas vecinas ocupadas). El j uego prosigue por y de la criticalidad resultasen ser la misma cosa. si solo según estas reglas hasta alcanzar un estado periódico El biólogo Stuart Kaumann ha propuesto un modelo de evocon colonias estables [véase «El juego de la vida», por Agustín lución en el cual las especies quedan representadas rep resentadas por ristras de Rayo; I C, diciembre de 2010] . números (genes), los cuales interactúan tanto en el seno de una misma especie como entre especies. La adaptación de una especie Junto con Michael Creutz, del Laboratorio Nacional de Brookhaven, estudiamos el juego de la vida de Conway a n concreta queda así acoplada a la adaptación de otras. Kaumann de determinar si el número de emplazamientos emplazamientos vivos uctuaba sugirió que la complejidad de la vida tal vez se hallase relacionada con el tiempo de forma similar al tamaño de los aludes en el con la existencia de un estado crítico. Y nuestros estudios paremontón de arena. Una vez que el sistema alcanzaba un estado cen indicar que, en efecto, la evolución puede tomar un sistema sencillo y dotado de una dinámica aproximadamente aleatoria y estacionario, añadíamos un organismo más en una posición seleccionada al azar, esperábamos a que el sistema se estabili llevarlo hacia un estado crítico. De ser así, la evolución opera al zara de nuevo y repetíamos el procedimiento. A continuación, borde borde del caos. caos. La extinció extinción n de los dinosau dinosaurios rios,, por ejemplo ejemplo,, puede puede medimos el número total de nacimientos y de defunciones de la considerarse análoga a una avalancha en la dinámica de la evo«avalancha» «avalancha» desencadenada por cada perturbación adicional. lución, sin que para ello sea necesaria la intervención de agenagenHallamos que la distribución obedecía una ley de potencias, tes externos como meteoritos o volcanes. indicativa de que el sistema se había organizado en un estado crítico. Descubrimos también que la distribución de ubicaciones DE LA ECONOMÍA A LA TURBULENCIA vivas correspondía correspondía a un un fractal fractal descrito descrito por por una ley de potencias: potencias: Philip W. Anderson, Brian W. Arthur, Kaumann y uno de noel número medio de casillas activas situadas a una distancia r sotros (Bak) hemos sugerido que las uctuaciones económicas de una celda activa dada resultó ser proporcional a r D, con D podrían también corresponder a avalanchas en un estado crítico autoorganizado. Benoît Mandelbrot ha analizado indicadores aproximadamente igual a 1,7. ¿Es este comportamiento comportamiento crítico accidental, debido únicameneconómicos, como el índice Dow Jones, y ha encontrado en ellos te a las reglas part iculares inventadas por Conway? Para hallar la uctuaciones similares a las del ruido de parpadeo. Los diverrespuesta, procedimos a construir variantes del juego de la vida. sos estados estacionarios metaestables de la economía podrían Algunas Algunas fueron tridimension tridimensionales, ales, en otras añadimos añadimos organismos organismos corresponder a los diversos estados metaestables de un montón mientras el sistema aún se encontraba en evolución, y en otras los de arena o de la corteza terrestre. Los modelos tradicionales han supuesto que en la econointrodujimos en lugares especícos y no al azar. En todos los casos, observamos una evolución hacia un estado crítico que quedaba mía queda descrita por un estado de equilibrio estable, por lo caracterizado por leyes de potencias en las que, aparentemente, que las grandes uctuaciones solo pueden deberse a impactos el exponente solo dependía de la dimensión espacial. externos que afectan de manera simultánea y por igual a vaEstos modelos podrían tener importantes ramicaciones ramicaciones en rios sectores. No obstante, a menudo es difícil identicar el la biología real. El juego de la vida puede verse como un modeorigen de las grandes crisis, como la Gran Depresión de los
EL «JUEGO DE LA VIDA», concebido por el matemático John H. Conway, es un autómata celular que, a partir de reglas sencillas, simula la generación y evolución de organismos. Su dinámica sugiere que la teoría de la criticalidad autoorganizada podría explicar los ecosistemas y la evolución biológica. En estas estas imágenes, los cuadrados cuadrados negros negros indican organismos vivos; los los rojos, rojos, organismos que mueren, mueren, y los azules, organismos organismos nacientes. La primera viñeta muestra el estado de una colonia poco después de añadir un organismo a una conguración estable. En la segunda y la tercera, la colonia evoluciona hacia un nuevo estado.
24
TEMAS 95
N E K C E E D . R N H O J
LA DINÁMICA DINÁMIC A DE LOS ALUDES admite una explicación sencilla en la teoría de la criticalidad autoorganizada. autoorganizada. Según esta, las pilas
de nieve y otros sistemas naturales evolucionan de manera espontánea hacia un estado crítico, en el que una pequeña perturbación puede
provocar enormes cambios. Este marco teórico podría contribuir a mejorar la predicción de catástrofes.
K C O T S I / R O G O S Y L / S E G A M I Y T T E G
años treinta. Sin embargo, si la economía constituye un sistema crítico autoorganizado, es de esperar que de manera periódica se produzcan uctuaciones a gran escala incluso en ausencia de grandes trastornos. Para vericar la viabilidad de estas ideas, los autores de este artículo, en colaboración con José A. Scheinkman y Michael Woodford, Woodford, de la Universidad Universidad de Chicago, Chicago, hemos creado un modelo sencillo en el que los fabricantes de diversos productos ocupan posiciones en un retículo bidimensional. Cada compañía se surte de otras dos situadas en posiciones adyacentes. A continu ación, fabrica nuevos productos que se esfuerza en vender en el mercado. Si la demanda de los productos de cada compañía varía ligeramente al azar, muchas compañías pue den experimentar una «avalancha» de producción y ventas. Las simulaciones indican que dicho modelo tiende hacia un estado crítico autoorganizado, al igual que una pila de arena. Las grandes uctuaciones constituyen propiedades intrínsecas e inevitables de este modelo económico. La teoría de la criticalidad autoorganizada también podría encontrar aplicaciones en dinámica de uidos. Hace tiempo que se supone que, en un uido turbulento, la energía se almacena en vórtices y remolinos de todos los tamaños. Mandelbrot ha sugerido que la disipación de energía se vería connada en una diminuta porción del espacio, localizada en una estructura fractal compleja. Aunque ello parece concordar con los experimentos, no se ha concretado ninguna teoría ni cálculo que respalde esta imagen. En colaboración con Tang, Tang, hemos construido un modelo simplicado de turbulencia que opera en un estado crítico autoorganizado. Dicho modelo simula incendios forestales, suponiendo que los «árboles» crecen uniformemente y arden —disipan energía— sobre un fractal. Puede considerarse que la disipación de energía está causada por una sucesión de fue gos que se propagan a modo de avalanchas. En el estado crítico, existe una distribución de fuegos y bosques de todos los tamaños; en correspondencia con el hecho de que, durante la turbulencia, la energía se almacena en vórtices de todas las escalas. Aunque este modelo gua rda muy poca relación con la turbulencia en los líquidos, sí sugiere que la turbulencia podría constituir un fenómeno crítico autoor-
ganizado. Una consecuencia empírica de esta hipótesis es que, al contrario de lo que suele suponerse, un régimen plenamente turbulento no correspondería a un fenómeno caótico fuerte, sino a uno débil, como ocurría en nuestro modelo sismológico. Podemos imaginar ejemplos más exóticos de criticalidad autoorganizada. A lo largo de la historia, las guerras y los períodos de paz podrían haber dejado dejado el mundo en un estado crítico, en el que los conictos y la desazón social se propagan como avalanchas. La criticalidad autoorganizada podría incluso explicar cómo se propaga la información a través de las re des neurales del cerebro. En tal caso, no sería ninguna sorpresa que las tormentas de ideas pudieran desencadenarse a partir de acontecimientos banales... como, esperamos, leyendo este artículo. Artículo publicado publicado en Investigación y Ciencia , marzo de de 1991
EL AUTOR
Per Bak y y Kan Chen han Chen han destacado por sus trabajos en teoría de los sistemas complejos. Bak, antiguo investigador del Laboratorio Nacional de Brookhaven y la Universidad de C openh ague, ent re otras inst itucion es, fue uno d e los coautores del primer artículo que propuso la idea de criticalidad autoorganizada. Chen ha investigado en el Laboratorio Nacional de Brookhaven y en la Universidad Nacional de Singapur. PARA SABER MÁS
Self-or ganized c ritica lity: An ex planati on of the 1/f noise. Per noise. Per Bak, Chao Tang y Kurt Wiesenfeld en Physical Review Letters, Letters, vol. 59, págs. 381-384, julio de 1987. Self-or ganized c ritica lity and e arthq uakes. Anne uakes. Anne Sornette y Didier Sornette en Europhysics Letters, Letters , vol. 9, págs. 197-202, junio de 1989. Self-or ganized c ritica lity in the « game of lif e». Per e». Per Bak, Kan Chen y Michael Creutz en Nature, Nature, vol. 342, págs. 780-782, diciembre de 1989. A forest- re model an d some tho ughts o n turbule nce. Per nce. Per Bak, Kan Chen y Chao Tang en Physics Letters, Letters , vol. 147, págs. 297-300, julio de 1990. Experimental study of critical-mass uctuations in an evolving sandpile. Glenn A. Held et al. en Physical Review Letters, Letters, vol. 65, págs. 1120-1123, agosto de 1990. How nature works: The science of self-organized criticality. Per Bak. Springer Verlag, 1996.
C 25
ENTENDER LA COMPLEJIDAD
Redes sin escala Algunos sistemas complejos de apariencia muy dispar poseen una misma arquitectura subyacente. El fenómeno reviste importantes consecuencias consecuencias en multitud de aplicaciones, aplicaciones, desde el desarrollo de fármacos hasta la seguridad de Internet Albert-László Albert-László Barabási y Eric Bonabeau
L
. E de células nerviosas conectadas por axones, y las propias células son redes de moléculas conectadas por reacciones bioquímicas. bioquímicas. Las sociedades humanas son redes de individuos vinculados por relaciones afectivas y lazos familiares o profesionales. A escala m ayor, cabe representar mediante reredes los ecosistemas y las cadenas trócas. Y aparecen por do quier en la tecnología: sirvan de ejemplo Internet, las redes de distribución de electricidad o los sistemas de transporte. Inclu so el idioma que usamos para llevar hasta el lector estos pensamientos es una red compuesta por palabras enlazadas entre sí por relaciones sintácticas. No obstante, a pesar de su importancia y ubicuidad, la estructura y las propiedades de las redes han sido grandes desconocidas hasta hace poco. ¿Cómo pueden las interacciones de
unos pocos nodos genéticos que funcionan de modo def ectuoso desembocar en un cáncer? ¿Por qué en algunos sistemas social es o de comunicaciones aparecen fenómenos que se difunden tan rápido, como las epidemias o los virus informáticos? ¿Cómo es posible que haya redes que sigan funcionando aunque fallen la gran mayoría de sus nodos? Tales preguntas han comenzado come nzado a recibir respuesta. A lo largo l argo de los últimos años, se ha descubierto que una gran variedad de redes, desde la World Wide Web hasta el metabolismo celular o las relaciones entre actores de Hollywood, están dominadas por un número no muy grande de nodos que, sin embargo, se hallan conectados a muchos otros. Las redes que contienen este tipo de nodos centrales (hubs (hubs,, en inglés) tienden a ser «libres de escala». Esto quiere decir que algunos grandes nodos parecen tener un número ilimitado de enlaces, y que ningún nodo es representante típico de los demás. Estas redes se comportan de
LA WORLD WIDE WEB es una red sin escala: algunos nodos tienen un número enorme de enlaces, mientras que la gran mayoría de ellos apenas cuenta con unos pocos vínculos. Este mapa, construido en 2003, representa las rutas más cortas desde una página de prueba hasta otras 100.000. Los colores similares representan direcciones web parecidas.
26 TEMAS 95
N O I T A R O P R O C A T E M U L E D A Í S E T R O C ; P A M K C I W S E H C / H C R U B
C 27
ciertas formas predecibles. Por ejemplo, son extraordinariamenextraordinariamen te robustas ante fallos accidentales, al tiempo que sumamente vulnerables a los ataques coordinados. Estos hallazgos han cambiado cuanto creíamos saber acerca del mundo complejo e interconectado que nos rodea. La existenexisten cia de este tipo de nodos de gran tamaño, no considerados por las teorías de redes tradicionales, ofrece indicios convincentes de que numerosos sistemas complejos poseen una arquitectura estricta y regida por leyes fundamentales: leyes que son válidas por igual para las células, los ordenadores, los idiomas y la sociedad. Estos principios organizativos tienen importantes consecuencias en el desarrollo de fármacos, la seguridad de Internet, la lucha contra las epidemias y otras aplicaciones.
UN NUEVO TIPO DE RED Desde hace décadas, la ciencia ha venido tratando todas las redes complejas como si fueran puramente aleatorias. Este paradigma se retrotrae al trabajo de dos matemáticos húngaros, el inimitable Paul Erdo ´´s y Alfréd Rényi, R ényi, estrecho est recho colaborad c olaborador or suyo. En 1959, con miras a describir las redes observadas en las comunicaciones y en las ciencias biológicas, estos investigadores sugirieron que tales sistemas podrían modelizarse interconectando sus nodos mediante enlaces distribuidos al azar. La sencillez de su método y la elegancia de algunos de sus teoremas insuaron nueva vida a la teoría de grafos y posibilitaron el nacimiento de una especialidad matemática centrada en el estudio de las redes aleatorias. Una predicción importante de la teoría de redes aleatorias es que, a pesar de que los enlaces de una red se hayan distribuido al azar, el sistema resultante será profundamente democrático: la mayoría de los nodos contará aproximadamente con el mismo número de enlaces. En una red aleatoria, el número de enlaces por nodo se atiene a una distribución de Poisson, acampanada, y resulta muy poco probable hallar nodos que tengan un número de enlaces mucho mayor o mucho menor que la media. Las redes aleatorias reciben también el nombre de redes exponenciales, ya que la probabilidad de que un nodo se encuentre conectado con otros k nodos decrece exponencialmente para valores grandes de k. En 1998, junto con Hawoong Jeong y Réka Albert, de la Uni versidad de Notre Dame, nos embarcamos en un proyecto para cartograar la World Wide Web. En un principio, esperábamos encontrar una red aleatoria: cuando un inter nauta decide a qué páginas vincular sus documentos, atiende solamente a su interés particular; y, dada la diversidad de los intereses de cada cual y el tremendo número de páginas entre las que elegir, cabía suponer que la red de conexiones resultante mostrase un aspecto aleatorio. Las mediciones, sin embargo, mostrar on otra cosa. Usamos un programa que saltaba de unas páginas a otras y recopilaba tantos enlaces como podía. Aunque este robot virtual cubría tan solo una diminuta porción de la Web, el mapa que fue
construyendo reveló algo sumamente inesperado: que eran unas pocas páginas muy bien conectadas las que, en esencia, aseguraban la cohesión de la Web. Más del 80 por ciento de las páginas recibían menos de cuatro enlaces; en cambio, una minoría muy pequeña, inferior al 0,01 por ciento de los nodos, tenía más de mil. (Una exploración posterior reveló la existencia de un documento al que hacían referencia más de dos millones de páginas.) El recuento del número de páginas que tenían exactamente k enlaces puso de maniesto que su distribución seguía una ley de potencias: la probabilidad de que un nodo tomado al azar estuviera conectado con otros k nodos era proporcional a 1/k 1/ k n. El valor de n para los enlaces en entrantes trantes era aproximadamente aproximadamente 2. Eso quiere decir que, por ejemplo, la probabilidad de que un nodo reciba 10 enlaces es cuatro veces menor que la probabili dad de que reciba 5. Las distribuciones de potencias son muy distintas de las distribuciones acampanadas que caracterizan a las redes aleatorias. En concreto, las leyes de potencias no tienen ningún máximo, sino que decrecen de forma monótona. En escala logarítmica, la gráca de una ley de pote ncias es una línea recta. En contraste con la distribución democrática de enlaces que se observa en las redes aleatorias, las leyes de potencias describen redes en las que dominan unos pocos nodos enormes, como Google. En las redes aleatorias, tales nodos están sencillamente prohibidos. Cuando comenzamos a cartograar la Web, es perábamos que la distribución distribución de nodos mostrase una forma acampanada, como ocurre con la esta tura en un gran grupo de personas. Sin embargo, descubrimos que había varios nodos que desaaban toda explicación: algo así como si nos hubiéhubié ramos encontrado un número signicativo de personas de 30 metros de alto. Ello nos indujo a acuñar la expresión «redes sin escala».
LA UBICUIDAD DE REDES SIN ESCALA Con el paso de los años se han descubierto descubierto estructuras sin escala en una asombrosa diversidad de sistemas. Al estudiar la Web, jamos nuestra atención en la red virtual denida por los hi pervínculos entre páginas. Por su parte, los hermanos Michalis, Petros y Christos Faloutsos analizaron la estructura material de Internet. Para ello, estudiaron los enrutadores conectados por bra óptica y líneas físicas de otros tipos y hallaron que la topología de esa red era también libre de escala. Otros trabajos han descubierto que esa estructura sin escala se da también en algunas redes sociales. Así, una investigación llevada a cabo por las universidades de Boston y de Estocolmo halló que, en Suecia, la red de relaciones sexuales seguía una ley de potencias: aunque la m ayoría de las personas solo había tenido unos pocos compañeros sexuales a lo largo de su vida, algunas habían tenido cientos. Otro estudio dirigido por Stefan Bornholdt, de la Universidad de Kiel, llegó a la conclusión de que la red de internautas conectados mediante el correo electrónico
EN SÍNTESIS
Diversas redes complejas comparten una importante propiedad: algunos nodos cuentan con un enorme número de vínculos, mientras que la gran mayoría de ellos tiene muy pocos. Tales sistemas reciben el nombre de «redes sin escala».
28 TEMAS 95
Las redes sin escala poseen ciertas características de interés. Por ejemplo, son muy robustas frente a los fallos fortuitos en los nodos. Sin embargo, resultan vulnerables a ataques dirigidos hacia los nodos con mayor número de enlaces.
Tales redes son comunes en tecnología, economía e incluso en biología celular. Su estudio promete aplicaciones en numerosos campos, desde el control de virus informáticos en Internet hasta el diseño de nuevos fármacos.
TIPOS DE REDES
Redes aleatorias y redes sin escala Las redes aleatorias, aleatorias, semejantes a la red de carreteras de EE.UU. (izquierda), constan de nodos interconectados al azar. En tales sistemas, la gráca que representa la cantidad de nodos con un número dado de vínculos es acampanada. La mayoría de los nodos tiene un número similar de enlaces. Las redes sin escala, en cambio, más semejantes al mapa de líneas aéreas ( derecha), contienen algunos nodos con un gran número de enlaces ( rojo). En ellas, la distribución vínculos por
nodo se rige por una ley de potencias del tipo N(k) ~ 1/k n, donde N denota el número de nodos, k el de enlaces y n es una constante positiva. Mientras que la gran mayoría de los nodos tiene un número escaso enlaces, unos pocos cuentan con un gran número de ellos. En este sentido, decimos que la red carece de una escala característica. En una representación doblemente logarítmica, la gráca de la distribución de nodos de una red sin escala viene dada por una línea recta.
Red aleatoria
Red sin escala
El número de nodos con una cantidad determinada de enlaces viene dado por una un a distribución distribuci ón acampanada s o d o n e d o r e m ú N
Media
Número de enlaces
S M L I F M I L S
también carecía de escala. Sidney Redner, de la Universidad de Boston, halló que la red que forman los artículos cientícos a partir de las veces que se citan entre ellos seguía una ley de potencias. Y Mark Newman, de la Universidad de Michigan, examinó las colaboraciones entre investigadores en varias disciplinas, como medicina y ciencias de la computación, y halló que estas también constituían redes sin escala, corroborando un estudio efectuado por nosotros y que se centro en las redes de matemáticos y neurólogos. (Curiosamente, uno de los mayores nodos en la comunidad matemática resultó ser el propio Erdo ´´s, ´s, quien escribió no menos de 1400 artículos con no menos de 500 coautores.) Entre las empresas aparecen también redes sin escala. El anáaná lisis de la formación de alianzas en la industria biotecnológica estadounidense ha descubierto varios nodos centrales: compañías como Genzyme, Chiron y Genentech, las cuales contaban con un número desproporcionado de asociaciones con otras empresas. Esa misma red fue examinada más a fondo por invesinvestigadores italianos. Valiéndose Valiéndose de datos recopilados p or la UniUni versidad de Siena, Siena, con con información información sobre unos 20.000 acuerdos
El número de nodos con una cantidad determinada de enlaces viene dado por una un a ley de potencia s s o d o o n e m t d i r o a r g e o m L ú n l e d
s o d o n e d o r e m ú N
Número de enlaces
Logaritmo del número de enlaces
de investigación y desarrollo entre más de 7000 organizaciones, hallaron que los grandes nodos descubiertos por los estadounidenses formaban parte de una red sin escala. Incluso la red de actores de Hollywood (popularizada por el juego «A seis pasos de Kevin Bacon», en el que los jugadores tratan de llegar hasta Bacon pasando de unos actores a otros por medio de las películas en que aparecieron juntos) carece de escala. Aunque la mayoría de los intérpretes tiene solo unos cuantos enlaces con otros, hay un grupo, como Rod Steiger y Donald Pleasence, con miles de conexiones. (Dicho sea de paso, en una lista de los actores más conectados, Bacon solo ocupaba el puesto 876.) 876.) También en el reino de la biología encontramos redes sin escala. En colaboración con Zoltán Oltvai, de la Universidad Universidad NoNo roccidental de EE.UU., hemos encontrado estructuras sin escala en las redes del m etabolismo celular de 43 organismos tomados de los tres reinos de la vida; entre ellos, Archaeoglobu ellos, Archaeoglobuss fulgidus fulgidus (una arquea), Escherichia arquea), Escherichia coli (una coli (una bacteria) y Caenorhabditis elegans (un elegans (un organismo eucariota). En estas redes, las células se nutren descomponiendo moléculas que, en el proceso, liberan
C 29
energía. Cada nodo es una molécula, mientras que los enlaces corresponden a las reacciones bioquímicas en las que esta participa. La mayoría de las moléculas intervienen en solo una o dos reacciones; sin embargo, hay unas pocas, como el agua o el ATP, ATP, que intervienen en casi todas. Asimismo, hemos descubierto que la re d de interacciones proteicas celulares también carece de escala. En ella, decimos que dos proteínas están conectadas si interactúa n entre sí. CuanCuan do investigamos la levadura de la cerveza, una de las células eucariotas más sencillas y en la que actúan miles de proteínas, descubrimos una topología sin escala: aunque casi todas las proteínas interaccionaban solo con una o dos más, había unas pocas vinculadas a un número enorme de ellas. Obtuvimos el mismo resultado al analizar las redes proteicas de la bacteria Helicobacter pylori, pylori, muy diferente de la levadura. El estudio de la topología de las re des no ha hecho más que revelar más y más redes sin escala. Este hallazgo plantea una importante cuestión: ¿a qué se debe que sistemas tan diferentes como una célula e Internet tengan una misma arquitectura y obedezcan las mismas leyes? Estas estructuras no solo carecen de escala, sino que comparten otra propiedad: por razones que aún ignoramos, el valor de n que caracteriza la ley de potencias 1/k 1/k n tiende siempre a estar comprendido entre 2 y 3.
DINERO LLAMA DINERO Tal vez una pregunta más profunda sea por qué la teoría de redes aleatorias no logra explicar la existencia de nodos de gran tamaño. Un examen más minucioso del trabaj o de Erdo ´´s y Rén R ényi yi revela dos causas. Al desarrollar desarrollar su modelo, Erdo ´´s y Rényi supusiero sup usieron n que, antes de establecer los enlaces de la red, ya disponían del inventario completo de nodos. Sin embargo, el número de nodos de la Web es todo menos constante: en 1990 solo tenía una página, pero hoy incluye miles de millones. La mayoría de las redes expe rimentan una expansión similar. En 1890, en Hollywood solo había una docena de actores; hoy son más de medio millón. Y hace tres decenios Internet apenas disponía de unos cuantos enrutadores, pero su número ha ido creciendo hasta alcanzar
millones. En estos casos, los nodos recién llegados se conectan a los que ya existían. Por tanto, gracias a la naturaleza creciencrecien te de las redes reales, los nodos más antiguos tienen mayores oportunidades de adquirir nuevos enlaces. Por otra parte, no todos los nodos son iguales. En el momento de decidir a cuáles vamos a enlazar nuestra página web, podemos elegir entre miles de millones de ubicaciones. Ahora bien, ¿quién conoce de la Web algo más que una diminuta porción? Y e se subc onjunto que n os es familiar suele incluir los sit ios más conectados, ya que son los más fáciles de hallar. La simple acción de vincularse a ellos ejercita y refuerza el sesgo a su favor. Este proceso de «enlazamiento preferencial» se da por doquier. En Hollywood, los actores más conectados son los que tienen mayores posibilidades posibilidades de ser elegidos para nuevos papeles. En Internet, los enrutadores más conectados, por lo común con un mayor ancho de banda, son los más deseables para los nuevos usuarios. En la industria biotecnológica estadounidense, las compañías bien establecidas tienden a atraer más alianzas, con lo que aumenta su credibilidad para futuras asociaciones. Análogamente, los artículos más citados en la bibliografía bibliografía ciencientíca incitan a un número mayor de investigadores investigadores a leerlos y a citarlos, fenómeno que Robert K. Merton ha denominado «efec to Mateo», en alusión al pasaje del Evangelio de San Mateo: «Pues a quien tiene se le dará, y poseerá en abundancia». abundancia». Estos dos mecanismos, el crecimiento y el enlazamiento preferencial, explican la existencia de nodos hiperconectados: conforme van apareciendo nuevos nodos, estos tienden a conectarse a los sitios con más enlaces; y estos últimos, ya populares, adquieren muchos más vínculos que sus vecinos. Semejante proceso de «dinero llama dinero» favorecerá por lo general a los nodos más antiguos, que contarán con mayores posibilidades de llegar a ser grandes nodos. En colaboración con Réka Albert, hemos desarrollado si mulaciones por ordenador que demuestran que una red en crecimiento en la que exista un mecanismo de enlazamiento preferencial se convertirá en una red sin escala, en la que la distribución distribución de nodos seguirá una ley de potencias. Aunque este modelo teórico es simplista y hay que adaptarlo a situaciones
Ejemplos de redes sin escala RED
NODOS
ENLACES
Metabolismo celular
Moléculas que extraen energía de los alimentos
Participación en la misma reacción bioquímica
Hollywood
Actores y actric es
Actuar en la misma película
Internet
Enrutadores
Conexiones por fbra óptica o de otro tipo
Red proteica reguladora
Proteínas que contribuyen a regular la actividad celular
Interacciones entre proteínas
científcas
Científcos
Coautoría en publicaciones
Relaciones sexuales
Personas
Contac to sexual
World Wide Web
Páginas web
Hipervínculos entre páginas
Colaboración en investigaciones
30 TEMAS 95
DINÁMICA DE CRECIMIENTO
Así se gesta una red sin escala Este ejemplo muestra el crecimiento de una red que comienza con 2 nodos y acaba con 11. Cada vez que se incorpora un nuevo nodo (verde), este se vinculará de manera preferente a uno de los nodos ya existentes (rojo) que tenga un gran número de con exiones. Estos dos mecanismos básicos, crecimiento y enlazamiento preferencial, acabarán originando una red en la que un número reducido de nodos presentará una ca ntidad muy elevada de enlaces.
concretas, parece conrmar nuestra explicación de la ubicuidad de las redes sin escala en el mundo real. El crecimiento y el enlazamiento preferencial pueden ayudar a explicar la presencia de redes sin escala incluso en sistemas biológicos. Se ha de scubierto, p or ejem plo, que las molé culas más conectadas de la red metabólica de E. de E. coli tienden coli tienden a tener una historia evolutiva muy antigua: se cree que algunas de ellas son remanentes del llamado «mundo del ARN» (el estadio evoevo lutivo previo a la aparición del ADN) y que otras participan en algunas de las vías metabólicas más antiguas. Curiosamente, el mecanismo de enlazamiento preferencial suele ser lineal: si el nodo A nodo A tiene tiene el doble de conexiones que B, B, la probabilidad de que un nodo recién llegado se vincule a A dobla A dobla a la probabilidad de que lo haga con B. B. Redner y sus colaboradores de la Universidad de Boston, así como otros in vestigadores, han e xaminado distintos tipos de enl azamiento preferencial y han encontrado que, si el mecanismo supera la linealidad (por ejemplo, si la probabilidad de conectarse a A a A es cuatro veces mayor que la de vincularse a B, B, en el ejemplo anterior) un solo nodo tenderá a acaparar casi todas las conexiones. En estos casos en los que «el ganador se queda con todo», la red acabará adoptando la topología de una estrella, con un solo nodo central.
UN TALÓN DE AQUILES
S M L I F M I L S
A medida que la humanidad humanidad se ha ido ido haciendo cada vez más dependiente de las redes de energía eléctrica y de comunicaciones, comunicaciones, ha cundido una inquietud: ¿hasta qué punto son ables estas redes? La buena noticia es que los sistemas complejos pueden ser muy resistentes a los fallos accidentales. De hecho, aunque en cada instante dejan de funcionar cientos los enrutadores de Internet, el conjunto de la red nunca suele sufrir un percance serio. Los sistemas vivos son igualmente robustos: rara vez acusamos las consecuencias de los miles de errores (mutaciones, plegamientos incorrectos de proteínas) que se producen en nuestras células. ¿A qué se debe esta robustez? La intuición nos dice que la avería de un número grande de nodos provocará la inevitable fragmentación de la red. De
hecho, así ocurre en las redes aleatorias: si en ellas eliminamos una fracción crítica de nodos, el conjunto se descompondrá en múltiples islas incomunicadas entre sí. En cambio, las simula ciones de las redes sin escala reeren una historia muy distinta. Si los escogemos al azar, podrían fallar hasta el 80 por ciento de los enrutadores de Internet y, aun así, los restantes seguirían formando un conjunto compacto en el que, dados dos nodos cualesquiera, seguiría existiendo al menos una ruta entre ellos. Lo mismo ocurre con las redes de interacción entre proteínas de una célula: nuestras mediciones indican que, incluso tras un número elevado de mutaciones aleatorias, las proteínas no afectadas seguirían trabajando conjuntamente. En general, las redes sin escala exhiben una sorprendente robustez frente a los fallos accidentales. Dicha propiedad se debe a la inhomogeneidad de su estructura topológica. Eliminar nodos de manera aleatoria afecta sobre todo a los más pequeños, ya que estos son mucho más numerosos que los grandes. Sin embargo, eso casi no altera la topología, ya que los nodos pequeños poseen muchos menos enlaces los grandes, los cuales, en cambio, están conectados prácticamente a todo. Pero esta dependencia estructural de los grandes nodos tiene un incon veniente: la vulnerabilidad ante los ataques. Gracias a varias simulaciones, hemos descubierto que bastaría con eliminar unos cuantos nodos vitales de Internet para que el sistema se escindiera en grupos diminutos de enrutadores aislados. De igual modo, los experimentos con levadura han demostrado que suprimir las proteínas más conectadas aumenta signicativamente la probabilidad de matar al organismo. Tales nodos son clave, por lo que, si una mutación los torna disfuncionales, es muy probable que la célula muera. Que la estabilidad de una red dependa de la existencia de grandes nodos será ventajoso o no según el sistema. Sin duda, la resistencia frente a fallos aleatorios resulta beneciosa tanto para Internet como para las l as células. Por otro lado, que una célula dependa de algunas proteínas muy interconectadas proporciona a la investigación farmacológica una estrategia para hallar dianas terapéuticas y dar con tratamientos que solo acaben con algunas bacterias o células malignas, sin dañar a los tejidos
C 31
sanos. Sin embargo, el riesgo de que un pequeño grupo de pi ratas informáticos bien informados pueda echar abajo toda una infraestructura de comunicaciones dirigiendo ataques certeros a algunos nodos clave es motivo de grave preocupación. Este talón de Aquiles de las redes sin escala suscita otra cuestión apremiante: ¿cuántos nodos son esenciales para manman tener la red? Algunas investigaciones sugieren que bastaría con eliminar entre un 5 y un 15 por ciento de los nodos principales para que el sistema se viniera abajo. En el caso de Internet, nuestros experimentos inducen a pensar que un ataque muy bien coordinado que eliminase en primer lugar al n odo m ás grande, luego al segundo en tamaño, y así sucesivamente, pro vocaría un colapso serio tras haber haber anulado unos pocos nodos. Por tanto, tal vez la forma más ecaz de evitar ataques dañinos consista en proteger bien los nodos principales. Con todo, aún hace falta mucho trabajo para conocer con precisión el grado de fragilidad de cada red especíca. Por ejemplo, ¿es posible que la quiebra de unas pocas compañías provocase el desplome de toda la industria biotecnológica de EE.UU.?
EPIDEMIAS SIN ESCALA El conocimiento de las redes sin escala nos ayuda a entender la difusión de virus informáticos, las epidemias y las modas. Las teorías de difusión, ampliamente estudiadas desde hace decenios tanto en epidemiología epidemiología como en mercadotecnia, hablan de un umbral crítico necesario para que llegue a producirse
Posibles repercusiones de las redes sin escala en... Computación n
Las redes informáticas sin escala, como la World Wide Web, son muy resistentes a los fallos fortuitos. Sin embargo, resultan vulnerables ante ataques coordinados.
n
Erradicar virus informáticos, incluso los ya conocidos, podría resultar imposible.
Medicina n
Las campañas de vacunación podrían alcanzar alcanzar su máxima ecacia si se concentrasen en aquellas personas que mantienen un gran número de contactos con otras. No obstante, la identicación de tales individuos puede ser difícil.
n
Cartograar las redes proteicas de las células humanas podría facilitar el descubrimiento y el control de los efectos secundarios de un medicamento. Identicar las moléculas clave que intervienen en ciert as enfermedades podría ayudar a crear nuevos fármacos.
Economía n
El conocimiento de los vínculos entre entre empresas, sectores y economías nacionales podría facilitar su supervisión y control a n de evitar las quiebras en cadena.
n
El estudio de la propagación de información en una red sin escala podría ayudar a diseñar nuevas técnic as publicitarias.
32 T EMAS 95
un contagio que alcance a toda una población. Cualquier virus, enfermedad o moda cuya tasa de contagio sea inferior a ese valor umbral umbral acabará acabará por extinguirse sin remedio; remedio; sin sin embargo, embargo, una vez superado, proliferará exponencialmente y acabará por invadir el sistema. Sin embargo, Romualdo Pastor Satorras, de la Universidad Politécnica Politécnica de Cataluña, y Alessandro Vespignani, del Centro de Física Teórica de Trieste, Trieste, han llegado ll egado a una conclusión inquietaninquietan te: han descubierto que, en una red sin escala, el valor umbral es cero. Es decir, que todos los virus, incluso los poco contagiosos, se extenderán y permanecerán en el sistema. Este resultado explica por qué Love Bug, el virus informático que consiguió cerrar el Parlamento británico en el año 2000, seguía siendo todavía uno de más extendidos un año después de su presunta erradicación. Dado que los grandes nodos se hallan conectados a otros muchos, es probable que uno de ellos acabe infectado. Y, cuando eso eso ocurra, ocurra, traspasará traspasará el virus a todas sus conexiones, con lo que acabará poniendo en p eligro a otros grandes nodos, desde los cuales el virus se propagará al sistema entero. Por su parte, los virus biológicos se propagan por redes de contactos entre personas. Y, dado que en muchos casos estas redes también parecen carecer de escala, ello sugiere que tal vez deberíamos revisar toda la investigación publicada sobre epidemias y topología de una red. En una red sin escala, la política sanitaria consistente en vacunar aleatoriamente a la población podría fracasar con facilidad, ya que sería probable que dejase sin vacunar a varias personas con un gran número de conexiones. Para garantizar que no se ha omitido a ningún nodo de gran tamaño, habría que vacunar a casi todo el mundo. La vacuna contra el sarampión, por ejemplo, ha de cubrir al 90 por ciento de la población para resultar ecaz. Sin embargo, ¿no convendría que los médicos se centrasen en los individuos más conectados? La investigación en redes sin escala indica que esta segunda estrategia podría ser ecaz aun cuando la inmunización alcanzase solamente a una pequeña parte de la población, siempre que esa fracción incluyese a todos los nodos de gran tamaño. Por supuesto, identicar a los grandes nodos de una red social resulta mucho más difícil que hacerlo en redes de otro tipo. No obstante, Reuven Cohen y Shlomo Havlin, Havlin, de la Universidad Bar-Illan de Israel, y Daniel ben-Avraham, de la Universidad Clarkson, han propuesto una solución: inmuni zar a una pequeña parte, escogida al azar, de los conocidos de algunos individuos tomados a su vez al azar. De esta manera es muy probable que se seleccionen grandes nodos, ya que estos se encuentran conectados con mucha gente. Esto, sin embargo, suscita algunos dilemas éticos. Por ejemplo, si se supone que es posible identicar a las personas más conectadas, ¿deberían tener estas prioridad en la inmunización y los tratamientos? Con todo, la detección y el tratamiento de los grandes nodos de una red social podría constituir la solución más pragmática en la distribución de vacunas en países que carecen de recursos para atender a toda la población. En muchos contextos comerciales, lo que se desea no es detener epidemias, sino provocarlas. Las campañas de mercado tecnia suelen estar dirigidas a los grandes nodos. Semejante estrategia, como es obvio, no es ninguna novedad. En los años cincuenta, un estudio nanciado por los laboratorios Pzer rere veló el importante papel de e stos nodos en la rapidez con que una comunidad de médicos procede a recetar un nuevo fár maco. Hace tiempo que los agentes comerciales saben intuitivamente que ciertos clientes resultan mucho más ecaces a la hora de didifundir las excelencias de productos y modas. Ahora, los trabajos
VULNERABILIDAD
La robustez de las redes aleatorias y sin escala En una red aleatoria, el fallo fortuito de cierto número de nodos (arriba) puede fragmentar el sistema en islas incomunicadas. Las redes sin escala, por el co ntrario, ofrecen un mayor robustez frente a tales fallos (centro); sin embargo, son muy vulnerables a los ataques coordinados contra los nodos centrales, aquellos que presentan un gran número de enlaces (abajo).
Red aleatoria: fallo fortuito de nodos Nodo
Antes
Nodo averiado
Después
Red sin escala: fallo fortuito de nodos
Nodo central
Antes
Nodo averiado
Después
Red sin escala: ataque contra grandes nodos
Nodo central
S M L I F M I L S
Antes
Nodo central atacado
Después
C 33
sobre redes sin escala están proporcionando el marco cientíco y matemático para sondear con mayor rigor este fenómeno.
REDES REALES A pesar de la ubicuid ad de las redes sin escala , existe n numerosas y destacadas excepciones. Por ejemplo, las redes de carreteras y de energía eléctrica de EE.UU. no parecen ser li bres de e scala. Tampoco lo son la mayoría de las redes que se observan en ciencia de materiales; en las redes cristalinas, los átomos tienen todos el mismo número de enlaces con sus vecinos. Y en otros casos los datos no son concluyentes. El tamaño relativamente pequeño de las redes trócas, que plasman las interdependencias de presas y depredadores, impide determinar con claridad a qué tipo pertenecen. Y la ausencia de mapas de conectividad del cerebro ha impedido conocer la naturaleza de esta importante red.
Pese a que averiguar si una red carece de escala importa si se quiere comprender el funcionamiento del sistema, existen otros parámetros que también merecen atención. Uno de ellos es el «diámetro» de la red, o la longitud del mayor de los caminos mínimos entre dos nodos cualesquiera. Por último, la topología de una red es solo uno de los aspect os que hace falta conocer para entender su comportamiento. Por ejemplo, puede haber mecanismos que diculten que un nodo adquiera cada vez más enlaces, lo que podría impedir que una red se hiciera libre de escala (como ocurre en la red de carreteras en EE.UU., EE.UU., por ejemplo). En las cadenas trócas, ciertas presas son más fáciles de atrapar que otras, lo que tiene profundas consecuencias para el ecosistema en su conjunto. En el caso de las redes sociales, los lazos familiares son mucho má s fuertes que los que mantenemos con simples conocidos, por lo que resulta mucho más probable que acaben propagando enfermedades
MUNDO PEQUEÑO Y AGRUPAMIENTO
El mundo es un pañuelo En 1967, Stanley Milgram, psicólogo social de Harvard, envió varios cientos de cartas a residentes en Nebraska, pidién doles que las remitieran a otros conocidos suyos con la intención de que, nalmente, el mensaje acabara llegando a un destinatario concreto: un agente de bolsa de Boston. Para reconstruir las trayectorias de las cartas, Milgram pidió a los participantes que le mandasen una postal cuando transriesen la carta a otra persona. Milgram observó que las cartas que nalmente llegaron a su destino nal habían pasado, en promedio, por seis individuos. Ese hallazgo ha fundamen tado la opinión popular de que hay «seis grados de separación» entre dos perso nas cualesquiera. A pesar de que el trabajo de Mil gram a duras penas puede considerarse concluyente (entre otras cosas, porque la mayoría de las cartas nunca llegaron
Muchas redes se organizan en grupos de nodos muy interconectados entre sí. Por ejemplo, tales grupos podrían incluir páginas web dedicadas a la Casa Milà de Gaudí ( amarillo ), las cuales estarían conectadas a su vez a otros grupos dedicados a Gaudí, a la arquitectura modernista o a Barcelona (verde). Al mismo tiempo, estos últimos podrían estar vinculados a páginas web dedicadas a arquitectos famosos o la rojo). arquitectura en general ( rojo
34 TEMAS 95
al destinatario), se ha descubierto que otras redes comparten esta propiedad de «mundo pequeño». Por ejemplo, casi todos los metabolitos intracelulares pue den conectarse mediante una ruta de tan solo tres reacciones. En la Web, que contiene miles de millones de páginas, es posible llegar desde un sitio hasta otro cualquiera con una media de 19 clics. La propiedad de mundo pequeño no entraña necesariamente la presencia de ningún principio mágico organizador. Incluso una red aleatoria, con vínculos establecidos al azar, será un mundo pequeño. Supongamos que cada uno de nosotros tiene unos mil conocidos. Si cada una de esas personas cono ciera a otras mil, tendríamos a un millón de personas a dos pasos de distancia, a mil millones a tres y a toda la población mundial a cuatro. A la vista de lo anterior, que dos personas cualesquiera estén
Agrupaciones en distinto nivel jerárquico
conectadas por seis grados de separación podría parecer casi trivial. Sin embargo, un examen más cuidadoso revela consecuencias más profundas. El cálculo anterior, muy simplista, supone que las personas que nosotros conocemos no se conocen entre sí. En realidad, la sociedad se encuentra fragmentada en grupos integrados por indi viduos de rasgos anes (como sus intereses o su nivel de ingresos, por ejemplo). Este hecho ha sido muy estudiado en sociología desde hace décadas, tras el trabajo seminal de Mark Granovetter en los años setenta. Dicho agrupamiento se ha observado en otros muchos tipos de redes. En 1998, Duncan Watts y Ste ven Strogatz, de Cornell, lo identicaron en una variedad de sistemas, desde la red eléctrica de EE.UU. hasta la red neuronal del gusano Caenorhabditis elegans . A primera vista, las agrupaciones de nodos muy interconectados parecen ir contra la topología de las redes sin escala, en las que un pequeño número de grandes nodos conectan todo el sistema. Sin embargo, ambas propiedades son compatibles: una red sin escala puede tener un alto índice de agrupamiento si pequeñas agrupaciones de nodos muy interconectados se vinculan a grupos mayores y menos cohesionados (fgura). Este tipo de agrupamiento jerárquico parece darse en un gran número de sis temas, desde la Web (donde los grupos corresponden a páginas dedicadas a un mismo tema) hasta las células (donde los agregados son grupos de moléculas con una función determinada).
S M L I F M I L S
ESTE MAPA DE LAS PROTEÍNAS que interaccionan interaccionan en una levadura pone de manifesto que
ciertas proteínas muy interconectadas son clave para la supervivencia de la célula. En rojo se han representado las proteínas esenciales, esenciales, cuya eliminación entraña la muerte de la levadura. En naranja aparecen aquellas cuya eliminación frenaría el crecimiento crecimiento celular. Los colores verde y amarillo representan proteínas de interés menor o desconocido, respectivamente.
G N O E J G N O O W A H E D A Í S E T R O C
o información. Y en los sistemas de transporte, transmisión o comunicaciones, uno de los principales factores es la posibilidad de que se congestionen enlaces especícos. Un tráco excesivo por un enlace determinado puede provocar que este se venga abajo y, a su vez, congestionar los enlaces vecinos que intenten absorber el tráco. Y los propios nodos no tienen por qué ser homogéneos (ciertas páginas de la Web, por ejemplo, son mucho más interesantes que otras), lo que puede alterar el mecanismo de enlazamiento preferencial. Debido a estos y otros factores, ha sido solo hace poco que hemos empezado a descubrir descubrir el comportamiento de los sistemas sin escala. Así, inmunizar a las pe rsonas con más contactos en una red social puede que no baste para frenar una epidemia, ya que, además del número de contactos, puede que haya que considerar también su frecuencia y su duración. Nuestro estudio de las redes complejas ha dejado de lado los detalles concretos que caracterizan a enlaces y nodos. Sin embargo, gracias a ello hemos podido entrever algunos de los principios organizadores que rigen estos sistemas aparentemente incomprensibles. Como mínimo, el conocimiento que hemos adquirido nos ha obligado a replantearnos muchas cuestiones básicas. Hasta hace p oco, cuando alguien deseaba estudiar la congestión en Internet o un nuevo protocolo de direccionamiento, se usaba como modelo una red aleatoria. Pero hoy sabemos que Internet es una red libre de escala, cuyo comportamiento
diere en gran medida del de una red aleatoria. Conocer las propiedades de estas redes será de utilidad en otros campos; en particular, cuando los investigadores vayan más allá de la topología y exploren la intrincada y sutil dinámica que exhiben los sistemas complejos . Artículo publicado publicado en Investigación y Ciencia , julio de de 2003
LOS AUTORES
Alber t-László Bar abási y abási y Eric Eric Bonabeau han destacado por sus contribuciones a la teoría de redes y de los sistemas complejos. En 1999, Barabási propuso el concepto de redes sin escala y el mecanismo de crecimiento que da lugar a tales sistemas; hoy dirige el Centro para la Investigación de Redes Complejas de la Universidad Nororiental de Estados Unidos. Bonabeau es cientíco jefe de
Icosystem, una consultora que aplica conceptos de teoría de redes. PARA SABER MÁS
Emergence of scaling in random networks. Albert-Lázsló networks. Albert-Lázsló Barabási y Réka Alber t en Science , vol. 286, págs. 509-512, octubre de 1999. Statis tical me chanics o f complex n etwork s. Réka s. Réka Albert y Albert-László Barabási en Reviews of Modern Physics , vol. 74, págs. 47-97, enero de 2002. Linked: The new science of networks. Albert-László networks. Albert-László Barabási. Perseus Publishing, 2002. Evolution of networks: From biological nets to the Internet and WWW. J. F. F.F. Mendes y Sergei N. Dorogovtsev. Oxford University Press, 2003.
C 35
ENTENDER LA COMPLEJIDAD
Leyes universales Varios sistemas complejos complejos muy dispares presentan presentan el mismo comportamiento a gran escala. Aunque el fenómeno se ha observado en todo tipo de contextos, su fundamentación matemática sigue planteando planteando numerosas preguntas Terence Tao
L
poderosa herramienta para modelizar las situaciones del mundo real, ya se trate de fenómenos naturales, como el movimiento de los planetas o las propiedades propiedades sicoquímicas de un material, o articiales, como el mercado de valores o las preferencias de voto de un electorado. Al menos en princip io, los modelo s matemá ticos pueden aplicarse al estudio de sistemas extremadamente complejos, integrados por un gran número de componentes en interacción mutua. En la práctica, sin embargo, solo sabemos resolver con precisión los casos más simples, como aquellos en los que interaccionan únicamente dos o tres agentes. Así, mientras que la derivación matemática de las líneas espectrales del átomo de hidrógeno (en el que un solo electrón orbita en torno al núcleo) puede enseñarse a estudiantes de carrera, las del sodio (con once electrones) quedan fuera del alcance de los ordenadores más potentes. El problema de los tres cuerpos, consistente en predecir el movimiento de tres masas ligadas por la ley de la gravitación universal, universal, goza de fama por haber sido el único que dio dolores de cabeza a Newton. Al contrario de lo que sucede
con dos masas, se cree que la solución del problema de los tres cuerpos no puede expresarse de manera simple, y que este solo puede resolverse de forma aproximada mediante algoritmos numéricos. Esa incapacidad para llevar a término los cálculos cuando interaccionan un gran número de componentes ha sido apodada «maldición de las dimensiones». Sin embargo, cuando el número de componentes se torna lo sucientemente elevado, ocurre algo fascinante: por alguna razón, las propiedades colectivas del sistema vuelven a ser predecibles, quedando gobernadas por leyes simples de la naturaleza. Más notable aún, las leyes macroscópicas que rigen el sistema completo resultan en gran medida independientes de las que describen las interacciones microscópicas entre sus componentes. Podemos reemplazar los constituyentes microscópicos por otros muy distintos y, aun así, obtener el mismo comportamiento a gran escala. Cuando eso sucede, decimos que la ley macroscópica es universal . La universalidad se ha observado matemática y empírica mente en contextos muy diversos, algunos de los cuales analizaremos a continuación. En ciertos casos, el fenómeno se entiende bien. En otros muchos, sin e mbargo, la causa última de
EN SÍNTESIS
En ocasiones, las leyes que gobiernan el compor-
La universalidad se ha observado en ámbitos físi-
En algunos casos, como la ley de los grandes nú-
tamiento colectivo de un sistema resultan prácticamente independientes de su estructura microscópica. Cuando eso ocurre, se dice que la ley macroscópica es universal.
cos y matemáticos tan diversos como la estadística, la física de las transiciones de fase, la f ísica nuclear, los modelos de matrices aleatorias y la teoría de números.
meros o el teorema del límite central, el fenómeno se entiende bien. En otros muchos, sin embargo, la causa matemática que subyace a la universalidad aún se desconoce.
36 TEMAS 95
X U L E D U A L C / K C O T S K N I H T
FORMAS RECURRENTES: Las geometrías fractales exhiben un patrón que se repite a sí mismo a todas las escalas. A menudo, la ausencia de una escala de distancias característica marca la aparición de una ley universal.
C 37
la universalidad sigue siendo un misterio. La cuestión de por qué las leyes universales emergen tan a menudo en los sistemas complejos constituye constituye un área muy activa de la investigación investigación matemática actual. Y, aunque aún estamos lejos de hallar una respuesta satisfactoria, durante los últimos años se han logrado algunos avances alentadores. LA UNIVERSALIDAD EN ESTADÍSTICA
Las elecciones presidenciales estadounidenses de noviembre de 2008 fueron terriblemente complejas. Más de cien millones de personas de cincuenta estados estaban llamadas a votar. Cada una de ellas se había visto inuida por todo tipo de factores: la retórica de los candidatos durante la campaña, los medios de comunicación, rumores, impresiones personales o discusiones con amigos y familiares. Además, había millones de votantes indecisos; su actuación era impredecible y, en algunos casos, tal vez incluso aleatoria. La misma incertidumbre persistía entre los distintos estados: aunque en algunos se perlaba un claro ganador, en al menos una docena de ellos el resultado podía decantarse en cualquier dirección. Parecería Parecería imposible predecir el desenlace de una situación así. Por supuesto que se hicieron encuestas —cientos —cientos de ellas—, pero en cada una se entrevistó solo a unos pocos centenares o millares de potenciales votantes, una fracción insignicante del total. A menudo, los datos uctuaban y ofrecían predicciones contradictorias. No todos los sondeos merecían la misma conanza y no había dos or ganizaciones que hubiesen empleado exactamente los mismos métodos. Sin embargo, antes de que terminase la noche electoral, el resultado pudo pronosticarse con bastante precisión. Especialmente llamativas fueron las predicciones del analista y estadístico Nate Sil ver: a partir partir de un estudio estudio ponderado ponderado de todas las encuestas disponibles, Sil ver acer tó el desenlace en 49 de los 50 estados, así como el de las 35 elecciones al Senado que también se celebraban aquel día. (La única excepción fue Indiana, estado en el que Silver pronosticó que ganaría John McCain, pero donde nalmente ganó Barack Obama por un ajustado 0,9 por ciento.) Esa precisión puede explicarse a partir de un resultado matemático conocido como ley de los grandes números. En el caso que nos ocupa, dicha ley garantiza que, siempre que en una encuesta participe un número sucientemente elevado de personas elegidas al azar, las predicciones del sondeo tenderán a converger a los resultados reales, con un margen de error que dependerá del número de entrevistados. Por ejemplo, en una encuesta en la que participen mil personas, el margen de error rondará el 3 por ciento. La ley de los grandes números es universal. Con independencia de que participen cien mil votantes o cien millones, el margen de error seguirá aproximándose al 3 por ciento. No importa que el sondeo se haya llevado a cabo en un estado que otorgó a McCain el 55 por ciento de los votos o en uno en el que Obama obtuvo el 60 por ciento de las papeletas. Tampoco que se trate de un estado compuesto por una masa homogénea de urbanitas adinerados de raza blanca o, por el contrario, de
uno con un gran número de etnias y clases sociales. Al nal, todos esos detalles se tornarán irrelevantes y el margen de error seguirá rondando el 3 por ciento. El ún ico factor verdaderamente signicativo es el tamaño de la muestra: cuanto mayor sea esta, menor será el margen de error. La inmensa complejidad de cientos de millones de votantes queda así reducida a unos pocos números. La ley de los grandes números no constituye ni mucho menos el único ejemplo de ley universal. Hace décadas que esta clase de comportamiento se viene observando en todo tipo de sistemas complejos, con independencia de cuáles sean sus constituyentes elementales y de cómo interaccionen entre sí. En el caso de la ley de los grandes números entendemos bien el principio matemático que subyace a esa universalidad; de hecho, se enseña de manera habitual en las clases de probabilidad y estadística. En otras situaciones, sin embargo, nuestra comprensión matemática del fenómeno dista mucho de ser completa. Después de la ley anterior, tal vez el siguiente ejemplo por orden de importancia lo hallemos en el teorema del límite central (llamado a menudo «teorema central del límite»). Este se aplica a cantidades que surgen como combinación de un gran número de componentes que uctúan de manera aleatoria e independiente. A grandes grandes rasgos, rasgos, nos nos dice dice que, si ninguno de dichos componen componentes ejerce una inuencia predominante, la cantidad en cuestión quedará aproximadamente distribuida distribuida según una campana de Gauss, o distribución normal. Decimos que esta ley es universal porque se cumple con independencia de cuántos componentes haya y de cómo uctúe cada uno de ellos (si bien se torna más exacta a medida que aumenta el número de componentes). El teorema del límite central se hace patente en una asom brosa variedad de estadístic as: la frecuencia de accidentes de tráco; las variaciones de altura, peso y otras características propias de cada especie animal; las pérdidas o ganancias debidas al azar, o las velocidades de las partículas en un sistema físico. El tamaño, la anchura, la posición del máximo e incluso las unidades de medida de cada distribución varían de un caso a otro, pero en todos ellos podrá reconocerse una campana de Gauss. Esa convergencia no se debe a ninguna conexión microscópica entre fenómenos tan diversos como un accidente de automóvil, la altura de una persona, los benecios de una operación bursátil o las velocidades de las estrellas. Aparece como consecuencia de que, en todos esos casos, la «estructura macroscópica» es siempre la misma: una cantidad surgida a partir de múltiples contribuciones pequeñas e independientes. Que el comportamiento macroscópico de un sistema p ueda no depender de sus detalles microscópicos constituye la esencia misma de la universalidad. Dicha universalidad resulta extremadamente útil en todo tipo de industrias, ya que convierte en manejables situaciones que, de otro modo, serían de una complejidad intratable. Gracias al teorema del límite central, las aseguradoras pueden controlar el riesgo de las pólizas sin necesidad de conocer los complicados detalles que intervienen en un accidente de tráco, los astrónomos logran medir el tamaño y la posición de galaxias distantes
La misma ley de distribu distribución ción se observa en las energías de resonancia de los núcleos atómicos, atómic os, los tiempos de espera de los autob autobuses uses de Cuernavaca o la secuencia de números primos
38 T EMAS 95
TRANSICIONES DE FASE
o o r d e a c 0,30 i m ú d n n i o o t y i u g 0,25 c í d s l a e n a r 0,20 m o e p l a a z s n e e 0,15 d i a m d o u c i c s 0,10 e e t d n a n i t ó i b 0,05 c a c a h r e F d
1
2
3 4 5 6 7 Primer dígito en el número de habitantes
8
9
DÍGITOS MÁS Y MENOS PROBABLES: La ley de Benford establece que, en un amplio abanico de fenómenos naturales, los números que empiezan por 1 son mucho más comunes que el resto. Este histograma reproduce la distribución del primer dígito en las cifras correspondientes al número de habitante s de todas las ciudades alemanas según el censo de 2011. Las bar ras indican la frecuencia relativa de cada dí gito; los puntos rojos, las predicciones de la ley de Benford.
. 1 1 0 2 E D S O T A D , A I N A M E L A E D A C I T S Í D A T S E E D L A R E D E F A N I C I F O : E T N E U F . T
F A H C S N E S S I W R E D M U R T K E P S
/ E P P Ö P H P O T S I R H C
sin resolver las enrevesadas ecuaciones de la mecánica celeste, y los ingenieros de comunicaciones son capaces de predecir los efectos del ruido y las inter ferencias sin saber cómo se generan. No obstante, la universalidad del teorema del límite central no es absoluta. Existen casos en los que el teorema no puede aplicarse, razón por la que algunas magnitudes presentan distribuciones distintas de una campana de Gauss. Algunos primos lejanos del teorema del límite central proporcionan leyes universales para otras magnitudes. Un ejemplo lo hallamos en la ley de Benford, que dicta cómo se distribuye el primer dígito de ciertas cantidades grandes, como la población de un país o el saldo de una cuenta corriente. Sus predicciones resultan algo contraintuitivas, pues, por ejemplo, establecen que una cantidad estadística arbitraria cuenta con una probabilidad seis veces mayor de empezar por 1 que por 9. Entre otras aplicaciones, esta ley —que puede explicarse a partir del teorema del límite central y las propiedades propiedades de los logaritmos— se ha usado para detectar fraudes contables, ya que los números invent ados, al contrario de los que surgen de forma natural, no se ajustan a la ley de Benford. En un espíritu similar, la ley de Zipf gobierna la manera en que se distribuyen ciertas cantidades estadísticas, como la población de los mayores países del mundo o la frecuencia con que aparecen las palabras más comunes de un idioma. Esta ley nos dice que la magnitud de la cantidad en cuestión resulta inversamente proporcional a su rango (es decir, a la posición que ocupa en la tabla que las ordena de mayor a menor). Así, la décima palabra más usada en un texto aparecerá en torno a la mitad de veces que la quinta. La ley no suele funcionar demasiado bien para los dos o tres primeros eleme ntos de la lista, pero se cumple con bastante buena aproximación para los siguientes. Sin embargo, al contrario de lo que ocurre con el teorema del límite central o con la ley de Benford, cuyo origen matemático se entiende bien, la ley de Zipf constituye básicamente una ley empírica derivada de la observación, que, por el momento, carece de explicación matemática satisfactoria.
Las leyes universales que hemos mencionado hasta ahora descri ben el comportamien comportamiento to de de magnitudes magnitudes estadísticas estadísticas individuales individuales:: cantidades numéricas numéricas que surgen a partir de la combinación de un gran número de contribuciones pequeñas e independientes. Sin embargo, existen otras leyes universales cuyo dominio de aplicación va más allá de la simple estadística numérica. Por ejemplo, las que gobiernan las transiciones de fase en física y química. Como todos hemos aprendido en la escuela, la materia puede presentarse en diferentes estados, o fases. Estos incluyen los tres estados clásicos (sólido, líquido y gaseoso), pero también otros más exóticos, como plasma o superuido. Los materiales ferromagnéticos, como el hierro, pueden encontrarse magnetizados o sin magnetizar. También hay sustancias que conducen la electricidad a determinadas temperaturas pero que se tornan aislantes a otras. En general, el estado en que se encuentra un material depende de factores como la tempe ratura y la presión (en algunos sustancias, la cantidad de impurezas también desempeña un papel relevante). A presión ja, la mayoría mayoría de los materiales materiales adopta una fase fase cuando su temperatura supera cierto valor crítico y otra a temperaturas menores. Sin embargo, el comportamiento más interesante surge cuando la temperatura se halla muy próxima al punto crítico que separa ambos dominios. El material, que no se encuentra por completo en ninguno de los dos estados, tiende a dividirse en regiones con bellas geometrías fractales, cada una de las cuales se encontrará en una de las dos fases. En la naturaleza existen innidad de materiales, cada uno de ellos caracterizado por una serie de parámetros fundamentales, como la temperatura temperatura de ebullición. Físicos y químicos han ideado una ingente cantidad de modelos para describir las diferentes sustancias y sus transiciones de fase. En ellos, suele considerarse que cada átomo o molécula se encuentra unido a sus vecinos por un número de enlaces asignado mediante reglas probabilísticas. Desde un punto de vista microscópico, todos esos modelos dieren unos de otros. A modo de ejemplo, consideremos las dos guras de las páginas siguientes. Ambas reproducen la estructura a pequeña escala de dos modelos de percolación típicos (aquellos que describen cómo se ltra un líquido a través de una sustancia porosa o, de manera más general, las diferentes formas de conectar nodos en un retículo). La primera muestra un mosaico de celdas hexagonales, cada una de las cuales puede interpretarse como una molécula molé cula en uno de dos estados posibles. La segunda corresponde a un retículo en el que cada nodo representa una molécula, y cada arista, un enlace, el cual puede estar activado o no. Podemos pensar que tanto las baldosas como los enlaces tienden a cambiar de estado cuando cierto parámetro, como la temperatura, alcanza un valor crítico. Las imágenes ilustran la situación cuando ambos sistemas se encuentran muy próximos al punto crítico. En ambos casos aparecen regiones conexas, ya sea mediante baldosas del mismo color o mediante enlaces activos. Sin embargo, si examinamos dichas zonas «desde lejos» y analizamos sus propiedades, comprobaremos que las diferencias entre un modelo y otro desaparecen. Las distintas regiones conexas adoptan formas y tamaños aleatorios, pero su estructura es casi siempre fractal: si ampliamos una porción cualquiera de una de esas zonas, su aspecto resultará muy similar al de la región completa. Cerca del punto crítico, algunas cantidades, como el número de regiones conexas, sus tamaños o la frecuencia con que dos
C 39
PERCOLACIÓN CRÍTIC A: Existen varias vari as maneras de modelizar las ltraciones de un uido por un medio poroso. En un modelo de celdas (arriba), cada casilla puede encontrarse «llena» ( amarillo) o «vacía» (azul). En un modelo reticular ( página opuesta), las uniones entre nodos sin marcar ). pueden estar activas (marcadas) o inactivas ( sin ). Estas imágenes muestran el aspec to de uno y otro modelo durante una transición de fase. En ambos casos se observa la aparici ón de regiones conexas cuyos tamaños recorren todas las escalas: un comportamie nto universal típico de los cambios de fase.
puntos cualesquiera quedan conectados, obedecen sencillas leyes de potencias (similares en cierto modo a la ley de Zipf, aunque no del todo idénticas). Tales leyes se han observado en todo tipo de fenómenos y surgen en casi cualquier modelo que describa transiciones transiciones de fase continuas. Al igual que ocurre con otras leyes universales, los detalles microscópicos del sistema tal vez afecten a los valores concretos de algunos parámetros, como la temperatura crítica, pero la estructura básica de la ley resulta idéntica en todos los materiales y modelos. Al contrario de de lo que sucede sucede con las leyes universales universales «clásicas», como el teorema del límite central, la razón última por la que en las transiciones de fase emerge un comportamiento universal aún no se entiende bien. Los físicos cuentan desde hace años con algunos argumentos heurísticos que explican o conrman buena parte de esas leyes, basados en una potente —aunque no del todo rigurosa— herramienta, llamada grupo de renormalización. Sin embargo, la obtención de una demostración formal del fenómeno constituye un reto pendiente y un área de investigación muy activa. En agosto de 2010, el matemático de la Universidad de Ginebra Stanislav Smirnov recibió la medalla Fields por establecer de manera rigurosa la validez de estas leyes en algunos modelos fundamentales, como el de percolación en un retículo triangular. triangular. NÚCLEOS ATÓMICOS Y TEORÍA DE NÚMEROS
Antes de concluir nuestro recorrido por las leyes universales, me gustaría mencionar un ejemplo más cercano a mi área de investigación. En este caso, el objeto de estudio no es una magnitud numérica, como ocurre con el teorema del límite central, ni una forma geométrica, como en las transiciones de fase, sino
40 TEMAS 95
un espectro discreto: una secuencia de puntos esparcidos a lo largo de una recta. Tal vez el ejemplo más cotidiano de un espectro discreto lo hallemos en las frecue ncias usadas por las emisoras radiofónicas: frecuencias del espectro electromagnético pertenecientes a la banda de radio, las cuales podemos sintonizar ajustando el dial de nuestro aparato receptor. A n de evitar las interferencias, dichas frecuencias suelen mantenerse relativamente separadas unas de otras. Otro caso familiar de espectro discreto lo encontramos en las líneas de emisión atómicas; es decir, en las frecuencias de la luz que, según las leyes de la mecánica cuántica, pueden radiar y absorber los electrones de un orbital atómico. Aquell as frecuencias pertenecientes a la parte visible del espectro electromagnético dan a los distintos elementos sus colores característicos, desde el azul del argón (que, curiosamente, suele ser el gas empleado en las luces «de neón» —el neón emite luz naranja—), hasta el amarillo del sodio. En los elementos simples, como el hidrógeno, las líneas espectrales siguen una pauta regular y las ecuaciones de la mecánica cuántica pueden resolverse de manera exacta con relativa facilidad. En los más pesados, sin embargo, las líneas se complican y no resulta nada sencillo deducir su estructura a partir de primeros principios. Aunque Aunque menos conocido, conocido, un fenómeno fenómeno análogo análogo tiene lugar en los procesos de dispersión de neutrones por un núcleo atómico pesado, como el de uranio 238. Las leyes del electromagnetismo y las las interaccio interacciones nes nucleares, nucleares, combinadas combinadas con la mecánica mecánica cuántica, nos dicen que, para ciertos valores de la energía, el neutrón atravesará el núcleo sin inmutarse; pero, para otros, conocidos como «energías de resonancia», el neutrón rebotará contra el
T F A H C S N E S S I W R E D M U R T K E P S
/ E P P Ö P H P O T S I R H C
T F A H C S N E S S I W R E D M U R T K E P S
/ E P P Ö P H P O T S I R H C
núcleo. La estructura interna de un núcleo atómico resulta tan intrincada que, hasta la fecha, nadie ha logrado calcular las energías de resonancia mediante técnicas analíticas ni numé ricas. Ello nos deja a solas con los datos empíricos como única opción para describir el fenómeno. Dichas energías de resonancia presentan una distribución de sumo interés. No son independientes unas de otras, sino que parecen obedecer cierta «ley de repulsión» que hace poco probable que dos resonancias consecutivas se encuentren demasiado cerca (algo similar a lo que ocurre con las frecuencias de radio, solo que debido a un fenómeno natural y no a una regulación administrativa). En los años cincuenta, el célebre físico Eugene Wigner propuso un modelo matemático para explicarlas: un ejemplo de lo que hoy denominamos modelos de matrices aleatorias. Los detalles matemáticos de tales modelos resultan demasiado técnicos para describirlos aquí. Baste decir que, en general, pueden interpretarse como una colección de masas conectadas por muelles cuyas constantes de elasticidad ela sticidad han sido escogidas al azar. Un sistema así oscila («resuena») con ciertas frecuencias ca racterísticas. racterísticas. Wigner postuló que, en el caso de un núcleo atómico de gran tamaño, sus resonancias guardarían ciertas semejanzas con las de un modelo de matrices aleatorias; en particular, que ambas obedecerían la misma ley de separación . Dado que en un modelo de matrices aleatorias dicha ley sí puede demostrarse de manera rigurosa, eso explicaría de manera heurística el comportamiento de los núcleos atómicos. Por supuesto, un núcleo atómico no guarda ninguna seme janza con una una colección colección de de muelles; muelles; entre otras razones, porque el primero obedece leyes c uánticas, y el segundo, clásicas. Hoy sabemos que dicho comportamiento constituye la manifestación de una ley universal común a un gran número de espectros, algunos de los cuales poco podrían tener que ver con los núcleos atómicos o con los modelos de matrices aleatorias. Por ejemplo, la misma distribución se ha observado en los tiempos de espera de los autobuses en la ciudad mexicana de Cuernavaca (sin que,
de nuevo, dispongamos de una explicación convincente sobre su origen). Quizá la manifestación más inesperada de la universalidad de dicha ley provenga de un área completamente desconectada: la teoría de números. Los números primos se distribuyen de forma irregular entre los enteros; pero, si l levamos a cabo un análisis espectral de dicha distribución, observaremos la existencia de ciertas oscilaciones —en ocasiones denominadas «música de los números primos»— cuyas frecuencias quedan descritas por una secuencia concreta de números complejos: los ceros no triviales de la función zeta (z) de Riemann, estudiada por Bernhard Riemann en 1859 (para la discusión que sigue, no resulta necesario conocer la denición precisa de la función zeta). En principio, dicha secuencia numérica codica todo lo que deseemos saber sobre los números primos. Una de las cuestiones abiertas más famosas en matemáticas es la hipótesis de Riemann, la cual conjetura que todos los ceros no triviales de la función zeta se encuentran situados sobre la misma recta del plano complejo. Dicha hipótesis implica consecuencias de primer orden en teoría de números y, en partic ular, en lo que atañe a l os números primos. Y, si bien es cierto que deja varias preguntas sin resolver (en parte porque no nos dice demasiado acerca de cómo se distribuyen exactamente los ceros en la mencionada recta), existen sobrados indicios numéricos de que los ceros no triviales de la función zeta obedecen la misma ley que se observa en la dispersión de neutrones y en otros sistemas físicos: en particular, los ceros parecen «repelerse» entre sí de un modo que coincide, con una precisión asombrosa, con las predicciones de la teoría de matrices aleatorias. La descripción formal de esta ley recibe el nombre de hipótesis del «conjunto unitario gaussiano» (GUE, por sus siglas en inglés, un ejemplo fundamental de modelo de matrices aleatorias). Al igual que ocurre con la hipótesis de Riemann, por ahora nadie ha conseguido demostrarla, pero también implica consecuencias de suma importancia para la distribución de los números primos.
C 41
Los orígenes de esa conexión entre la «música de los números primos» y los niveles de energía de los núcleos atómicos se remontan al año 1972. La historia, hoy legendaria en círculos matemáticos, trata de un encuentro casual en el Instituto de Estudios Avanzados Avanzados de Princeton entre el matemático Hugh Montgomery y el célebre físico Freeman Dyson. Por aquel en tonces, Montgomery investigaba la distribución de los ceros de la función zeta; en concreto, las propiedades de cierta cantidad estadística conocida como función de correlación entre pares de ceros. En su libro Stalking the Riemann hypothesis («Al hypothesis («Al acecho de la hipótesis de Riemann»; Pantheon Books, 2005), Dan Rockmore, matemático e ingeniero informático del Colegio Universitario Universitario Dartmouth, relata así el episodio:
1,0 .
. . .
. . . .
.
0,8
.
.
.
. .
.
a v i t a l e r a i c n e u c e r F
.
0,6
.
.
.
.
. .
0,4
. .
.
.
Tal y como lo recuerda Dyson, él y Montgomery se ha bían cruzado alguna vez en la guardería del Instituto de Estudios Avanzados al ir a llevar o a buscar a sus hijos, pero nunca se habían presentado formalmente. Pese a la fama de Dyson, Montgomery no veía razón para hacerlo: «¿De qué vamos a hablar?», habría argumentado al ser preguntado por el asunto. Al nal Montgomery cedió y, tras presentarse, el afable físico preguntó al joven experto en teoría de números sobre su trabajo. Este comenzó a explicarle sus resultados sobre la función de correlación a dos puntos, pero, al poco, Dyson le frenó en seco: «¿Ha obtenido esto?» y garabateó una ecuación. Montgomery casi cayó al suelo de la sorpresa: Dyson acababa de escribir la función del seno cardinal correspondiente a la correlación entre pares de ceros. [...] Mientras que Montgomery había recorrido el camino propio de un experto en teoría de números para llegar a una «versión» de la función de correlación inspirada en los números primos, Dyson había obtenido la misma fórmula a partir del estudio de los niveles de energía en los modelos de matrices aleatorias. aleatorias. A principios principios de los años ochenta, el hallazgo de de Montgomery Montgomery y Dyson recibió considerable considerable apoyo numérico gracias al trabajo de Andrew Odlyzko, matemático de la l a Universidad de Minnesota. Por supuesto, ello no signica que las propiedades de los números primos dependan de la energía nuclear ni que la física atómica esté gobernada por los números primos. Sin embargo, sí sugiere la existencia de una ley tan universal que emerge en todo tipo de ámbitos, desde la física nuclear y los modelos de matrices aleatorias hasta la teoría de números. El mecanismo último que subyace a dicha ley está aún por descubrir. descubrir. En par ticular, no contamos con una e xplicación con vincente —no digamos ya una demostración formal— de por qué los ceros de la función zeta obedecen la hipótesis del GUE. Sin embargo, existe una cantidad nada despreciable de traba jo riguroso que apoya la universalidad de esta hipótesis. Hoy sabemos que, además del GUE, otros muchos modelos de matrices aletorias obedecen la misma ley universal. Y aunque esas demostraciones rigurosas rigurosas aún no se han extendido al ámbito de la teoría de números o a la física atómica, sí apoyan de manera indirecta la validez de la ley en tales casos. Aunque no entraré entraré en los argumentos argumentos técnicos técnicos empleados empleados en dichos trabajos, sí esbozaré una de las ideas clave que, junt o con mi colaborador Van Vu, ahora en Yale, Yale, tomamos prestada pre stada de una antigua demostración del teorema del límite central elaborada en 1922 por Jarl Lindeberg. En términos del análogo mecánico de muelles y masas mencionado arriba, la estrategia consiste en reemplazar uno de los muelles por otro escogido al azar y, después, demostrar demostrar que la distribución de frecuencias no se ve
42 TEMAS 95
.
.
.
0,2
.
.
.
.
. . . . . .
.
. .
0,0
.
.
0, 0
0, 5
1, 0
1,5
2, 0
.
.
.
. . . . . . . . . . . ..
2, 5
3 ,0
Distancia normalizada entre dos ceros consecutivos
ESPECTRO UNIVERSAL: Los ceros de la función zeta de Riemann parecen parecen distribuirse de un modo muy similar a las frecuencias frecuencias de resonancia que aparecen en algunos modelos de matrices aleatorias usados en física nuclear. La gura muestra la distribución «empírica» (obtenida a partir del cálculo numérico de miles de millones de ceros de la función zeta, rojo) y las predicciones de la teoría de matrices aleatorias (azul). La razón última de este comportamiento común todavía se desconoce.
alterada de forma signicativa. Al aplicar esta operación a cada uno de los muelles, el modelo de matrices acaba convirtiéndose en uno muy diferente, pero las propiedades esenciales de la distribución no se ven afectadas. Gracias a ello, p uede demostrarse que clases enteras de modelos de matrices aleatorias obedecen básicamente la misma ley. ley. Se trata de un área de investigación muy act iva y en la que los avances se suceden con rapidez. En 2011, de manera simultánea a la aparición de mi trabajo con Vu, László Erdo ´´s, ahora aho ra e n el Instituto de Ciencia y Tecnología de Austria, Benjamin Schlein, de la Universidad de Bonn, y Horng-Tzer Yau, de Harvard, ob tuvieron otras demostraciones relativas a la universalidad en los modelos de matrices aleatorias a partir de ideas tomadas de la física matemática. LOS LÍMITES DE LA UNIVERSALIDAD
Existen otras muchas leyes universales en matemáticas y físi ca. Los ejemplos mencionados aquí no suponen más que una pequeña fracción de todas las leyes de este tipo que, a lo largo de los años, se han descubierto en áreas que van desde los sistemas dinámicos hasta la teoría cuántica de campos. Buena parte de las leyes macroscópicas de la física, como las empleadas en termodinámica o dinámica de uidos, son universales, ya que los detalles microscópicos del sistema se tornan irrelevantes excepto por su inuencia en el valor de ciert os parámetros, como la viscosidad, la compresibilidad o la entropía. Con todo, incluso el principio de universalidad tiene sus limitaciones. El teorema del límite central, por ejemplo, predice una distribución gaussiana para toda cantidad surgida a partir de múltiples contribuciones pequeñas e independientes. independientes. Pero,
O K Z Y L D O . M W E R D N A ; » N O I T C N U F A . T 1 E 0 Z 0 N 2 , N Y A T E M I E C I R O E S L H A T C F I T O A O M R E E Z H T D A N - M 2 2 N 0 1 A C E I H R T E « M E A D ; R S N I T I O R T A C P N A U , F T
F A A T E H Z C S I C N T E S E S M I H W I T R E R D A D M N U A R , T L A K E R P T S C / E E P P S P , Ö L A P C H I P M O A T N S Y I R D H N C E
como todo teorema, falla cuando sus requisitos no se satisfacen. Si consideramos la distribución de alturas entre todos los humanos adultos (hombres y mujeres), veremos que no obedece una ley gaussiana. Ello se debe a que un solo factor, el sexo, ejerce un impacto tan predominante sobre la altura que sus efectos no pueden enmascararse por las uctuaciones aleatorias de los factores genéticos o ambientales. El teorema del límite central también falla cuando las contribuciones individuales no uctúan de manera independiente, sino correlacionada, por lo que tienden a crecer o menguar al unísono. En tales casos, las distribuciones pueden mostrar «colas gruesas» (conocidas coloquialmente como «cisnes negros»), en las que la magnitud en cuestión se aleja de la media mucho más de lo que predice el teorema del límite central. Este fenómeno reviste gran importancia en nanzas, sobre todo cuando se intenta modelizar el compor tamiento de algunos productos nancieros complejos. Un ejemplo lo hallamos en las obligaciones de deuda garantizada (CDO, por sus siglas en inglés), las cuales se construyen agregando hipotecas. Su riesgo puede estimarse a partir del teorema del límite central siempre y cuando las hipotecas uctúen de manera independiente. Sin embargo, en la reciente crisis nanciera —un ejemplo de libro de cisne negro—, esa condición de independencia se vino abajo de forma espectacular, lo que ocasionó enormes pérdidas a los tenedores de CDO y a sus aseguradoras. Como siempre, un modelo matemático matemático solo es válido en tanto que lo sean sus hipótesis. Una tercera situación en la que el principio de universalidad falla se da cuando el sistema carece de sucientes grados de li bertad. Por ejemplo, los cosmólogos cosmólogos se basan en leyes universales universales para describir el movimiento de galaxias enteras; sin embargo, calcular la trayectoria de un satélite sometido a la inuencia gravitatoria de tres cuerpos puede convertirse en un problema de complejidad abrumadora. De igual modo, las leyes de la mecánica de uidos pierden su validez cuando consideramos sistemas de escala mesoscópica, aquellos mayores que una molécula pero menores que la escala típica a partir de la cual podemos aplicar leyes universales. Así sucede en el torrente sanguíneo: las células que componen la sangre presentan un tamaño considerable en comparación con el diámetro típico de los vasos, por lo que deben considerarse como un sistema de agentes mesoscópicos que exhibe un comportamiento complejo. Lo mismo ocurre con los uidos coloidales, como el barro, así como con algunos nanomateriales o con los puntos cuánticos. En general, modelizar el comportamiento de tales sistemas plantea verdaderos retos. Por otro lado, hay un gran número de situaciones macroscópicas en las que simplemente no parece que rija ninguna ley universal, sobre todo cuando intervienen agentes humanos. El mercado de valores nos brinda un buen ejemplo. Pese a todos los esfuerzos, nadie ha hallado una ley universal que describa las uctuaciones de la Bolsa; al igual que en el ejemplo mencionado más arriba, el teorema del límite central no parece ser aplicable. Una razón estriba en que, toda vez que se detecte una regularidad, aparecerán agentes que la explotarán hasta que desaparezca. Por el mismo motivo, encontrar leyes universales en macroeconomía viene a ser como disparar a un blanco en constante movimiento. Según la ley de G oodhart, siempre que en los datos económicos aparece una regularidad estadística y esta se convierte en objeto de acción política, dicha regularidad acaba desmoronándose desmoronándose (aunque, irónicamente, puede argumentarse que la ley de Goodhart sí constituye un ejemplo de ley un iversal).
Por último, existen situaciones gobernadas por leyes universales en las que, sin embargo, resulta casi imposible emplear di chas leyes para hacer predicciones. El movimiento de un uido, por ejemplo, queda descrito por las ecuaciones ec uaciones de Navier-Stokes. Estas se emplean para pronosticar el tiempo meteorológico, pero sus soluciones son tan complejas e inestables que, aun con la ayuda de las computadoras más potentes, el tiempo solo puede predecirse con una o dos semanas de antelación. (Por «inestable» queremos decir que incluso un pequeño error en las mediciones o en los cálculos numéricos puede generar grandes cambios en las predicciones.) Así pues, pues, entre los sistemas sistemas macroscópicos macroscópicos que obedecen obedecen alalguna ley universal y los fenómenos simples que pueden estudiarse a partir de leyes fundamentales media un extenso territorio. En él conviven sistemas demasiado intrincados para describirlos a partir de primeros principios y, al mismo tiempo, demasiado simples para ser universales. Un amplio abanico de posibilidades, en denitiva, para acomodar la complejidad de la vida tal y como la conocemos. Artículo publicado publicado en Investigación y Ciencia , febrero febrero de 2015
© Dædalus, the Journal of the American Academy of Arts & Sciences, 2012 Traducido con el permiso de MIT Press Journals
EL AUTOR
Terence Tao es catedrático de matemáticas en la Universidad de California en
Los Ángeles. Entre sus muchos logros se cuenta la demostración de que la secuencia de números primos incluye progresiones aritméticas de longitud arbitraria. En 2006 fue galardonado con la medalla Fields por sus contribuciones a los campos de las ecuaciones en derivadas parciales, la combinatoria, el análisis armónico y la teoría de números. PARA SABER MÁS
The 1022-nd zero of the Riemann zeta funct ion. Andrew M. Odlyzko en Dynamical, spectral, and arithmetic zeta functions , dirigido por M. van
Frankenhuysen y M. L. Lapidus. American Mathematical Society, 2001. Disponible en www.dtc .umn.e du/~odlyzko /doc/zeta .10to22 .pdf Random matrices: Universality of ESD and t he circular law. Terence Tao, Van Vu y Manjunath Krishnapur en The Annals of Probability , vol. 38, n. o 5, 2010. Disponible en arxiv.org/abs/0807.4898 Random matrices: Universality of local eigenvalue statistics. Terence Tao y Van Vu en Acta Mathema tica, vol. 206, n. o 1, marzo de 2011. Disponible en arxiv.org/abs/0906.0510 A second dr aft of a no n-techni cal art icle on unive rsalit y. Terence Tao en terrytao.wordpress.com/2010/09/14/ a-second-draft-of-a-non-technical-article-on-universality.
Versión preliminar de este texto en el blog personal del autor; incluye imágenes, referencias y aclaraciones adicionales. EN NUESTRO ARCHIVO
Problemas físicos con muchas escalas de longitud. Kenneth G. Wilson en IyC ,
octubre de 1979. 1979. La misteriosa ley del primer dígito. Juan M. R. Parrondo en IyC , diciembre
de 2002. 2002. 2003 . Números y palabras. Juan M. R. Parrondo en IyC , febrero de 2003. Más sobre números y palabras. Juan M. R. Parrondo en IyC , marzo de 2003 . 2004 . El espectro del riemannio. Brian Hayes en IyC enero de 2004. La percolación, un juego de mosaicos aleatorios. Hugo Duminil-Copin en IyC , ,
enero de 2012. 2012. Un nuevo pilar para la física estadística. Daniel Meyer y Dirk Schleicher en IyC , marzo de 2012. 2012 .
C 43
ENTENDER LA COMPLEJIDAD
La ciencia de de redes cumple 20 años La idea de que cualquier persona del mundo está conectada con cualquier otra por medio de una cadena de tan solo seis conocidos fue explicada matemáticamente hace dos décadas. Lo que en su momento pareció ser un hallazgo circunstancial acabaría teniendo enormes repercusiones Alessandro Alessandro Vespignani Vespignani
44 T EMAS 95
O T O H P K C O T S I / O I D U T S F A ©
REDES Y FENÓMENOS COMPLEJOS: Una red no es más que una estructura formada por un conjunto de nodos unidos entre sí mediante enlaces. Estas representaciones se emplean para analizar todo tipo de fenómenos biológicos, sociales y tecnológicos, desde las interacciones interacciones entre proteínas hasta el contagio de enfermedades o las comunicaciones por Internet.
E
1998, D W S S, por entonces ambos en la Universidad Cornell, presentaron un modelo de redes conocido como «mundo pequeño». Dicho modelo reconciliaba las propiedades de agrupamiento y de distancias entre nodos que exhiben muchas de las redes que encontramos cada día. Como físico estadístico, aún recuerdo las discusiones que surgieron al respecto: su trabajo resultaba interesante, pero no parecía ser más que una variante exótica de las redes regulares a las que todos estábamos acostumbrados por aquel entonces. Sin embargo, a medida que cientícos de diferentes campos fueron asimilando la idea, se hizo evidente que el modelo de Watts Watts y Strogatz encerraba profundas implicaciones para entender la dinámica y las transiciones de fase en todo tipo de fenómenos, desde los procesos de contagio hasta la difusión de información. Su trabajo marcó el inicio de una nueva era que acabaría consagrando la ciencia de redes como un campo multidisciplinar.
MUNDOS PEQUE ÑOS Antes de que Watts Watts y St rogatz publicaran su ar tículo, los algoritmos usados para describir el crecimiento de una red se basaban en procesos como el propuesto décadas antes por los matemáticos Paul Erdo ´´s y Alf réd Rény i. Dich os proc esos se caracterizan por una falta de conocimiento sobre los princi-
pios que guían la creación de nuevos enlaces, y parten de la suposición de que dos nodos pueden conectarse al azar con una probabilidad dada. Ello genera redes aleatorias, en las que la longitud media del camino entre dos nodos (denida como el número más pequeño de enlaces que deben recorrerse para llegar de un nodo a otro) viene dada por el logaritmo del número total de nodos. Como consecuencia, las redes alea torias permiten explicar una de las propiedades del fenóme no de mundo pequeño, popularizado en los años sesenta por Stanley Milgram y también conocido como «seis grados de separación»: la idea de que cualquier persona del planet a está conectada con cual quier otra a través de una cadena de, como mucho, seis conocidos. Sin embargo, la construcción aleatoria no reproduce el ele vado grado grado de agrupamiento que se observa en las redes reales. Este fenómeno queda ejemplicado por el lema «los amigos de mis amigos son mis amigos»: la probabilidad probabilidad de que tres personas sean todas amigas entre sí en una red soc ial es generalmente mucho más alta de lo que cabría esperar en una red construida a partir de un proceso puramente aleatorio. Para superar ese conicto entre aleatoriedad y agrupamiento, Watts Watts y Strogatz propusieron un modelo cuyo punto de inicio era una red regular (una en la que el esquema de conexiones de un nodo y sus vecinos se repite para todos los nodos, como por ejemplo en una retícula cuadrada) con un alto grado de agrupamiento. Después, permitieron que los enlaces se redistribuye-
C 45
TOPOLOGÍA
Cómo construir un mundo pequeño En 1998, Duncan Watts y Steven Strogatz describieron un modelo de generación de redes que permitía explicar muchas de las propiedades observadas en las redes del mundo real. Dicho modelo partía de una red regular; es decir, una en la que el patrón de conexiones entre un nodo y sus vecinos es idéntico para todos los nodos (izquierda). Después, permitía que los enlaces ya existentes se redistribuyesen al azar (derecha), de modo que comenzaban a
Red regular surgir atajos entre nodos distantes (rojo). Dicho proceso daba lugar al fenómeno de «mundo pequeño»: dos nodos cualesquiera pueden siempre conectarse a tra-
ran entre los nodos de manera aleatoria, con una probabilidad probabilidad p) ja para todos los enlaces. Al variar p, el de «recableado» ( p p → 0) y una red modelo interpolaba entre una red regular ( p p → 1). completamente aleatoria ( p Para valores muy pequeños de p, la red resultante es una malla regular con un alto grado de agrupamiento. Sin embargo, para valores modestos de este parámetro comienzan a aparecer atajos entre nodos distantes, lo que reduce de manera drástica la distancia promedio entre pares de nodos. Watts y Strogatz mostraron que, para un amplio intervalo de valores de p, era posible encontrar redes que exhibiesen un agrupamiento elevado y, y, a la vez, una distancia corta entre nodos. Ello reconciliaba el alto agrupamiento de la red con el fenómeno de mundo pequeño.
UNA NUEVA CIENCIA En un principio, el modelo de Watts y Strogatz fue considerado una mera explicación del fenómeno de seis grados de separación. Sin embargo, su mayor impacto probablemente fuera allanar el camino a otros estudios sobre la manera en que la estructura de una red inuye en el tipo de fenómenos dinámicos que esta puede soportar. Poco después llegó otro trabajo fundamental: en 1999 , AlbertLászló Barabási y Réka Albert propusieron el modelo de cre cimiento de redes conocido como «enlazamiento preferencial». En este, los nuevos nodos que se van añadiendo a una red quedan enlazados preferentemente preferentemente con aquellos que ya presentan un alto número de conexiones. El amplio espectro de comportamientos emergentes y transiciones de fase que exhibían las redes construidas según los modelos Watts-Strogatz y Barabási-Albert atrajo la atención de cientícos de numerosos campos. A ello ello siguió siguió una cadena de descubrimientos descubrimientos que enfatizaron enfatizaron la relación entre la estructura compleja de dichas redes y todo tipo de fenómenos del mundo real. Por ejemplo, la conectividad característica de las redes de mundo pequeño demostró ser clave para entender la estructura de la World Wide Web o la comunicación entre las regiones anatómicas y funcionales del cerebro. Y poco después comenzaron a analizarse otras pro piedades estructurales de las redes complejas, lo que ayudó a caracterizar y a entender la arquitectura de numerosos sist emas vivos y articiales, desde desde las redes subcelulares subcelulares hasta ecosistemas enteros o incluso Internet. Hoy los investigadores se benecian de una potencia de cálculo sin precedentes, de la existencia de enormes cantidades
46 TE MAS 95
Red de mundo pequeño vés de una cadena formada por muy pocos enlaces, al tiempo que los nodos vecinos de cualquier nodo se encuentran encuentra n muy enlazados entre sí.
de datos y de las nuevas técnicas de modelización computacional. Todo ello ha permitido tender puentes entre la dinámi ca individual de los nodos de una red y los comportamientos emergentes que esta exhibe a nivel macroscópico. Sin embargo, nuestro entendimiento de la topología de una red aún se basa en la inmediatez y simplicidad de los modelos de mundo pequeño y enlazami enlazamiento ento preferencial. preferencial. No en vano, la relevancia relevancia de de ambos ambos modelos en distintos campos de la ciencia acabaría sentando las bases del campo multidisciplinar que hoy conocemos como teoría de redes. Integrar conocimientos y métodos de áreas tan dispares como las ciencias sociales, la física, la biología, la informática y las matemáticas matemáticas aplicadas no fue fácil. Se necesitaron varios años para encontrar un terreno común, acordar deniciones y valorar los diferentes enfoques que cada campo había adoptado para estudiar las redes. De hecho, semejante proceso continúa aun hoy, hoy, con todas las trampas y dicultades inherentes al trabajo interdisciplinar. Con todo, las últimas dos décadas han visto nacer una vibrante comunidad en torno a la ciencia de redes, con sus propias revistas especializadas, institutos de investigación y conferencias a las que asisten miles de cientícos. Veinte Veinte años después de su publicación, el modelo de Watts y Strogatz acumula acumula miles de citas. Los autores concluían concluían su artículo diciendo: «Esperamos que nuestro trabajo estimule más estudios sobre las redes de mundo pequeño». Pocas veces una armación se ha demostrado más profética. Artículo Artículo publicado publicado en Investigación y Ciencia , diciembre diciembre de de 2018
Artí culo origi nal public ado en Nature, vol. 558, págs. 528-529, 2018. Traducido con el permiso de Nature Research Group © 2019 Con la colaboración de
EL AUTOR
Alessa ndro Vespi gnani investiga gnani investiga en el Instituto de Ciencia de Redes y en el Laboratorio para la Modelización de Sistemas Biológicos y Sociotécnicos, ambos en la Universidad Nororiental de EE.UU., en Boston. PARA SABER MÁS
Collective dynamics of «small-world» networks. Duncan networks. Duncan J. Watts y Steven H. Strogatz en Nature, Nature, vol. 393, págs. 440-442, junio de 1998. Emergence of scaling in random networks. Albert-László networks. Albert-László Barabási y Réka Alber t en Science en Science,, vol. 286, págs. 509-512, octubre de 1999.
E R U T A N
©
UN SISTEMA formado por un gran número de elementos en interacción da lugar a fenómenos emergentes. Por su propia naturaleza, las teorías que los describen no pueden efectuar prediccioness totalmente detalladas prediccione ni completas. ¿Cómo aplicar en tales casos el método científco?
ENTENDER LA COMPLEJIDAD
¿Cómo deberían ser las teorías de los sistemas complejos? Los criterios usados para juzgar su validez son más delicados de lo que sugiere una visión simplista del método científico Sophia Kivelson Kivelson y Steven A. Kivelson Kivelson
K C O T S I / C I N A L S Z A J T A M ©
D
cientíco es un camino seguro hacia la verdad objetiva. Uno de sus elementos básicos es que existen comprobaciones empíricas de una teoría que son cuantit ativas e independientes de la opinión humana.
Pero en la ciencia de los sistemas complejos, las teorías nunca pueden ser ni totalmente correctas en sentido cuantitativo ni completas en sentido cualitativo. En un inuyente artículo de 1972 titulado «More is dierent», el físico y premio nóbel Philip W. W. Anderson enfatizó que existe una profunda diferencia conceptual entre las propiedades de los constituyentes individuales
C 47
SciLogs
La mayor red de blogs de investigadores científicos
de un sistema y las características emergentes emergentes que presenta el agregado. Basándonos en esa idea, demostraremos aquí que la ciencia de los sistemas complejos requiere estructuras intelectuales completamente distintas que extiendan el concepto de verdad cientíca. Comenzaremos discutiendo un asunto clave: ¿qué signica comprender un sistema complejo?
EL PROBLEMA DE LA PREDICCIÓN
Psicología 2.0 y mHealth Salud y enferm e nfermedad edad en la era e ra digita d igitall Manuel Armayones Universidad Abierta de Cataluña
Esto no salía en mi libro de Ciencias Mitos sobre historia y didáctica de la ciencia Luis Moreno Martínez Instituto de Historia de la Medicina y de la Ciencia López Piñero Piñero
La bitácora del Beagle Avances Avanc es en neuro n eurobiol biología ogía Julio Rodríguez Universidad de Santiago de Compostela
Neurociencia computacional Inteligencia artificial para la psicología y la neurocie neur ociencia ncia Carlos Pelta Universidad Complutense de Madrid
Dos ranas viejas Cruzando límites entre la psicología y la criminolo crimi nología gía Nereida Bueno Guerra Universidad Pontifcia Comillas
En perspectiva Del mundo subatómico al cosmos Cristina Manuel Hidalgo Instituto de Ciencias del Espacio
Y muchos más... ¿Eres investigador y te gustaría unirte a SciLogs? Envía tu propuesta a
[email protected]
www.scilogs.es 48 TEMAS 95
Para centrar la discusión, consideremos tres ejemplos. El primero es el clima, un caso clásico de sistema complejo. Los insuperables obstáculos que dicultan la construcción de una teoría predictiva del clima quedan ilustrados en la famosa historia de la mariposa cuyo aleteo produce efectos imprevistos en el siguiente huracán en el golfo de México. Si juzgásemos las teorías cientícas solo por la posibilidad de falsar cuantitativamente sus predicciones, todas las teorías sobre la dinámica del clima quedarían descartadas. descartadas. Si ya es imposible realizar predicciones climáticas precisas en períodos de tiempo cortos, mucho más lo es en escalas de décadas. Pero ello no signica que no puedan obtenerse resultados signicativos. De hecho, quienes investigan en sistemas complejos adquieren una comprensión intuitiva de qué requisitos predictivo s hay que demandar a una teoría. Con todo, las diferencias cuantitativas entre la evolución de la temperatura global y las predicciones teóricas han sido aducidas como prueba de que la modelización del clima está irremedia blemente blemente condenad condenada a al al fracaso. fracaso. Los consiguientes consiguientes debates debates sobre sobre el papel de la acción humana en el cambio climático ponen de maniesto la importancia de llegar a un acuerdo sobre cómo juzgar una teoría. Disponer de estándares precisos y ampliamente aceptados para decidir si los modelos climáticos son correctos es crucial para una comunicación uida entre individuos con diferente formación técnica. El segundo ejemplo atañe a la teoría BCS (Bardeen-CooperSchrieer) de la superconductividad, una de las descripciones más satisfactorias de un fenómeno emergente en física. La teoría no solamente fue reconocida con el Nobel a John Bardeen, Leon N. Cooper y J. Robert Schrieer, sino que es la base de otra media docena de premios Nobel. Asimismo, proporcionó el empuje intelectual decisivo que permitió unicar la electricidad y el magnetismo magnetismo con la interacción interacción nuclear débil. Sin embargo, hasta la fecha resulta imposible predecir de forma cuantitativa propiedades básicas básicas de los superconductores, como su temperatura de transición (T c) o, simplemente, si cierto material será o no superconductor. superconductor. Ello no ha impedido que la teoría BCS sea un éxito por su simplicidad, aplicabilidad, profundidad intelectual y belleza. Pero lo que hace que BCS constituya una «buena explicación» de la superconductividad no es su capacidad para describir la naturaleza de forma completa y precisa. Su mérito reside en que permite traducir datos físicos a un lenguaje interpretable y, a la vez, retiene la integridad de los fenómenos en suciente suciente medida como para tener poder explicativo. El ejemplo del cambio climático ilustra vivamente los peligros de albergar expectativas poco realistas sobre una teoría de los fenómenos complejos. Sin unos estándares bien denidos y ampliamente ampliamente aceptados, la opinión pública no puede distinguir entre armaciones contrapuestas. El hecho de que la teoría BCS se acepte universalmente muestra que tales estándares existen, a pesar de que en estos momentos sean en gran medida tácitos. Por ello, es necesario articularlos de una forma clara.
Un tercer ejemplo muy ilustrativo es la teoría de la superconductividad a alta temperatura. Los superconductores con temperaturas de transición por encima de la temperatura de ebullición del aire (nitrógeno) se descubrieron hace más de treinta años. Desde entonces, la exploración de sus propiedades ha sido uno de los temas más activos de investigación en física. Ha habido progresos destacados, tanto teóricos como experimentales. Pero, como se recuerda en la introducción de innumerables artículos, aún no existe consenso en lo referente a la teoría de la superconductividad de alta temperatura. temperatura. En parte, ello reeja la ausencia de un acuerdo sobre qué debe abarcar tal teoría. Lo que a menudo se quiere decir en esos artículos es que ninguna de las teorías existentes puede explicar cuantitativamente las observaciones experimentales que se presentan. Por otra parte, se acepta la imposibilidad de que una teoría pueda explicar todos los fenómenos complejos que se observan en estos materiales: esta debe ocuparse solo de aquellos que se consideren esenciales. Más aún, mientras que para al gunos hechos empíricos (como las variaciones de T c) se requiere una explicación semicuantitativa, para otros bastaría con una descripción más cualitativa.
FENÓMENOS ESENCIALES El propósito de una teoría de los sistemas complejos es, en principio, dar cuenta de los fenómenos esenciales. Sin embargo, no está claro c uáles son esas propiedades esenciales ni qué tipo de precisión o poder predictivo se necesita para dar el problema por entendido. En los casos en los que es posible compro bar los aspectos cualitativos de la teoría, teoría, solamente se aceptan como esenciales un conjunto de propiedades cuidadosamente seleccionadas, seleccionadas, como los exponentes críticos en las teorías de las transiciones de fase. La razón no es apriorística, sino que esas son las cantidades que podemos comparar cuantitativamente con las predicciones de la teoría. Que los criterios para evaluar este tipo de teorías tienen que ir más allá de una aplicación ingenua del método cientíco es algo intrínseco al estudio de los fenómenos emergentes. Habitualmente, las teorías satisfactorias son ensalzadas por su elegancia y belleza. Pero esto resulta problemático, ya que conlleva el uso de criterios subjetivos (propensos a distorsiones culturales, psicológicas psicológicas o ambas), así como una selección sesgada de qué elementos son esenciales y cuáles no son más que complicaciones irrelevantes. Es obvio que la ciencia constituye una empresa humana y, como tal, es vulnerable a elementos subjetivos. Tomando prestada la terminología de Thomas Kuhn, la «ciencia normal» solo puede tener lugar dentro de los límites del paradigma existente. Más allá del conocimiento adquirido en los libros de t exto, a los estudiantes se les enseña implícitamente a evaluar las teorías desde una dimensión estética. Lo inefable se considera a menudo «bello», y es necesario necesario tener tener en cuenta, junto junto con estándares estándares más más tradicionales, criterios asociados a las ideas de simplicidad, elegancia y capacidad capacidad de comprensión comprensión.. Ahora bien, si queremos queremos evitar evitar el uso de conceptos tan subjetivos y culturales como el de belleza, hay que denir de otra forma el signicado de esos términos.
HACIA UNA EVALUACIÓN EVALUACIÓN O BJETIVA Esa es la cuestión. Es necesario —desde el punto de vista tanto losóco como práctico— establecer criterios apropiados y sucientemente objetivos para evaluar las teorías de los sistemas complejos. Veamos algunas propuestas. elegancia se Aplicados a una teoría, términos como belleza y elegancia se reeren, en realidad, a la eciencia a la hora de comprimir co-
nocimientos. El grado ideal de compresión depende de la nitud del intelecto humano. Así, no esperaríamos de una teoría de la superconductividad de alta temperatura un grado de simplicidad tan extremo que permitiera expresar toda la física básica en un solo tuit. Pero tampoco que requiriese toda una vida de aplicado estudio para apreciar sus aspectos más elementales. El nivel óptimo de simplicidad estaría, pues, ajustado a las capacidades capacidades del intelecto humano. Así se tendría en cuenta la comprensión humana, pero sin descansar sobre el concepto de belleza, que puede estar determinado culturalmente. En cambio, no parece que los criterios para distinguir entre fenómenos esenciales y no esenciales sean algo tan innato. Antes bien, exigimos que una teoría exitosa identique aquellos aspectos de los fenómenos observables que ella misma establece como esenciales. Es difícil imaginar qué cl ase de consideraciones apriorísticas podrían haber identicado los exponentes críticos como un aspecto esencial de las transiciones de fase. Solo en el marco de la descripción aceptada identicamos identicamos los exponentes críticos como propiedad «universal» clave, y concluimos que una teoría que esté en desacuerdo cuantitativo con los exponentes observados debería descartarse. Sería deseable que la teoría denitiva de la superconducti vidad de alta temperatura temperatura resolviera preguntas como: como: ¿por qué T c es alta en ciertos materiales? ¿Existe alguna explicación de las perturbaciones que producen pequeños cambios de T c? Y sobre todo, ¿puede la teoría predecir un método para aumentar sustancialmente T c o descubrir nuevos superconductores de alta temperatura? «More is dierent» hizo hincapié en un aspecto conceptual: las teorías de los fenómenos emergentes son tan «fundamen tales» como las que describen las partículas individuales. Sin embargo, dejó sin explorar las inevitables diferencias entre estos dos tipos de investigaciones. Los estándares cuantitativos usados tradicionalmente para juzgar el éxito de las teorías microscópicas no pueden trasladarse sin más a la ciencia de los sistemas complejos, hay que adaptarlos. En nuestra opinión, una teoría satisfactoria debería identicar qué características del sistema deben ser objeto de atención. Y, de forma más general, debería perseguir la máxima compresión posible del conocimiento. Artículo Artículo publicado publicado en Investigación y Ciencia , enero enero de 2019 2019
Artíc ulo origin al public ado en Nature Physics, vol. 14, págs. 426-427, mayo de 2018. Traducido con el permiso de Nature Research Group © 2019 Con la colaboración de
LOS AUTORES
Sophia Ki velson es velson es estudiante del Programa de Sistemas Simbólicos de la Universidad Stanford. Steven Stanford. Steven A . Kivelso n es profesor en el Departamento de Física Aplicada de la misma universidad. PARA SABER MÁS
More is diferent. Philip diferent. Philip W. Anderson en Science en Science,, vol. 177, pág. 393, 1972. Dening emergence in physics. Sophia physics. Sophia Kivelson y Steven A. Kivelson en npj Quantum Materials, Materials , vol. 1, art. 16.024, 2016. EN NUESTRO ARCHIVO
Claves de la superconductividad a altas temperaturas. Graham temperaturas. Graham P. Collins en IyC , octubre de 2009. Comprender la complejidad. Geofrey West en IyC , julio de 2013. La naturaleza de la prueba cientíca en la era de las simulaciones. Kevin Heng en IyC , mayo de 2015.
C 49
Fenómenos
emergentes
K C O T S I / W E R D N A S G A / S E G A M I Y T T E G
FENÓMENOS EMERGENTES
Complejidad en la frontera del caos Los hormigueros, la macroevolución, las selvas tropicales y el cerebro comparten un rasgo común: son sistemas complejos dotados de propiedades especiales a medio camino entre el orden y el desorden Ricard V. V. Solé, Jordi Jordi Bascompte, Jordi Delgado, Delgado, Bartolo Luque y Susanna C. Manrubia
L
hacia un estado de equilibrio homogéneo mostraba oscilaciones periódicas macroscópicas y adquiría unas sorprendentes estructuras espaciales con forma de ondas espirales. Semejante resultado no parecía compatible con una interpretación estricta de la segunda ley de la termodinámica, termodinámica, la cual nos dice que la entropía y, por tanto, el desorden aumentan siempre. Así pues, nada tiene de especial que el hallazgo de tales fenómenos se recibiera con escepticismo. Boris Belousov, Belousov, uno de los pioneros en este campo, vio rechazado un artículo porque, en opinión del editor de la revista en que debía publicarse, su «descubrimiento supuestamente descubierto» (sic) era del todo imposible. No obstante, esa reticencia inicial no impidió que comenzaran a verse estructuras estruc turas de ese tipo en multitud de sistemas físicos, químicos y biológicos. Más tarde, con el descubrimiento del caos determinista en sistemas dinámicos simples, se demostró que bajo algunos fenó-
una imagen coherente del universo partiendo de principios básicos a menudo muy simples. Nos basta con la mecánica de Newton para entender el movimiento de los cometas y predecir sus trayectorias. Se trata de leyes deterministas, en las que, dadas ciertas condiciones iniciales, el futuro del sistema quedará bien denido. En este sentido, determinismo y pre dicción parecen indisociables. El determinismo newtoniano se tambaleó con la llegada de la mecánica cuántica. Esta nos hizo ver que el mundo microscópico de los átomos y las partículas posee un límite más allá del c ual las certidumbres se convierten en probabilidades. Ya entrada la segunda mitad del siglo , un nuevo marco conceptual vendría a introducir nuevos elementos element os en el cuerpo teórico de la ciencia. Gracias a los trabajos de Illya Prigogine y sus colaboradores, de la Universidad Libre de Bruselas, comenzaron a aplicarse herra- menos maniestamente complicados podía subyacer un orden mientas de la física al estudio de sistemas complejos alejados oculto. Una sola ecuación determinista podía generar dinámidel equilibrio, ya fueran químicos o biológicos. cas aparentemente aleatorias o erráticas que jamás se repetían. Se había observado que, en determinadas reacciones quími- Y lo l o que era aún más sorprendente: sorprenden te: los fenómenos caóticos cas y bajo condiciones adecuadas, un sistema que debería tender eran, pese a su carácter determinista, impredecibles. Bastaba
EN SÍNTESIS
Muchos sistemas complejos se hallan a medio camino entre el orden y caos. En un hormiguero, por ejemplo, es necesario cierto orden para mantener cohesionado el sistema. Sin embargo, este debe también ser lo sucientemente exible para poder adaptarse y transmitir la información.
52 TEMAS
95
Un análisis detallado revela que tales propiedades coinciden con las que exhiben los sistemas físicos durante las transiciones de fase. En tales puntos «críticos» aparecen uctuaciones de todos los tata maños y su comportamiento queda descrito por leyes de potencias y estructuras fractales.
Ese comportamiento marginal podría explicar la emergencia de la complejidad en la naturaleza y la capacidad capac idad para proces ar inform ación. Se ha observado en contextos muy diversos, desde los ecosistemas y la evolución de las especies hasta las colonias de insectos y el cerebro humano.
É L O S . V D R A C I R
EL ORDEN PUEDE SURGIR ESPONTÁNEAMENTE en sistemas químicos. Esta gura muestra el resultado de una simulación tridimensional de la reacción de Belousov-Zhabotinski, obtenida por Mario Markus y Benno Hess, del Instituto Max Planck de Fisiología Molecular de Dortmund. Las zonas más claras indican una mayor concentración de uno de los reactivos. Partiendo de una mezcla homogénea de sustancias químicas, el sistema se autoorganiza hasta dar lugar a ondas macroscópicas, observables a simple vista, que surgen del desorden molecular.
C 53
una imprecisión mínima en el conocimiento de l as condiciones iniciales (por ejemplo, en las variables climáticas locales en un instante dado) para que esta se propagara exponencialmente hasta convertir la predicción en pura entelequia, alejada de la evolución real. Se había puesto la primera piedra de una futura teoría de la complejidad. Pero complejidad no era necesariamente sinónimo de complicación. Lo que sí exigía era abandonar nuestra intuición lineal de los fenómenos y reemplazarla por una visión del mundo basada en la no linealidad. A nales de los años ochenta, el empleo
de ordenadores cada vez más potentes, sumado al desarrollo de nuevas herramientas matemáticas, permitió comprobar que tanto la geometría como la dinámica de muchos sistemas naturales podían abordarse desde enfoques simples. Se fue aceptando así la existencia de propiedades emergentes: aquellas que aparecen en un sistema no lineal como resultado de la interacción entre sus partes y que no pueden explicarse a partir de las propiedades de sus elementos constituyentes. Una colonia de hormigas, por ejemplo, es capaz de llevar a cabo tareas de gran complejidad, como explorar su entorno, construir galerías o decidir una fuente de alimento entre dos posibles. Pero, consideradas de una en una, ninguna hormiga puede acometer por sí sola semejantes tareas. Decimos que el comportamiento social del hormiguero emerge a partir de las interacciones entre las hormigas (elementos simples), y no es reducible a las propiedades de un individuo de la colonia. Lo mismo ocurre con el cerebro y las neuronas que lo forman o con un ecosistema y las especies
LAS PROPIEDADES PROPIEDADES EMERGENTES surgen como resultado de las interacciones
no lineales entre los elementos que componen un sistema complejo. Las interacciones entre hormigas ( arriba) dan lugar al comportamiento colectivo de la colonia. De igual modo, las simulaciones de la dinámica ecológica de presas y depredadores depredadores (abajo) generan estructuras ordenadas. Aunque la dinámica global restringe restringe la dinámica di námica de los elementos individuales, la primera no puede obtenerse a partir de la segunda.
que lo integran. Se trata, en denitiva, de sistemas
complejos: sistemas cuyas propiedades emergen a partir de las interacciones entre los elementos que los componen. COMPLEJIDAD Y PUNTOS CRÍTICOS Muy pronto se comprendió que los sistemas complejos aparecen a medio camino entre el orden y el desorden. Por un lado, el orden es necesario para almacenar información y mantener la estabilidad de las estructuras. Sin embargo, también se precisa exibilidad para transmitir la información. En los últimos años se ha propuesto una hipótesis general
acerca del origen de la complejidad. Sus autores han sido, entre otros, Jim Crutcheld, de la Universidad de California en Berkeley; Stuart Kauman,
del Instituto Santa Fe de Sistemas Complejos; Chris Langton, del Centro de Estudios No Lineales en Los Álamos, Álamos, y Per Per Bak, Bak, del Laborat Laboratorio orio Naciona Nacionall de BrookBrookhaven. La hipótesis de la frontera frontera del caos, como se la denomina, establece que la complejidad aparece en unas condiciones muy especiales conocidas desde antaño por la física: los puntos críticos en los que tienen lu-
) o j a b a
ciones posibles: «arriba» y «abajo». Dos elementos adyacentes
gar las transiciones de fase. Los sistemas complejos serían el adoptarán la misma orientación —la conguración de mínima resultado de una evolución hacia dichos puntos. energía— siempre que no haya perturbaciones externas que lo Hallamos un ejemplo de este tipo de transiciones en un trozo impidan. A alta temperatura, la interacción es insignicante de hierro cuando lo enfriamos lentamente desde cierta tempe- y los elementos están desordenados, por lo que no se aprecia ninguna estructura macroscópica. A baja temperatura, temperatura, los eleratura. Modelicemos el sólido mediante una red de pequeños imanes, para los que supondremos que solo hay dos orienta- mentos interaccionan entre sí, se establece cierto orden y crean
54 TEMAS
95
( É L O S . V D R A C I R ; ) a b i r r a
( R E L A D A P S E R E I V A X
un imán permanente homogéneo. Pero en el punto crítico, conocido como temperatura de Curie, orden y desorden coexisten. Esta coexistencia conlleva una propiedad muy frecuente en los sistemas complejos naturales: la aparición estructuras fractales, o autosemejantes, que se caracterizan por presentar el mismo aspecto básico a distintas escalas. Numerosos fenómenos complejos, como los movimientos sísmicos, la dinámica de los montones de arena o la macroevolución, tienden de forma espontánea hacia el punto crítico. Pese a su naturaleza dispar, tales sistemas exhiben propiedades comunes. En todos ellos encontramos elementos en interacción que poseen la capacidad de amplicar perturbaciones fortuitas. Estas pueden ser, según el caso, pequeñas tensiones en las pla -
dos. La segunda teoría, de no equilibrio, parte de la observación de que los ecosistemas que han sufrido una perturbación muy pequeña o muy grande muestran una biodiversidad limitada,
en tanto que los ecosistemas que han experimentado experimentado un grado de perturbación intermedio suelen desarrollar mayores niveles de diversidad de especies. Las perturbaciones impiden que la competencia entre especies sea sin cuartel («competencia incompleta») y generan, además, nuevas oportunidades y microclimas. Las perturbaciones del ecosistema pueden ser exógenas y endógenas. Un ejemplo típico de perturbación endógena nos lo da la caída de los árboles en la selva. Hablamos de árboles que alcanzan hasta 60 metros de altura, cubiertos de gigantescas lianas. Una vez abatido, el árbol deja un claro en la vegetación por donde la luz irrumpe en el suelo. Las condiciones de temperatura y humedad se ven
cas tectónicas, la caída de un grano de arena sobre el montón o la aparición de nuevas especies. La amplicación de la perturbación inicial puede provocar grandes cambios: terremotos modicadas bruscamente y las semillas que dormitaban inician intensos, avalanchas o la extinción de especies. Y, si medimos la una carrera por ocupar el vacío que se acaba de abrir. Pero, a intensidad de los terremotos en función del número de seísmos, veces, la caída de un árbol arrastra a otros vecinos, pudiendo comprobaremos que la curva obtenida sigue una distribución entonces generar claros de cientos de metros cuadrados. decreciente: los terremotos de poca intensidad son mucho más El estudio de la dinámica de los claros demuestra que estos contribuyen de forma muy importante al mantenimiento de frecuentes que los catastrócos. Existen muchas funciones decrecientes, ya sean de tipo lineal, la diversidad. ¿Podría ser la dinámica de los claros observada la exponencial, etcétera. Estas forman, de hecho, un conjunto in- resultante de un fenómeno crítico? Así es. Dos de los autores nito. Sin embargo, de entre este conjunto de funciones, solo de este artículo (Solé y Manrubia) hemos analizado un mapa de hay unas que se corresponden con el comportamiento de un los claros de la pluviselva panameña de Barro Colorado, cartosistema en el punto crítico: las llamadas leyes de potencias. En graada a principios de los años ochenta. El estudio preliminar permitió concluir que este ecosistema mostraba una estructura la naturaleza abundan los fenómenos donde se maniestan las leyes de potencias. Y donde estas se cumplen puede descubrirse fractal. La distribución de tamaños de los claros seguía, además, también la existencia de propiedades fractales. una ley de potencias, según cabría esperar de un sistema que se encuentra en el punto crítico. SELVAS SELVAS TROPICALE S Este resultado apoyaba la hipótesis de la existencia de feLa selva tropical puede servirnos de guía. Una fracción de los nómenos naturales que siguen leyes de potencias, al tiempo ecosistemas que componen la pluviselva contiene un número que demostraba que el sistema se hallaba en un estado de no ingente de especies distintas. A la hora de explicar semejante equilibrio. Para corroborar sus conclusiones y generalizarlas, biodiversidad, biodiversidad, compiten dos teorías. La primera, que llamare- los integrantes del grupo de sistemas complejos de la Univermos de equilibrio, postula que la diversidad es el resultado de sidad Politécnica de Cataluña desarrollamos una simulación una larga coevolución en un ambiente estable. Las especies han por ordenador en la que el bosque original, formado por unas 200 especies arbóreas, arbóreas, se sustituía por un conjunto de autómatas pugnado hasta ocupar distintos nichos ecológicos ya predeni-
É L O S . V D R A C I R
LAS ESTRUCTURAS FRACTALES aparecen con frecuencia cuando un sistema alcanza el estado crítico. La imagen superior muestra un mapa de la selva de la isla de Barro Colorado, en Panamá. Cada píxel denota un área de 1 km × 0,5 km, y los puntos negros indican zonas de la bóveda forestal con una altura inferior a 10 metros, lo que reeja una reciente caída de árboles ( izquierda ). El análisis de este mapa revela que se trata de un gigantesco fractal vivo, muy posiblemente resultante de la evolución de la selva hacia un estado crítico.
C 55
celulares del mismo tipo (como si fuera una sola especie), dispuestos sobre una rejilla bidimensional, donde cada uno interaccionaba solo con sus vecinos. Introdujimos reglas de nacimiento y muerte muy simples, así como un algoritmo de interacción entre elementos que imitaría la competencia por la luz y los recursos. Por último, dimos cabida a la caída de árboles: en nuestra simulación, el árbol que moría destruía totalmente la zona circundante, cuya extensión era proporcional al tamaño
del árbol caído. Pese a la simplicidad de las reglas empleadas, las propiedades observadas en los puntos críticos resultaron ser esencialmente las mismas, con independencia de que se tratase de un modelo general o de otro más detallado. Si nuestro sistema estaba en un punto crítico, el modelo debía ser capaz de reproducir todos los fenómenos recogidos en el mapa de campo. El modelo computacional mostraba distintos comportamientos, unos muy ordenados y otros muy desordenados. A medio camino entre ambos, la mortalidad, la intensidad de la interacción y otros parámetros se situaban en el dominio de lo que esperaríamos como biológicamente razonable. A esa franja o dominio le hemos dado el nombre de «bosque complejo», donde la comparación entre los datos procedentes del bosque real y los generados por el modelo muestra un ajuste cuantitativo sorprendente. El resultado de la simulación es virtualmente idéntico al bosque observado, lo que sugiere que el mapa del bosque real es una fotografía de un sistema complejo en el punto crítico. El modelo permite, además, simular experimentos totalmente inaccesibles al ecólogo de campo, así como observar y medir las uctuaciones de la biomasa a lo largo del tiempo. Estas uctuaciones son también de tipo fractal.
MUTACIONES VÍRICAS Podríamos preguntarnos si, como sugiere la teoría, estas propiedades de los puntos críticos (no linealidad, emergencia y autosemejanza) autosemejanza) se presentan en todos los sistemas complejos; es decir, si son universales. Tomemos un ecosistema muy distinto del estudiado hasta ahora: las poblaciones de retrovirus, o virus dotados de un genoma genoma de ARN, como como el VIH. El término retrovirus alude a su capacidad de copiar ARN en ADN mediante una enzima especíca, la transcriptasa inversa. La presencia del
virus desencadena una respuesta inmunitaria. Esta respuesta sería contundente si los virus no modicaran la estructura molecular de las proteínas de su cápside a través de mutaciones génicas. La tasa de mutación de los retrovirus es altísima, se-
Eigen y Peter Schuster, del Instituto Max Planck de Química Biofísica de Gotinga. El modelo matemático de Eigen y Schust er describe la evolución de una población en la que existe una secuencia maestra, que es la que se reproduce más ecazmente. Si la replicación está acompañada de mutaciones, la población
estará formada por la secuencia maestra y sus mutantes: la cuasiespecie. Explorando la tasa de mutación, nuestro modelo computacional adaptado a la población de retrovirus permite demostrar la existencia de transiciones de fase. Para tasas de mutación muy bajas, la secuencia maestra domina y la población mutante es un residuo que se deriva de la primera. Pero, a medida que la mutabilidad crece, la secuencia de mutantes va ganando terreno terr eno hasta que, para una tasa de mutación crítica, la población se convierte en un conjunto de secuencias aleatorias, y el virus, como entidad biológica, desaparece. desaparece. Se ha alcanzado lo que en la teoría de Eigen se denomina la catástrofe de error. En las poblaciones de retrovirus reales hallamos valores de la tasa de mutación muy cercanos a la catástrofe de error. Los retrovirus, pues, muestran un comportamiento complejo en la frontera entre el orden y el desorden. Schuster ha demostrado, mediante argumentos teóricos, que este punto crítico conere
al retrovirus la máxima adaptabilidad frente a la selección con stante llevada a cabo por el sistema inmunitario. HORMIGUEROS E INFORMACIÓN La explicación de la complejidad a través de los puntos críticos de las transiciones de fase halla también respaldo en el comportamiento de los insectos sociales. El éxito evolutivo de estos artrópodos reside en su capacidad para operar como un solo organismo. Sin embargo, para obtener un comportamiento global coherente, es preciso que las interacciones entre individuos den lugar a correlaciones que abarquen el sistema entero. ¿Emerge este orden global en un punto crítico, en el lo del caos?
Nuevamente, los modelos teóricos, que predicen la existencia de una transición de fase, se ven respaldados por las observaciones experimentales. El grupo de Nigel Franks, de la Universidad de Bath, en el Reino Unido, estudió la autoorganización de las colonias de hormigas del género Leptothorax . Estas colonias muestran un comportamiento global sorprendente. Si contamos el número de individuos activos (en movimiento, realizando alguna tarea) a lo largo del tiempo, comprobaremos que el número uctúa
con una periodicidad de unos 25 minutos.
gún ha puesto de maniesto Martin Nowak, de la Universidad
Podríamos creer que esta periodicidad está ya denida en
de Oxford, quien ha analizado la relación existente entre esa frecuencia y la longitud del genoma vírico. En el caso del virus del sida, la transcriptasa inversa comete entre 1 y 10 errores por tanda de replicación, lo que supone una tasa de mutación un millón de veces mayor que la de un genoma celular típico. Esta tasa de mutación, concluye Nowak, es la óptima para eludir la respuesta inmunitaria. Sin embargo, la mutabilidad no puede alcanzar niveles ar bitrariamente desmesurados, ya que entonces esas part ículas infecciosas perderían su identidad bioló gica y su ecacia. Vol vemos, pues, a encontrarnos con los dos extremos anteriores: orden (población vírica totalmente homogénea) y desorden (una colección de moléculas aleatorias). No obstante, aquí nos hallamos frente a una dicultad añadida: la aparición de una
cada una de las hormigas, de suerte que el ciclo de actividad solo fuera un reejo de su sincronización. No obstante, los experimentos son concluyentes: la actividad individual es totalmente aperiódica —caótica, —caótica, para ser exactos—, sin ningún tipo de regularidad intrínseca. Al agregar individuos, vemos la aparición paulatina de un comportamiento colectivo hasta que, para cierta densidad de hormigas, comienzan a aparecer las oscilaciones. Si seguimos aumentando el número de elementos hasta densidades mucho mayores que las naturales, estas oscilaciones se tornan regulares. Y, Y, una vez más, el comportamiento global surge de la interacción entre las partes, al tiempo que controla la actividad de cada una de ellas. Una observación experimental adicional indica que las colonias suelen poseer una densidad de hormigas cercana a un
amplia colección de formas mutantes no permite hablar de especie en un sentido estricto. Antes bien, deberemos referir-
valor muy bien denido. Si inten tamos modicar su entorn o para aumentar la densidad, la colonia redene sus fronteras
nos a las «cuasiespecies moleculares» denidas por Manfred
(acarreando material cercano) para volver a su densidad natural.
56
TEMAS 95
6 0
7 0
2 0
6 0
1 0
5 0 4 0
2 P 3 0
5 0
6 0
7 0
4 0
2 0
3 0 2 0
1 0
P 1
1 0
LA EVOLUCIÓN BIOLÓGICA puede también entenderse como un proceso que opera al borde del caos. Supongamos que una especie dada queda denida por dos propiedades, P1 y P2 (como longitud y peso corporal, por ejemplo). En un ecosistema dado, algunas combinaciones de ellas serán más apropiadas para la supervivencia que otras. Ello puede representarse en un «paisaje» cuya altura denota la puntuación de cada par de valores ( izquierda ). En principio, la distribución de características de una especie tenderá a situarse en alguno de los máximos. Sin embargo, cada especie posee un paisaje adaptativo que resulta de su interacción con el ambiente y con el resto de las especies. Cuando se produce un cambio, tales paisajes se modican y todas las especies deben reajustar su posición. Esta dinámica de cambio constante, en la que lo que está en juego es la persistencia y no una mejora adaptativa, se conoce con el nombre de «carrera de la Reina Roja», en honor al popular personaje de Lewis Carroll ( derecha ). Sus propiedades han sido relacionadas con las de un sistema en estado crítico.
Este resultado señala que existe una densidad crítica en la que
el sistema se comporta como un todo, a medio camino entre el orden y el desorden. Para desentrañar desentrañar ese fenómeno de los insectos sociales, uno
de los autores (Solé) introdujo en el modelo computacional la noción de red neural uida. Las redes neurales se han venido empleando desde principios de los años ochenta en modelos
de sistemas cognitivos muy diversos. Estos modelos permiten reproducir propiedades colectivas de los sistemas neurales, como la memoria asociativa, partiendo de elementos e interacciones simples. En las sociedades de insectos, en el sist ema inmunitario y en las redes de ordenadores ordenadores encontramos, encontramos, además, además, una propiedad nueva: la uidez, que se maniesta cuando las conexiones
entre elementos cambian con el tiempo como consecuencia del movimiento aleatorio o por otras causas. Debido a la uidez,
faltan en el hormiguero la memoria a largo plazo y otras propiedades que atribuimos al cerebro. Solé, en colaboración con Octavio Miramontes, del Colegio Imperial de Londres, y Brian Goodwin, del Instituto Santa Fe,
É L O S . V D R A C I R
periódicas, de modo que cuando todos los individuos se han desactivado, la activación de uno de ellos se propaga en forma de onda coherente a través de todo el sistema. Entre ambos extremos existe una densidad crítica, en la que aparece una oscilación coherente, aunque no periódica, que, una vez más, constituye una transición de fase. ¿Qué logra el sistema en ese punto crítico? Puesto que el hormiguero en cuanto tal maneja información, podemos analizar en el modelo computacional la transferencia de información para distintas densidades. Aplicando las herramientas matemáticas de la teoría de Shannon, descubrimos que la información transmitida se hacía máxima en el punto crítico, a una densidad igual a la observada experimentalmente experimentalmente por Franks. Franks. Este resultado encierra un interés doble. Por una parte, vemos que las hormigas emplean un punto crítico para transmitir información. Pero, además, constituye la primera prueba de u na predicción realizada realizada por Crutcheld y Langton: la computación
(entendida aquí como la capacidad de un sistema sis tema complejo para captar y procesar información) podría aparecer en la naturadesarrolló un modelo basado basad o en redes neurales uidas en el que leza en la frontera del caos. Estos autores postularon que una se profundiza en las analogías entre un hormiguero y el cerebro. de las propiedades de los sistemas complejos es su capacidad En el modelo, cada hormiga pasa a ser una neurona, y las inte- para interaccionar con el entorno y procesar la información racciones entre neuronas son las habituales en una red neural recibida. Para ello se requiere cierto grado de orden interno, clásica. El modelo cuenta con una propiedad adicional, peculiar ya que de otro modo sería imposible almacenar información. de los hormigueros reales: la activación espontánea de los in- Pero, al mismo tiempo, esa información debe ser manipulable, dividuos. Después de quedar inmóvil, un individuo puede volver lo que obliga al sistema a poseer cierta exibilidad interna; es a la actividad, ya sea por interacción (otro individuo activo lo decir, cierto grado de desorden. Las hormigas estudiadas por activa) o de forma espontánea. Las activaciones espontáneas Franks son, muy posiblemente, el primer ejemplo claro de un son caóticas, y así se introdujeron en el modelo. sistema natural que lleva a cabo un proceso de computación en Las simulaciones por ordenador mostraban las mismas pro- la frontera del caos. piedades dinámicas observadas en los experimentos de Franks. EVOLUCIÓN BIOLÓGICA A baja densidad, las uctuaciones uctuaciones son muy irregulares: los individuos, aunque se activan, no pueden propagar sus cambios. El papel de las propiedades emergentes y su aparición en las A grandes densidades, las uctuaciones del sistema se tornan proximidades de puntos críticos han movido a algunos inves-
C 57
AUTOORGANIZACIÓN
Transiciones de fase y complejidad Existen varios tipos de transiciones de fase observables en sistemas físicos, químicos y biológicos. Las transiciones de segundo orden están asociadas a sistemas que, al alcanzar el punto crítico, pierpierden algún tipo de simetría. El cambio de un estado a otro se produce entonces de forma suave. El ejemplo más conocido es la transición de fase que experimentan ciertos materiales magnéticos, descrita a través del llamado «modelo de Ising». En este, los átomos del material se modelizan mediante espines con dos orientaciones posibles, «arriba» y «abajo». En dos dimensiones, cada espín interacciona únicamente con sus cuatro vecinos más cercanos, situados a derecha, izquierizquierda, arriba y abajo. Su tendencia natural les hace alinearse y adoptar el mismo estado, lo que corresponde a la confguración de menor energía. A alta temperatura, sin embargo, las perturbaciones de origen térmico interferen con la interacción, agitando al azar los valores de cada espín. De este modo, el sistema aparece muy desordenado
(izquierda). Si calculamos la magnetización total (la suma de todos los espines), el resultado será cero. Al enfriar el sistema, la interacción va ganando terreno sobre la entropía hasta que, para cierta temperatura (la temperatura de Curie), el sistema alcanza el punto crít crítico ico (centro). Cuando eso ocurre, aparecen grupos de espines alineados de todos los tamaños. De hecho, lo que observamos son estructuras fractales. Si analizamos el tamaño de estos agregados y estudiamos la frecuencia con que aparecen, encontraremos una ley de potencias: N( S S) ~ 1/ S b , donde N( S S) indica el número de agregados de tamaño S y b es una constante. Estas leyes son características de los sistemas en estado crítico, aunque no exclusivas de ellos. Finalmente, si seguimos enfriando el sistema, la interacción vencerá al desorden térmico, aparecerá una magnetización espontánea y se uniformizará la distribución de espines en favor de una dirección dada (derecha).
Temperatura Temperatura supercrítica (desorden) (desorden)
Temperatura Temperatura crítica crític a
En este caso, para llegar al punto crítico hemos tenido que ajustar «a mano» un parámetro externo: la temperatura. Pero ¿puede un sistema complejo alcanzar de manera espontánea dicho estado? Esta pregunta fue resuelta de forma satisfactoria por el físico danés Per Bak, quien en 1987 introdujo la noción de «criticalidad autoorganizada». El ejemplo más sencillo de sistema crítico autoorganizado es tan simple como un montón de arena sobre el que vamos dejando caer granos lentamente. En tal caso, la pendiente de la pila de arena evolucionará de manera espontánea hacia un valor crítico: uno en el que la caída de un solo grano puede desencadenar aludes de todos los tamaños. Estas avalanchas presentan una distribución de tamaños dada por una ley de potencias. De forma similar, otros sistemas alcanzan dicho estado mediante otros mecanismos. Por ejemplo, la aparición de una nueva especie en un ecosistema puede generar un proceso de extinex tinción que afecte a una, dos o incluso a un gran número de especies.
Temperatura Temperatura subcrítica (orden) (orden)
tigadores a pensar que la evolución biológica a gran escala, la macroevolución, también se desarrolla en la frontera del caos. Varias líneas líne as de d e prueba p rueba respaldan esta idea. Por un lado, la
cambie la escala taxonómica. Si contamos el número de géneros que contienen una, dos o más especies, vemos que aparecen ordenados siguiendo una distribución de potencias, característica de las estructuras fractales. uctuación temporal del número de familias de algunos grupos biológicos biológicos es compatible compatible con lo que cabría esperar esperar de un sistema sistema Disponemos, además, de una información valiosa acerca de la crítico. Por otro, el proceso evolutivo origina una logenia que dinámica de la evolución: los espectros de extinción de especies en el tiempo y el alcance de tales episodios. El 99,99 por ciento podemos representar en forma de árbol, el cual va ramicándose conforme van apareciendo nuevas especies u otros taxones. de las formas vivientes que han aparecido aparec ido sobre la Tierra se han Esta estructura dendriforme es fractal. Lo ha demostrado Bru- extinguido. Los procesos de extinción y de adaptación de las no Burlando, de la Universidad de Génova, quien ha analizado especies al medio aparecen íntimamente imbricados en la teoría las relaciones existentes entre distintos niveles taxonómicos darwinista de la selección natural. Frente a un medio cambiante, (especie-género, género-orden, etcétera) y ha descubierto que las las especies capaces de adaptarse, en las que se supone cierta regularidades que aparecen en las relaciones entre grupos taxo- variabilidad en el e l seno sen o de la población, po blación, dejan descendencia, nómicos revelan la existencia de leyes invariantes aun cuando se mientras que las menos aptas desaparecen.
58 TEMAS
95
É L O S . V D R A C I R
Si la adaptación conere ventaja a la especie, cabe enton ces presumir que los grupos más persistentes serán los menos propensos a desaparecer, dado que se hallan mejor adaptados al ambiente. Pero del análisis de los patrones de extinción se desprende algo muy distinto. La probabilidad de extinción de un grupo cualquiera se muestra constante a lo largo del tiempo, y no depende de cuánto llevara existiendo en el planeta. ¿Cómo resolver esta paradoja? A principios principios de los años setenta setenta,, Leigh Van Van Valen, Valen, de de la UniUni-
versidad de Chicago, Chicago, propuso un enfoque alternativo de de la evolución. Van Valen considera las interacciones entre especies como una carrera de armamentos, en la que cada especie intenta mejorar su posición dentro del ecosistema. Ello signica
que, además de interaccionar con el medio físico, interacciona con el ambiente biótico; es decir, con las restantes especies. Un cambio en la situación de una especie inducirá cambios en las demás, y la alteración operada en estas inuirá a su vez en la
primera, que por consiguiente deberá experimentar otro cam bio, y así sucesivamente. Ese proceso de mutua interferencia admite una formalización en el marco de la teoría de juegos. En ella, llegamos a la conclusión de que la especie cambia solo para persistir. persistir. La selección natural no mejora la adaptación de la especie, solo la mantiene. Las especies incapaces de cambiar a la velocidad necesaria se extinguen. Por consiguiente, lo que vemos en el c urso de la evolución son los elementos de un sistema complejo en el que lo único importante es seguir jugando. De ahí que esta argumentación de Van Valen sea conocida como «hipótesis de la Reina Roja», en referencia al célebre personaje de Lewis Carroll que le explica a Alicia cómo, para permanecer en el sitio, no hay que dejar de correr. Una consecuencia a la que llega este modelo matemático es, justamente, que las tasas de extinción son constantes. Bajo esa equiprobabilidad de duración de las especies que aora en la macroevolución podría ocultarse una dinámica intrínseca. Kauman ha elaborado un modelo de evolución que
intenta sacarla a la luz. El modelo considera un conjunto de especies relacionadas entre sí y que poseen la capacidad de evolucionar. Cada especie puede cambiar para mejorar su posición en el ecosistema. Al hacerlo, las especies con las que se encuentra relacionada se resienten en su adaptación, y deben, a su vez, cambiar para reforzarla. Todas las especies que inter vienen en ese juego siguen, pues, una regla fundamental: han de potenciar su adaptación en el grado en que les sea posible. Cada cambio de una especie obliga a las demás a cambiar, y así el sistema evoluciona hacia un punto crítico. Una vez alcanzado dicho estado crítico, se aprecia que ciertas partes del sistema permanecen inalteradas durante largo tiempo (no evolucionan), mientras que otras se modican con
rapidez. Ambas situaciones se dan en la naturaleza. Por su part e, el modelo de Kauman proporciona un marco teórico donde
adquieren sentido los datos relativos a las extinciones de especies ya mencionadas. Del modelo de Kauman se desprende que las propiedades
globales de la evolución biológica nacerían de un fenómeno de tipo dinámico que algunos autores han denominado «atractor evolutivo». Esta denición pone de maniesto la existencia de un estado nal que atrae al sistema hacia el punto crítico. Una
vez alcanzado, alcanzado, la propia búsqueda de una una adaptación adaptación mejor por parte de los elementos genera inestabilidades inestabilidades que se propagan a todas las escalas. Las inestabilidades, por su parte, pueden arrastrar consigo a las especies que las generaron, razón por la
cual las extinciones, incluidas algunas de las principales, vinieron causadas por una inexorable dinámica crítica. EL CEREBRO HUMANO El funcionamiento del cerebro humano, por n, constituye otro
ejemplo de un sistema complejo cercano a un punto crítico. La aplicación de la teoría del caos al estudio de las ondas cerebrales indica la existencia de caos determinista. También se ha observado que los estados patológicos de actividad cerebral muestran ondas muy ordenadas y otras muy desordenadas. En el estado de normalidad convergen ambos aspectos: las ondas son aperiódicas, pero permiten, al propagarse por la corteza, sincronizar miles de millones de neuronas de forma ordenada. Investigaciones recientes han permitido comprobar que las transiciones de fase pueden desempeñar un papel muy importante
en la dinámica del cerebro. El grupo de Hermann Haken, de la Universidad de Stuttgart, en colaboración con Scott Kelso, del Instituto de Sistemas Complejos de Florida, ha demostrado que, bajo ciertas circunstancias, los cambios en la actividad cerebral macroscópica responden a una estructura de transiciones de fase. Mediante técnicas de magnetoencefalografía, magnetoencefalografía, estos investigadores exploraron el tipo de transición que presentaba la actividad cerebral en sujetos que recibían un estímulo cuya frecuencia iba variando lentamente con el tiempo. Mientras persistía el estímulo externo, y sincronizado con él, los sujetos realizaban una actividad física. Para ciertos valores dados del estímulo, la actividad cerebral macroscópica presentaba una súbita transición dinámica. El estudio cuantitativo de dicha transición reveló la existencia de un fenómeno crítico. Estos investigadores han sugerido la posibilidad de que el cerebro opere normalmente cerca de estos puntos críticos, y han desarrollado un modelo teórico que da cuenta de los resultados obtenidos. Cerca de dichos puntos, el cerebro poseería la capacidad óptima de manejar y procesar información. De ser así, tal vez el sistema más complejo que conocemos se encuentre enc uentre también en la frontera del caos. Artículo publicado publicado en Investigación y Ciencia , mayo de 1996 1996
LOS AUTORES
Ricard V. Solé, Jordi Bascompte, Jordi Delgado, Bartolo Luque y Luque y Susann Susann a C. Manrubia trabajan Manrubia trabajan en teoría de sistemas complejos y sus aplicaciones a los fenómenos naturales. Solé es investigador en la Universidad Pompeu Fabra de Barcelona y miembro del Instituto Santa Fé, en Nuevo México; Bascompte es catedrático en la Universidad de Zúrich; Delgado investiga en la Universidad Politécnica de Cataluña; Luque es profesor en la Universidad Politécnica de Madrid, y Manrubia es investigadora en el Centro Nacional de Biotecnología, también en Madrid. PARA SABER MÁS
A theore tical mo del of pha se trans ition s in the huma n brain. V. brain. V. K. Jirsa et al. en Biological Cybernetics, Cybernetics, vol. 71, págs. 27-35, mayo de 1994. Information at the edge of chaos in uid neural networks. R. V. Solé y O. Miramontes e n Physica D, D, vol. 80, págs. 171-180, enero de 1995. Self-sim ilarit y in rainfo rest s: Evide nce for a cri tical s tate. R. tate. R. V. Solé y S. C. Manru bia en Physical Review E , vol. 51, págs. 6250-6253, junio de 1995. Are crit ical phen omena re levant to la rge-sc ale evolut ion? R. ion? R. V. Solé y J. Bascompt e, en Proceedings of the Royal Society B, B , vol. 263, págs. 161-168, febrero de 1996. Phase transitions and complex systems: Simple, nonlinear models capture complex systems at the edge of chaos. R. chaos. R. V. Solé, S. C. Manrubia, B. Luque, J. Delgado y J. Bascompte en Complexity , vol. 1, págs. 13-26, marzo de 1996.
C 59
FENÓMENOS EMERGENTES
Redes mutua mutualista listass de especies Las interacciones entre las plantas y los animales que las polinizan y dispersan dispersan sus semillas semillas forman forman comple complejas jas redes redes de interd interdepen ependen dencias. cias. Tales redes constituyen la arquitectura arquitectu ra de la biodiversidad biodiversidad Jordi Bascompte y Pedro Pedro Jordano Jordano
L
do siempre a los naturalistas. Imagínese paseando por una de estas catedrales biológicas, rodeado de árboles gigantescos cargados de lianas y epítas. Sobrecogidos, pensamos que esos ecosistemas son inmutables. Pero no hay tal estabilidad en el majestuoso bioequilibrio aparente. Entre otras cosas, depende del servicio que unas especies dispensan a otras. Por ejemplo, la reproducción de más del 90 por ciento de las especies de árboles y arbustos en estas regiones tropicales no sería posible sin los insectos y otros animales de los que depende la polinización de sus ores y la dispersión de sus semillas. Los tucanes toco, por ejemplo, consumen los frutos de los árboles de manduvi en el Pantanal de Brasil. A cambio de esta recompensa, dispersan las semillas lejos del árbol madre, favoreciendo así su regeneración natural. Sin ese auxilio, las semillas caerían bajo el árbol, donde no tendrían ninguna oportunidad de
germinar. Así las cosas, si desaparecieran estos animales, todas esas especies de árboles dejarían de reproducirse y se convertirían en fantasmas ecológicos sin descendencia. Por desgracia, desgracia, no se trata de una situación hipotética. La caza selectiva de grandes mamíferos y aves que desempeñan una función muy importante en la dispersión a larga distancia puede tener consecuencias catastrócas para la regeneración del bosque tropical. tropical. Además, Además, la fragmentación de esa masa forestal y la pérdida de hábitat que acarrea causan la desaparición de polinizadores y frugívoros de los que dependen los árboles para su regeneración exitosa. La selva es más vulnerable de lo que aparenta.
BENEFICIO MUTUO Estas dependencias en benecio mutuo, o mutualistas, entre una especie animal y otra vegetal han desempeñado una función muy importante en la generación de la biodiversidad en
EN SÍNTESIS
El mejor modo de considerar las interrelaciones entre las plantas y los insectos que propagan su polen no es tomando en cuenta pares de especies, sino la red de conexiones de ese tipo que se producen en un ecosistema.
60 TEMAS 95
Las redes naturales de dependencia benéca mutua, o redes «mutualistas», son heterogéneas: poseen algunos nodos con un gran número de conexiones. Esa propiedad es común a otras redes complejas, como Internet.
Sin embar go, las redes mutualistas presentan algunas propiedades propias, como una estructura «encajada» y asimétrica. Esa arquitectura resulta fundamental para establecer la robustez y la biodiversidad de un ecosistema .
K C O T S I / T U R R O B L O I R O / S E G A M I Y T T E G
UNA GRAN PARTE DE LAS PLANTAS
con ores necesitan para su polinización el concurso de animales, como este abejorro. El insecto traslada el polen de una or a otra, requisito determinante para la reproducción exitosa de la planta. A cambio obtiene néctar, polen u otro tipo de recursos. Se trata de una relación de benecio mutuo.
C 61
la Tierra. Hoy sabemos que las especies vegetales que producen ores polinizadas por animales se han diversicado mucho más que sus primas hermanas cuyas ores poliniza el viento. Las plantas con or proporcionaron un nuevo nicho ecológico para los insectos, los cuales se diversicaron y, con ello, facilitaron la diversicación de las plantas. Plantas e insectos han ido de la mano y se han proporcionado oportunidades mutuas. De la misma manera, las interacciones entre plantas y animales frugívoros probablemente se originaron hace unos 300 millones de años, al inicio del Pérmico, con subsiguientes radiaciones adaptativas relacionadas con esas interacciones. Por tanto, este tipo de relación de dependencia mutua ha constituido constituido un verdadero motor para la génesis de la diversidad orgánica. La importancia de las relaciones mutualistas no escapó al ojo naturalista de Charles Darwin. Poco después de publicar su famoso Sobre el origen de las especies, especies , Darwin dedicó un libro entero a las formas espe cícas por las que las orquídeas atraían a sus insectos polinizadores. Eso marcó el nacimiento de una fecunda línea de investigación, con tanto éxito que incluso permitió hacer una predicción de una naturaleza similar a la de los físicos que predijeron la existencia de Neptuno basándose en las perturbaciones de la trayectoria de sus planetas vecinos. es una orquídea que se descubrió en Angraecum sesquipedale sesquipedale es Madagascar en tiempos de Darwin. Tiene una corola muy larga. Esta característica llevó a Darwin a predecir la existencia de un insecto poliniza dor con una trompa de una longitud simil ar. Fue solo cuestión de tiempo encontrarlo. Se trata de una polilla, un esfíngido ( Xantophan Xantophan morgani-predicta morgani-predicta), ), cuya trompa tiene la increíble longitud de 40 centímetros. Este caso ilustra perfectamente la atención que han merecido las relaciones de ajuste perfecto entre un par de especies. Ejemplos semejantes aparecen en portadas de libros y emocionan al ser humano, pero seguramente son más la excepción que la regla. Las relaciones mutualistas no se restringen a pa res independientes. En general, intervienen decenas e incluso
LA POLINIZACIÓN POLINIZACIÓN no es la única etapa del ciclo biológico de una planta que requiere la participación de un animal. Muchas especies vegetales vegetales (más del 90 por ciento en ecosistemas con con una gran diversidad biológica, como las selvas tropicales) dispersan sus semillas gracias a animales como esta Tangara cyanocephala de Brasil. A cambio, el ave consume la pulpa que rodea la semilla. De nuevo, ambas especies obtienen un benecio.
62 TEMAS 95
cientos de especies en tupidas redes de relaciones. Hasta hace poco, apenas sabíamos algo sobre la organización de esas redes de interdependencias, a pesar de que para entender cómo se organiza la vida en la Tierra y cuán frágil es dependemos en buena medida de conocer bien dichas redes. El gran reto actual es entender cómo la biodiversidad, en su sentido global de red, responderá ante una variedad de perturbaciones: la pérdida de hábitat, las invasiones biológicas, la sobreexplotación de los recursos naturales o el cambio climático. Por ejemplo, ¿cómo afectará la extinción de una especie a estas redes de interdependencias? ¿Se verán afectadas solo una o dos especies, o, por el contrario, iniciará iniciará una avalancha de coextinciones que se propagarán por toda la red? Para responder a ese elenco de cuestiones, decidimos formar equipo con nuestro colega Jens Olesen, de la Universidad de Aarhus, que había estudiado redes de polinización por todo el mundo. Empezamos recopilando una extensa base de datos de redes mutualistas, tanto de polinización como de frugivoría. Y tomamos prestadas herramientas y conceptos que los físicos y sociólogos habían desarrollado para abordar problemas similares sobre otro tipo de redes, como Internet o las interacciones entre empresas dentro de un mercado de transacciones económicas. Echemos un vistazo, antes de proseguir, a ese otro tipo de redes. Pasemos de las especies en un ecosistema a los servidores en Internet, de extinciones biológicas a errores en servidores y ataques cibernéticos.
LA RED DE INTERNET En muchas facetas, nuestra vida se halla ahora entreverada con Internet, una red compleja de ordenadores que cubre el planeta y constituye constituye el soporte material por donde donde uye información de todo tipo. Sea para consultar un dato histórico, bajar música o comprar entradas para un evento deportivo, Internet no tiene par. La idea de unir ordenadores fue concebida a nales de los años sesenta del pasado siglo en el seno de la Agencia de Proyectos Avanzados de Investigación para la Defensa, organismo e stadounidense que controlaba la investigación militar. Se disponía de un conjunto de superordenadores incomunicados entre sí y se pensó en las ventajas de su interconexión. La idea pasó a las universidades y luego al uso público. Internet adquirió vida propia y fue creciendo, autoorganizándose de forma parecida a un ser vivo. La evolución de Internet se basa en decisiones locales de necesidad inmediata. Al igual que las redes mutualistas son el producto de millones de años de evolución, ningún ingeniero ha diseñado a red de Internet. ¿Qué arquitectura tiene esa red gigantesca? ¿Y hasta qué punto afecta dicha arquitectura a su robustez ante errores en servidores o ataques de piratas informáticos? Para entenderlo, los investigadores empezaron por acudir a los modelos matemáticos de redes que se usaban por entonces, representaciones muy sencillas que se dejaban tratar analíticamente. UNA MIRADA M ATEMÁTICA ATEMÁTICA Paul Erdo ´´s fue un matemá ma temático tico singular. sin gular. Tenía una cap acidad acida d de trabajo impresionante (solía denir a un matemático como una máquina que transforma café en teoremas) y le gustaba trabajar en equipo. Sin residencia ja y con un número mínimo de enseres personales que cabían en una vieja maleta, se dedicaba a viajar por el mundo visitando amigos matemáticos a los que proponía colaborar en algún problema. Uno de los temas que despertó su interés fue la teoría de grafos, la descripción matemática de las redes. Junto a su colega Alfred Rényi, denieron
O D L A R A U G E R D N A
CHARLES DARWIN, el padre de la teoría de la evolución por selección natural, estaba fascinado por el grado de convergencia entre la morfología de algunas orquídeas y la de los insectos polinizadores. Tres años después de publicar El origen de las especies , escribió otro libro dedicado a esta cuestión.
una serie de teoremas sobre grafos aleatorios, la representación más simple de una red. La receta para construir una red o grafo aleatorio es muy sencilla. Se empieza con una serie de nodos (estos pueden representar ordenadores o genes, por ejemplo). De esos nodos, se escogen dos al azar y se unen mediante un vértice, o conexión (dos ordenadores conectados por cable o dos genes que se activan mutuamente). Se repite este paso básico un número determinado de veces. Al nal de esa construcción aleatoria, se obtiene una red. Advertiremos que se trata de una red bastante homogénea, pues todos los nodos presentan un número de conexiones que apenas uctúa alrededor de una media bien denida. La probabilidad de encontrar un nodo con más enlaces decrece muy rápidamente con el número de conexiones. En este tipo de red no existen nodos hiperconectados. Hace unos pocos años, cuando los físicos comenzaron a ocuparse de las redes complejas, como Internet, descubrieron que no había tal homogeneidad en las redes abordadas. Antes bien, las redes reales se revelaban mucho más hete rogéneas: aunque la mayoría de los nodos tenían un número pequeño de conexiones, algunos estaban mucho más conectados de lo que cabía esperar del azar. En Internet, no todos los servidores tenían la misma importancia; algunos eran verdaderos «concentradores» (hubs, hubs, en inglés), con cientos o miles de conexiones. En este caso, el número medio de conexiones por nodo da muy poca información; la varianza es demasiado grande. Distribuciones tan heterogéneas recuerdan a las que describen la distribución de recursos económicos por persona, con una diferencia abisma l entre los pobres y unos pocos multimillonarios.
) g r o . s b e w d o o f . w w w ( D 3 B E W D O O F N O C A D I C U D O R P N E G A M I ; O N A D R O J O R D E P Y E T M O C S A B I D R O J
Poco a poco se empezó a estudiar otras redes complejas, como las redes de interacciones genéticas. En estas se representa qué genes, mediante proteínas, activan a otros genes en una red de regulación que es fundamental para el desarrollo de un organismo. La red de regulación puede considerarse el mapa de la vida, cuyo funcionamiento no puede reducirse a las moléculas constituyentes. Entender esta red de regulación es vital para combatir enfermedades genéticas. La célula, en cierta medida, funciona como Internet. Otro tipo de redes que ha bían sido analizadas por los ecólogos desde hacía tiempo eran las redes trócas, las cuale s reprerepresentan quién se come a quién en un ecosistema. Los ecólogos se adelantaron al trabajo de los físicos. Ya habían introducido una serie de conceptos y medidas que estos reinventarían años más tarde. La mayoría de esas nuevas redes estudiadas presentaba también una distribución muy heterogénea de interacciones. Independientemente de que en cada red la identidad de los nodos fuera diferente, todas ellas compartían un patrón arquitectónico,
LAS INTERACCIONES MUTUALISTAS entre las plantas y los animales que las polinizan o dispersan sus frutos tejen redes de interdependencia complejas, semejantes a la que se ve en esta ilustración. Este ejemplo corresponde a la comunidad de plantas y polinizadores de una localidad de Groenlandia estudiada por Jens M. Olesen, de la Universidad de Aarhus. Cada nodo verde representa una especie vegetal; cada nodo amarillo, una animal. Un insecto y una planta están conectados si el primero poliniza a la segunda. Estas redes complejas representan la arquitectura arquitectura de la biodiversidad. Sin tales interacciones, sería imposible la persistencia de las especies que componen la comunidad.
C 63
a
e
b
f
c
g
d
h
tal vez el reejo de un proceso de crecimiento crecim iento similar. Los físicos, acostumbrados acostumbrados a buscar procesos generales, abandonaron el modelo de red aleatoria de Erdo ´´s y Ré nyi, ya que no describía describí a esta característica ubicua de las redes complejas. Había que sustituirlo sustituirlo por otro modelo. ¿Cómo generar de forma simple redes tan heterogéneas? Albert-László Barabási, por entonces profesor del departadepartamento de física de la Universidad de Notre Dame en Indiana, junto a su doctoranda Réka Albert, pensaron en un un mecanismo muy sencillo para reproducir la estructura de Internet y otras redes heterogéneas. Imagine el lector que disponemos de un conjunto de nodos iniciales y que, en cada iteración, se añade a la red un nuevo nodo, el cual se conecta a otro preexistente con una probabilidad proporcional a su número de interacciones. Este es un proceso del tipo «los ricos se hacen todavía más ricos» (o principio de San Mateo), un proceso multiplicativo muy frecuente en los sistemas biológicos. Si se repite esta operación un número de veces lo sucientemente grande, al nal se obtendrá una red tan heterogénea como las redes reales. Es esta, pues, una receta fácil para obtener redes complejas, conocida por «modelo de conexión preferencial». Llegado aquí, Barabási se cuestionó: ¿cuál es la implicación de esta distribución heterogénea de interacciones para la estabilidad de las redes generadas?
EL TALÓN DE AQUILES En un inuyente artículo publicado en el año 2000, Barabási, Albert y el investigador investigador posdoctoral Hawoong Jeong Jeong ilustraron de forma gráca de qué modo a fecta a Internet la distribución heterogénea de sus interacciones. Partieron de una red aleatoria del estilo de las estudiadas por Erdo ´´s y Rényi Rény i y fueron fuero n eliminan elim inan do un número progresivamente mayor de nodos para ver cómo quedaba la red resultante. Emple aron dos estrategias distintas para eliminar nodos. En primer lugar, los escogieron al azar.
64 TE MAS 95
LA ARQUITECTURA de las redes mutualistas determina en gran medida las consecuencias de la extinción de especies. En este ejemplo, correspondiente a la comunidad ilustrada en la gura anterior, se va eliminando sucesivamente sucesivamente una especie vegetal (fecha). Se empieza con la planta más generalista, y se da por supuesto que las especies de plantas y animales que se quedan sin ninguna conexión se extinguen. Como puede apreciarse, la extinción de unas pocas especies estrechamente conectadas puede ejercer efectos catastrócos para la red resultante. La arquitectura de estas redes mutualistas determina en gran medida cómo se propagan tales perturbaciones. Ello simulaba lo que un ingeniero llamaría error aleatorio de un servidor. La segunda estrategia consistía en un ataque diri gido. Simulaba lo que haría un pirata informático destructivo, que no derribaría cualquier servidor, sino que iría a por el más conectado para causar el mayor daño posible. Barabási y su equipo observaron que las redes aleatorias, con su distribución de interacciones homogénea, eran siempre muy frágiles ante los errores estocásticos. Bastaba que se eliminase una pequeña fracción de nodos para que la red original se fragmentase en subredes desconectadas entre sí. Pero la situación era muy diferente cuando la red de partida mostraba una distribución heterogénea de interacciones, como la observada en Internet. Si la eliminación de nodos se realizaba al azar, la red se mantenía intacta, aun cuando se eliminara una f racción importante de ellos. Era una red muy robusta ante la caída aleatoria de servidores. La razón hay que buscarla en los concentradores, nodos altamente conectados que aglutinan toda la red a su alrededor. Como son muy pocos, es improbable dar con ellos en una selección aleatoria. En cambio, si se empezaba eliminando el nodo más conectado, luego el segundo, y así sucesivamente, la red se mostraba muy frágil: bastaba la eliminación de unos pocos de estos nodos muy conectados para que la red se fragmentara. Los concentradores, que proporcionan robustez frente a fallos aleatorios, constituyen a su vez el talón de Aquiles de Internet ante ataques dirigidos.
LA RED DE LA BIODIVERSIDAD Inspirados Inspirados por los estudios sobre la estructura de Internet y otras redes complejas, nos propusimos buscar patrones arquitectónicos universales en nuestras redes mutualistas. El primer paso consistió en caracterizar su grado de heterogeneidad, como los físicos habían hecho con Internet y otros ecólogos con las redes de dependencia tróca. Computamos las distribuciones de
) g r o . s b e w d o o f . w w w ( D 3 B E W D O O F N O C A D I C U D O R P N E G A M I ; O N A D R O J O R D E P Y E T P M O C S A B I D R O J
. U U . E E , )
S A N
P (
. I C S . D A C A . L T A N . C O R P
S O L N E A D A C I L B U P E T N E M L A N I G I R O A R U G I F ; O N A D R O J O R D E P Y E T P M O C S A B I D R O J
conectividad, es decir, con qué probabilidad a b una planta, por ejemplo, es polinizada por 1 1 una, dos,... n especies de insectos. ¿Serían 2 2 las distribuciones de frecuencias de conecti3 3 vidades similares similares a las halladas en Internet? Internet? 4 4 s s a a t t El patrón que observamos fue muy gene5 n 5 n a a l l ral y robusto. En la mayoría de los ejemplos, 6 P 6 P 7 7 la heterogeneidad de las redes biológicas 8 8 se acercaba a la de otras redes complejas. 9 9 Exhibían, pues, una amplia variabilidad 10 10 en el número de interacciones por espe1 2 3 4 5 6 7 8 9 10 10 1 2 3 4 5 6 7 8 9 10 10 cie. Aunque la mayoría de las especies solo interaccionaban con un grupo restringido Animales Animales de otras, las había altamente generalistas, c mucho más conectadas de lo que cabría esperar en un modelo aleatorio. No obstante, 5 en comparación con Internet y otras redes tecnológicas, había una probabilidad ligera10 mente más pequeña de encontrar especies altamente conectadas. Los matemáticos s a 15 t n dirían que las distribuciones de conecti a l P vidad estaban truncadas para valores muy 20 elevados; es decir, a partir de cierto grado 25 de conectividad, disminuía la probabilidad de encontrar especies con un nivel 30 superior de generalización. 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 Las redes mutualistas, al ser mucho Animales más heterogéneas que una red aleatoria, se REDES ENCAJADAS: En estas grácas, las cifras numeran especies de plantas y animales; muestran más robustas ante la extinción de los cuadros negros denotan la existencia de una relación mutualista entre ellos. La especies al azar. Pero, al no alcanzar el grado gráca a representa una red de relaciones encajada perfecta (el cuadrado delimita el de heterogeneidad de otras redes complejas, «núcleo» de la red, en el que todos los miembros se relacionan unos con otros); la b, una tampoco adolecen de su fragilidad ante la red aleatoria, y la c, una red auténtica entre plantas y polinizadores (en una red encajada pérdida de las especies más generalistas. perfecta, todos los cuadros negros estarían a la izquierda de la curva). Las redes mutualistas parecen, pues, tener lo mejor de ambos mundos. ¿Cuál es la razón de que las distribuciones de conectividades estén truncadas? Se han avanzado varias solo mantienen relaciones especializadas muestran predilección explicaciones complementarias. Explicitemos la nuestra: si bien por interaccionar con especies generalistas. Más exactamente, no hay razón por la que, en principio, dos servidores de Internet si ordenamos a las especies de plantas de la más especialista a no puedan estar unidos, algunos pares planta-animal, en camla más generalista, vemos que, en general, las especies animales bio, no pueden interaccionar. interaccionar. Existen interacciones prohibidas. prohibidas. con las que interaccionan se hallan incluidas en conjuntos cada Por ejemplo, un insecto no puede polinizar una planta si es un vez mayores, como si se tratara de muñecas rusas unas dentro inmigrante que llega al ecosistema pasada la época de oración de otras; de ahí el apelativo de «encajadas». del vegetal; ni una especie de ave pequeña puede dispersar una De esta distribución encajada se derivan dos propiedades especie de planta cuyos frutos excedan el tamaño de las comisuimportantes. Primero, existe un núcleo en la red, constituido ras bucales del pájaro. Estas conexiones prohibidas reducen la por un número pequeño de plantas y animales generalistas que probabilidad de que incluso los altamente generalistas puedan interaccionan entre sí. Se genera una estructura redundante, con interaccionar con todas las especies, limitando así la frecuencia una fracción elevada de interacciones del total. Este núcleo es de especies con un número muy elevado de interacciones. robusto ante la pérdida de algunas de sus interacciones y, por tanto, proporciona rutas alternativas para los ujos de materia MU ÑECAS RUSAS y energía. Desde el punto de vista vista de la coevolución, coevolución, esas pocas La distribución del número de conexiones por especie es solo un especies actúan como un vórtice coevolutivo que puede deterprimer paso para entender la arquitectura de las redes mutuaminar la dirección coevolutiva de la red entera. listas. Esta distribución nos permite determinar, por ejemplo, En segundo lugar, en una red encajada la especialización es cuál es el número medio de interacciones por especie, pero no asimétrica. Las especies especialistas de uno de los conjuntos contiene información sobre la identidad de las interacciones. Por (por ejemplo, el de los animales) tienden a interaccionar solo botón de muestra, muestra, desconocemos desconocemos si si los frugívoros que dispersan dispersan con las generalistas del otro conjunto. Este fenómeno conere las semillas de una especie de planta son los mismos que los que mecanismos de persistencia para los especialistas, ya que los dispersan otra especie. Nuestro grupo, con la incorporación incorporación de generalistas de los que dependen suelen ser más abundantes y Carlos J. Melián, doctorando doctorando de uno de los autores, tomó prestado menos uctuantes, al contar con muchos y diversos recursos. para este caso el concepto de «distribución encajada», de uso en Por lo tanto, la propiedad encajada de las redes creadas las hace, ecología de islas. En una distribución encajada, las especies que según parece, más robustas. Para analizar esas implicaciones
C 65
dinámicas con más detalle, se requiere el uso de modelos matemáticos y simulaciones con ordenador. La teoría existente se ceñía a la descripción descripción de un par de especies que interaccionan de forma muy predeterminada. Un primer paso para desarrollar modelos de redes mutualistas lo dio Miguel Angel Fortuna, doctorando de uno de los autores. Fortuna elaboró un modelo dinámico que describía exactamente la red de interacciones de una comunidad. Lo comparó con un modelo nulo similar: con las mismas especies e interacciones, aunque estas últimas asignadas al azar. Se buscaba entender hasta qué punto resultaba determinante la arquitectura de las redes ante las alteraciones, ante la destrucción del hábitat y la pérdida de especies. El trabajo teórico de Fortuna estableció que la heterogeneidad y la naturaleza encajada de las redes mutualistas las hacía más resistentes a la pérdida de hábitat. Aunque algunas especies se extinguen antes, la red mantiene su funcionalidad hasta valores de destrucción mayores. De forma similar, Jane Memmott, de la Uni versidad de Bristol, junto a Nickolas Waser y Mary Price, ambos en la Universidad de California en Riverside, han repetido en dos redes de polinización los experimentos de eliminación secuencial de nodos en Internet y otras redes ecológicas. Se proponían simular las consecuencias del declive general en la población de polinizadores. Para ello, los fueron eliminando progresivamente del más especialista al más generalista, y observaron cómo se propagaban RED DE INTERACCIONES INTERACCIONES PROTEICAS dichas extinciones por la red mutualista. Estas de la mosca del vinagre. La siología y la redes mutualistas se manifestaron bastante función de los organismos depende de robustas ante los procesos de extinción , lo que, estos mapas de interacciones. una vez más, se atribuyó a su alta heterogeneidad y a su carácter encajado. La arquitectura de tales redes mutualistas las hace, pues, más robustas ante los efectos perniciosos de las extinciones. establecidas entre plantas e insectos h erbívoros. En estas interacciones antagonistas se desatan «carreras de armamentos» CONVERGENCIA Y COMPLEMENTARIEDAD COMPLEMENTARIEDAD coevolutivas. Vale decir: los grupos de plantas desarrollan una El hecho de que estas redes mutualistas sean encajadas puede sustancia defensiva que les permite escapar de la herbivoría. sorprender a algunos biólogos evolutivos, ya que la teoría espeCon el tiempo, la selección natural hará que un grupo de insecraba encontrar compartimentos, grupos de especies que intetos desarrolle una contradefensa y pueda alimentarse de dicho raccionasen de forma muy característica y generados mediante grupo de plantas. Así se generarán grupos de especies en mutua especialización paralela. Sin embargo, las redes encajadas son interacción, aunque más o menos aislados de otros grupos. mucho más cohesivas. John N. Thompson, de la Universidad de Para someter a prueba estos diferentes modos de organizaCalifornia en Santa Cruz, ha visto en esta estructura encajada la ción, hemos contado con la colaboración de Thomas Lewinsohn, consecuencia de dos fuerzas coevolutivas: la complementariedad de la Universidad Universidad de Campinas, quien ha estado estudiando y la convergencia. convergencia. La longitud longitud de la corola de una or ha de ser redes de interacciones antagonistas entre plantas e insectos complementaria con la longitud de la trompa de un polinizador herbívoros. Con la comparación entre estos dos tipos de intepara que se produzca una interacción mutuamente beneciosa racciones coevolutivas podremos avanzar en nuestra compresión entre ambas especies. A esta interacción pue den añadirse otras de los mecanismos que conducen a esos patrones. Los resultados especies, por el mecanismo de convergencia de caracteres. Así, preliminares apuntan a que las redes antagonistas presentan diversas especies vegetales convergerían a la morfología de la otro tipo de organización: en su mayor parte, se hallan estrucplanta original para beneciarse del concurso del polinizador, turadas en compartimentos y no se encuentran, por tanto, tan y viceversa. cohesionadas como las redes mutualistas. Pero siempre cabe Las dos fuerzas coevolutivas reseñadas dieren a buen sese observar estructuras mixtas, y los compartimentos pueden, a guro de las que se dan en redes antagonistas; por ejemplo, las su vez, estar organizados de forma encajada.
66 TEMAS 95
S E R O D A R O B A L O C Y T O I G R O P E R U T A N
N E A D A C I L B U P E T N E M L A N I G I R O A R U G I F
DEPENDENCIAS DÉBILES Y ASIMÉTRICAS Hasta ahora hemos descrito la estructura de las redes mutualistas utilizando información binaria, es decir, considerando que una planta y un animal, o bien interaccionan, o bien no lo hacen. Pero falta cuanticar la fuerza de tales interacciones. ¿Son las interacciones interacciones fuertes por lo general? ¿Son mayoritariamente débiles? ¿Son muy heterogéneas, como sucedía con el número de interacciones por especie? De esas cuestiones nos ocupábamos ya en un artículo que publicamos en Science en Science en abril de 2006. Exponíamos, en primer lugar, que la fuerza de las interacciones mutualistas, es decir, el grado de dependencia recíproca entre pares de especies animalplanta, resultaba muy heterogénea: muy débil en la mayoría de los pares de especies y, en unos pocos, muy fuerte. Ese patrón coincidía con el que se había observado para redes trócas y para otros tipos de redes abióticas, como las redes de aeropuert os y las de coautoría de trabajos cientícos. En segundo lugar, se trataba de interacciones asimétricas. Si una planta, sea por caso, depende mucho de un polinizador, este apenas depende de la planta. Las interacciones de dependencia recíproca fuerte resultaron muy escasas. La conjunción de inteinteracciones débiles y asimétricas favorecen, presumiblemente, la persistencia de las especies en la comunidad. Si cada especie de cada par que interacciona dependiera fuerte y simétricamente de la otra especie, una disminución poblacional en una de las especies comportaría la reducción de la otra, lo que a su vez dicultaría la recuperación de la primera. Este tipo de efecto en cascada hacia la extinción resulta mucho más improbable cuando hablamos de interacciones débiles y asimétricas. Esta argumentación cobró mayor consistencia teórica al introducir las predicciones de un sencillo modelo matemático. Dada la estructura de las redes mutualistas descrita anteriormente, y consideradas las potenciales implicaciones que tiene para la persistencia de la biodiversidad, cabe preguntarse por los mecanismos ecológicos, evolutivos y coevolutivos que producen estos patrones de red. Una primera aproximación nos la ofrece,
) / p a m / s e h c ~ / m o c . s b a l l l e b . s c . w w w / / : p t t h ( K C I W S E H C . R M A I L L I W R O P A D A Z I L A E R E T N E M L A N I G I R O A R U G I F
como hemos adelantado, el estudio de modelos de crecimiento de redes. La teoría constituye aquí una pieza importante del rompecabezas que estamos armando, porque nos permite explorar posibilidades que serían muy difíciles de acometer mediante observaciones de campo o experimentos en el laboratorio. Paulo R. Guimarães, entonces doctorando de uno de los autores y hoy investigador posdoctoral en el Instituto de Física de la Universidad de Campinas, estudió modelos parecidos al de interacción preferencial que habían diseñado los físicos. A partir de ellos podían explicarse algunos patrones observados en estas redes, a través de mecanismos muy generales de crecimiento de la red. Pero con ese enfoque se nos ofrece solo una parte de la información. Para entender mejor los procesos biológicos que llevan a redes con estructura encajada y dependencias débiles y asimétricas, asimétricas, hemos de determinar qué características características ecológicas tienen las distintas especies que tejen la red y su relación evolutiva. En otras palabras, hasta entonces habíamos considerado las redes coevolutivas como si todas las especies fueran idénticas, divergentes solo en número de interacciones y distintas en función de con quién interaccionaban. Se trataba ahora de adornar cada uno de los nodos con características propias de esa especie.
FILOGENIAS Y ECOLOGÍA ¿Hasta qué punto la historia evolutiva de las plantas y los animales condiciona la arquitectura de las redes mutualistas? Para abordar la c uestión necesitábamos una herramienta estadística: el «método comparado», que tiene en cuenta el parentesco entre especies, su proximidad en el árbol logenético. Se parte del supuesto de que las especies no son entidades independientes entre sí, sino que poseen una historia común. Enrico Rezende acababa de doctorarse en la Universidad de California en Riverside y tenía experiencia con este tipo de contrastes logenéticamente logenéticamente independientes. Desde que se unió a nuestro grupo como investigador posdoctoral, su trabajo ha demostrado que, en casi la mitad de las grandes redes, hay una señal logenética signicativa para el número de interacciones
CONEXIONES ENTRE
SERVIDORES DE INTERNET: En esta gura, cada nodo representa un servidor; dos servidores están unidos si entre ellos media una conexión física que les permita comunicarse. Algunas propiedades de las redes de interacciones entre plantas y animales son similares a las observadas en otras redes complejas, como Internet.
C 67
por especie e importante para saber con quién se interacciona. Dicho de otro modo: las especies logenéticamente emparenemparentadas tienden a tener un papel similar en la red. La arquitectura de las redes mutualistas no puede, pues, exex plicarse exclusivamente mediante caracteres inmediatos, como la adaptación o la abundancia local de especies. La historia evoevo lutiva permite interpretar los patrones de las redes creadas. Desde la perspectiva de la conservación conser vación de la biodiversidad, signica que las avalanchas de extinciones, subsiguientes a la extinción de una determinada especie, afectarán a especies emparentadas, ya que todas ellas tienden a interaccion interaccionar ar con con el el mismo conjunto conjunto de especies. En ese proceso se va podando el árbol taxonómi co de una forma sesgada y, por tanto, cae la riqueza taxonómica de un modo más drástico de lo que cabría esperar. Tal y como demostrábamos en un artículo publicado en Nature en Nature en en agosto de 2007, las extinciones no se limitan a eliminar especies: borran páginas enteras de la historia evolutiva.
Los patrones arquitectónicos de las redes mutualistas pueden venir explicados por múltiples factores. Sabemos ya que hay un componente histórico, pero eso no excluye ningún mecanismo causal. Características ecológicas, como el tamaño corporal de las especies o su forma de vida, podrían dar cuenta de los patrones arquitectónicos observados. Para comprobar qué mecanismos guardan una correlación más estrecha con los patrones de interacción, recurrimos a análisis que tenían en cuenta la logenia y analizaban diversos factores ecológicos. De estos anáanálisis se concluye que la fenología (en qué épocas del año una especie está presente), la amplitud de la distribución geográca y la abundancia abundancia local predicen bien el número de interacciones por especie. Por tanto, los patrones arquitectónicos de las redes mutualistas pueden explicarse mediante una combinación de factores, tanto históricos como contemporáneos. En resumen, las interacciones mutualistas desarrolladas en la naturaleza tejen redes complejas caracterizadas por una topolo-
s o d o n e d o r e m ú N
s o d o n e d o r e m ú N
Número de enlaces
Número de enlaces
REDES HOMOGÉNEAS Y REDES HETEROGÉNEAS: A la izquierda se muestra la red de carreteras en el este de EE.UU. a nales del siglo XIX. A la derecha, las conexiones entre aeropuertos en Brasil servidas por la aerolínea Varig. La distribución del número de conexiones por nodo es muy diferente entre ellas. La red de carreteras ilustra un patrón aleatorio de enlaces entre nodos: la mayoría de las poblaciones cuenta con un número similar de conexiones, las cuales siguen una distribución acampanada en torno a un valor medio. En cambio, la red de vuelos no tiene un número medio de enlaces característico: existen nodos muy conectados (los grandes aeropuertos) y otros con muy pocas conexiones, las cuales casi siempre son a aeropuertos grandes. Aquí la distribución de enlaces por nodo es muy heterogénea, caracterizada por «colas gruesas» (la probabilidad de que haya nodos con un gran número de enlaces no disminuye muy deprisa). Muchas redes complejas, incluidas las redes mutualistas, Internet y las redes de regulación génica, siguen este patrón heterogéneo.
68 TEMAS 95
O N A D R O J O R D E P Y E T P M O C S A B I D R O J
LAS REDES MUTUALISTAS son muy heterogéneas (la mayoría de las especies interaccionan con otras pocas, pero existen algunas muy conectadas), encajadas encajadas (los especialistas interaccionan con subconjuntos bien denidos de las especies que interaccionan interaccionan con los generalistas) generalistas) y con dependencias débiles y asimétricas (si una planta depende depende mucho de un animal, el animal apenas dependerá dependerá de esa planta).
O N A D R O J O R D E P Y E T P M O C S A B I D R O J
gía bien denida y universal. Se trata de redes muy heterogéneas, cohesionadas y basadas en dependencias débiles y asimétricas entre especies. Con independencia del tipo de mutualismo estudiado (polinización o dispersión de las semillas), de la localidad geográca, de las especies componentes y de otras variaciones, todas las redes presentan un patrón común. Estos patrones de red desempeñan un papel muy importante para la persistencia de las especies y, por tanto, construyen la arquitectura de la biodiversidad. Estos resultados ilustran las relaciones entre la estructura y la robustez de estas redes compleja s, y pueden ser a la vez de interés para cientícos que trabajan con otros tipos de redes. Por ejemplo, en una reunión de expertos organizada por la Reserva Federal de Nueva York con el objetivo de evaluar la estabilidad de la red de préstamos entre bancos de EE.UU., se discutieron los patrones de las redes mutualistas y se buscaron sus equivalentes en la red económica. Esto resalta la naturaleza interdisciplinar de estos estudios. La arquitectura no puede descomponerse en el estudio de pares de especies, como tampoco podemos entender el desarrollo embrionario estudiando solo genes aislados. Entender la organización de estas interacciones como redes complejas de interdependencia, en lugar de limitarse a pares aislados de especies, puede ayudarnos a comprender con mayor profundidad las condiciones por las que se sustenta la vida. A menudo equiparamos biodiversidad al número de especies que existe en un ecosistema. Pero existe otro componente de igual relevancia: la forma en que interaccionan las especies implicadas. implicadas. La desaparición de las interacciones resulta tan per judicial y presenta efectos de tan largo alcance, comenta Daniel H. Janzen, de la Universidad de Pennsylvania, como la extinción de las especies. Si lo que otorga a una escultura móvil de Alexander Calder su sensación de ingravidez característica es la forma en que los elementos componentes se hallan interrelacionados,
aquí las interacciones entre plantas y animales adquieren una arquitectura bien denida, un estilo particular inconfundible que inuye en la persistencia de una comunidad biológica sujeta a perturbaciones. Artículo publicado publicado en Investigación y Ciencia , septiembre septiembre de 2008 2008
LOS AUTORES
Jordi Bas compte y compte y Pedro Jordano han Jordano han destacado por sus estudios sobre biodiversidad y sobre interacciones entre especies en el contexto de la teoría de redes complejas. Bascompte es en la actualidad catedrático de ecología de la Universidad de Zúrich. Jordano es profesor de investigación en la Estación Biológica de Doñana. PARA SABER MÁS
Invariant properties in coevolutionary networks of plant-animal interactions. Pedro interactions. Pedro Jordano et al. en Ecology Letters, vol. 6, págs. 69-81, enero de 2003. The nested assembly of plant-animal mutualistic networks. Jordi networks. Jordi Bascompte et al. en Proceedings of the National Academy of Sciences , vol. 100, págs. 9383-9387, agosto de 2003. The geographic mosaic of coevolution. John coevolution. John N. Thompson. Chicago University Press, 2005. Asymme tric coevo lutiona ry net works f acilita te biodi versit y maintenance. Jordi maintenance. Jordi Bascompte et al. en Science , vol. 312, págs. 431-433, abril de 2006. Specia lizatio n and gener alizati on in plant-po llinator in terac tions . Dirigido por Nicolas Waser y Je. Ollerton. University of Chicago Press, 2006. Plant-animal Plant-animal mutualistic networks: The architecture of biodiversity. Jordi biodiversity. Jordi Bascompte y Pedro Jordano en Annual Review of Ecolo gy, Evolution and Systematics , vol. 38, págs. 567-593, 2007.
C 69
FENÓMENOS EMERGENTES
Cuando las neuronas sincronizan sus relojes La sincronización sincronización neuronal representa uno de los mejores ejemplos ejemplos de coordinación temporal del tejido tejido nervioso. También También ilustra la necesidad de nuevos métodos para entender el funcionamiento del cerebro Raúl Vicente Vicente y Claudio R. Mirasso
N
funciones corporales básicas para la vida hasta los actos cognitivos mas complejos y abstractos: deseos, miedos, ideas... Sin em bargo, nuestro conocimiento sobre la manera en que el cerebro lle va a cabo sus funciones progresa con cierta lentitud. ¿Seremos algún día capaces de entender su funcionamiento? Como veremos a lo largo del artículo, el encéfalo comparte ciertas propiedades con un conjunto más amplio de sistemas. Su estudio puede ofrecer estrategias que permitan entender cómo de la actividad eléctrica de millones de neuronas pueden emerger los actos mentales. Existen programas ambiciosos que tratan de solventar dicha situación. El Proyecto Blue Brain, dirigido por Henry Markram, de la Escuela Politécnica Federal de Lausana, ha incorporado cuantiosos datos en un modelo de columna cortical (módulo básico de la corteza cerebral) con la mayor delidad biológica alcanzable hoy en día. No obstante, si bien se trata de un gran avance, la recreación de una parte del cerebro en un ordenador no resolverá numerosas cuestiones sobre su funcionamiento y sus propiedades a una escala global. Dadas ciertas característicaracterísticas del encéfalo, resulta improbable que el conocimiento de las propiedades de los elementos que forman el sistema nervioso conduzca de manera directa a entender cómo estos se alían para generar las propiedades del sistema global. En otras palabras, mientras que el estudio de unas cuantas células del hígado o del riñón puede llevar a inferir las funciones del órgano en cuestión, las intrincadas interacciones entre neuronas dotan al cerebro de propiedades y capacidades que no pueden deducirse a partir
de las características individuales de esas células nerviosas ni de sus interacciones más elementales. La estrategia reduccionista de aislar las partes que componen un sistema para su estudio, aunque exitosa en otros campos, debe complementarse con herramientas nuevas que expliquen cómo los elementos de un sistema se autoorganizan y originan las propiedades emergentes. De estas y otras cuestiones relacionadas se ocupa la ciencia de los sistemas complejos, que encuentra en el cerebro uno de sus ejemplos más representativos.
UN SISTEM A COMPLEJO ADAPTATIVO ADAPTATIVO Los sistemas complejos tienen la capacidad de generar comportamientos organizados a partir de agentes o elementos que siguen reglas relativamente simples y que actúan de forma descentralizada; es decir, sin que ningún agente maestro dirija de forma predeterminada la actividad del resto. Es conveniente recordar aquí que todo sistema biológico es abierto (intercambia materia y energía con el exterior), y que se encuentra alejado del equilibrio termodinámico gracias a la presencia de gradientes energéticos, por lo que la emergencia tem poral de organización y complejidad en seres vivos resulta compatible con la segunda segunda ley de la termodinámica. Los sistemas complejos pueden ser de origen muy diverso: desde una colonia de hormigas (la h ormiga reina se dedica casi en exclusiva a producir nuevas hormigas, no a dirigirlas), hasta el sistema inmunitario, pasando por los huracanes o los ecosistemas. La mayoría de ellos suelen compartir unas características comunes, entre las que destaca el hecho de estar compuestos por un elevado número de elementos que interaccionan entre
) l e b a s I n á c a r u h
( A S A N ; )
s a g i m r o h (
EN SÍNTESIS
El cerebro comparte con otros sistemas de la naturaleza la capacidad de autoorganizarse y dar lugar a comportamientos emergentes.
70 T EMAS 95
El estudio de los sistemas complejos adaptativos puede ayudar a comprender mejor la manera en que el cerebro representa y procesa la información.
La sincronización neuronal ejemplica cómo un proceso dinádiná mico y exible puede modular la respuesta neuronal, con im portantes consecuencias para la percepción, la memoria o el comportamiento.
N A T G N E M G N U H / K C O T S I
SISTEMAS COMPLEJOS Y AUTOORGANIZACIÓN: Los sistemas complejos se hallan formados por un gran número de elementos simples que interaccionan entre sí de forma local, no centralizada. Sin embargo, ello puede dar lugar a procesos de organización a escala global. Algunos ejemplos son las colonias de insectos, el clima, el tráco rodado o el sistema nervioso.
C 71
tiva o global que complemente el estricto punto de vista reduccionista. Un paso intermedio en este intento corresponde a la integración de la información que se recoge del cerebro cuando se analiza a escalas espaciales y temporales distintas. En este contexto, el fenómeno de la sincronización neuronal es un buen ejemplo de cómo una propiedad colectiva y emergente, en este caso un patrón temporal de actividad autoorganizado, puede tener consecuencias importantes en el funcionamiento del sistema nervioso.
COMUNICACIÓN NEURONAL Y SINCRONIZACIÓN
INTERACCIONES NEURONALES: Las interacciones básicas entre neuronas pueden reproducirse a través de simulaciones por ordenador. La aparición de una actividad descentralizada pero coordinada es característica de muchos otros sistemas complejos.
sí a través de una intrincada topología (muchas veces exible y su jeta a m odicac iones) y de forma no lineal, es decir, la s interacciones no obedecen al principio de proporcionalidad (un estímulo el doble de intenso no tiene por qué generar una respuesta el doble de vigorosa). También nuestro sistema nervioso, como sistema complejo que es, presenta estas y otras propiedades esenciales. esenciales. Ello le permite adquirir la capacidad de autoorganizarse y dar origen a sus propiedades emergentes. Estas suelen ilustrarse como un cierto orden o patrón autoorganizado de actividad, visible cuando se mira al sistema desde una perspectiva global, pero que no es reducible o predecible a partir de sus interacciones fundamentales. Se trata, pues, del surgimiento de un nuevo nivel de organización que incluye toda una variedad de procesos globales, con características cualitativas distintas de las de los elementos que forman el sustrato. Por ello, es probable que múltiples estados mentales o conductas que genera nuestro cerebro constituyan, al igual que ocurre en otros sistemas complejos, procesos emergentes; es decir, que resultan de la acción coordinada entre elementos que cooperan de forma inconsciente desde un nivel más bajo para producir de f orma espontánea un cierto orden o coherencia en un nivel superior. Las ideas, los conceptos y las herramientas que se están desarrollando para el estudio de los sistemas complejos y sus propiedades emergentes pueden aportar la clave que facilite parte de la explicación de cómo comportamientos complejos, coordinados y adaptativos pueden aparecer en sistemas tan distribuidos y descentralizados como el sistema nervioso. Es por ello por lo que una mejor comprensión de la aparición de fenómenos emergentes en otros sistemas complejos nos ayudará a entender cómo la interacción entre millones de neuronas puede dar lugar a funciones cognitivas de alto nivel y, quizás, a la consciencia. Gracias en parte a estas ideas, se reconoce la necesidad de analizar el encéfalo desde una perspectiva colec-
72 T EMAS 95
El cerebro, lejos de ser una amalgama uniforme de células ner viosas, muestra un alt o grado de esp ecialización anatómica y funcional. Sus áreas se encargan de ejecutar tareas especícas. El cerebro necesita, pues, poseer mecanismos que posibiliten la comunicación y la combinación ecaz de la información procesada por redes neuronales que se encuentran segregadas espacialmente. Una solución posible sería la existencia de bras nerviosas que, originadas en los subsistemas, convergieran en una misma región cerebral que evaluase de forma simultánea los resultados de las operaciones y los combinase de manera apropiada. Si bien la convergencia anatómica hacia ciertas regiones jer árqui came nte supe riore s es un hec ho bien corr obora do, hay serias dicultades para que este mecanismo explique por sí solo la fenomenología existente. Un voluminoso cuerpo de resultados indica que el sistema nervioso utiliza otras estrategias para coordinar la comunicación entre diversas áreas o conjuntos de neuronas. Una de las hipótesis más populares en esta dirección es la sincronización neuronal: la descarga eléctrica más o menos simultánea de dos o más neuronas. Dicha teoría propone la formación temporal de grupos de neuronas sincronizados entre sí como el proceso subyacente a la com binación o integraci ón de la dinámica local de las redes pa rticipantes. La clave reside en que, dependiendo de si un grupo de neuronas se halla sincronizado sincronizado o no, estas pueden afectar de manera diferente las posteriores etapas de procesamiento neuronal. Tal Tal efecto se basa en que la llegada simultánea (en sincronía) de una serie de impulsos eléctricos a una neurona induce una respuesta mayor que cuando los impulsos llegan de forma dispersa en el tiempo (asíncrona). Así, el control o modulación de la sincronización resulta en una manera e fectiva de comunicación neuronal. La teoría de la sincronización neuronal es hoy en día más amplia y general que la descripción básica que hemos dado aquí. Su importancia estriba en que supuso un cambio de paradigma: a un proceso dinámico y autoorganizado como es la sincronía, se le asigna una función neuronal concreta y relevante. Con todo, perduran en la actualidad preguntas abiertas en el campo de la sincronización y coordinación neuronal. A pesar pesar de de que que se ha observado observado en pruebas pruebas experimentales la sincronización entre neuronas que pertenecen a áreas cerebrales remotas, surge la cuestión de cómo grupos de células nerviosas distantes entre sí y que necesitan decenas de milisegundos para comunicarse (una cantidad nada despreciable cuando ha blamos de dinámica neurona l) pueden alcanzar u n estado de sincronización y acabar emitiendo impulsos eléctricos de forma simultánea. Los mecanismos neuronales necesarios para que se produzca este curioso efecto siguen siendo un tema candente de investigación. A continuación exponemos una parte de nuestro trabajo que aborda dicha temática. Dado el carácter teórico de nuestros resultados, será conveniente introducir de forma breve
V O R O H K O R P Y E R D N A / O T O H P K C O T S I ©
la idea del modelado matemático de la actividad neuronal para después retomar la cuestión de la sincronización simultánea desde otra perspectiva.
MODELOS DE LA ACTIVIDAD NEURONAL Para estudiar la actividad cerebral se han desarrollado diferentes técnicas experimentales, cada una de las cuales observa el cerebro a una determinada escala. Las técnicas basadas en resonancia magnética nuclear son muy populares, puesto que permiten el barrido casi completo del volumen cerebral con una alta resolución espacial. Sin embargo, en su versión de resonancia magnética funcional ofrece una precisión temporal muy pobre, lo que mengua su valor para el estudio de procesos en los que la dinámica neuronal rápida sea de interés. En el otro extremo se encuentran métodos basados en electrosiología, con una gran precisión temporal pero, en general, limitados: o bien se «escucha» solo un pequeño número de células cercanas a algún electrodo intracraneal, o bien se capta la actividad neuronal desde el cuero cabelludo, con la consecuente pérdida de detalle espacial, como ocurre en las aplicaciones más estándares de electroencefalografía o magnetoencefalografía. En la actualidad no existe la técnica perfecta que combine una alta resolución espacial y temporal y que abarque una región considerable del cerebro. Por ello, la construcción de modelos matemáticos puede ayudar a complementar las medidas experimentales en al menos dos sentidos. Primero, permite sintetizar en un marco conceptual simplicado el gran volumen de datos que se obtienen a partir de las técnicas experimentales, un paso
O G E I D N A S , A I N R O F I L A C E D D A D I S R E V I N U , S O C I L O C . A L E A H C I M
que resulta esencial a la hora de discernir entre varias hipótesis y guiar hacia predicciones especícas comprobables en nuevos experimentos. En segundo lugar, facilita la realización de experimentos teóricos o simulaciones por ordenador que serían difíciles de ejecutar en un laboratorio: en un modelo matemático pueden variarse parámetros o explorar con gran detalle varia bles difíciles de controlar en experimentos reales con el n de entender su función dentro del sistema. Los modelos matemáticos y computacionales representan, con mayor o menor nivel de detalle, la evolución temporal de la variable dinámica que deseamos investigar. A nivel celular, la mayoría de los modelos neurosiológicos se centran en estudiar la diferencia de voltaje que se establece a través de la membrana de la neurona (potencial de membrana) en función del mo vimiento de cargas eléctricas (corrientes iónicas) que circulan entre el exterior y el interior de la célula nerviosa. Un modelo matemático que cuenta con gran aceptación en la comunidad neurocientíca es el de Alan Lloyd Hodgkin y Andrew Huxley (m odelo de HH), por el que ambos au tores fueron galardonados con el premio Nobel de Fisiología en 1963. Este modelo, que consta de varias ecuaciones diferenciales no lineales acopladas entre sí, supuso una de las primeras explicaciones cuantitativas de los mecanismos implicados en la generación de potenciales de acción (breves pulsos eléctricos que la mayoría de las neuronas usan como moneda de información). La ecuación más relevante del modelo describe la evolución temporal del potencial de membrana en términos de tres corrientes iónicas: potasio, sodio y una tercera
IMPULSOS SIMULTÁNEOS: Una neurona del hipocampo recibe, a través de sus dendritas, numerosos impulsos provenientes de otras células nerviosas. La probabilidad de que la neurona acabe originando un pulso ella misma depende, entre otros factores, de la simultaneidad con que los impulsos lleguen a cierta región de su soma.
C 73
CLAVES DEL COMPORTAMIENTO E MERGENTE
El cerebro, un sistema complejo El sistema nervioso presenta las propiedades típicas de los siste-
tra genética. Durante el desarrollo, los genes que heredamos guían qué zona del cerebro va a estar conectada con qué otra y qué clase de neuronas ocuparán las distintas áreas. Ello perpermite que los miembros de una misma especie compart an una serie de capacidades y comportamientos generales, ya que poseen una estructura cerebral similar. similar. Sin embargo, esto es solo el plan general: el detalle no de las con exiones neuroneuronales se modica de forma constante gracias a la experiencia individual con el mundo exterior. De esta manera, la actividad cerebral inducida por los estímulos del entorno —entre ellos, las interacciones personales— fomenta la creaci ón de nuevos enlaces neuronales y la degradación de antiguas conexiones . Esa «plasticidad» de las redes neuronales constituye la base de propiedades que permiten que eventos de la vida dejen su huella en un cerebro dinámico y exible.
mas complejos. A continuación se detallan algunas. •
Un número elevado de componentes. Unos 100.000 millones de neuronas de formas y tamaños variados forman parte del cerebro humano. Para apreciar la magnitud de tal número, un dato útil: existen 15 veces más neuronas en nuestra cabeza que seres humanos en el planeta.
•
Una intrincada red de vecinos. El principal responsable de la compleja estructura del sistema nervioso es la peculiar morfología de las neuronas. Unas expansiones de su c uerpo celular les permiten establecer conexiones (sinapsis) con miles de otras neuronas y otras células. El número de enlaces entre neuronas en el cerebro humano se estima que es del orden de 1015. Si bien las conexiones sinápticas siguen ciertos patrones de conectividad para formar circuitos neuronales especíespecícos, en general puede armarse que las redes neuronales son enmarañadas y complejas.
•
Una red fexible y dinámica. El plan general de la organización sináptica del cerebro parece determinado por nues-
que reúne varias corrientes de diversos orígenes (corriente de fuga). Para representar la interacción entre varias neuronas, el modelo suele complementarse con la incorporación incorporación del efecto de las corrientes sinápticas (corrientes originadas originadas por la llegada de impulsos provenientes de otras neuronas). Las corrientes iónicas pueden depender, a su vez, del estado del potencial de membrana. Si el potencial se halla por encima de un cierto valor umbral, los iones de sodio empezarán a uir a través de ciertos canales de la membrana; en caso contrario, los canales iónicos asociados resultarán menos permeables y apenas existirá circulación de carga. El modelo de HH (o versiones modicadas) se ha utiliza do en innidad de trabajos teóricos para explicar resultados experimentales. Desde el punto de vista computacional, quizá su mayor desventaja radica en que, debido a su complejidad, resulta lento de resolver. Por este motivo, cuando se trata de analizar el comportamiento de un conjunto grande de neuronas (digamos, más de 10.000) conectadas entre sí, suelen considerarse considerarse más ventajosos modelos que, aun dando cuenta solo de los rasgos cualitativos de la respuesta de la neurona, presentan una menor complejidad y, por tanto, son más ecientes y rápidos de simular a nivel computacional. Entre los más destacados por su sencillez y velocidad de cálculo se encuentra el modelo Integrate and Fire (I&F). Dicho método consta de una sola ecuación que describe la evolución temporal del voltaje a través de la membrana cuando este se encuentra por debajo del umbral de generación de un potencial de acción. Asume que cuando este potencial llega a dicho valor umbral (fenómeno por lo general causado por la acumulación temporal de potenciales sinápticos), la membrana generar á un potencial de acción cuyo efecto podrá propagarse a neuronas vecinas. Después de un corto tiempo, volverá a caer por debajo del valor umbral.
74 TEMAS 95
•
Retroalimentación. Numerosos circuitos neuronales forman bucles: la actividad en una zona del cerebro, una vez procesada y transmitida a otras áreas , puede volver a afectar a la zona de partida. En términos generales, esta característica puede desempeñar distintas funciones. Una de las más importantes es que los bucles proporcionan la posibilidad de
Ya Ya que el modelo I&F no describe describe la evolución dinámica dinámica del pulso por encima del umbral, y dado que la apertura de varios canales iónicos a través de la membrana se produce en general cuando el potencial cruza dicho umbral, no implica ecuaciones adicionales para las corrientes iónicas. Gracias a su menor complejidad, dicho modelo puede simular un gran número de neuronas en un tiempo razonable, lo que permite explorar de forma más efectiva la riqueza dinámica de la población neuronal en su conjunto.
SINCRONIZACIÓN BASADA EN EL RELEVO Como ya exponíamos, un problema fascinante al que todavía no se ha encontrado una explicación satisfactoria satisfactoria es el de la aparición, durante ciertas tareas cognitivas, de una actividad neuronal sincronizada y simultánea en regiones corticales separadas. Al respecto, hemos propuesto un mecanismo sencillo capaz de inducir dicha sincronización. La idea básica puede resumirse de la siguiente manera. La conexión directa y recíproca entre dos grupos remotos de neuronas, a pesar de representar posiblemente la topología más efectiva de comunicación, no suele conducir a una sincronización simultánea entre ambas redes. Ello se debe a que el tiempo requerido para la propagación axonal de impulsos entre los dos grupos de neuronas tiende a desestabilizar cualquier estado en el que ambas poblaciones neuronales descarguen impulsos de forma simultánea. Por otra parte, un esquema donde una red neuronal gobierne unidireccionalmente la dinámica de otras dos poblaciones hará que estas últimas tiendan a sincronizarse, ya que recibirán las mismas «instrucciones». Esta última solución, sin embargo, no permite la comunicación entre los dos grupos de neuronas receptoras, puesto que estos solo responden a la actividad impuesta por una población externa y no son sensibles a ningún cambio que el otro grupo
autorregulación autorregulación de un proceso, de manera similar a como un termostato reajusta la temperatura de una habitación ante variacion es térmicas. Así pues, la estabilidad y adaptabilidad de múltiples procesos controlados por el cerebro dependen de este tipo de circuitos. •
Interacciones no lineales. La interacción entre los constituyentes básicos (las neuronas) suele ser, como en el resto de los sistemas complejos, de carácter no lineal. En otras palabras, aunque se conozca la respuesta de una red neuronal ante una serie estímulos o señales por separado, no puede predecirse con fa cilidad cómo lo hará cuando varios de esos estímulos actúen de forma simultánea. Típicamente, la respuesta consistirá en algo más complejo que la simple suma de las respuestas individuales.
Red de neuronas corticales: Dibujos corticales: Dibujos de Ramón y Cajal de neuronas corticales humanas distribuidas en láminas.
9 9 8 1 , L A J A C Y N Ó M A R O G A I T N A S , » O N A M U H O R B E R E C L E D S E L A I R O S N E S S A E R Á S A L E D O V I T A R A P M O C O I D U T S E « : E D / S N O M M O C A I D E M I K I W
de neuronas receptoras pueda sufrir. Las dos conguraciones ofrecen por separado comunicación o sincronización, pero no ambas a la vez. ¿Es posible unicar de alguna manera estas dos propiedades tan deseables bajo un único esquema? Como mostraremos a continuación, si dos poblaciones neuronales interactúan bidireccionalmente a través de una población intermedia, ambas propiedades podrían ser compatibles. Una perturbación a una de las poblaciones se propagará al resto (comunicación), a la vez que las dos poblaciones acopladas de manera indirecta tenderán a exhibir una actividad simultánea (sincronización) gracias a la dinámica de la población intermedia. Para vericar tal propuesta, simulamos computacionalcomputacionalmente tres poblaciones o áreas neuronales y observamos qué ocurría al acoplarlas de distintas maneras. Cada una de las poblaciones estaba compuesta por unas 4000 neuronas descritas por el modelo de I&F. Con el n de imitar en lo posible la composición de las áreas de la corteza cerebral, el 80 por ciento de esas neuronas se eligieron como excitatorias (su activación tiende a generar más actividad en las neuronas que contacta); el 20 por ciento restante, como inhibitorias (realizan justo lo contrario). Dentro de cada población, cada neurona se conectó con unas 400 de su alrededor y con unas 40 de otra población. Así, existían dos tipos de enlaces: los de corta distancia (conectaban neuronas de la misma población) y los de largo al cance (un ían neuro nas de distin tas área s). La lejanía entre las poblaciones se simuló haciendo que los impulsos generados por una neurona tardaran unos 8 mili segundos en propagarse a otra población, tiempo mucho mayor que el que supusimos que tarda el mismo impulso en alcanzar células nerviosas de su misma población (en este caso, caso, solo 1 milisegundo). Tal Tal y como mostraron los datos, nuestra hipótesis se vio corr oborada .
CIRCUITOS TÁLAMO-CORTICALES Nuestra simulación presenta, pues, un mecanismo que, gracias a una población intermedia, puede originar una actividad coherente y simultánea entre dos poblaciones de neuronas muy separadas entre sí. Los resultados sugieren que la presencia en circuitos neuronales de la «conectividad por relevo», o indirecta, podría contribuir a la integración a gran escala de información procesada en distintas regiones. La discusión recogida hasta ahora se basa en modelos matemáticos que, aunque cualitativamente pueden dar una descripción del comportamiento neuronal, no dejan de ser una versión simplicada e idealizada de un sistema real. La pregunta inmeinmediata que surge es: ¿existen en el cerebro estructuras en las que el patrón de conectividad que hemos estudiado sea relevante? Dentro de la compleja red del cerebro destaca la asociación bidireccional y radial que e l tálamo posee con la corteza cere bral. Diversos autores, incluyendo al n eurocientíco Rodolfo Llinás, de la Universidad de Nueva York, han señalado que el acoplamiento recíproco de áreas corticales distintas con núcleos talámicos diferentes podría constituir la base del procesamiento procesamiento cortical distribuido, incluso de la emergencia de la conciencia. Importante para nuestro propósito es que ciertos núcleos talámicos proporcionan un puente para la comunicación entre áreas corticales, formando una conguración similar a la propuesta antes para la sincronización por relevo. A través través de la experimentación se ha comprobado la función que desempeñan los circuitos tálamo-corticales para mantener la sincronía a larga distancia. También se ha observado que ciertas lesiones del tálamo (la hipotética población intermedia en nuestro esquema) pueden destruir la cohe rencia o sincronía entre áreas corticales, dejando invariantes otros aspectos de la dinámica neuronal. Cabe mencionar que uno de los requisitos más importantes para que el modelo matemático exhiba sincro-
C 75
MECANISMOS DE AUTOORGANIZACIÓN
El origen de la sincronización neuronal A pesar de estar formado por miles de millones de neuronas independientes, el cerebro funciona como un todo cohesionado, una propiedad característica de los sistemas complejos. Una de las hipótesis más populares para explicar la coordinación entre partes del cerebro es la sincronización neuronal: la c apacidad de dos grupos distantes de neuronas de ac tivarse al unísono. ¿Cómo surge esa sincronización?
Vía directa: ausencia de sincronización
La conexión directa y recíproca entre dos grupos remotos de neuronas no suele conducir a una sincronización sincronización simultánea. Dadas tres poblaciones de neuronas, dos de ellas conectadas entre sí y una aislada ( a), las grácas inferiores ( b) representan en el eje vertical 100 neuronas escogidas al azar de cada población. Cada punto en la gráca marca el momento en que la neurona correspondiente genera un impulso. Si todas las células disparasen a la vez en una población, deberíamos observar líneas verticales más o menos rectas. Puede apreciarse que, a pesar de que las neuronas de una misma población se hallan sincronizadas entre sí, la activi-
dad de las neuronas de las poblaciones conectadas (1 y 3) no guardan una relación de sincronía (las franjas de las distintas poblaciones no se encuentran bien alineadas). Ello se reeja en la simultaneidad (correlación) (correlación) de los impulsos neuronales en dos poblac poblacione ioness (c). El valor en el origen de esta gráca es bajo, lo que indica que la mayoría de los impulsos no ocurren de forma simultánea entre ambas poblaciones. La lejanía entre los grupos de neuronas y el tiempo necesario para que los potenciales de acción de una viajen por los axones hasta llegar a la otra provocan que, en este tipo de conexión, las áreas neuronales no consigan sincronizarse. c Correlogramas de los disparos neuronales de las poblaciones 1 y 3
b Disparos neuronales a Población intermedia desconectada 3
1
2
3 n ó i c a l b o P 2 n ó i c a l b o P 1 n ó i c a l b o P0
s 10 a i c o n e d n d i u c g n e i s o c r 5 e o p d ) 3 o r e y 1 ( m ú 0 N
10 0
200
300
4 00
500
Tiempo (milisegundos)
–80 – 40 0 40 80 Desplazamientos (milisegundos)
Vía indirecta: sincronizac sincronización ión eficiente
¿Qué ocurre cuando una tercera población media la a) En un inicio, las neuronas de cada poblaconexión? ( a ción emiten pulsos a tiempos distintos. Sin embargo, con el transcurso del tiempo la interacción entre ellas permite que las poblaciones conectadas de manera indirecta (1 y 3) se autoorganicen y acaben pulsando al unísono. Dicha transición es rápida y robusta. No importa en qué estado comenzaran las neuronas: una vez conectadas, tras unos cientos de milisegundos llegan al estado de sincronía (b). Aunque los im pulsos no son s on exact amente simult áneos, las la s franjas estrechas y bien alineadas entre las neuronas de las poblaciones 1 y 3 indican que la mayoría de las ellas descar-
a Comunicación a través de una población intermedia
1
2
3
3 n ó i c a l b o P 2 n ó i c a l b o P 1 n ó i c a l b o P
0
gan impulsos en un corto intervalo de tiempo. En consecuencia, las grácas de correlación ( c) muestran un máximo en el origen. También se observa que este patrón se repite con una periodicidad de unos 30 milisegundos, valor valor cercano al período de oscilación natural de la población (el que hubiera existido sin la interacción entre poblaciones). Ello indica que el grado de sincronización sincronización entre poblaciones puede variar con independencia de la frecuencia de oscilación, otra de las variable s más impor tantes de l a dinámica neuronal. n euronal. L a presencia de una población de «relevo», o enlace, entre los dos grupos demuestra que la comunicación y la sincronización a distancia no son resultados incompatibles.
b Disparos neuronales
10 0
200
300
400
Tiempo (milisegundos)
76 TEMAS 95
c Correlogramas de los disparos neuronales de las poblaciones 1 y 3
500
s 10 a i c o n d e n d i u c g n e i o s c r 5 e o p d ) o 3 r y e 1 m ( ú 0 N
–80 – 40 0 40 80 Desplazamientos (milisegundos)
MEDIADOR DE LA COMUNICACIÓN: En este corte coronal del cerebro ( derecha) se destacan el tálamo y las conexiones bidireccionales bidireccionales de algunos de sus núcleos con la corteza. La geometría básica de estas conexiones sugiere que ciertos núcleos talámicos ejercen de puente para la comunicación entre distintas zonas corticales. Ello podría explicar la sincronización neuronal en estas últimas.
Corteza
Corte coronal Tálamo
nización simultánea es que la población intermedia se encuentre equidistante de las poblaciones que queremos sincronizar. En principio, esto no sería posible en el sistema tálamo-cortical, puesto que las diversas áreas corticales se encuentran a diferente distancia del tálamo. Sin embargo, se ha demostrado que el tiempo que tarda un impulso en viajar desde el tálamo a áreas corticales distintas es casi el mismo, con independencia de la distancia que vaya a recorrer. ¿Cómo es posible? La evolución se ha preocupado de dotar a los axones (a aquellos más largos) de una mayor mielinización, que les permite propagar impulsos de forma más rápida, de manera que compensa la mayor separación. A n de cuentas, el tálamo sí se encuentra temporalmente equidistante de la mayor parte de la corteza, por lo que resulta ideal para mediar en su comunicación y su sincronización.
SINCRONIZACIÓN, COMUNICACIÓN E INTEGRACIÓN
5 . 2 Y B C C / L A E B . A N H O J / S N O M M O C A I D E M K I W
En resumen, el cerebro pertenece a una clase de sistemas, los sistemas complejos y adaptativos, con los que comparte la capacidad de mostrar propiedades emergentes y adaptarse al entorno. La sincronización neuronal constituye una de estas propiedades de gran importancia para la comunicación e integración de información procesada en redes neuronales distantes. Tal combinación resulta un requisito clave para compensar la especialización funcional del cerebro y dar lugar a una percepción coherente. A pesar de que el estudio de los sistemas comple jos en general se encuentra todavía en su infancia, su inuencia deja sentirse cada vez más en diferentes áreas de investigación. La neurociencia no es una excepción: aumentan los laboratorios que apuestan por adoptar una perspectiva interdisciplinar y glo bal estudio estudio del cerebro. cerebro. A causa causa de de la estructura y funcionalidad funcionalidad exible, distribuida y descentralizada del sistema nervioso, sería extraño que una propuesta puramente reduccionista resultase satisfactoria sin la ayuda de ideas provenientes del estudio de sistemas complejos, o, más en concreto, de la biología de sis-
temas. Dicha disciplina se preocupa de recuperar una visión holística de los organismos, tratando de integrar información e interrelaciones a niveles fundamentales dentro de un enfoque global para considerar un sistema biológico como un todo, y no como una simple mezcolanza de estructuras o mecanismos encadenados. Abordar Abordar un problema desde diversos diversos puntos de vista suele ser altamente benecioso, y si la ciencia no lineal y la de los sistemas complejos están ayudando a que esto ocurra en neurociencia, su contribución habrá sido enorme. En todo caso, parece que la gran pregunta seguirá abierta por mucho tiempo. Artículo Artículo publicado publicado en Mente y Cerebro , marzo marzo de 2012 2012
LOS AUTORES
Raúl Vicente investiga Vicente investiga en el Instituto de Ciencias de la Computación de la Mirasso es catedrático de física e Universidad de Tartu, en Estonia. Claudio R. Mirasso es investigador en el Instituto de Física Interdisciplinar y Sistemas Complejos de la Universidad de las Islas Baleares. PARA SABER MÁS
Synaptic s elf. Joseph elf. Joseph LeDoux. Penguin Books, 2003. La termodinámica de la vida. Eric vida. Eric D. Schneider y Dorian Sagan. Tusquets Editores, 2008. Dynamical relaying can yield zero time lag neuronal synchrony despite long conduction delays. Raúl delays. Raúl Vicente et al. en PNAS , vol. 105, págs. 17.157-17.162, noviembre de 2008. Dynamic control for synchronization of separated cortic al areas through thalamic relay. Leonardo L. Gollo, Claudio R . Mirasso y Alessandro E. P. Villa en Neuroimage , vol. 52, págs. 947-955, 947-955, septiembre de 2010. Theta band zero-lag long-range cortical synchronization via hippocampal dynamical relaying. Leonard L. Gollo, et al. en PLOS ONE , vol. 6, e17756, marzo de 2011. Cognitive and perceptual functions of the visual thalamus. Yuri thalamus. Yuri B. Saalmann y Sabine Kas tner en Neuron , vol. 71, págs. 209-223, julio de 2011.
C 77
FENÓMENOS EMERGENTES
Lenguaje, redes y evolución La teoría de redes y la �ísica de sistemas complejos aportan nuevas pistas sobre los orígenes y la evol evoluci ución ón del del lenguaje lenguaje Ricard V. Solé, Bernat Corominas Murtra Murtra y Jordi Jordi Fortuny Fortuny
78 T EMAS 95
EL LENGUAJE HUMANO SE ESTRUCTURA EN MÚLTIPLES NIVELES. A partir de unas reglas de composición simples, los fonemas pueden combinarse en sílabas, estas en palabras y, gracias a la sintaxis, las palabras pueden formar oraciones de un poder expresivo ilimitado. Nuevas técnicas de análisis tradicionalme tradicionalmente nte asociadas a la matemática y la física están están ayudando ayudando a entender entender los orígenes de esta complejidad.
C 79
E
simbólico capaz de transmitir información compleja constituye un rasgo exclusivo de nuestra especie. Aunque ciertos animales parecen poseer algunos de sus elementos precursores, el nivel de desarrollo del lenguaje humano carece de émulo en el mundo natural. Tampoco Tampoco existe ninguna máquina que logre acercarse —aún— a sus extraordinarias cualidades. Para numerosos numerosos cientícos, fue la aparición del lenguaje lo que cambió para siempre nuestra manera de adaptarnos al mundo; gracias a él, habríamos dejado de ser una especie más para con vertirnos en una capaz de transformar el entorno. Pero ¿cómo tuvo lugar la transición desde el protolenguaje hacia el sistema comunicativo complejo y plenamente desarrollado con el que contamos hoy? ¿Qué elementos hicieron posible ese cambio? Como ha señalado el lingüista Derek Bickerton, Bickerton, el lenguaje no deja fósiles, por lo que para responder a tales preguntas nos vemos oblig ados a recurr ir a datos indirec tos. Así, al estud iar los cambios culturales relacionados con el arte o con la fabricación de herramientas a lo largo de la evolución humana, se observan transiciones que parecen obedecer a sucesivas mejoras en nuestras facultades cognitivas y —suponemos— comunicativas. El aumento del volumen del cerebro y de las zonas asociadas al habla ha permitido asimismo inferir posibles transiciones en el grado de complejidad del lenguaje. Durante los últimos años, también la genética ha comenzado a aportar elementos de análisis, como el descubrimiento del gen FoxP2, FoxP2 , cuya mutación causa trastornos en el habla. Su secuencia genética en los neandertales coincide con la nuestra, lo que sugiere que algunos de los aspectos clave del lenguaje ya se e ncontra ban pre sentes en aqu ella e specie. La existencia de tales indicios corrobora otra armación de Bickerton: «Nada ocurre en el mundo sin que deje una marca, por sutil e indirecta que esta sea». A lo largo de la historia, el análisis de esas marcas, su naturaleza y sus orígenes (genéticos, culturales, o ambos) ha dado lugar a grandes debates en el ám bito de de la lingüística. Estos, sin sin embargo, han permanecido casi siempre alejados de la ciencia empírica, basada en la validación de hipótesis y la propuesta de modelos teóricos. Esa situación ha comenzado a cambiar hace poco. Durante los últimos años, la lingüística ha visto nacer un programa de investigación interdisciplinar caracterizado por el empleo de herramientas tradicionalmente asociadas asociadas a la matemática y a la física estadística. Entre ellas destaca el análisis de los sistemas complejos y la forma en que estos experimentan transiciones bruscas entre sus niveles de organización. En f ísica, llamamos sistemas complejos a aquellos que, formados por un gran número de elementos, exhiben propiedades «emergentes». Estas se caracterizan por el hecho de que, aunque aparecen como
consecuencia de la interacción entre los componentes individuales del sistema, no pueden explicarse a partir de la simple «suma» de estos. El lenguaje humano pertenece a esta clase de sistemas. Al igual que un hormiguero no puede describirse como un simple agregado de insectos, tampoco el lenguaje se limita a la yuxtaposición de un conjunto de palabras. En una serie de trabajos recientes hemos abordado el estudio cuantitativo del lenguaje desde esta perspectiva sistémica. A pesar de que las lenguas del mundo exhiben diferencias notables en su léxico y gramática, todas ellas parecen compartir unos patrones de organización universales y leyes estadísticas comunes. El análisis de esas pautas genéricas nos ha permitido profundizar en varios aspectos relativos a los orígenes de la complejidad en el lenguaje, desde los mecanismos que rigen la adquisición de la sintaxis en el niño hasta la caracterización del lenguaje humano como un sistema de comunicación eciente, exible y con una capacidad informativa ilimitada.
EL MUNDO PEQUE ÑO DEL LENGUAJE HUMANO A la la hora hora de de abordar abordar el problema problema de la arquitectura arquitectura del lenguaje, un enfoque nuevo y prometedor se apoya en la teoría de redes, un campo que ha experimentado un desarrollo espectacular durante las últimas décadas. La idea esencial consiste en tratar las palabras como elementos básicos, determinar ciertas propiedades que permitan conectarlas y estudiar la estructura del entramado resultante. A modo de ejemplo, consideremos consideremos el conjunto de voces que denotan animales y llevemos a cabo el siguiente experimento: jaremos un límite de tiempo de algunos segundos y, durante ese intervalo, pronunciaremos los nombres de todos los animales que acudan a nuestra mente. Si el lector lo intenta, tal vez obtenga una lista como perro, gato, caballo, caballo, delfín, ballena, ballena, cachalote... cachalote... A medida que el tiempo se vaya a gotando, es probable que comiencen a aparecer animales menos comunes y que nos cueste más hallar nuevos ejemplos. En cualquier caso, lo que sí sucederá es que la secuencia generada estará lejos de resultar azarosa. Dos palabras contiguas casi siempre guardan algún tipo de relación, ya sea porque denotan animales de compañía, marinos, o tal vez porque pertenecen a alguna clase poco común en nuestra vida cotidiana, como reptiles o insectos. Para elaborar la lista, nuestro cerebro recurre a asociaciones con un claro sentido semántico: relaciona distintas propiedades (como tamaño, hábitat o familiaridad) y su evaluación en términos de semejanza determina la elección del siguiente animal. El experimento que acabamos de describir fue llevado a cabo en 2010 por investigadores de la Universidad de Navarra liderados por Joaquín Goñi y Pablo Villoslada, con la colaboración
EN SÍNTESIS
Durante los últimos años la lingüística ha visto nacer un programa de investigación caracterizado por el empleo de la teoría de redes, la física de sistemas complejos y la teoría de la información.
80 TEMAS 95
Esas herramientas han puesto de manifesto que, a pesar de sus didi ferencias, las distintas lenguas del mundo comparten ciertos patrones de organización universales y siguen leyes estadísticas comunes.
El estudio de la conectividad de las redes lingüísticas permite explicar numerosos fenómenos, como la polisemia (en apariencia inefciente, pues introduce ambigüedad) o la organización en categorías semánticas.
Investigaciones recientes sobre la emergencia de la sintaxis en el niño o sobre la capacidad informativa del lenguaje han permitido abordar de manera novedosa el problema de los orígenes del lenguaje.
O G A I T N A S H A B E S O I Y É L O S . V D R A C I R E D L A N I G I R O O Ñ
E S I D N Ú G E S ,
A I C N E I C Y N Ó I C A G I T S E V N I
: S E R O I R E T N A S A N I G Á P
REDES SEMÁNTICAS
Perro, gato, león, leó n, jirafa... El estudio cuantitativo de las propiedades emergentes del lenguaje se basa en la teoría de redes c omplejas. Para ello, se parte de un grupo de palabras, se consideran las relacio nes que existen entre ellas y se analizan las propiedades estadísticas del entramado resultante. El esquema reproducido aquí se basa en un experimento realizado en 2010 en el que se pidió a un grupo de participantes que enunciaran los nombres de todos los animales que acudían a su mente. El resultado simboliza una red de relaciones semánticas entre términos que denotan animales. En ella se aprecia la existencia de módulos (conjuntos de vocablos más relacionados entre sí que con el resto, grupos de colores) y de palabras
puente (aquellas que conectan varios módulos, nodos amarillos). Estas características facilitan enormemente la navegación por la red, lo cual supone una ventaja a la hora de realizar numerosas tareas cognitivas. Varios estudios han demostrado que las redes lingüísticas son redes sin escala. Estas se caracterizan por poseer un pequeño número de nodos mucho más conectados que el resto, lo cual permite llegar de un punto a otro con enorme rapidez. En las redes semánticas, estos «superconectores» serían las palabras muy polisémicas, lo que explicaría la razón de ser de este fenómeno universal (en apariencia ineciente, dada la ambigüeambigüedad que implica).
Animales domésticos domésti cos Perro
Animales marinos
Aves
Gato
Insectos Pez Pingüino
L A B R E V C I T N 1 A 1 M 0 E 2 S E M D O O R Y F A E C M , N 6 E 9 1 D I 3 V 8 E 1 : . Y S R G Á O G P E , T 2 A O . C N L , A 2 1 . M I L N O A V , E G H I T N F S S O E C N O O R I P T E A V Z I I I N T A N G G R O O C C N I T E . N L A A M T E E S I E Ñ H O T G . « J : E , T » Y N R E U O F E . S H E T R K O R T O U W A T S E O N L D E N D A A Y Í S C E T N R E O U L C F
Osos
Reptiles Zoo Cocodrilo
Primates Gorilas
Anfbios
Mono Orangután
Raros
Macaco Chimpancé
Tormenta de animales: Las relaciones de significado entre palabras pueden inferirse a partir de las listas de términos que un grupo de sujetos enuncia de manera espontánea, ya que dos palabras consecutivas siempre suelen guardar algún vínculo semántico. El tamaño relativo de los nodos simboliza la frecuencia con la que aparecen las diferentes palabras en las listas dadas por los probandos.
C 81
de uno de nosotros (Corominas Murtra). Al repetir la tarea con numerosos sujetos, fue posible obtener una lista cada vez mayor de palabras y trazar una red semántica a partir de las relaciones de signicado existentes entre ellas. La organización de la red reveló la presencia de módulos: agrupaciones cuyos elementos se encontraban más conectados entre sí que con el resto de la red. Estos se correspondían con conjuntos de animales clasicables como domésticos, de zoológico, insectos, reptiles o primates, entre otros. Esa estructura modular reeja con claridad una organización basada en categorías. Pero el experimento mostró algo más: la existencia de «animales puente», aquellos que permiten saltar, semánticamente hablando, de un módulo a otro. Ello introduce un componente muy útil en la red, puesto que contribuye a crear un entramado muy interconectado en el que puede navegarse con facilidad. Algunos de esos nodos puente resultaron ser animales peculiares (como cocodrilo, cocodrilo, que se percibe de igual modo como «reptil» y como «animal de zoo») o términos más genéricos, como mono o mono o pez pez . Aunque este tipo de categorización se observa en otros aspectos de la actividad cognitiva, en este caso puede construirse una cartografía que revela la organización de las categorías. Más allá de sus propiedades estructurales, ¿qué podemos aprender de tales redes? ¿Cuál es su signicado funcional? En el ámbito de la semántica, reviste gran interés la existencia de cierto tipo de ambigüedades aparentemente universales. Aunque en principio sería lógico esperar que cada una de las palabras de una lengua se diferenciase con claridad de cualquier otra, en todos los idiomas existen multitud de términos que poseen un mismo signicado, y viceversa: palabras que denotan a la vez varios referentes. Las primeras reciben el nombre nombre de sinónimos sinónimos;; las segundas son las palabras polisémicas. El fenómeno de la polisemia no deja de resultar sorprendente. A n de cuentas, el lenguaje constituye un sistema que tiende a favorecer una comunicación eciente, por lo que, en principio, debería evitar la ambigüedad. Así pues, ¿por qué todas las lenguas presentan polisemia? Si las palabras polisémicas solo supusieran un estorbo, la constante evolución que experimentan los idiomas (mucho más rápida que la genética) las habría eliminado. La respuesta a esta pregunta nos la proporciona, precisamente, la estructura de las redes semánticas. En 2002, los físicos argentinos Mariano Sigman y Guillermo Cecchi realizaron un descubrimiento clave a partir del estudio de una de las redes de asociación semántica más completas que existen: Wordnet. Este ambicioso proyecto fue iniciado en 1985 en la Universidad de Princeton por el lingüista George A. Miller. Entre otros objetivos, se proponía estudiar la manera en que los seres humanos adquieren y organizan el conocimiento. Sigman y Cecchi emplearon las herramientas de la teoría de redes complejas para llevar a cabo el primer estudio de largo alcance sobre la organización global de Wordnet. Si se nos presentan las palabras león y león y rayas, rayas, es muy posible que el vocablo tigre aparezca tigre aparezca como una forma de asociar ambos términos, en principio inconexos. Así, dadas dos palabras elegidas al azar, podemos plantearnos el juego de intentar conectarlas por medio de una cadena de vocablos intermedios. De esta manera surgirán caminos formados por palabras, cuya longitud podremos medir. Asimismo, los triángulos entre vocablos nos proporcionarán proporcionarán una idea del grado de asociación local entre conceptos: por ejemplo, luz y luz y noche se noche se relacionan con lámpara y también también entre sí, aunque de forma forma distinta distinta a como cada una de
82 TEMAS 95
ellas lo hace con lámpara. lámpara. No cabe duda de que las conexiones entre los diferentes nodos serán de distinta naturaleza; sin em bargo, siempre podremos podremos considerarlas considerarlas todas simultáneamente simultáneamente para obtener una imagen de la red como un todo organizado en capas. Al estudiar las propiedades de Wordnet, Sigman y Cecchi prestaron especial atención a un fenómeno muy peculiar: el «mundo pequeño». En 1998, los expertos en teoría de sistemas complejos Duncan Watts y Steven Strogatz publicaron un artículo de enorme inuencia que arrojaba luz sobre algunas obser vaciones realizadas unos decenios antes por varios sociólogos, en especial Stanley Milgram, acerca de la aparente cercanía social entre individuos. Para comprender el problema, imaginemos que cada una de las personas que componen una sociedad se corresponde con un nodo de una red. Si dos de ellas se conocen, diremos que están conectadas. De esta manera, podremos vernos a nosotros mismos como elementos de una gigantesca red social. Dados dos individuos, deniremos el grado de separación social entre ellos como el número mínimo de «saltos» «salto s» que debemos dar para llegar de uno a otro a t ravés de los nodos de la red. Si tomamos dos sujetos elegidos al azar, ¿a cuánto ascenderá su grado de separación promedio? A partir partir de una serie serie de experimentos sencillos basados en el intercambio de cartas postales, Milgram dedujo que la distancia social promedio entre dos habitantes de EE.UU. ascendía a unos seis grados. Por tanto, a pesar de la enorme cantidad de ha bitantes de un país (del orden de millones), todos nos encontramos mucho más próximos unos de otros de lo que el sentido común parece sugerir. Aparte de en las redes sociales, esta m isma propiedad se observa en un gran número de redes de otras clases, desde el genoma hasta los circuitos electrónicos. Este fenómeno, conocido con el nombre de mundo pequeño, resulta esencial para lograr un transporte eciente de información o de energía a lo largo de una red. Otra característica de las redes de mundo pequeño reside en que poseen un gran número de triángulos: dos elementos que se relacionan con un tercero suelen estar conectados también entre sí. La red semántica es también un mundo pequeño. Aunque el léxico analizado por Sigman y Cecchi incluía más de 66.000 palabras, la distancia promedio entre dos de ellas ascendía a tan solo siete grados. Además, la red mostraba un número de triángulos muy elevado. El primer resultado reeja la facilidad con la que puede navegarse por la red. La segunda propiedad favorece la libre asociación de conceptos. Pero Wordnet resultó ser algo más: una red «libre de escala». Este tipo de redes se caracterizan por poseer una gran cantidad de elementos con escasos vínculos y, al mismo tiempo, unos pocos nodos enormemente conectados. En 1999, AlbertLászló Barabási y Réka Albert publicaron uno de los artículos más inuyentes en el campo de las redes complejas, en el que demostraban que es justamente la presencia de tales superconectores lo que da lugar al fenómeno de mundo pequeño. Aunque al movernos por estas redes la mayoría de los nodos no nos permitan desplazarnos con rapidez, una vez que alcancemos un superconector dispondremos de una ingente cantidad de posibilidades, por lo que será fácil que a través de alguna de ellas lleguemos pronto a nuestro destino. Por otra parte, la pérdida de superconectores —aunque tan solo se trate de unos pocos— da lugar a una rápida desconexión de la red. En la red semántica, los superconectores resultaron ser las palabras polisémicas. Uno de los aspectos más interesantes del estudio de Sigman y Cecchi consistió en analizar el impacto de
los diccionarios de sinónimos y antónimos, han conrmado estas observaciones. observaciones.
eliminar dichas palabras, en apariencia poco deseables dada la ambigüedad que conllevan. Una vez e xtraídas, los investigadores calcularon las propiedades de la red resultante. Las consecuencias fueron enormes, pero negativas: la separación media entre palabras aumentó hasta los once grados y el número de triángulos se redujo en un factor de trescientos con respecto a la cantidad inicial. La polisemia conere una cohesión extraordinaria a la red semántica, puesto que facilita en gran medida tanto la navegación como la asociación local entre conceptos (medida por el número de triángulos). En lugar de introducir ineciencias, la ambigüedad facilita sobremanera los vínculos semánticos. Esta bien podría ser la razón por la que todos los idiomas del mundo presentan polisemia. A la hora de ejecutar multitud de tareas cognitivas, nos vemos obligados a navegar a través de un vasto universo de palabras y signicados en busca de relaciones entre ellos. ¿Y qué mejor que un mundo pequeño para encontrar aquello que buscamos? Estudios posteriores con otras redes lingüísticas, como las obtenidas a partir de
EL GRAN SALTO SALTO Así pues, la red semántica constituye un sistema organizado en categorías cuyos elementos se hallan interconectados de manera muy eciente. Sin embargo, el proceso mediante el cual crece dicha estructura y la forma en que esta se halla alm acenada en el cerebro representan preguntas aún abiertas. En este contexto, una cuestión relevante concierne a la manera en que los humanos manejamos ese nivel de comple jidad; en particu lar, al modo en que combinamos o asociamos palabras cuando hablamos. No en vano, uno de los atributos esenciales del lenguaje humano reside en su poder combinatorio. A partir de elementos simples y unas reglas básicas para componerlos, generamos otros más complejos: unimos fonemas para construir sílabas y agregamos estas para formar palabras, en una progresión que explota de manera exponencial cuando alcanzamos el nivel de las frases.
REDES Y ADQUISICIÓN DEL LE NGUAJE
Emergencia de la sintaxis Hacia los dos años de edad, los niños pasan de una fase conocida como etapa de las dos palabras (en la que solo combinan pares de vocablos de manera primitiva) a otra en la que ya pueden construir frases c ompletas. Sin embargo, no existe una «etapa de las tres palabras». ¿Cómo se produce esa transición? derecha allí
coche sube Y L R A E N I S N ) c O , I T b , I a S ( N 9 A 0 R 0 T 2 , E 1 S 7 A 3 . H G P Á : S P K , R 2 1 O S M W E T T E N S Y S X X A E T N L P Y M S O E C E R I N F E S E L C A N C A S F V O D A Y N N E E É G L O O T S N . O R E Y H E T D « R : E E V D L ; A ) s V a . c S i t , c A á t R n T i s R s U e d M e S r e A N d I s a M m O e R u q O s C e . ( B S , E » R N O I T O T U I S A I S U O Q L C E A D E A G Í S A E U T G R N O A C L
para
lejos de
nunca
más
aquí
fuera
grande tira
cerca
eso
un
pon
haz encuentra
allí
lo
foto
sobre gira
toma
ir es
uno
esto de
otro
rueda
manos
esto
eso
necesita
atrás
de
nuevo
toma
mira
abajo
espejo
camión casa
sobre
enseña
junto come pon
enciende
empuja
un
máquina
sienta
no
ir aquí
en
lado
fuera
ratón dedo
avión caminar Antes de la transición, la red de asociaciones sintácticas presenta una estructura arborescente ( a a y b). La mayoría de las palabras están desconectadas o se relacionan solo por parejas.
Poco después de los dos años, la red sintáctica experimenta una profunda transformación y se convierte en una red libre de escala (c). Abundan los vínculos, aparecen varios superconectores ( nodos amarillos) y el niño ya puede producir frases completas y bien organizadas.
a
b
25 meses
c
26 meses
28 meses
C 83
A la hora de estudiar el poder poder combinatorio del lenguaje, el proceso de adquisición de la lengua materna por parte del niño nos ofrece una ventana única. Ello se debe a que los bebés no «aprenden» las reglas de un idioma en el mismo sentido en que lo haría un adulto, sino que las construyen a partir de los datos dispersos que les proporcionan otros individuos de su comunidad. En el proceso, obtienen una serie de reglas complejas, pero estas nunca son exploradas de forma sistemática mediante una innidad de ejemplos. Todo lo contrario: el niño participa de una inmersión lingüística necesariamente incompleta, ya que las palabras y frases a las que se ve expuesto nunca pueden cubrir todas las eventualidades del idioma. No solo la lista de ejemplos que obtiene el niño es incompleta, sino que el bebé tampoco recibe ninguna instrucción instrucción explícita sobre el uso de las reglas del idioma. De hecho, los adultos poseemos un conocimiento lingüístico fundamentalmente tácito, no explícito. Ningún castellanohablante formularía jamás la pregunta ¿Qué pregunta ¿Qué vi el estudiante que contó? , donde pretendemos que el pronombre interrogativo (qué ( qué)) se interprete con relación al verbo de la subordinada subordinada (contó ( contó). ). La gramática del español, así como la de la gran mayoría de las lenguas, no per mite tales construcciones. construcciones. Sin embargo, un hablante no es consciente de la estructura que subyace a sus propias producciones lingüísticas. Solo puede aproximarse a ella mediante la elaboración de teorías, al igual que c uando intenta comprender cualquier otro aspecto de la realidad. Durante los dos primeros años de vida, el niño habrá oído con gran frecuencia ciertas palabras, algunas secuencias comunes formadas por pares de vocablos y un número mínimo de frases (comparado con el universo de combinaciones posibles). Sin embargo, esa limitada exposición a la complejidad de la sintaxis bastará para que, de algún modo, hacia los dos años de edad se produzca una transición inesperada. inesperada. En torno a los dos años, los niños dejan atrás la «etapa de las dos palabras» (aquella en la que solo combinan pares de términos de forma primitiva) y comienzan una fase nueva y extraordinaria extraordinaria en la que ya pueden construir frases complejas, con muy pocos o incluso con ningún error. Esta extrapolación desde unos pocos ejemplos hacia un conjunto de reglas generales se conoce como problema lógico de la adquisición del lenguaje: ¿cómo es posible lograr un conocimiento tan sistemático, renado y complejo a partir de un estímulo comparativamente pobre, parcial e incluso repleto de contradicciones? Resulta muy signicativo que el desarrollo de la sintaxis tenga lugar de forma explosiva. Durante la adquisición de la lengua materna, el niño atraviesa una primera etapa en la que solo emplea palabras aisladas. Después, otra en la que ya usa parejas de vocablos. Sin embargo, no existe una «fase de las tres pala bras». Al superar superar la etapa de las dos palabras, la sintaxis sintaxis infantil ya contiene gran parte de la complejidad de la sintaxis adulta. Podemos decir que en el proceso de adquisición de la sintaxis se produce un salto «de dos a innito», ya que las reglas generativas del lenguaje adulto son tales que permiten formular oraciones de tamaño ilimitado. El proceso de adquisición del idioma y sus transiciones han dado pie a algunas de las mayores y más a caloradas controversias. ¿Depende la adquisición del lenguaje de un sistema cogniti vo preparado para que esta tenga lugar? ¿O, como plantea Noam Chomsky, existe un «órgano del lenguaje» que posibilita ese salto de lo fragmentado a lo general? El problema de la pobreza de estímulo sugiere la existencia de un componente innato que los lingüistas han dado en llamar Gramática Universal. Esta guiaría
84 TEMAS 95
¿Constituye el lenguaje humano huma no la única solución al problema de la comunicación compleja, o solo una de muchas much as posibles? posibles? al individuo durante la adquisición del idioma, restringiendo el conjunto de lenguas naturales posibles y proporcionándole los elementos de análisis básicos. Pero la pregunta relevante no concierne a la legitimidad de tal componente (resulta obvio que el ser humano posee una dotación cognitiva que le permite desarrollar un lenguaje complejo, mientras que un gato no), sino a su contenido y estructura. Una cuestión muy debatida plantea si la Gramática Universal consta de elementos inherentemente lingüísticos o si, en su lugar, se compone de principios más generales. Dado que la sintaxis corresponde corresponde a un sistema combinatorio basado en reglas, pa rece que para afr ontar el problema de su adquisición deberíamos considerar, al menos en lo esencial, dicha naturaleza. Por tanto, en lugar de estudiar el número de palabras aprendidas a lo largo del tiempo, tal vez convendría explorar la manera en que estas se relacionan entre sí a me dida que el niño las aprende. Para tratar dicha cuestión, en 2009 llevamos a cabo un estudio en el que empleamos la base de datos CHILDES, un gran corpus lingüístico que documenta el proceso de adquisición de la lengua por parte del niño. Los ejemplos típicos de esta recopilación incluyen largos diálogos entre un progenitor y su hijo durante varios meses. A partir de estas conversaciones —caracterizadas por grandes dosis de imitación y redundancia, sobre todo al principio— pueden extraerse las estructuras sintácticas que van apareciendo a medida que el niño crece. Estas, a su vez, permiten conectar las palabras que guardan una relación sintáctica. Para llevar a cabo nuestro estudio, a partir de cada producción del niño derivamos primero la estructura de constituyentes, o estructura sintáctica desnuda. Por ejemplo, los constituyentes básicos de la oración El oración El nene quiere agua son agua son [El nene] [quiere agua]. Después, localizamos el núcleo de cada uno: en el primero (un sintagma nominal), el núcleo es nene; nene; en el segundo (un sintagma verbal), quiere. quiere. De esta manera, ambas palabras aparecerán conectadas en la red, la cual se irá formando por agregación de relaciones similares. Cabe destacar que el lenguaje infantil no suele ser tan transparente, por lo que un análisis riguroso resulta complejo y exige un estudio detallado del contexto de la conversación, entre otros aspectos. ¿Qué ocurre con esa red a medida que el niño adquiere la sintaxis? Como cabría esperar, esp erar, a los dos años de edad sobreviene una transición que marca el paso de una red poco conectada a otra con un gran número de vínculos. Durante la primera fase,
las redes sintácticas son muy reducidas y se parecen a lo que los matemáticos denominan «árboles», con numerosas palabras aisladas de las demás. Tales Tales redes, que indican que las relacione s sintácticas entre términos son aún escasas, reejan con claridad el hecho de que las producciones del niño apenas constan de más de dos palabras. Al cruzar el umbral de los dos años, la organización de las relaciones sintácticas experimenta experimen ta un cambio drástico. Este queda ilustrado a la perfección por la aparición de redes libres de escala: todas las palabras se hallan ahora conectadas, si bien la mayoría lo está con tan solo una o dos, mientras que un conjunto reducido de ellas posee un número de vínculos muy elevado. La riqueza de las conexiones explota y se plasma en una red de mundo pequeño, en la que unos pocos nodos muy conectados (palabras como un o un o eso) eso) permiten encontrar con facilidad la relación sintáctica deseada. Algunas de las palabras clave en la sintaxis adulta habrán ganado ya muchas conexiones y no abandonarán el núcleo de la red. Cabe señalar que en la naturaleza se observan redes de varias clases. Sin embargo, vemos que las lingüísticas —semánticas o sintácticas— comparten la propiedad de ser redes libres de escala y de mundo pequeño. (No obstante, existen diferencias en las leyes matemáticas que las controlan, así como en su grado de modularidad y la naturaleza de sus correlaciones.)
MÍNIMO ESFUERZO ¿Qué sucede durante la transición que acabamos de describir? En ella se observan las trazas de un cambio cualitativo en la manera de generar frases. Hasta llegar a la etapa de las dos
palabras, las producciones del niño constan, o bien de términos sueltos, o bien de combinaciones de dos vocablos semánticamente complementarios, como nombre-adjetivo o verbo-nombre. Sin embargo, las partículas funcionales (principalmente, artículos y preposiciones) casi no aparecen. Más tarde, la incorporación de partículas funcionales y una mayor riqueza morfológica darán lugar a una gran plasticidad en las producciones del niño. Comienzan así a aparecer nuevas construcciones sintácticas gracias a un proceso de anidamiento de subestructuras que no conoce límite superior. Esta facultad para generar estructuras de tamaño ilimitado mediante proce sos sucesivos de anidamiento recibe el nombre de recursividad, una característica que ha sido considerada por la escuela chomskyana como la propiedad esencial del lenguaje humano. La creación de estructuras mediante el mecanismo de recursividad exige una contrapartida: la capacidad para interpretar esas producciones. En el lenguaje humano, dicha interpretación es composicional. No solo tenemos en cuenta las piezas léxicas que forman parte de un enunciado, sino también las relaciones que existen entre ellas en el contexto de la oración. De forma intuitiva, podemos decir que la interpretación de una frase compleja supera a la «suma» de los signicados de las palabras que la componen. Esta competencia para interpretar composicionalmente las estructuras sintácticas generadas mediante procesos de recursividad constituye la base del mecanismo que conere al lenguaje su enorme poder expresivo. A juicio de num erosos e xpertos, su apa rición a lo la rgo de la evolución constituye uno de los principales enigmas a los que se enfrenta el estudio de los orígenes del lenguaje.
RECURSIVIDAD Y COMPOSICIONALIDAD
Poder expresivo sin límites Uno de los rasgos denitorios del lenguaje humano estriba en que las reglas que rigen la sinta xis permiten crear estructuras de tamaño, a priori, ilimitado. Esta característica recibe el nombre de recursividad. La gura representa de manera esquemática la estructura de la oración El niño juega a la pelota en cinco constituyentes: S1 = [la pelota] S2 = [a [la pelota]] S3 = [juega [a [la pelota]]] S4 = [El niño] S5 = [[El niño] [ juega [a [la pelota]]]]
S E R O T U A S O L E D A Í S E T R O C
A su vez, estos han sido construidos a partir del anidamiento de otros constituyentes, lo cual nos permite llegar a las estructuras de menor t amaño: las piezas léxicas la, pelota, a, juega, el, niño. Al mismo tiempo, la oración puede actuar como constituyente anidado en una estructura superior; por ejemplo, como subordinada en He visto que [el niño juega a la pelota] pelota]. En principio, podemos alargar la oración tanto como deseemos. Es más, cada frase adicional transmitirá un signicado nuevo que irá más allá de la «suma» de los signicados de los constituyentes. Esta propiedad se denomina composicionalidad. Recursividad y composicionalidad coneren al lenguaje su enorme poder expresivo. Sin embargo, pese a su importancia y a los esfuerzos realizados durante décadas por investigadores de diversas disciplinas, la forma en que el c erebro implementa ambas propiedades resulta, hoy por hoy, totalmente desconocida. Este es, probablemente, el mayor reto al que se enfrenta nuestra comprensión del lenguaje.
C 85
un texto N texto N (1) (1) veces, la segunda (rango r = = 2) aparecerá N aparecerá N (1)/2 (1)/2 veces, la tercera, N (1)/3, (1)/3, etcétera. La ley de Zipf reeja la existencia de unas pocas palabras muy frecuente s, las cuales conviven con una inmensa mayoría de términos «raros». En nuestro artículo examinábamos una idea propuesta con anterioridad por diversos autores y basada en una conjetura formulada por el propio Zipf. A mediados del siglo pasado, Zipf sugirió la posibilidad de que el lenguaje humano siguiese una «ley de mínimo esfuerzo», la cual afectaría tanto al emisor como al receptor de un mensaje. Por un lado, un hablante desearía emplear el menor número posible de palabras; ello, sin embargo, obligaría al oyente a realizar un esfuerzo enorme para descifrar el mensaje. Por otro, si el emisor utilizase un repertorio muy amplio e inequívoco, sería demasiado costoso para él. Zipf propuso que la evolución de las lenguas tal vez obedeciese a un principio de compromiso entre ambas posturas. En particular, ello explicaría el hecho de que ningún léxico esté formado por una sola palabra (coste mínimo para el emisor), pero tampoco por tantos vocablos como significados posibles (esfuerzo mínimo para el receptor). De ser cierta la hipótesis anterior, tales propiedades deberían reejarse en la estructura estadística del lenguaje; lo que, retomando a Bickerton, constituiría una de las señales dejadas por la evolución. Usando «BOZOPITE, PÁSAME LA MALEWINA »: El lenguaje puede evolucionar en sistemas elementos de la teoría de la información robóticos. Los autómatas del investigador Luc Steels ( fotografía) aprenden del entorno para describir los esfuerzos del hablante e inventan palabras pa labras para referirse a los objetos. Mediante Med iante procesos de ensayo e nsayo y error, error, y e l r ecepto r ( algo que ya se había hecho un grupo de robots puede desarrollar un léxico común y una gramática simple. con anterioridad), en nuestro artículo de 2011 demostramos que, en todo sistema de comunicación que tendiese a minimizar Con todo, tales observaciones corresponden a una descripambos esfuerzos, la ley de Zipf emergería de forma natural. ción cualitativa del fenómeno, no cuantitativa. Desde un punto Además, si suponemos que el lenguaj e crece en complejidad a medida que evoluciona (es decir, que no constituye un sistema de vista más cientíco, podemos preguntarnos si los patrones estadísticos observados tras la emergencia de la sintaxis resulestático, sino exible), resulta posible demostrar que el código tan compatibles con la hipótesis de que el lenguaje posea una menos costoso que muestra una capacidad informativa ilimicapacidad ilimitada de transmitir información. Por otra par te, tada sigue, precisamente, la ley de Zipf. deberíamos también investigar por qué se da un salto desde Por último, el salto de dos a innito parece necesitar la ley estructuras de solo dos elementos hasta otras con un número de Zipf como ingrediente clave. En un estudio reciente heilimitado de ellos. mos demostrado que es posible construir un sistema formal En 2011 publicamos un artículo que parece sugerir una de anidamiento de conjuntos en el que, una vez que pasamos de grupos de dos componentes a grupos de tres, el salto a un respuesta armativa a la primera pregunta. Consideremos la frecuencia de uso de las palabras de una lengua, la cual puede potencial generativo ilimitado ya ha tenido lugar. En dicho medirse con facilidad a partir del análisis de textos escritos. sistema, la ley de Zipf es un requisito indispensable, ya que Si ordenamos los vocablos según la probabilidad con la que combina precisión (múltiples palabras poco probables y de uso aparecen en un texto obtendremos una distribución conocida especíco) y ambigüedad (pocas palabras muy frecuentes y de como ley de Zipf, así llamada en honor al lingüista George K. uso genérico) de acuerdo con una ley muy bien denida. Si Zipf, quien en la década de 1930 la describió por primera vez en bien este marco teórico es aún muy abstracto, sugiere la idea el contexto del lenguaje humano. Esta nos dice que la frecuende que una gran parte de la transición observa da en el proceso cia N cia N (r ) con la que aparece la r -ésima -ésima palabra más usada de de adquisición de la lengua obedece a un principio organizativo un texto resulta inversamente proporcional proporcional a r . Dicho de otro fundamental que nuestro cerebro habría alcanz ado en el curso modo, si la palabra más empleada (de rango r = = 1) se usa en de la evolución.
86 TEMAS 95
S Í R A P , Y N O S S O I R O T A R O B A L ; S L E E T S C U L E D A Í S E T R O C
LENGUAJES SINTÉTICOS Y EVOLUCIÓN Al inve stigar los orígenes de l a co mplejidad del lenguaje , no podemos pasar por alto otras escalas de organización ni, en particular, el papel desempeñado por la evolución cultural. Los idiomas sufren cambios notables en una escala de tiempo mucho menor que la que caracteriza a la evolución genética. Si tomamos un texto en nuestra lengua materna escrito hace apenas unos cientos de años, descubriremos gran cantidad de arcaísmos e incluso experimentaremos experimentaremos dicultades para comprenderlo. Así pues, parece que deberíamos tener en cuenta el cambio lingüístico a lo largo del tiempo. Esta idea se antoja también difícil de explorar, dado que la evolución de los modos culturales escapa a nuestra capacidad de experimentación. Con todo, una nueva generación de investigadores ha sabido sacar partido de la simulación por ordenador para remedar el camino que conduce al lenguaje. Bajo la estela de su principal precursor, el lingüista Jim Hurford, diversos autores, como Simon Kirby o Morten Christiansen, han llevado a cabo experimentos virtuales en los que una población de «agentes» capaces de intercambiar y procesar palabras desarrollan algunas propiedades características del lenguaje. Algunos de los modelos de Kirby muestran que ciertas reglas de ordenación de palabras surgen —se «descubren»— de manera espontánea como resultado de la evolución. Kirby y otros investigadores, como Terrence Terrence Deacon, sospechan que el lenguaje ha evolucionado para sobrevivir en un ambiente denido por la naturaleza del cerebro humano. En estos modelos, se considera al lenguaje como un «virus» que infecta la mente del niño y que, por tanto, actuaría como una entidad simbiótica: los humanos necesitaríamos el lenguaje para prospe rar o incluso para sobrevivir, mientras que el lenguaje dependería de nosotros para reproducirse. Aunque esta hipótesis resulta muy atractiva, nos dice poco sobre el problema de fondo: ¿qué procesos rigen la evolución del lenguaje? ¿Descubriremos alguna vez el origen del lenguaje humano? ¿Constituye su estructura la única solución al problema de la comunicación compleja, o tan solo una de muchas posibles? Podría Podría argumentarse que esta pregunta carece de sentido. Dado que el lenguaje no deja fósiles, jamás podremos reconstruir el camino que ha seguido a lo largo de millones de años. Sin embargo, dos enfoques novedosos podrían ayudar a resolver la cuestión. El primero se basa en la existencia de ciertas pautas uni versales en la evol ución hacia la comple jidad. Aunque las lenguas del mundo exhiben diferencias importantes en su léxico y reglas gramaticales, la presencia de patrones de de organización generales (como la ley de Zipf o la emergencia de redes de mundo pequeño y libres de escala) sugieren que el lenguaje humano constituye una solución única al problema de la comunicación segura pero a la vez exible. De ser así, podríamos denir, al menos a grandes rasgos, el camino seguido por la evolución hasta hoy. La segunda posibilidad consiste en hacer evolucionar formas de lenguaje en sistemas robóticos. En este contexto, el empleo de agentes articiales añade una dimensión especialmente interesante al debate. En lugar de construir modelos del lenguaje humano, quienes investigan en este campo emplean robots equipados con sensores y un «cerebro» muy simple, como una red neuronal. Una versión estándar de este tipo de sistemas nos la proporcionan los experimentos de Luc Steels, experto en inteligencia articial de los Laboratorios de Ciencias de la Computación Sony de París y del Instituto de Biología Evolutiva
de Barcelona. Steels empleó dos sistemas robóticos sencillos, equipados de visión y facultados para obser var un conjunto de objetos y asignarles nombres. Estas «cabezas parlantes», como se llamó al primer experime nto, podían comunicarse entre sí e intercambiar información sobre los objetos del entorno y sus propiedades. Steels intentaba con ello recrear los (posibles) primeros pasos del lenguaje. Sus robots debían segmentar la información relativa a cada objeto, como su color o localización en el espacio, y elegir un nombre para denominarlos. Los términos empleados eran palabras inventadas, como bozopite o bozopite o malewina, malewina , por lo que durante el proceso de comunicación cada robot intentaba deducir a qué objeto o atributo hacía re ferencia su compañero. De tanto en tanto, de este intercambio de información surgía el acuerdo y ambas máquinas comenzaban a emplear el mismo término. Al nal, los robots generaban un gran número de palabras para indicar orientaciones espaciales (arriba, abajo, etcétera) y otros atributos, como color o tamaño. Un resultado de est e tipo de experimentos «evolutivos» es la aparición de categorías de signicado. En otros estudios con robots más avanzados se observó también la emergencia de una gramática rudimentaria como respuesta a situaciones ambiguas. Un aspecto importante de tales trabajos consiste en descubrir la importancia de la interacción física del robot con el medio externo y la percepción que el autómata tiene de sí mismo y de los demás dentro del espacio. ¿Qué tipo de lenguajes aparecerán cuando se empleen robots más complejos? ¿Surgirá uno parecido al nuestro —lo que apuntaría a la existencia de leyes universales— o asistiremos a la creación de una forma completamente nueva de lenguaje? Artículo publicado publicado en Investigación y Ciencia , mayo de de 2013
LOS AUTORES
Ricard V. Solé es Solé es investigador ICREA en la Universidad Pompeu Fabra y miembro del Instituto Santa Fe, en Nuevo México; sus investigaciones se centran en los orígenes de la complejidad biológica. Bernat Corominas Murtra investiga en Instituto de Ciencia y Tecnología de Viena; estudia los aspectos de la teoría de la información en sistemas complejos y teoría de redes. Jordi redes. Jordi Fortuny es Fortuny es investigador de la Universidad de Barcelona; sus t rabajos se centran en el estudio teórico de los rasgos de diseño del lenguaje. PARA SABER MÁS
Redes complejas. Ricard complejas. Ricard V. Solé. Tusquets, Barcelona 2009. Language networks: Their structure, function and evolution. Ricard evolution. Ricard V. Solé, Bernat Corominas-Murtra, Sergi Valverde y Luc Steels en Complexity , vol. 15, págs. 20-26, febrero de 2009. The ontogeny of scale-free syntax networks: Phase transitions in early language acquisition. Bernat acquisition. Bernat Corominas-Murtra, Sergi Valverde y Ricard V. Solé en Advances en Advances in Complex Systems , vol. 12, págs. 371-392, junio de 2009. Diversity, competition, extinction: The ecophysics of language change. Ricard V. Solé, Bernat Corominas-Murtra y Jordi Fortuny en Journal en Journal of the Royal Society Interface, Interface, vol. 7, págs. 1647-1664, junio de 2010. Emergence of Zipf’s law in the evolution of communication. Bernat communication. Bernat Corominas-Murtra, Jordi Fortuny y Ricard V. Solé en Physical Review E , vol. 83, art. 036115, marzo de 2011. EN NUESTRO ARCHIVO
El lenguaje humano. VV. humano. VV. AA. Temas de Temas de IyC IyC n. n.o 5, 1996. Adiós al p rinci pio mo dular de l lengua je. I. je. I. B. Schlesewsky y M. Schlesewsky en MyC en MyC n. n. o 53, 2012.
C 87
FENÓMENOS EMERGENTES
Complejidad, tecnología y sociedad La evolu evolución ción técnica y social de la humanidad ha estado marcada por la necesidad de controlar controlar un u n entorno de complejidad creciente. ¿A qué se debe esa tendencia? tendencia? ¿Cómo está afectando a la ciencia, la educación y las formas de gobierno? Carlos Gershenson
AUTOORGANIZADOS: Este mosaico ( Everybody’s hive, acrílico sobre lienzo del autor) evoca varias de las características que permiten entender nuestras sociedades desde la perspectiva de los sistemas complejos. El color de cada individuo ha sido escogido al azar, pero con la restricción de que no puede coincidir con el de ninguno de sus vecinos. Como resultado, emerge un patrón cromático que sigue reglas locales bien defnidas pero cuya estructura global no puede predecirse a priori.
88 TEMAS 95
N O S N E H S R E G S O L R A C
C 89
N
más complejas. Globalización, conectividad, información... son palabras que oímos con frecuencia y que reejan ese incremento de complejidad. Nuestros sistemas económicos, sociales o culturales conectan cada vez más elementos, presentan más interacciones y operan a mayor velocidad. ¿Cómo hemos podido afrontar ese aumento de la complejidad con un cerebro que, en esencia, no diere del de nuestros antiguos ancestros paleolíticos? Esa progresión ha sido posible gracias a la tecnología. Su efecto sobre nuestras sociedades es doble: por un lado, nos permite manejar la complejidad; pero, por otro, también la genera. ¿Hacia dónde nos lleva esta tendencia? Para entender mejor el problema, debemos primero aclarar a qué nos referimos al ha blar de complejidad. complejidad. Es común común oír que nuestro nuestro mundo, nuestras ciudades, el lenguaje o el cerebro son complejos. Pero ¿qué es la complejidad? El término procede del latín plexus latín plexus, que signica «entretejido». Algo complejo resulta difícil de desmenuzar: no podemos separar sus partes constituyentes y estudiarlas de manera aislada porque son interdependientes. Todo sistema complejo se caracteriza por la existencia de interacciones relevantes entre sus componentes. El comportamiento del conjunto no puede predecirse sin considerar dichas interacciones, ya que estas codeterminan el estado futuro de los componentes y, por tanto, del sistema entero. Más aún: esas interacciones pueden generar información nueva, que no se encuentra en las condiciones iniciales ni en las de frontera, lo cual limita de manera inherente nuestra capacidad para predecir el comportamiento de un sistema complejo. Por ejemplo, aunque conozcamos con detalle todas las propiedades de una molécula determinada, en general no podremos predecir con exactitud cómo reaccionará con otras hasta que llevemos a cabo el experimento. Ello se debe a que no disponemos de información completa sobre sus interacciones hasta que estas tienen lugar. Existen docenas de deniciones y medidas de complejidad. De manera intuitiva, podemos decir que la complejidad de un sistema aumenta con el número de componentes, con el número de interacciones (más interacciones entre el mismo número de componentes implican más complejidad), así como con la complejidad intrínseca a dichos componentes e interacciones.
VARIEDAD REQUERIDA Manejar la complejidad requiere disponer de una complejidad aún mayor. Esta condición constituye una generalización de la ley de la variedad requerida, propuesta hace más de medio
siglo por W. W. Ross Ashby en el contexto de la cibernética, cibernética, el estudio cientíco del control y la comunicación en animales y máquinas. La ley de la varie dad requerida h ace refere ncia a un controlador, el cual desea gobernar un sistema que puede adoptar diversas conguraciones. Para Para ejercer un control ecaz sobre ellas, la variedad del controlador habrá de ser mayor que la del sistema. En otras palabras, el primero deberá poseer un número de estados mayor que el segundo. Pensemos en un brazo robótico que ha sido fabricado para manipular ciertos utensilios (pernos y tuercas, por ejemplo). Si deseamos que comience a manejar otros, su diseño deberá incorporar las eventualidades asociadas a esos nuevos elementos. Para hablar una lengua habremos de dominar sus palabras, relaciones, usos y signicados. Pero, si nos proponemos hablar dos, claramente habremos de dominar una variedad lingüística mayor que la necesaria para cada idioma por separado. En general, cuanto más complejo sea un sistema (el brazo robótico o el cerebro, en los ejemplos anteriores), mayor será la comple jidad a la que podrá hacer frente. Como aplicación de este principio, en nuestro grupo de la Universidad Nacional Autónoma de México (UNAM) hemos desarrollado un sistema de semáforos que se autoorganiza y adapta su complejidad a la del ujo vehicular. Los métodos tradicionales tratan la regulación del tráco como un problema de optimización: intentan maximizar el ujo para una densidad de vehículos determinada. Sin embargo, el tráco constituye un sistema complejo que cambia de manera constante, por lo que su control debe verse más como un problema de adaptación que como uno de optimización. Al incorporar la complejidad requerida, nuestro sistema de semáforos consigue reducir a la mitad el tiempo de espera de los vehículos. Por sí mismo, nuestro cerebro solo puede hacer frente a una variedad y compl ejidad nitas, similares a la del en torno en que evolucionaron nuestros ancestros. Por eso estamos acostumbrados a pensar de manera reduccionista, ya que nuestras facultades cognitivas no nos permiten considerar más que unas pocas variables al mismo tiempo. Hasta ahora, nuestra ciencia ha sido principalmente reduccionista: simplica y aísla para poder predecir. Este método, iniciado en tiempos de Galileo, Newton, Laplace y Descartes, ha rendido unos frutos extraordinarios. En medicina ha duplicado la esperanza de vida en todo el mundo durante el último siglo, al identicar y eliminar las causas de un gran número de enfermedades infecciosas. Se ha reducido considerablemente considerablemente el hambre. Se han desarrollado ordenadores y formas de comunicación que han revolucionado nuestra cultura. Sin embargo, dicho enfoque tiene sus límites. Hoy en día, la mayoría de las muertes en los países desarrollados se deben
EN SÍNTESIS
La tecnología ha ejercido un efecto profundo sobre nuestras sociedades. Por un lado, nos permite afrontar la complejidad del entorno; por otro, también la incrementa.
90 TEMAS 95
Esa tendencia puede explicarse a partir de la ley de la variedad requerida, un resultado demostrado hace más de cincuenta años en el contexto de la cibernética.
La retroalimentación tecnológica ha llevado a la ciencia a un punto de inexión. Gracias a los ordenadores, hoy resulta posible analizar fenómenos complejos.
Una ciencia de los sistemas globales permitiría manejar los retos cientí cos, educativos y sociales a los que se enfrentará un planeta cada vez más conectado.
CONTROL DE LA COMPLEJIDAD
Ventajas de la autoorganización Una ley básica de la cibernética establece que cualquier «controlador» debe disponer de una complejidad mayor que la del sistema que desea gobernar; en caso contrario, el primero no podrá responder de forma adecuada a todas las conguraconguraciones posibles del segundo. La aplicación de dicho principio permitiría mejorar la ee-
Semáforo en verde
ciencia de numerosos sistemas complejos presentes en las sociedades modernas. Un ejemplo sencillo lo hallamos en el tráco rodado. El ujo de vehículos en una ciudad conforma un sistema interconectado cuyo grado de complejidad cambia constantemente. Según muestran las simulaciones llevadas a cabo po r
Semáforo en rojo
Vehículo en movimiento
el equipo del autor, un sistema de semáforos que se adaptase en cada momento a la complejidad del tráco reduciría de manera considerable el tiempo de espera medio de los vehículos. Las imágenes inferiores muestran las diferencias entre este método (abajo) y la manera tradicional de regular el tráco ( arriba).
Vehículo detenido
Enfoque tradicional basado en la optimización: Control centralizado Las formas más habituales de regular el tráco se basan en métodos centralizados: se intenta predecir el ujo pro medio de los vehículos y, a partir de ese dato, se diseña un sistema de semáforos que minimice los tiempos de espera. Sin embargo, el número de automóviles que llegan a un cruce es casi siempre mayor o menor de lo esperado. Si el sistema no puede adaptarse a esos cambios, se producirán atascos y retrasos. En esta simulación, los semáforos aca ban dando vía libre a calles que no tienen tránsito ( derecha), una situación común en ciudades como México DF.
Nuevo enfoque basado en la adaptación: Control emergente e mergente Un método alternativo consiste en permitir que cada semáforo tome sus propias decisiones de manera local. Un conjunto de sensores puede contar el número de vehículos que se acercan a un semáforo en rojo y dar la orden de cambiar a verde antes de que se acumulen demasiados. Junto con otras reglas simples, el sistema dará así preferencia a las calles con mayor demanda. Como resultado, el tráco se autoorganiza de manera similar a como lo hace una bandada de pájaros, adaptándose a los cambios por medio de interac ciones locales. Ello genera un ujo continuo y evita los cuellos de botella.
R O T U A L E D A Í S E T R O C
a enfermedades crónicas y degenerativas, como el cáncer, la diabetes o los trastornos cardiovasculares. Se trata de enfermedades complejas, con múltiples causas y por lo tanto sin una única cura. No tenemos una idea clara de nuestro impacto sobre el medio natural. Tampoco sabemos cómo manejar una
economía globalizada, determinada por un sinfín de actores interdependientes. Por un lado, la complejidad de nuestro entorno ha aumentado gracias a los avances cientícos y técnicos. Por otro, la tecnología encierra el potencial para manejar dicha complejidad.
C 91
HOMO TECHNICUS
De manera general, llamaremos tecnología al tecnología al conjunto de herramientas y habilidades usadas con cierto propósito. Eso incluye ordenadores, automóviles, teléfonos, libros, armas, medicamentos y lenguas. La nuestra no es la única especie creadora de tecnología. Primates, delnes y cuervos han desarrollado herramientas con distintos propósitos. Sin embargo, hasta el momento somos la especie que ha generado la tecnología más compleja y con mayor impacto sobre el entorno. Desde un punto de vista biológico casi no nos diferenciamos de nuestros ancestros paleolíticos, cuya tecnología incluía fuego, ropa, armas y útiles de piedra, madera o hueso. Hoy, sin embargo, la tecnología nos permite realizar tareas mucho más complejas que las que podían llevar a cabo nuestros antepasados con el mismo cerebro. Jamás podríamos comunicarnos al instante ni transportarnos a otros continentes sin ayuda de nuestros artefactos. Ese espectacular aumento en nuestra capacidad para controlar y transformar el entorno ha sido posible gracias a la tecnología, más que a la evolución biológica. Podemos decir que la tecnología ha aumentado nuestras facultades cognitivas. Como ha defendido el lósofo de la Universidad de Edimburgo Andy Clark, nuestros artefactos funcionan como una «mente extendida», ya que ejecutan ta reas que antes llevábamos a cabo exclusivamente en el cere bro. Pero l a tecnol ogía va más allá: actúa como una especi e de «muleta mental» que nos permite llegar mucho más lejos que nuestro cerebro. Por ejemplo, hoy ya resulta imposible memorizar toda la información que almacenamos en nuestros teléfonos celulares. La tecnología no solo ha aumentado nuestra capacidad para manejar conceptos cada vez más complejos. También También ha incrementado la complejidad de nuestras interacciones. La tecnología inuye y determina de manera esencial nuestro comportamiento. Se ha convertido en un aspecto clave de lo que nos dene como humanos.
MOTOR SOCIAL A lo lo largo largo de de la historia de la humanidad, la tecnología tecnología ha ejerciejercido una inuencia clave sobre nuestras sociedades. El desarrollo de la agricultura permitió la transición de un estilo de vida nómada a otro sedentario. Al disponer de fuentes de alimento abundantes y relativamente seguras, las poblaciones crecieron y se fundaron las primeras ciudades. Ello aumentó el tamaño de las comunidades, lo que a su vez contribuyó a incrementar su complejidad. Para hacer frente a dicha complejidad se desarrollaron acueductos, murallas, sistemas de drenaje y de transporte. Todo Todo ello propició la aparición de nuevas profesiones, lo que fomentó la especialización entre los miembros de la sociedad. Para intercambiar productos se inventó el dinero, que media entre todas las transacciones comerciales posibles. El desarrollo tecnológico de la Revolución Industrial fomentó aún más la migración hacia las ciudades —con efectos positivos y negativos—, trajo consigo la fabricación en masa, promovió la educación universal y generó nuevas clases sociales, organizaciones e ideales. El siglo conoció conoció la posibilidad de transmitir información al instante a través de los océanos. La red de telégrafos se comparó con un «sistema nervioso planetario». Más tarde, el cine, la radio y la televisión hicieron posible la propagación masiva de información, con el potencial de llegar a millones de personas. Los primeros ordenadores llegaron a mediados del siglo . Su producción se masicó en la década de los ochenta. En los
92 TEMAS 95
Los cambios sociales se están acelerando a un ritmo sin precedentes. ¿Qué nos espera? años noventa, la popularización de Internet no solo permitió transmitir ingentes cantidades de información, sino que brindó a los usuarios la posibilidad de crear su propio contenido. Hoy vivimos una transición hacia un escenario en el que la mayoría de las personas no solo serán consumidoras pasivas de información, sino también productoras. Se estima que cada día generamos el equivalente a 36 millones de libros en correos electrónicos, blogs y redes sociales. La tecnología no solo ha contribuido a aumentar la comp le jidad de los individuos, sino también la de los grupos sociales, al coordinar y potenciar las interacciones entre personas. Ha llegado incluso a incrementar la complejidad del plane ta como un todo, puesto que ha aumentado las interacciones entre las especies animales y vegetales de distintas partes del mundo.
UNA NUEVA CIENCIA La tecnología ha afectado de manera considerable al desarrollo de la ciencia. Así como el telescopio y el microscopio nos permitieron estudiar una gran cantidad de fenómenos astronómicos y biológicos, la llegada de los ordenadores nos ha brindado brindado por primera vez la posibilidad de investigar fenómenos complejos, desde el comportamiento colectivo de una bandada de pájaros hasta el funcionamiento del cerebro. Antes eso era inviable, ya que no contábamos con la complejidad requerida para analizar miles de variables interdependientes. Al facilitar las interacciones sociales, la tecnología también ha acelerado la colaboración entre investigadores mediante el uso del correo electrónico, videoconferencias o repositorios compartidos. El acceso a códigos abiertos, bases de datos y publicaciones permite que cada vez más investigadores tengan contacto con conocimientos de todo tipo. Un ejemplo lo hallamos en el repositorio arXiv.org, arXiv.org, donde los autores comparten manuscritos en su fase inicial. Aunque se trata de versiones preliminares, su acceso facilita la retroalimentación y la propagación del conocimiento sin necesidad de esperar a los tiempos de publicación de las revistas especializadas. Los artículos de alto impacto se difunden con rapidez a través de las redes sociales, lo que acelera aún más las interacciones con potencial para generar nuevo conocimiento. La tecnología también ha hecho posible que la población general participe en el proceso cientíco, el fenómeno conocido como ciencia ciudadana. En la web fold.it, fold.it , por ejemplo, los usuarios juegan a plegar proteínas; una tarea sencilla que, sin embargo, ayuda a los cientícos a abordar tareas que los ordenadores todavía no pueden resolver. Nuestros dispositivos generan cada vez más datos. Según IBM, el 90 por ciento de los datos almacenados en todo el mundo en 2013 se habían creado durante los dos años anteriores. Eso quiere decir que, desde el
TECNOLOGÍA Y CAMBIO SOCIAL
Cibernética del conocimiento La tecnología ha transformado nuestras sociedades
Los ordenadores están generando un cambio del paradigma cientíco dominante, al permitirnos estudiar sistemas comcom plejos con millones de componentes e interacciones. Las tecnologías de la información y la comunicación (TIC) están transformando nuestras sociedades en formas que solo empezamos a imaginar.
mucho más que la evolución biológica. La escritura facilitó la preservación de la información y, con ello, la transmisión del saber de una generación a las siguientes. La llegada de la imprenta a Europa permitió la rápida propagación del conocono cimiento, lo que espoleó el desarrollo de la ciencia moderna.
Prehistoria
Escritura
Protociencia
Imprenta
Reduccionismo
Presente
Ordenadores
Historia
Ciencia moderna
Complejidad
TIC
???
K C O T S K N I H T ©
inicio de la escritura hasta 2011, la humanidad produjo nueve veces menos datos que entre 2011 y 2013. Por supuesto, no resulta nada trivial encontrar signicado en tales cantidades de información. Con todo, el análisis de las pautas generales presentes en los macrodatos (big (big data) data) está permitiendo contrastar teorías en ciencias sociales, las cuales hasta hace poco tenían que conformarse con métodos discursivos por falta de datos. La tecnología nos está permitiendo describir, modelizar, entender y, hasta cierto punto, controlar mejor los fenómenos sociales. Por ejemplo, hoy resulta posible analizar patrones sociales a partir de los datos de telé fonos móviles o de la actividad en Twitter. Hace unos años, Google digitalizó cerca del 4 por ciento de todos los libros publicados a lo largo de la
historia. Ello ha permitido estudiar la evolución de las culturas y los los idiomas con enormes cantidades cantidades de datos: datos: un nuevo nuevo campo que los investigadores de Harvard Jean-Baptiste Michel y Erez Liberman Aiden han denominado culturómica. culturómica. No solo estamos obteniendo información cuantitativa sobre la cultura, sino sobre cómo ha cambiado esta a través de los siglos. Podemos decir que la tecnología nos está acercando más a encontrar las «leyes» de los fenómenos sociales. La ciencia también se ha vuelto más «democrática», en el sentido de que la tecnología permite una mayor participación tanto en la recepción como en la generación de conocimiento, con el potencial de reducir las brechas sociales generadas por el dominio del conocimiento por parte de una minoría.
C 93
EDUCACIÓN Nunca antes habíamos tenido tanto conocimiento tan disponible. Wikipedia constituye constituye un claro ejemplo del poder de la colaboración a la hora de generar conocimiento. conocimiento. En poco tiempo se ha convertido en la enciclopedia con mayor cobertura de la h istoria, al facilitar que miles de personas escriban, corrijan corrijan y actualicen artículos. De nuevo, no solo se permite el acceso al conocimiento, sino que se facilita su generación y renación. La tecnología posee el potencial de solucionar muchos de los problemas que aquejan a la educación en todos sus niveles. En general, nos está permitiendo incrementar la complejidad de los sistemas educativos, la cual ha de ser mucho mayor que la de los mejores docentes para poder hacer frente a la complejidad de la comunidad actual de estudiantes. Desde hace un tiempo, los cursos abiertos masivos en línea (MOOC, por sus siglas en inglés) han demostrado el potencial de la tecnología para facilitar el proceso educativo a millones de estudiantes. En 2014 tuve la oportunidad de impartir un curso masivo sobre pensamiento cientíco en la plataforma Coursera (https://www.coursera.org/course/ciencia https://www.coursera.org/course/ciencia)) que contó con más de 20.000 alumnos en la primera edición y más de 25.000 en la segunda. El éxito de los MOOC no solo se encuentra en los vídeos que que cada estudiante puede estudiar y repasar a su ritmo, sino en la retroalimentación que se crea en los foros y en las evaluaciones entre compañer os, la cual resulta más compleja y personalizada que la que podrían lograr los mejores docentes con grupos pequeños. Cuanta más tecnología se desarrolle para mejorar la educación, más personalizados y adaptativos podrán ser los procesos de aprendizaje, que podrán liberarse de unos programas excesivamente rígidos y orientarse más hacia los intereses particulares de cada estudiante. Esa misma exibilidad también puede aplicarse a otros sistemas, como los que usamos para regir nuestras sociedades.
GOBIERNO Y BUROCRACIA Nuestra tecnología deja una huella digital. Esa información, que generan tanto sociedades como Gobiernos, puede e xplotarse para mejorar el funcionamiento de ciudades, organizaciones y burocracias. Por un l ado, permite detectar y ajusta r de manera automática retrasos y cuellos de botella en los ujos de información. Por Por otro, hace posible detectar la responsabilidad responsabilidad de distintos actores, lo que fomenta su buen funcionamiento y, potencialmente, inhibe la corrupción. Hace unos años, nuestro grupo desarrolló modelos de burocracias con capacidad de autoorganizarse. Una burocracia puede entenderse como una red en la que varios agentes deben comunicarse entre sí para llevar a cabo sus respectivas tareas. Comprobamos que, si a la estructura de la red se le permitía un ligero grado de adaptabilidad a las circunstancias de trabajo en cada momento (algo factible con medios electrónicos y rmas digitales), su eciencia aumentaba de manera considerable. En esa dirección, varios órganos de gobierno de distintos niveles han comenzado a adoptar prácticas de «datos abiertos» (open data). data). Al permitir el acceso a datos socioeconómicos, geográcos, sanitarios o de gasto público, aumenta la transparencia y la conanza que los ciudadanos depositan en sus instituciones. Al mismo tiempo, se fomenta la participación ciudadana en la captura y la generación de información. De esta manera, los Gobiernos no solo ofrecen datos, sino que reciben muchos más de los que podrían conseguir por sus propios medios.
94 TE MAS 95
Una ciencia de los Una sistemas globales permitiría hacer frente a la complejidad creciente de la sociedad En Boston, la aplicación para teléfonos inteligentes Street Bump detecta baches en las calles a partir de los datos que recibe de los acelerómetros del teléfono cuando el usuario viaja en automóvil; después, envía esa información al Ayuntamiento. Otras aplicaciones integran información sobre el transporte en distintas ciudades y sugieren rutas a los usuarios. Desde hace un tiempo, nuestro grupo de la UNAM participa en un esfue rzo similar para mejorar la movilidad en Ciudad de México a través de la iniciativa www iniciativa www.livingmobs.com .livingmobs.com . Esta formó parte de una propuesta con la que, en 2014, nuestro equipo ganó el premio Audi Urban Future. La tecnología no solo facilita que los ciudadanos participen en el uso y la generación de datos abiertos. Al igual que ocurre con la ciencia ciudadana, nuestras sociedades pueden funcionar de un modo más democrático y fomentar la participación de amplios sectores de la población en las decisiones políticas. Por supuesto, no resulta trivial que los Gobiernos estén dispuestos a ceder parte de su poder. Sin embargo, los ciudadanos que han logrado presionar a sus políticos en esta dirección, como ocurrió en Islandia entre 2009 y 2011, han mostrado las ventajas para todos de este enfoque. Aunque algunas algunas novelas futuristas futuristas han presentado presentado la tecnología como una herramienta del autoritarismo, autoritarismo, está en nuestras manos encauzar su potencial hacia el benecio común, y no hacia el de unos cuantos a costa de la mayoría.
¿HACIA UNA EUDEMONÍA? Cada vez generamos más información. Nuestros sistemas sociotécnicos incluyen cada vez más componentes y más interacciones. Los cambios sociales se están acelerando a un ritmo sin precedentes. ¿Qué nos espera? En ocasiones, un mayor número de componentes contribuye a incrementar la robustez del sistema, puesto que, si un elemento falla, otros pueden tomar su lugar. Sin embargo, el aumento de las interacciones puede hacer que el sistema se torne más frágil, ya que provoca que los cambios se propaguen con rapidez. Durante la Edad Media, la peste bubónica se extendió en forma de oleadas infecciosas durante años. Las epidemias actuale s se propagan globalmente en días. Otro ejemplo del mismo fenómeno sucedió el 6 de mayo de 2010 en la Bolsa de Nueva York, cuando las transacciones automáticas provocaron el llamado fash crash de crash de las 14:45. Aunque se han ofrecido varias explicaciones, hoy por hoy nadie sabe a ciencia cierta qué fue lo que causó que el índice Dow Jones perdiese en unos instantes el 7 por ciento de su valor (la mayor caída de esas características de su historia) y recuperarse buena parte de las pérdidas pocos minutos después.
Casos como los anteriores demuestran que necesitamos con urgencia una ciencia de los sistemas globales. Este esfuerzo ha reunido a cientos de cientícos en el ambicioso proyecto pro yecto FuturICT, liderado por el físico Dirk Helbing, de la Escuela Politécnica de Zúrich. Su objetivo consiste en desarrollar la ciencia y la tecnología necesarias para entender, modelizar y regular sistemas sociotécnicos sociotécnicos a escala global en ámbitos como la economía, la educación, la salud, la ciencia, la toma de decisiones, la innovación, el entorno natural o el urbanismo, entre otros [véase [ véase «Simular el planeta en tiempo real», por David Weinberger; I 2012]. C C , febrero de 2012]. Al igual igual que que otros proyectos similares, FuturICT no pretende pretende predecir y controlar de manera absoluta los sistemas sociotécnisociotécnicos, ya que su complejidad limita de manera inherente nuestra capacidad predictiva. Lo que sí persigue es entender mejor la complejidad de nuestro entorno, con el objetivo de poder hacerle frente de la manera más adecuada. Por supuesto, ello no evitará los problemas y las catástrofes, pero sí contribuirá a que estemos mejor preparados para reaccionar cuando se presenten. ¿Qué otros efectos ejercerá la tecnología sobre nuestras sociedades? ¿Seguirá aumentando su complejidad de manera indenida, o nos encontraremos con un límite? Y, si hay uno, ¿dónde está? Al respecto se han propuesto varios escenarios futuristas. Los más optimistas vaticinan una eudemonía, una sociedad en la que todos alcanzan la felicidad gracias la tecnología. Los más pesimistas la ven como causa de un apocalipsis para nuestra especie, nuestro plane ta o ambos. No cabe duda de que la tecnología goza de un potencial enorme, pero lo que nalmente determinará cuán cerca nos encontremos de uno de esos extremos será el uso que hagamos de ella. En último término, el futuro dependerá de nosotros, no de la tecnología.
COLABORADORES DE ESTE NÚMERO Asesoramiento y traducción: A. Fernández Rañada: Caos; Luis Bou: Criticalidad autoorganizada y Redes sin escala; Alberto Ramos: Leyes universales ; Bartolo Luque: La ciencia de redes cumple 20 años ; Miguel A. Vázquez Mozo: ¿Cómo deberían ser las teorías de los sistemas complejos?
INVESTIGACIÓN Y CIENCIA DIRECTORA GENERAL Pilar Bronchal Garfella DIRECTORA EDITORIAL Laia Torres Casas EDICIONES Anna Ferran Ferran Cabeza, Cabeza, Ernesto Lozano Tellechea, Tellechea, Yvonne Buchholz, Bruna Espar Gasset PRODUCCIÓN M.a Cruz Iglesias Capón, Albert Marín Garau SECRETARÍA Eva Rodríguez Rodrígue z Veiga ADMINISTRACIÓN Victoria Andrés Laiglesia Laiglesi a SUSCRIPCIONES Concepción Orenes Orenes Delgado, Olga Blanco Blanco Romero
EDITA
Prensa Científca, S. A. Muntaner, 339 pral. 1. a 08021 Barcelona (España) Teléfono 934 143 344 Fax 934 145 413 e-mail precisa@investigaciony
[email protected] ciencia.es www.investigacionyciencia.es
SCIENTIFIC AMERICAN EDITOR IN CHIEF AND SENIOR VICE PRESIDENT Mariette DiChristina PRESIDENT Dean Sanderson EXECUTIVE VICE PRESIDENT Michael Florek
DISTRIBUCIÓN para España:
Artículo Artículo publicado publicado en Investigación y Ciencia , enero enero de 2015 2015
LOGISTA, S. A. Pol. Ind. Polvoranca - Trigo, 39 - Edicio B 28914 Leganés (Madrid) Tel. 916 657 158
para los restantes países:
Prensa Científca, S. A. EL AUTOR
Carlos Gershenson es investigador titular de la Universidad Nacional Autóno ma de México, do nde dirige e l Laborato rio de Siste mas AutoOrganizantes. Es también investigador asociado del Centro de C iencias de la Complejidad, en la misma universidad.
Muntaner, 339 pral. 1. a 08021 Barcelona
PUBLICIDAD Prensa Científca, S. A. Tel. 934 143 344
[email protected]
PARA SABER MÁS
Natural-born cyborgs: Minds, technologies, and the future of human intelligence. Andy Clark. Oxford University Press, 2003. Systems, n. o 16, Self-organizing trac light s. Carlos Gershenson en Complex Systems, págs. 29-53, 2005. Design and control of self-organizing systems. Carlos Gershenson. CopIt Arxives , 2007. Smartocracy : Social networks for coll ective decision making. Marko A. Rodriguez et al. en Hawaii International Conference on Systems Science. Science. IEEE Computer Society, 2007. Towards self-organizing bureaucracies. Carlos Gershenson en International Journal of Public Info rmation Systems, Systems , vol. 4, n. o 1, 2008. ¿Cómo hablar de complejidad? Carlos Gershenson en Llengua, Societat i Comunicació, Comunicació, n. o 11, págs. 14-19, 2013. EN NUESTRO ARCHIVO
Comprender la complejidad. Geofrey B. West en IyC , julio de 2013. 2014 . La era de los macrodatos. Informe especial. VV. AA. en IyC , enero de 2014. La era de la informática universal. Gershon Dublon y Joseph A. Paradiso en IyC , septiembre de 2014. 2014.
Copyright © 2019 Scientic American Inc., 1 New York Plaza, New York, NY 10004-1562. Copyright © 2019 Prensa Cientíca S.A. Muntaner, 339 pral. 1. a 08021 Barcelona (España)
Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor de la revista. El nombre y la marca comercial SCIENTIFIC AMERICAN, así como el logotipo correspondiente, correspondiente, son propiedad exclusiva de Scientific American, Inc., con cuya licencia se utilizan aquí. ISSN edición impresa: 1135-5662 Dep. legal: B-32.350-1995
ISSN edición digital: 2385-5673
Imprime Rotocayfo Rotocayfo (Impresia Ibérica) Ctra. de Caldes, km 3 08130 Santa Perpètua de Mogoda (Barcelona) Printed in Spain - Impreso en E spaña
C 95
ELIGE TU MODALIDAD DE SUSCRIPCIÓN Descubre todas las ventajas en
www.investigacionyciencia.es/suscripciones
o
N. 9 95 5 en tu quiosco www.menteycerebro.es
[email protected]