9 9 9 1 e r t s e m i
0 0 01 6 >
Sumario El mundo de la termodinámica . . . . . . . . . . . . . . . . . . . . 2 Enrico Bellone
Sadi Carnot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 S. S. Wilson
Demonios, Demoni os, motores motores y la segunda ley . . . . . . . . . . . . . . . 18 Charles H. Bennett
Versión doméstica del motor Stirling . . . . . . . . . . 27 construida con materiales corrientes Jearl Walker
La flecha del tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
David Layzer
El movimiento browniano . . . . . . . . . . . . . . . . . . . . . . . 46
Bernard H. Lavenda
La complejidad complejidad,, cuantificada cuantificada . . . . . . . . . . . . . . . . 56
Ramón Margalef
La reaparición de fases . . . . . . . . . . . . . . . . . . . . . . . . . 57
James S. Walker y Chester A. Vause
Cuando los puntos de fusión y de solidificación solidificación no son el mismo mismo . . . . . . . . . . . . . . . . 66
R. Stephen Berry
Reacciones químicas oscilantes . . . . . . . . . . . . . . . . . . . 72
Irving R. Epstein, Kenneth Kustin, Patrick De Kepper y Miklós Orbán
Termodinámic Termo dinámica a de la evolució evolución n biológica biológica . . . . . . . . . . 82
David Lurié y Jorge Wagensberg
La interfase gas-líquido . . . . . . . . . . . . . . . . . . . . . . . . . 95 Claudi Mans, Joan Llorens y José Costa López
El mundo de la termodinámica Enrico Bellone Los conceptos originados en el seno de esta rama de la física no tardaron en incorporarse de forma provechosa a otros muchos sectores de la investigación científica
L
a ciencia de la termodinámica, en su expresión moderna, nace hacia mediados del siglo XIX . Su desarrollo ha propiciado el de otros programas de investigación especializada y de reflexión general. Los resultados de esta disciplina incidieron desde un principio en múltiples aspectos del saber. Así invadió los ámbitos de la química, del estudio de la energía y de la producción mecánica de trabajo y los modelos interpretativos de cuya elaboración nació la mecánica estadística; justificó las propuestas de métodos de cuantización de tipo boltzmanniano para la energía cinética molecular, ya en 1872, y alumbró las anomalías predictivas ligadas a las ecuaciones diferenciales empleadas en la dinámica de sistemas de n cuerpos, los complicados horizontes físicos y matemáticos de la irreversibilidad, las primeras hipótesis de Planck sobre el cuerpo negro y las cavilaciones sobre la evolución y la muerte térmica del universo. Este papel de la termodinámica y de sus ramificaciones se incrementó a lo largo del siglo XX ; bástenos citar, a mero título de ejemplo, la función desarrollada por la mecánica estadística del XIX en la exploración por Planck y Einstein del mundo de la radiación, la discusión sobre la relación entre la flecha del tiempo y la estructura de la relatividad general, la física de los procesos en los sistemas fisicoquímicos alejados del equilibrio, el caos determinista y las aplicaciones de la teoría de los cristales de espín a los modelos de redes neuronales. Es notorio que las relaciones entre los temas de la irreversibilidad y de la simetría intrínseca de las ecuaciones básicas, como son las de Newton-Euler, las de Maxwell y las de Schrödinger, plantean la cuestión de la predicción del comportamiento de los sistemas determinados matemáticamente. Una cuestión que, como 2
puede imaginarse, constituiría de por De la argumentación de Poincaré sí un desafío a la razón clásica. se derivaban consecuencias imporEl gran investigador clásico Henri tantes. La palabra “azar” no era sinóPoincaré desarrolló en 1907 el esque- nimo de “ignorancia” y las informama argumental que sirve de columna ciones sobre los fenómenos de que se vertebral para nuestras reflexiones dispusiera para el cálculo de las prosobre la relación entre la termodi- babilidades no habrían dejado de ser námica, la aproximación probabilís- ciertas aunque los hubiésemos conotica a los fenómenos y la noción de cido mejor. Esta circunstancia, una predicción. Poincaré, que se movía vez ac lara da mediante la impedien el ámbito de investigaciones mate- menta matemática oportuna, llevaba máticas rigurosas y poseía profun- a consecuencias inesperadas, ya se dos conocimientos de física, estaba abordara la estabilidad de un sisintrigado por la naturaleza de dicha tema de planetas en órbita alrededor relación. Consideró sobre todo la de una estrella o se analizara el c ominfluencia que ejercían las ideas difu- portamiento de una sola molécula en sas y escurridizas relacionadas con un gas enrarecido. Tanto en los sislos usos de la palabra “azar” y de la temas simples como en los complejos expresión “leyes del azar”. Distaba de era preciso habituarse a la aparición creer que el azar fuera una medida de situaciones en las que una causa de nuestra ignorancia y de que fuera “mínima” —casi imposible de identifi ju sto llamar fortuito al fenómeno car— fuera capaz de producir enorcuyas leyes desconocemos. Por tal mes efectos en un plano macroscórazón consideraba interesante el pico. Pero semejante familiarización hecho de que las leyes experimenta- no era cuestión de poca monta, pues les sobre los gases pudieran dedu- llevaba aparejada la necesidad de cirse matemáticamente de conjeturas abandonar opiniones acríticas o ingesobre variaciones “aleatorias” de las nuas sobre las llamadas condiciones velocidades moleculares. Cualquiera iniciales de un proceso observable y que fuese la relación de tal deduci- sobre la relación entre ley natural y bilidad con nuestra ignorancia sobre predicción. Poincaré lo describía así: los movimientos reales de las molé“Aunque las leyes naturales ya no culas —debida a la imposibilidad de tuvieran secretos para nosotros, no desarrollar todos los cálculos nece- podríamos conocer el estado inicial sarios para determinar el movimiento más que de una forma aproximada . de cada partícula—, el lenguaje de los Si ello nos permitiera conocer el estado físicos resultaría francamente para- siguiente con la misma aproximación , dójico en opinión de Poincaré. Cuando no necesitaríamos más y diríamos que tuvieran que hacer una predicción se hemos predicho el fenómeno, que exis ve rían ob ligado s a re sp onde r co n ten leyes que lo gobiernan. Pero no expresiones inaceptables del tenor siempre sucede así. Pudiera ser que siguiente: “Se me pide que prediga los pequeñas diferencias en las condifenómenos futuros. Si por desgracia ciones iniciales generaran diferencias conociera las leyes que los rigen, no grandísimas en los fenómenos finapodría hacerlo más que mediante les; un pequeño error de las primeras cálculos inacabables y tendría que ocasionaría entonces un error de bulto renunciar a daros una respuesta; pero de las últimas. La predicción resulcomo tengo la fortuna de ignorarlas, taría imposible y nos encontraríamos os contestaré de inmediato. Lo más ante un fenómeno aleatorio.” extraordinario de todo es que mi resLa dificultad en que se encontraba puesta será correcta.” la noción misma de predicción no TEMAS 16
dependía empero de una fantasma- nica”. Esos trabajos se apoyaban en las Reflexio nes : la idea de un princigórica intervención del azar, de ine- una base doble: por un lado, recha- pio válido de conservación del calófables características de la compleji- zaban toda tesis que afirmara la mate- rico que permitiera que una cantidad o de fabulaciones literarias sobre rialidad de cualquier tipo de fluido dad dada de éste fluyera íntegra por lo “aleatorio”, sino de las hipótesis uti- calórico y, por otro, aceptaban el punto las máquinas térmicas sin consulizadas al aplicar determinados algo- de vista según el cual el calor es un mirse y produjera, no obstante, un traritmos. Poincaré, en resumen, no creía movimiento excitado de las partícu- bajo mecánico. Sadi Carnot alberque esta dificultad supusiera un las de los cuerpos materiales. Merced gaba dudas sobre todo ello, dudas defecto patológico de la razón clásica a su amplia implantación fenomeno- empero confinadas a las pocas págini el inicio del resquebrajamiento del lógica, la nueva teoría no necesitaba nas de apuntes privados, que salideal galileano. según Thomson de modelos mecáni- drían a la luz decenios más tarde a Y precisamente en una introduc- cos que la especificaran. Las hipoté- toro pasado. Para quien, como el joven ción a la termodinámica es razona- ticas partículas constituyentes de la Thomson, redescubría las páginas ble recordar las tesis de Poincaré. materia no eran entidades observa- impresas de Carnot, había una difi Vivimos épocas en las que se alzan bles y los eventuales modelos de su cultad fundamental: ¿cómo era posipor doquier soflamas contra la cien- comportamiento resultaban, por ble aceptar el principio de las Reflecia clásica, presentada como fuente tanto, irrelevantes para la explicación xiones y admitir, al propio tiempo, los de falsas certezas, de devastación de de los fenómenos térmicos. resultados experimentales de James la relación entre el hombre y la natuLa nueva ciencia, bautizada enton- P. Joule, que inducían a creer en la raleza, del dominio de la ciencia y de ces como “teoría dinámica del calor”, transformación del trabajo en calor? la técnica sobre todo pensamiento. ocupó rápidamente el lugar que a Este era el enigma que Thomson Susurros y gritos que, paradójica- principios del siglo pasado desempe- (y Rudolf Clausius) escogieron para mente, se basan, con las variaciones ñaran las teorías matemáticas sobre construir la nueva teoría dinámica del introducidas por la ciencia clásica, el calórico. Estas teorías utilizaban calor y para situar sin reservas a su en las nociones centrales de predic- con profusión modelos que especifi- frente el lema según el cual el calor ción y proclaman, con tono encen- caban las relaciones entre los cor- es mo vimiento . dido, la necesidad de una ciencia alter- púsculos de calórico y las partículas La divisa provocó una curiosa situanativa de nuevo cuño. Creo legítimo materiales genuinas. Adviértase que, ción. En primer lugar, durante musubrayar siempre que la razón clá- para los sabios de aquel tiempo, la chos años se tuvo la convicción de que sica ha forjado instrumentos sólidos teoría del calórico carecía de apoya- esa proclama no era válida más que de conocimiento del mundo físico, que tura sólida. Todo el mundo conocía en ausencia de modelos microscópino se resquebrajan frente a los ensue- la imposibilidad de una deducción cos de interpretación de conceptos ños de una física alternativa. La teo- completa de las ecuaciones de la difu- esenciales, verbigracia, los de temría newtoniana de la gravedad, el sión térmica a partir únicamente de peratura, presión o entropía. En sealgoritmo de Lagrange, la teoría max- las leyes de la mecánica analítica, gundo lugar, entre los investigadowelliana de los campos electromag- sostenida por J. Fourier en los años res se convirtió en lugar común la néticos, la mecánica estadística, la veinte. Ello confería a la ciencia del creencia de que el nacimiento de la termodinámica y la relatividad res- calor una gran autonomía respecto de termodinámica se debía a la victoria tringida son monumentos del saber la teoría matemática del movimiento. del postulado “el calor es movimiento” que no pueden ser derribados por los También se hallaba extendida la opi- sobre el postulado “el calor es un ramalazos escépticos de quienes con- nión de que ningún modelo con ca- fluido discreto formado por átomos de sideran la ciencia clásica como un lórico podría interpretar razona- radiación térmica”. residuo fósil y nocivo. blemente la constancia del calor No es éste el momento de recordar Esta legitimidad se impone con específico de los sólidos, descubierta el efecto devastador que la primera especial fuerza a la hora de divulgar experimentalmente por P.-L. Dulong de tales ideas produjo durante la teorías que, incorporadas en la téc- y A.-T. Petit entre 1818 y 1819. segunda mitad del XIX , levantando nica actual, gobiernan la vida diaria Dos factores vinieron a modificar obstáculos de distinto tipo y peso cone inciden en la experiencia cotidiana esta situación. El primero fue el redes- tra el avance de la física molecular y de los ciudadanos mucho más que las cubrimiento en 1848 por un jovencí- de la mecánica estadística; en la de la gran unificación o los análisis de simo Thomson de los argumentos mente de todos está el aislamiento de cúmulos galácticos. desarrollados por Sadi Carnot en L. Bolzmann y de otros. Se debe, en Tal es notablemente el caso de una 1824. Las escuetas páginas del ensayo cambio, subrayar la errónea creenciencia como la termodinámica, que de Carnot titulado Reflexio nes sob re cia difundida sobre el nacimiento permea los entresijos de la relación la capacidad motriz del fuego no ha- mismo de la termodinámica; y no sólo contemporánea entre el hombre, las bían suscitado al principio ningún por pureza historiográfica, sino, sobre máquinas y la naturaleza y que está interés fuera del círculo de los cons- todo, para descubrir la raíz de algupresente como contexto cultural de tructores de máquinas de vapor y nos errores que todavía perduran y todos los debates actuales sobre la tampoco generaron muchas pregun- terminan encontrando expresión complejidad. tas en 1832, cuando Émile Clapeyron cuando se intenta tender puentes Los primeros elementos de la ter- reinterpretó el ensayo y lo tradujo al entre los formalismos indispensables modinámica actual se pueden descu- lenguaje menos popular y algo más para discutir, por ejemplo, los crisbrir en los trabajos publicados por austero de la academia. Thomson, en tales de espín y un lenguaje comWilliam Thomson desde 1848, cuando cambio, recurrió a Carnot para sen- prensible por quienes no hayan curtenía 24 años. Ahondando en esa tar las bases de una definición de sado la carrera de físicas. línea, el futuro Lord Kelvin enuncia- temperatura absoluta. Un paso imConviene partir de una consideraba en 1852 un principio sobre la “ten- portante, desde luego, pero insufi- ción documentada, la que nos relata dencia universal de la naturaleza ciente para superar un obstáculo for- que los orígenes de la ciencia moderna hacia la disipación de la energía mecá- midable que se encontraba todavía en no remiten a la materialidad del calóCALOR Y MOVIMIENTO
3
rico, sino que es dominante la tesis este punto, el lector de la Optica en- sobre el calor, Lavoisier y Laplace llesegún la cual “el calor es movimiento”. contraba la tesis según la cual, si garon a un compromiso. Lavoisier se Cuando hablamos de orígenes nos realmente el movimiento tuviera que atenía a la hipótesis de que el calor estamos refiriendo a la práctica una- desaparecer, entonces “los cuerpos fuera un fluido elemental cuya funnimidad en la aceptación de la de la Tierra, de los planetas, de los ción era insustituible para explicar segunda de las tesis durante la era cometas, del Sol, con todas las cosas las reacciones químicas, mientras que galileana y newtoniana. que contienen, se enfriarían y se con- Laplace, por su formación matemáLa cuestión no es, por tanto, enten- gelarían”. tica, propendía a privilegiar el segunder por qué la afirmación “el calor es La muerte térmica del mundo, en do modelo, según el cual el término movimiento” triunfó con posteriori- suma, estaba implícita en un modelo temperatura correspondía al producto dad a 1850. Se trata, por contra, de del calor que, por otra parte, había de la masa por la velocidad al cuadrado entender por qué tal afirmación ter- que interpretar entre líneas. Newton, de las partículas materiales. El comminó por ser considerada inválida, que tenía predilección por una ima- promiso entre estos dos enfoques contras haber desempeñado un papel gen “perdurable” de la naturaleza, trapuestos se resolvió admitiendo que protagonista, sobre todo entre los teó- consideraba al mismo tiempo la hipó- ambos modelos eran equivalentes en ricos de los siglos XVII y XVIII , siendo tesis de que en ese mismo mundo buena medida, pues cada uno de ellos sustituida por la noción de un caló- actuasen factores capaces de rege- parecía gozar de una notable base rico material que se relacionara con nerar el movimiento y proponía indi- empírica. La equivalencia se converla materia ponderable. vid ualizarlos en ciertos pri nci pio s tía así en una tesis sobre la posibiliSi repasamos brevemente la se- activos, entre ellos la causa de la gra- dad de traducción parcial de un gunda cuestión podemos encontrar- vitación y “la causa de la fermenta- modelo a otro. nos con cosas notables. Galileo, por ción”, responsable esta última de un Como se observa, las dos descripejemplo, defendió en Il Saggiator e conjunto de procesos que iban desde ciones admisibles del calor se consi(1623) la tesis de que nuestras sen- el calor solar hasta el mantenimiento deraban compatibles, aunque, sobre saciones de calor no reflejan una cua- de los fenómenos observables en los todo en cuestiones relacionadas con lidad intrínseca de los cuerpos exter- seres vivos. la química y los fenómenos de radianos. El nombre “calor” denotaba, en Les tocó a los matemáticos del XVIII ción, a finales del XVIII y en los pricambio, según su punto de vista, una el honor de identificar calor y estado meros años del XIX predominaran las cualidad de los receptores sensoria- de movimiento. Baste recordar aquí tesis caloricistas. El propio Laplace les. Los receptores reaccionaban a la algunos momentos de esta identifica- se convirtió al modelo del fluido y lo irritación provocada por flujos de par- ción. En un tratado sobre hidrodiná- elevó a dignidad algorítmica en el tículas ígneas. La reacción dependía mica de 1738, Daniel Bernoulli libe- quinto volumen de su tratado de mecádel número y de la velocidad de los ralizó el modelo newtoniano mediante nica. En el capítulo sobre la física de átomos ígneos; en este sentido, por la introducción de dos variantes fun- los fluidos elásticos aceptó que el calótanto, Galileo se adhería a la tesis damentales relativas al estado gaseo- rico fuera un conjunto desordenado de según la cual el calor es mov imiento , so de la materia. En primer lugar, los gran número de partículas de radiasin rechazar la hipótesis de que exis- corpúsculos materiales en movimiento ción térmica y admitió la hipótesis tiera en la naturaleza un fluido dis- podían chocar contra las paredes del de que las moléculas fueran centros de creto al que atribuir la causa de nues- contenedor que los encerraba, produ- emisión y de absorción de radiación; tras sensaciones. Isaac Newton, en ciendo así una presión. En segundo en virtud de ambas premisas moscambio, hizo suya la tesis del calor lugar, el sistema gaseoso se caracte- traba que era posible recupera r la ley como movimiento y la desvinculó de rizaba por el desorden: para estudiar de Boyle, superar las dificultades relaun modelo de fluidos. Newton, de su comportamiento macroscópico cionadas con la propagación del sonido hecho, hablaba directamente del calor había que recurrir a valores medios. en los gases, abrir una vía para la como movimiento de partículas cons- Moviéndose en torno a esas dos direc- comprensión de las transiciones de tituyentes de los cuerpos. El estado trices, y apoyándose en algoritmos de fase y sentar los primeros elementos de movimiento al que Newton aludía simplicidad extrema, Bernoulli obtuvo para una explicación del problema de se podía entender como la vibración dos resultados excelentes. Descubrió los calores específicos. de una partícula alrededor de un que era posible escribir una ecuación La teoría de Laplace hubiera resulpunto fijo de equilibrio o como su de estado para el gas real y mostrar tado espléndida, de no haber estado movimiento a lo largo de trayecto- el límite para un gas perfecto de covo- viciada por excesivas libertades materias curvadas de diversas formas, lumen nulo, para acercarse a una pri- máticas. Tampoco le acompañó la forpero en ningún caso se producían coli- mera forma de la ley de Boyle. Además tuna, si recordamos que sus razonasiones entre los corpúsculos. Mas este era posible llegar a una ley de Boyle mientos sobre los calores específicos punto de vista no quedó desarrollado que estableciera una correlación entre se basaban en datos experimentales de forma clara en las páginas impre- presión, volumen y temperatura, emponzoñados por errores sistemásas, figurando en manuscritos que el entendida ésta última como informa- ticos y que influyeron negativamente autor de los Pri nci pia conservaba ción sobre el cuadrado de las veloci- durante muchos años en las dispucelosamente para su uso privado. dades de las partículas. tas concernientes a los fluidos elásTal es el origen del sentido c ríptico La teoría de Daniel Bernoulli sobre ticos y a la calorimetría. de algunas páginas celebérrimas de el gas perfecto atravesó el XVIII para Téngase en cuenta que un investila Optica newtoniana. En la cuestión recalar, al finalizar la centuria, en gador como Laplace encontró argu31 de este tratado Newton sostenía las posiciones defendidas por el gran mentos razonables para saltar del que, en general, “el movimiento tiene P. S. de Laplace en un ensayo, escrito punto de vista “newtoniano” al de la mayor tendencia a morir que a nacer”. junto con A.-L. Lavoisier, sobre el pro- realidad del fluido calórico. En efecto, Y proseguía: “La variedad de movi- blema de los calores específic os y del existían motivos razonables para jusmiento que encontramos en el mundo uso del calorímetro de hielo. En dicho tificar semejante cambio de opinión. decrece continuamente.” Llegado a trabajo de 1781, titulado Memori a Información que en buena medida 4
TEMAS 16
procedía de la química, donde el caló- en detalles. Es fácil entender la for- ción, pues no acababa de entender rico parecía esencial para explicar tuna que hizo la teoría de J.-B. Fourier. cómo una cantidad dada de calor las reacciones. Pero también provenía Apoyándose en la imposibilidad de pudiera transformarse en trabajo sin de investigaciones que podríamos inferir la ecuación de difusión de las violar el principio de conser vación considerar típicas de los newtonianos leyes de la mecánica, propuso el aban- aceptado por Carnot. Como escribía del XVIII , que no habían olvidado la dono explícito de cualquier modelo Lord Kelvin en 1848, se podían admihostilidad que Newton mostró siem- sobre la naturaleza del calor y la sepa- tir los datos de Joule, pero al mismo pre respecto de la acción a distancia. ración, por principio, de la mecánica tiempo había que aceptar que “la conEl autor de los Principia , de hecho, su- de Lagrange y de la termología. versión del calor en efecto mec ánico brayó muchas veces que, para explicar Contrariamente a cuanto se creyó fuese probablemente imposible”. la gravitación, se requería apelar a luego, nunca existieron problemas Se encontró la solución mediante la física de un medio formado por par- serios para escoger entre calórico y una atenuación de la posición de tículas que mediasen los influjos entre calor como movimiento, aunque en Carnot, debida sobre todo a Clausius. las masas. En la segunda mitad del los primeros decenios del XIX se deba- En vez de aceptar la idea de que el XVIII y en los primeros decenios del tiera vivamente la cuestión de los calor se transfiriera en las máquinas XIX hicieron suya esta tesis newto- modelos de la termología. Los pro- térmicas por imperativo del princiniana varios investigadores que se blemas genuinos eran de tenor téc- pio de conservación de la termología habían lanzado a la búsqueda del nico y giraban en torno a tres temas. estándar, cabía, según Clausius, aplimedio gravitatorio. En esa dirección El primero tenía que ver con los c alo- carle un principio de conservación de se adentraron, entre otros, G.-L. Le res específicos, que no acababan de la mecánica, en virtud del cual “se Sage y P. Prévost, con la esperanza encajar en ningún modelo. El segundo puede transformar un movimiento de que su propuesta del gas enrare- concernía al principio de conservación en trabajo”. Llegados este punto, la cido fuera un buen modelo natural del del calor: cualquiera que fuese el sig- tesis según la cual el calor era movimedio gravitatorio: el estudio de la nificado del nombre “calor”, parecía miento parecía una consecuencia física de este último podía ofrecer, que no se podía violar este principio inmediata de la aceptación de un nuetal vez, una clave para aclarar la sin que se derrumbase toda la ter- vo principio de conservación que era, naturaleza misma de la gravitación. mología. El tercero, finalmente, se por otra parte, conforme a los expeUno de los problemas centrales de refería al significado del nombre “tem- rimentos de Joule. esa lejana aventura teórica diecio- peratura”. En la teoría de Laplace, Nacía así en pocos meses “la teochesca fue la tendencia que mani- un termómetro era una máquina que ría dinámica del calor” y lo hacía sin fiestan los sistemas de cuerpos mate- contaba partículas de radiación tér- modelos interpretativos que descririales hacia el equilibrio térmico. Le mica libre: la temperatura, por tanto, bieran el movimiento molecular. tocó a Prévost proponer un modelo era una función del modelo que, como Estos últimos se enfrentaron a múlen el que tal tendencia se explicaba en hemos visto, se encontraba en situa- tiples obstáculos durante la segunda términos de flujos de partículas de ra- ción problemática. mitad del siglo XIX , tiempo en el que diación térmica, emitidas y absorbiEl primer problema, todo un hueso se alimentó la esperanza de encondas microscópicamente por los cuer- a lo largo del siglo XIX , siguió teniendo trar en la hidrodinámica el formapos. En este contexto los flujos de el carácter de una excepción anómala lismo matemático idóneo para despartículas de calórico se veían como incluso en el ámbito de la física de cribir los llamados “átomos vórtice”, una analogía con los flujos hipotéti- los gases promovida por Maxwell y entendidos como singularidades de un cos de partículas del medio gravita- Boltzmann. El segundo y el tercero, medio continuo y considerados la torio. Aunque esta analogía no resis- en cambio, se reformularon a media- mejor opción, preferible a los cortió el paso del tiempo, el modelo de dos de la centuria; sus primeras solu- púsculos materiales en los que muPrévost sobre radiación térmica se ciones representaron los fundamen- chos científicos veían los frutos metaimpuso hasta el punto de que Joseph- tos de la nueva termodinámica. Lord físicos de un retorno nostálgico a Louis Gay-Lussac, en sus lecciones Kelvin y Clausius, aunque no sólo temas lucrecianos. de física experimental, lo colocase en ellos, promovieron la reformulación A pesar de todo se consiguió erigir la cúspide de la termología de la pri- obligada y afrontaron una situación la construcción maestra de Maxwell mera mitad del XIX . Existían, en suma, teórica que parecía enigmática. La y Boltzmann en torno a la idea del buenas razones para abandonar la teoría de Sadi Carnot consideraba movimiento molecular, alumbrando idea del calor como movimiento y para explícitamente que, al producir tra- en el horizonte una nueva concepción aceptar que en el mundo existiera bajo en las máquinas térmicas, el de la predicción à la Poincaré . La venuna radiación térmica de estructura calórico descendiese sin consumirse tana a este horizonte se abrió de par corpuscular en el marco de la nueva desde una fuente de temperatura en par con el “teorema H”, enunciado química de Lavoisier y de la nueva teo- superior hacia otra de temperatura por Boltzmann en 1872. Versaba soría laplaciana. inferior, una caída comparable a la bre la posibilidad de tratar la mateTéngase además en cuenta que las de la masa de agua que se precipi- ria enrarecida en un modelo que cuanalternativas a la teoría de Laplace tara en un campo gravitatorio y pu- tizase la energía cinética de traslación eran en aquel tiempo bastante débi- siera en movimiento las aspas de un molecular. Esa energía se podía desles. Tan débil era la propuesta del molino. Las mediciones de Joule, por cribir como un espectro discreto y conde de Rumford, que atacaba el caló- otra parte, indicaban claramente que finito, cuya escala se fundaba en un rico proponiendo una interpretación el trabajo se transformaba en calor. cuanto energético indivisible. Voldel calor como propagación de ondas El punto de vista de Joule llevaba a viendo a los procedimientos de disbasada en la acústica de las campa- concluir que la temperatura de un cretización codificados por Lagrange nas, como la idea de André Marie cuerpo constituyese una información para abordar el problema matemá Ampère, quien apuntaba a una rela- sobre la energía cinética molecular. tico de una cuerda que vibra y los ción entre el calor y los estados de Estos dos razonamientos le parecían desarrollos operados por Riemann en vibración molecular, pero sin entrar a Lord Kelvin toda una contradic- el campo de las ecuaciones diferenCALOR Y MOVIMIENTO
5
ciales, Boltzmann intentaba afrontar en términos totalmente inno vadores la cuestión entera de la irre versibil ida d. En estos tér minos se establecieron dos movimientos teóricos que apuntaban hacia el siglo XX . El primero surgió a través de la relación que se estableció entre las investigaciones de Planck sobre el cuerpo negro y los cuantos “clásicos” de Boltzmann. El segundo se alimentó de las investigaciones de Poincaré sobre el problema de los tres cuerpos y sus consecuencias en el teorema H. Boltzmann emprendió con posterioridad a 1872 densas argumentaciones probabilísticas sobre el modo en que pudieran repartirse los cuantos en las distribuciones de los estados moleculares del gas perfecto, al borde de una posible interpretación microscópica de los procesos irreversibles. Cuando en el último decenio del siglo Planck abordó la radiación de cuerpo negro y dedujo la ley de Wien de sólidos fundamentos electromagnéticos, Boltzmann le hizo observar que los procesos irreversibles en las cavidades de Kirchhoff no podían explicarse únicamente por las ecuaciones de Maxwell, invariantes para la inversión del tiempo, lo que ponía a la física de la radiación frente al mismo obstáculo que había creado serias dificultades a la física del gas enrarecido. En este último caso, la irreversibilidad no se podía explicar
solamente por las ecuaciones de EulerNewton, precisamente en función de la invariancia para la inversión temporal. Boltzmann pensaba que cabía enunciar una especie de teorema H electromagnético para el cuerpo negro, apoyándolo con laboriosas inferencias estadísticas. Planck no rechazó estas sugerencias, que trazaron la vía imprevisible hacia la constante h. La segunda dirección no fue independiente de la comentada. La inteligencia de Ernst Zermelo, adjunto de Planck, reveló una dificultad decisiva en la física boltzmanniana, consecuencia directa de los progresos realizados por la mecánica analítica, gracias a las investigaciones de Poincaré sobre el problema de los tres cuerpos, de las que habían salido a la luz un grupo de teoremas directamente relacionados con el comportamiento de sistemas mecánicos del mismo tipo que los implicados en los modelos boltzmannianos de gas. Como apuntaba Zermelo, estos teoremas constituían una lanza en el costado de la física de Boltzmann. Teniendo en cuenta los resultados obtenidos por Poincaré, resultaba inevitable afirmar que, en un sistema de masas puntiformes, sometido a la acción de fuerzas que no dependiesen más que de la posición espacial, cada estado de movimiento tenía que representarse por un número de vueltas arbitrariamente grande. Los procesos
INVESTIGACION Y CIENCIA
DISTRIBUCION
Francisco Gracia Guillén EDICIONES José María Valderas, director ADMINISTRACIÓN Pilar Bronchal, directora PRODUCCIÓN M.a Cruz Iglesias Capón Bernat Peso Infante SECRETARÍA Purificación Mayoral Martínez EDITA Prensa Científica, S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Teléfono 93 414 33 44 - Telefax 93 414 54 13
para España:
DIRECTOR GENERAL
SCIENTIFIC AMERICAN
John Rennie BOARD OF EDITORS Michelle Press, Managing Edi tor ; Philip M. Yam, News Editor ; Ricki L. Rusting, Senior Associate Editors ; Timothy M. Beardsley y Gary Stix, Associate Editors ; W. Wayt Gibbs, Senior Writer ; Kristin Leutwyler, On-line Editor ; Mark Alpert, Carol Ezzell, Alden M. Hayashi, Madhusree Mukerjee, George Musser, Sasha Nemecek, Glenn Zorpette, Editors; Marguerite Holloway, Steve Mirsky y Paul Wallich, Contributing Editor . PRODUCTION Richard Sasso PRESIDENT Joachim P. Rosler CHAIRMAN AND CHIEF EXECUTIVE OFFICER John J. Hanley
MIDESA
irreversibles hacia presuntos estados finales eran imposibles en tales sistemas y no se podía definir una función como la que debía expresar la entropía en un gas boltzmanniano, a menos que se complementara la descripción del sistema mediante hipótesis físicas muy especiales. Estas dos temáticas constituyeron las puertas de entrada hacia la termodinámica y la teoría de la radiación en la primera mitad del XX . Puertas que daban acceso a un número de problemas mayor que el de los que quedaban atrás y que en buena medida serían cerradas por las investigaciones de Einstein sobre las fluctuaciones, el movimiento browniano, el cuanto de luz y, en general, las interrelaciones entre materia y radiación. Todo lo que surgió de ello forma parte de la praxis contemporánea de las ciencias de la naturaleza, enriquecida rápidamente con nuevos enfoques matemáticos, nuevos desarrollos en la teoría de los cuantos y nuevas técnicas de investigación química. Este enriquecimiento, que continúa, nos ayuda a entender que haya pocas cosas tan difíciles como las que bordean la segunda ley de la termodinámica, como escribía Einstein. La naturaleza, en efecto, es siempre mucho más rica que nuestras hipótesis, aunque estas últimas nos parezcan tan consolidadas por la técnica que diríamos que fuesen definitivas.
Aragoneses, 18. (Pol. Ind. Alcobendas) 28108 Alcobendas (Madrid) Tel. 91 484 39 00 para los restantes países:
Prensa Científica, S. A. Muntaner, 339 pral. 1.a 08021 Barcelona Teléfono 93 414 33 44
PUBLICIDAD
GM Publicidad Francisca Martínez Soriano Menorca, 8, semisótano, centro, izda. 28009 Madrid Tel. 91 409 70 45 Fax 91 409 70 46 Cataluña y Baleares: Miguel Munill Muntaner, 339 pral. 1.a 08021 Barcelona Tel. 93 321 21 14 Fax 93 414 54 13
EDITOR IN CHIEF
6
Copyright
©
1999 Prensa Científica S. A. Muntaner, 339 pral. 1. a, 08021 Barcelona (España)
Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor del libro. ISSN: 1135-5662 Dep. Legal: B-32.350-1995 Filmación y fotocromos reproducidos por Dos Digital, Zamora, 46-48, 6.a planta, 3.a puerta, 08005 Barcelona Imprime Rotocayfo, S.A. Ctra. de Caldes, km 3, Santa Perpètua de Mogoda (Barcelona) Printed in Spain - Impreso en España
TEMAS 16
Sadi Carnot S. S. Wilson Se le conoce por su análisis de la máquina térmica ideal, pero estaba más interesado en la aplicación práctica de la potencia mecánica del vapor. El ciclo que describió no es el ideal para la mayoría de las máquinas modernas
N
icolas Léonard Sadi Carnot micas reales. Tampoco definió el renfue un miembro destacado de dimiento térmico del ciclo, porque no una familia extraordinaria. acabó de entender del todo la equiSu padre, Lazare Nicolas Marguerite valencia entre calor y trabajo como Carnot, fue un distinguido general formas de energía y porque el concepto que sirvió como ministro de la gue- de temperatura absoluta le era desrra bajo las órdenes de Napoleón y conocido. escribió tratados de estrategia miliLa obra de Carnot ha sido mal tar, mecánica, geometría y funda- entendida, sobre todo porque son mentos del cálculo. Su hermano más pocos quienes la han leído. Publicadas joven, Lazare Hippolyte, fue perio- por Bachelier, el principal editor de dista y político radical. Un sobrino trabajos científicos de Francia, las suyo, Marie François Sadi Carnot, Réflexions fueron objeto de reseñas presidió la República Francesa desde favorables y la edición se agotó pronto. 1887 hasta 1894, año en que murió a Pero hasta 1890 no se tradujo al inmanos de un anarquista italiano. El glés. El conocimiento que muchos propio Sadi Carnot entró en la his- ingenieros e investigadores actuales toria como el filósofo de la naturaleza tienen de la obra de Carnot no deriva (lo que ahora llamaríamos un físico) de sus propios escritos, sino de los coque en 1824 fundó la ciencia de la mentarios de mediados del siglo XIX termodinámica con la obra Réflexions debidos a Benoit P. Émile Clapeyron, sur la puissance motrice du feu et sur Rudolf Julius, Emanuel Clausius y les machines propres à développer William Thomson (convertido descette puissance (Reflexiones sobre la pués en Lord Kelvin). Fue Thomson potencia motr iz de l ca lor y so bre las quien expresó el rendimiento térmico máquinas adecuadas para desarro- del ciclo hipotético de Carnot en térllar esta potencia ). Se le atribuye en minos de la temperatura absoluta. particular la definición del ciclo ideal En los comentarios mencionados se de funcionamiento de las máquinas puso excesivo énfasis en el papel del térmicas, es decir, el ciclo que tenga ciclo de Carnot como un ciclo ideal de el rendimiento máximo posible. El las máquinas térmicas, con menosrendimiento térmico es el cociente cabo del resto de su obra, que está entre el trabajo producido y el calor llena de recomendaciones prácticas consumido; se expresa en función de bien fundamentadas. Pienso que si las temperaturas absolutas de la sus contemporáneos las hubiesen fuente de calor y del componente de leído y las hubiesen seguido, la revola máquina que lo absorba. lución industrial en Francia se habría Esta interpretación de los aspec- acelerado. tos esenciales de la obra de Carnot puede inducir a engaño, ya que sus arnot nació en 1796, hacia el final preocupaciones no se centraban en el del período de la historia eurodominio que hoy consideramos pro- pea que se ha denominado la Edad pio de la física. No concibió su análi- de la Razón. Dos años antes se había sis de las máquinas térmicas como un fundado la École Polytechnique para tratado teórico, sino como una obra formar ingenieros militares. En los de divulgación destinada a mejorar primeros 35 años de existencia de y a extender la utilización en Francia esta institución pasaron por ella y de las máquinas de vapor y de otros allí se educaron una serie de destaingenios térmicos. El ciclo que Carnot cados autores de las ciencias físicas describe no es un ciclo ideal para el y matemáticas, entre los que figuran funcionamiento de las máquinas tér- Joseph Louis Lagrange, Jean Bap-
C
CALOR Y MOVIMIENTO
tiste Joseph Fourier, Claude Louis Berthollet, André Marie Ampère, Pierre Louis Dulong, Augustin Louis Cauchy, Charles Bernard Desormes, Nicolas Clément-Desormes, Gaspard Gustave de Coriolis, Siméon Denis Poisson, Joseph Louis Gay-Lussac, Augustin Jean Fresnel, Jean Baptiste Biot, Jean Louis Marie Poiseuille y Clapeyron. Carnot también se formó en la École Polytechnique. El trabajo de esa pléyade contribuyó a desarrollar la creencia de que todos los aspectos del mundo físico podían entenderse a la luz de la razón, siempre que se hiciera el esfuerzo suficiente para aplicar el método científico del análisis teórico, sustentado en la experimentación. El método científico triunfó admirablemente en mecánica, electricidad, óptica y en el análisis de materiales, sirviendo también de fundamento a la ciencia de la ingeniería y desplazando el enfoque empírico de la técnica que había resultado fructífero hasta los comienzos del siglo XIX . Los expertos constructores de máquinas y de instrumentos del siglo XVIII , sobre todo los británicos, no habían realizado la revolución industrial mediante el análisis teórico, sino mediante reglas empíricas que condujeron a mejoras en la agricultura, en la utilización de la energía del viento, del agua y del vapor, en la construcción de canales, de ferrocarriles y de barcos de vapor, en la fundición del hierro con carbón y en la mecanización de la producción textil y de otras industrias. La revolución industrial tuvo lugar en Gran Bretaña mucho antes que en Francia, que en el resto de Europa y que en los Estados Unidos. El retraso de la industrialización de Francia se explica en parte por la inestabilidad política derivada del vacilante poder de la monarquía y de la aristocracia, del ascenso y la caída de Napoleón y de la disolución del imperio francés tras la derrota de 7
1. RETRATO DE SADI CARNOT pintado por Louis Léopold Boilly en 1813, cuando Carnot tenía 17 años. Viste el uniforme de la École Polytechnique de París, centro fundado en 1794 para formar ingenieros militares; al emprender su trabajo sobre las máquinas de vapor tenía ya una breve carrera castrense.
8
Siendo aún estudiante le pidió a Napoleón que permitiera a los alumnos de la École Polytechnique participar en la defensa del imperio, atacado por varios ejércitos europeos. Napoleón accedió y, cuando París fue asediada en marzo de 1814, Carnot y sus compañeros lucharon en las afueras de la ciudad.
TEMAS 16
Napoleón en Waterloo. Pero los factores técnicos también contribuyeron al retraso. La industria carbonífera francesa distaba mucho de la pujanza británica. Y no construyeron su primer ferrocarril de pasajeros hasta el decenio de 1840; incluso entonces la obra fue supervisada por un contratista británico, Thomas Brassey. Sadi Carnot había nacido en París, en el Palais du Petit Luxembourg, donde su padre residía por ser miembro del Directorio que gobernó Francia entre el final de la Revolución, en 1795, y la subida de Napoleón al poder, en 1799. Lazare se retiró de la vida pública en 1807 para enseñarles a sus hijos Sadi e Hippolyte matemáticas, física, lenguas y música. Inscribió al primero en la École Polytechnique en 1812, cuando contaba 16 años, la edad mínima para la admisión. Los ejércitos aliados invadieron Francia al año siguiente y Sadi escribió a Napoleón pidiéndole que permitiera a los estudiantes incorporarse a la defensa del imperio: “Señor: El país necesita a todos sus defensores. Los alumnos de la École Polytechnique, fieles a su lema, solicitan les sea permitido dirigirse con prontitud a las fronteras para compartir la gloria de los bravos hombres que están entregando su vida a la salvación de Francia. El batallón, orgulloso de haber contribuido a la derrota del enemigo, volverá a la escuela a cultivar las ciencias y a prepararse para nuevos servicios.” Napoleón concedió el favor pedido y en marzo de 1814 los estudiantes combatieron con bra vura, aunque sin éxito, para impedir la entrada en París de los ejércitos aliados. Napoleón abdicó en abril, pero vol vió al poder un año después. En el período subsiguiente, conocido como los Cien Días, Lazare Carnot ocupó la cartera ministerial del interior. Después de que Napoleón abdicase por segunda vez, tras su derrota en Waterloo, Lazare se exilió. Sadi, que se había graduado y servía en el ejército como oficial ingeniero, fue relegado a trabajos de rutina en la guarnición. En 1820 se retiró del ejército con media paga y regresó a París. Allí estudió física y economía política en diversos centros, como la Sorbona, el Collège de France, la École des Mines y el Conservatoire des Arts et Métiers. También visitó diversas industrias y talleres para observar cómo operaban en la práctica los principios de la economía. Del carácter de Carnot no se sabe CALOR Y MOVIMIENTO
mucho. Se le describió como un hombre reservado, reacio a la publicidad. Se le atribuye la frase: “Di poco acerca de lo que sabes y nada sobre lo que no sabes.” La mayor parte de la infor-
mación sobre su vida procede de un apunte que Hyppolite escribió en 1878, unos 46 años después de la muerte de Sadi. Señala que el nombre de Sadi procede de un poeta y
2. EL PRINCIPAL TRABAJO DE CARNOT, publicado en 1824, promovió la construcción de máquinas de vapor y de otros ingenios térmicos en Francia, cuyo desarrollo industrial iba rezagado con respecto a Inglaterra. Aquí se muestra la portada. El título, traducido, se lee Reflexiones sobre la potencia motriz del calor y sobre las máquinas idóneas para desarrollar esta potencia . En las Réflexions, Carnot definió un ciclo hipotético de funcionamiento de una máquina térmica que generase mayor potencia motriz que cualquier otro ciclo. La naturaleza del ciclo se interpretó equivocadamente entre la comunidad científica.
9
A
B 1
N O I S E R P
4
2
3 D
C
VOLUMEN
1 A
B
CALDERA
2 B
C
L
3 D
C
CONDENSADOR
4 A
D
3. DE CUATRO FASES CONSTA EL CICLO DE CARNOT, representada cada una de ellas por una línea en la gráfica presión-volumen y por un diagrama de un pistón en un cilindro. Las letras de la gráfica corresponden a las posiciones marcadas con letras en el pistón. En la primera fase, el cilindro se pone en contacto con una f uente de calor, como una caldera. Cuando el vapor del cilindro se expande, absorbe bastante calor de la caldera para mantener una temperatura y una presión constantes. En la segunda fase se quita la caldera. Como el vapor continúa su expansión, bajan la presión y la temperatura. En la tercera fase se pone el cilindro en contacto con un cuerpo a baja temperatura, un condensador, por ejemplo. Cuando se condensa el vapor, da bastante calor al condensador para mantener constantes la presión y la temperatura. En la cuarta fase se quita el condensador. Puesto que se continúa comprimiendo el vapor, aumentan su presión y su temperatura. Al alcanzar ésta su valor inicial, el ciclo se completa y la máquina torna a su estado original. Ningún ciclo genera más potencia motriz que el de Carnot. Sadi no demostró, empero, que el ciclo tuviera el rendimiento térmico máximo posible: la razón máxima del trabajo realizado al calor consumido. La primera ley de la termodinámica, que expresa la equivalencia entre el trabajo y el calor como formas de energía, no se había establecido. La evaluación del rendimiento térmico del ciclo de una máquina térmica requiere la noción de temperatura absoluta, desconocida entonces también.
10
moralista persa, Sa‘di o Shiraz, cuyos escritos gustaban a Lazare. Según el mismo Hippolyte, Sadi fue de constitución delicada, fortalecida a tra vés del ejercicio físico. Estaba dotado de una sensibilidad extremada y de una gran energía. Cuando consideraba que estaba combatiendo la injusticia, nada podía detenerlo. No está claro cómo llegó a interesarse Carnot en las máquinas de vapor. Robert Fox, el principal estudioso de la obra de Carnot, afirma que la inspiración no le vino de la física de su época, sino de la tradición procedente de la ingeniería. Carnot mantuvo largas discusiones con los químicos industriales Charles Bernard Desormes y Nicolas Clément-Desormes, quienes dieron una conferencia en 1819 sobre la teoría del uso de la expansión del vapor, técnica común que James Watt había patentado en Inglaterra. El uso de la expansión del vapor se discutió mucho por esa época en Francia, debido sobre todo a la máquina de vapor de Woolf, que se había empezado a utilizar pocos años antes. La pretensión expuesta por Carnot en las Réflexions de deducir la máxima potencia de una máquina de vapor resultaba en tales circunstancias muy oportuna. as Réfle xions se proponían dar pública noticia de las posibilidades de la máquina de vapor para mejorar el nivel de vida en Francia. La obra empieza con un detallado informe acerca de la importancia de la máquina de vapor, sobre todo en Inglaterra. Carnot escribe: “El estudio de estas máquinas es del máximo interés, enorme su importancia y su utilización, cada vez mayor. Parecen destinadas a producir una gran revolución en el mundo civilizado. ”La máquina de vapor explota ya nuestras minas, mueve nuestras naves, excava nuestros puertos y ríos, forja el hierro, da forma a la madera, muele el grano, hila y teje nuestros tejidos, transporta las más pesadas cargas, etcétera. Parece que algún día servirá de motor universal y se la preferirá a la fuerza de los animales, a los saltos de agua y a las corrientes de aire. Tiene la ventaja de la economía sobre el primero de estos motores; sobre los otros dos, el inapreciable valor de poder emplearse en todas las épocas y lugares y de no sufrir ninguna interrupción en su trabajo. ”Si algún día los perfeccionamientos de la máquina de vapor hicieran poco costosos su instalación y su conTEMAS 16
FUENTE DE CALOR
H1
MAQUINA IMAGINARIA P1
FUENTE DE CALOR
H1
MAQUINA REVERSIBLE P2 IDEAL
H2
H2
SUMIDERO DE CALOR
H1
H1
MAQUINA IMAGINARIA P1–P2
P2
MAQUINA REVERSIBLE IDEAL
H2
H2
SUMIDERO DE CALOR
4. EN LA REVERSIBILIDAD TERMODINAMICA se apoyó Carnot para probar que ningún otro ciclo podría producir un efecto útil mayor que el suyo. En las Réfle xions, consideró al calor como un fluido indestructible, conocido como calórico. Ordinariamente el calórico fluye de un cuerpo caliente a otro más frío; si se pudiera invertir el ciclo, el calórico podría ser transportado de un cuerpo con la temperatura baja a otro con la temperatura alta y el ciclo consumiría tanta potencia motriz cuanta genera cuando funciona directamente. La prueba se inicia suponiendo que hay un ciclo que podría producir más potencia motriz. A la izquierda está el diagrama del ciclo imaginario y del ciclo reversible ideal operando entre una fuente de calor y un sumidero de calor. P1 es la potencia motriz del ciclo imaginario y P2 es la del ciclo reversible; H1 y H2 representan el flujo de calor. A la derecha figura un diagrama del ciclo imaginario conduciendo al ciclo ideal en sentido inverso. Por ser P1 mayor que P2, hay una potencia residual para efectuar trabajo exterior y el sistema constituye una máquina de movimiento perpetuo. La posibilidad del movimiento perpetuo había sido rechazada desde hacia tiempo (por el padre de Sadi, entre otros), por lo que Carnot concluyó que el supuesto de un ciclo más potente que el ideal reversible era incorrecto, por absurdo.
sumo, reuniría todas las cualidades deseables y promovería un desarrollo de las artes industriales cuyo alcance será difícil predecir. Pues no sólo se trata de un motor potente y cómodo, que puede obtenerse y transportarse a todas partes y que sustituye a los motores ya en uso, sino de uno que proporciona a las artes a las que se aplica una extensión rápida y que puede incluso crear artes enteramente nuevas. ”El servicio más notable que la máquina de vapor ha rendido en Inglaterra es, sin duda, el de haber reanimado la explotación de sus minas de hulla, que había disminuido y que amenazaba con extinguirse enCALOR Y MOVIMIENTO
teramente a causa de la creciente dificultad de los drenajes y de la extracción del producto. En segundo lugar hay que situar los servicios rendidos en la fabricación del hierro, tanto por la hulla, obtenida en abundancia, que ha sustituido a la madera en el momento en que ésta comenzaba a escasear, como por las potentes máquinas de todas clases cuyo uso ha posibilitado o facilitado la máquina de vapor. ”El hierro y el calor son, como se sabe, los alimentos, los soportes de las artes mecánicas. Puede que no exista en Inglaterra ninguna industria cuya existencia se base en su uso y que no los emplee con profusión.
Quitarle hoy a Inglaterra sus máquinas de vapor sería dejarla a la vez sin hulla y sin hierro; sería secar todas sus fuentes de riqueza, arruinar todos sus medios de prosperidad; sería aniquilar esta colosal potencia. La destrucción de su marina, que ella considera su baluarte más firme, le resultaría probablemente menos funesta. ”La navegación segura y rápida de los barcos de vapor puede considerarse un arte enteramente nuevo, debido a este tipo de máquina. Este arte ha hecho posible ya el establecimiento de comunicaciones a través de los brazos de mar y sobre los grandes ríos del antiguo y del nuevo continente. Ha permitido recorrer regiones aún salvajes, donde hasta hace poco tiempo difícilmente se podía penetrar; ha hecho posible llevar los frutos de la civilización a puntos del globo donde los habrían tenido que esperar muchos años, si no hubiera sido por ese ingenio. La navegación con máquinas de vapor de algún modo acerca entre sí a las naciones más lejanas. Tiende a reunir a los pueblos de la tierra como si habitasen un mismo país. En efecto, disminuir el tiempo, las fatigas, las incertidumbres y los peligros de los viajes, ¿no equivale a abreviar mucho las distancias?”
C
arnot procede entonces a exponer el desarrollo empírico e histórico de la máquina de vapor, mostrando que estaba bien informado de la contribución debida a cada ingeniero inglés. Es curioso que ignorase el trabajo de su compatriota Denis Papin, que inventó la autoclave de vapor, u olla a presión, y propuso una bomba de vapor. El relato continúa: “Como la mayoría de los hallazgos humanos, el descubrimiento de las máquinas de vapor tiene su origen en ensayos rudimentarios, ensayos atribuidos a diversas personas y cuyo verdadero autor se desconoce. Por lo demás, el principal descubrimiento no corresponde a estos ensayos, sino a los perfeccionamientos sucesivos que han conducido a las máquinas de vapor hasta el estado en que las encontramos hoy en día. Hay, poco más o menos, tanta distancia entre los primeros aparatos en los que se desarrolló la fuerza expansiva del vapor y las máquinas actuales como entre la primera balsa que los hombres construyeron y las modernas embarcaciones. ”Si el honor de un descubrimiento corresponde a la nación en la que éste se acunó y creció, ese honor no se le 11
5. MAQUINAS DE BOMBEO por medio del vapor de agua diseñadas por Thomas Savery y Thomas Newcomen. Este esquema de las mismas apareció reproducido en 1797 en la tercera edición de la Encyclopaedia Britannica. Savery había obtenido una patente en 1698 por una “nueva Invención para Elevar el Agua y producir Movimiento en cualquier clase de máquina por la Fuerza Impelente del Fuego, que será de gran utilidad y Conveniencia para el Drenaje de Minas, Abastecimiento de Agua de las Ciudades y para el Trabajo de toda Clase de Molinos que carecen del Beneficio del Agua y de Vien-
12
tos constantes”. El diagrama muestra una versión mejorada de la máquina de Savery, que bombea el agua por medio de la succión producida por la condensación del vapor en una vasija cerrada. Newcomen desarrolló la primera máquina de vapor a pistón en 1712. El vapor de agua se producía en la vasi ja situada debajo del cilindro, en el que entraba a través de la válvula N . Para condensar el vapor, se inyectaba agua fría en el cilindro a través de la válvula S. Carnot cita la Encyclopaedia Britannica como una fuente de información sobre varias clases de máquinas movidas por vapor de agua.
TEMAS 16
puede negar a Inglaterra: Savery, mejoras en las máquinas de amplio Newcomen, Smeaton, el célebre Watt. uso en la mencionada localidad para Woolf, Trevithick y algunos otros el bombeo de agua de las minas. ingenieros ingleses son los verdade- Thomas Newcomen, Watt y otros ros creadores de la máquina de vapor. investigadores estaban pensando en En sus manos ha adquirido todos los esta aplicación cuando diseñaron sucesivos grados de perfecciona- máquinas de bombeo de vapor. miento. Por lo demás es natural que Las mejoras que condujeron a una una invención nazca y, sobre todo, se máquina particularmente eficaz, la perfeccione allí donde su necesidad de Cornish, derivaron de varios facse hace sentir más imperiosamente.” tores, entre los que se encontraban Los acontecimientos subsiguien- la necesidad de ahorrar carbón, que tes en el desarrollo de la máquina de tenía que transportarse a Cornualles, vapor y de otras máquinas térmicas la expiración en 1800 de una patente confirmaron esta última observación. que Watt y Mattew Boulton habían Mientras escribía las Réflexions , algu- poseído sobre un método de ahorrar nos ingenieros de Cornualles, de los combustible condensando vapor y la que el más conocido era Richard publicación, iniciada en 1810, de Trevithick, introdujeron notables Engine Re por ter por Joel Lean y sus
6. MAQUINA ATMOSFERICA investigada por Henry Beighton, según una ilustración procedente de la Britannica de 1797. Beighton hizo el primer análisis cuantitativo de la potencia motriz de una máquina de vapor. Calculó las profun-
CALOR Y MOVIMIENTO
parientes. Eng ine Rep ort er incluía estadísticas sobre cuánta agua bombeaban las mejores máquinas de Cornish por “bushel” de carbón (medida equivalente a 42,582 kilogramos). Las cantidades, en millones de libra-pie (una libra-pie equivale aproximadamente a 0,14 kilogramos) de agua bombeada pasaron de 15,7 en 1811 a 20,5 en 1814 y a 28 en 1820. La mejor máquina alcanzó 100 millones de libra-pies en 1835 y otra dio un promedio de 107 en determinado mes de 1842. Carnot se ocupó seguidamente en las Réfle xions del análisis general de la potencia de las máquinas de vapor y de otras máquinas térmicas. Trató de determinar si había un límite para
didades desde las que máquinas de cilindros de diversos tamaños podrían extraer agua de una mina. Los cálculos de Beighton fueron publicados en el The Ladies’ Diary, del que era editor.
13
la potencia motriz del calor, que impe- y de la distancia desde la que caía. calor que no es isotérmico. Esto vale diría el progreso indefinido de las La potencia motriz de la máquina para todas las máquinas de combusmáquinas térmicas. También se pre- térmica dependía de la cantidad de tión interna y para las turbinas de guntó si alguna substancia termodi- calórico y de la magnitud de la dife- gas. Incluso en el caso de la máquina námica, como el alcohol o el aire, rencia de temperaturas entre las que de vapor, su desarrollo se ha ido aparpodría ser preferible al vapor. Estas se moviese el calórico. tando del proceso de admisión del cuestiones ya habían sido examinaCarnot describió un ciclo ideal para calor casi completamente isotérmico das por otros investigadores, pero sólo una máquina térmica compuesta de de las primeras máquinas. Los procon respecto a un diseño particular. un cilindro, un pistón, una substan- yectistas modernos prefieren sustiCarnot intentó hallar respuestas que cia termodinámica, una fuente de tuirlo por el ciclo de vapor a gran prepudieran aplicarse a todas las máqui- calor y un sumidero de calor. La subs- sión, en el que la parte isotérmica de nas térmicas imaginables. tancia, que podía ser cualquier mate- la admisión de calor es pequeña, y por Carnot fue capaz de plantear estas rial (sólido, líquido o gas) y que podía el ciclo de vapor supercrítico, que no cuestiones a pesar de que las leyes someterse a expansiones y contrac- tiene admisión de calor isotérmica. de la termodinámica le eran desco- ciones mediante aplicaciones sucesi- La idea de un sumidero de calor infinocidas. La primera ley, que esta- vas de calor y de frío, se situaba en nito tiene más visos de verosimilitud blece la conservación de la energía de el cilindro, dentro del cual se había que la de una fuente de calor infiun sistema termodinámico, no fue ajustado convenientemente el pistón. nita, pues suele haber provisiones formulada por James Prescott Joule El ciclo tenía cuatro fases. Durante ilimitadas de aire o de agua para la hasta la década de 1840. Aspecto fun- la primera se ponía la substancia en refrigeración. Tal es la razón de que damental de la misma es la equiva- contacto con la fuente de calor, de un ciclo basado en una expulsión de lencia entre el calor y el trabajo como suerte que, cuando dicha substancia calor isotérmica sea posible y se efecformas de energía. Esta equivalen- se expandía, tomaba bastante calor túe en la mayoría de los ciclos de cia se oponía a la teoría del calórico, del depósito para mantener su tem- vapor que lo condensan a temperaque, a pesar de alguna oposición, peratura constante. En la segunda, tura constante. seguía predominando cuando Carnot se aislaba del depósito de calor la escribió las Réfl exions. substancia, con lo que, al continuar on su ciclo Carnot introdujo una Según la teoría del calórico, el calor ésta su expansión, su temperatura noción termodinámica fundaes un fluido imponderable y sin masa, disminuía. En la tercera, se ponía la mental, la de reversibilidad. Cada que se conserva siempre. En favor substancia en contacto con el sumi- repetición del ciclo implicaba el flujo del genio de Carnot habla el hecho de dero de calor, de modo que, al com- de calórico de un cuerpo que tenía que pudiera extraer conclusiones primirse, liberaba suficiente calor una temperatura elevada a otro de correctas y de gran transcendencia para mantener constante su tempe- temperatura baja, con la consiguiente sobre las máquinas térmicas sin supo- ratura. En la cuarta, se aislaba la producción de trabajo. Como se penner que el calor pudiera convertirse substancia del sumidero, con lo que, saba que el calórico era un fluido en trabajo mecánico y el trabajo mecá- al proseguir su compresión, aumen- indestructible, Carnot razonó que nico en calor. Sin conocer la primera taba su temperatura. Cuando la tem- cada fase del ciclo podría invertirse ley de la termodinámica no podía defi- peratura tornaba a su valor inicial, aportando trabajo a la máquina, de nir el rendimiento térmico de una se cerraba el ciclo y la substancia y modo que el calórico se transportamáquina, como se afirma gratuita- la máquina habrían recobrado su ría desde el cuerpo de baja temperamente. Lo único que hizo fue definir estado original. El ciclo podía repe- tura hasta el de temperatura alta. el máximo “servicio” de una máquina: tirse indefinidamente para producir En la rueda hidráulica, usada como su efecto útil usual para una canti- potencia sin cesar. Expresado en tér- analogía, el proceso podía invertirse dad de carbón dada (cuánta agua minos actuales, el ciclo constaba de aportando trabajo al agua, eleváneleva multiplicado por la altura a la una expansión isotérmica (desarro- dola a través de la diferencia de potenque es elevada). llada a temperatura constante), una cial gravitatorio hasta su fuente, en expansión adiabática (en la que el la parte superior de la rueda. Puesto arnot supuso que la potencia calor se convertía en trabajo), una que cada fase del ciclo de Carnot podía motriz de una máquina térmica compresión isotérmica y una com- invertirse, el ciclo entero resultaba procede del paso de calórico desde un presión adiabática. reversible. Al invertir su curso, concuerpo caliente (un depósito de calor Al introducir el ciclo ideal, Carnot sumía tanta potencia motriz cuanta o caldera) hasta otro frío (un sumi- escribe: “Imaginemos dos cuerpos A generaba en el proceso directo. dero de calor o condensador). Lazare y B mantenidos ambos a una tempeEl eje de la argumentación teórica había publicado un tratado en el que ratura constante, siendo la de A más de las Réf lexion s es la demostración analizaba el rendimiento de las má- elevada que la de B: estos dos cuer- de Carnot de que, para una diferenquinas movidas por agua y, en las pos, a los que se les puede dar o qui- cia de temperatura dada y una deter Réflexions , Sadi estableció una ana- tar calor sin hacer variar su tempe- minada cantidad de calórico, ningún logía entre la máquina de vapor y la ratura, desempeñarán las funciones ciclo podía generar más potencia rueda hidráulica. El trabajo reali- de dos depósitos indefinidos de caló- motriz que su ciclo ideal o reversizado por una máquina térmica resul- rico. Llamaremos al primero hogar y ble. Imagínese un ciclo que pudiera taba del paso del calórico a través de al segundo refrigerante.” generar más potencia. Este ciclo una diferencia de temperaturas, del La fuente de calor de una máquina podría disponerse de modo que conmismo modo que el trabajo realizado térmica real es casi siempre finita, dujera el ciclo ideal en sentido inpor una rueda hidráulica resultaba de modo que, cuando se consume el verso, para lo que no necesitaría condel paso del agua a través de una calor, su temperatura disminuye. sumir más que una parte de la diferencia de potencial gravitatorio. Este es el motivo de que la mayoría potencia motriz producida por el ciclo La potencia motriz de la rueda hidráu- de las máquinas térmicas prácticas imaginario. El resto de la potencia lica dependía de la cantidad de agua tengan un proceso de admisión del quedaría disponible para realizar
C
C
14
TEMAS 16
7. MAQUINA DE WATT, desarrollada en 1765 por James Watt. Era en esencia una máquina Newcomen en la que el vapor se condensaba, no en el cilindro, sino en un recipiente aparte. La introducción de un condensador separado fue de la mayor importancia debido a que el calor ya no se consumía en el calentamiento y enfriamiento alternativo del cilindro, manteniéndose el cilindro y el pistón a la temperatura del vapor. El condensador separado produjo un ahorro de combustible de casi el 75 por ciento. Hacia 1780 Watt construyó la primera
CALOR Y MOVIMIENTO
máquina que operaba tanto en el movimiento ascendente como en el descendente del pistón. También hizo una de las primeras máquinas que convertían movimiento alternativo en movimiento de rotación. En la máquina de la ilustración, la conversión se realiza por un sistema de engranajes en el que un engranaje planeta (W ) en el extremo de una rueda (T ) describe una órbita alrededor de un engranaje sol ( U ). El engranaje sol, cuyo movimiento lo facilita un volante ( V ), proporciona movimiento de rotación.
15
trabajo exterior. Expresándolo de máquina de vapor. El agua era vir- una caldera de escape y una máquina otro modo, si se pudiera conectar el tualmente incompresible y ocupaba de vapor alternativa. La máquina ciclo reversible ideal a un ciclo con un volumen pequeño si se comparaba Still, aunque probada en barcos y más rendimiento, tendríamos una con el volumen de la masa de vapor locomotoras, no llegó a popularizarse. máquina de movimiento perpetuo. equivalente; por lo tanto, se necesi- Luego se propusieron ciclos comLa posibilidad de una máquina de taba poca potencia para mover la puestos que combinan una turbina de movimiento perpetuo había sido bomba que alimentaba de agua la cal- gas con otra movida mediante vapor rechazada desde tiempo atrás por la dera. de agua o de otro tipo. Tales ciclos commayoría de los investigadores, incluipuestos se han ido consolidando grado Lazare Carnot, quien había escrito as ideas de Carnot sobre el aire dualmente, siglo y medio después de sobre el tema. En consecuencia, Sadi como substancia termodinámica que Carnot los propusiera. Carnot sacó la conclusión de que el prefiguraron el desarrollo del motor Carnot consideró otros vapores dissupuesto inicial de un ciclo que pu- de combustión interna. “La utiliza- tintos del vapor de agua, pero los desdiera generar más potencia motriz ción del aire atmosférico para el desa- cartó debido a las dificultades prácque el ciclo ideal o reversible era inco- rrollo de la potencia motriz del calor”, ticas y a que no ofrecían ventajas rrecto. Carnot expresó así en esen- escribió, “presentaría en la práctica termodinámicas teóricas. Muy pocas cia la segunda ley de la termodiná- grandes dificultades, aunque quizá máquinas han empleado con éxito mica, que no recibiría formulación no insuperables. Si se llegase a ven- otros vapores que no fueran el de explícita hasta los trabajos de Clau- cerlas, el aire ofrecería notables ven- agua y ninguna lo ha hecho a gran sius y de Thomson hacia mediados de tajas sobre el vapor de agua.” Desde escala. Actualmente se indaga el siglo. Según esta ley, no es posible nin- 1790 se habían ensayado gases y pól- movimiento de máquinas térmicas gún proceso cuyo único resultado sea voras como combustibles, pero no fue con vapores de peso molecular elela absorción de calor del depósito y hasta 1859 cuando una máquina de vado, ya que ofrecen ventajas prácla conversión de calor en trabajo. La combustión interna, realizada por ticas sobre el vapor de agua en turley indica que un proceso termodi- Jean Joseph Étienne Lenoir, funcionó binas pequeñas. námico espontáneo sólo puede desa- con facilidad y ello, a su vez, 17 años rrollarse en una dirección, desde una antes de que Nikolaus August Otto unque se le ha considerado funfuente de temperatura alta hasta un desarrollara el primer motor de comdador de la ciencia de la termosumidero o refrigerante de tempera- bustión interna con éxito comercial. dinámica, fue primero y por encima tura baja. Para invertir el proceso se Las predicciones de Carnot, tanto de de todo un ingeniero, muy consciente requiere energía procedente de una las dificultades como de las ventajas de los compromisos que requerían el fuente exterior. potenciales de la combustión interna, proyecto y la construcción de una Carnot demostró que la potencia del se confirmaron. máquina. Sus Réf lex ions terminan ciclo ideal no dependía de la subsCarnot previó también la posibili- observando: “El ahorro del combustible no es tancia termodinámica utilizada, aun- dad de quemar el combustible de un que la naturaleza de ésta fuese impor- motor de combustión interna por com- más que una de las condiciones a cumtante desde un punto de vista práctico, presión. Rudolf Diesel concibió en plir por las máquinas de vapor; en en la medida en que sus propiedades 1891 un motor que funcionaba según muchas circunstancias esta condiafectaban al diseño de la máquina y un ciclo de Carnot con compresión ción es secundaria y debe subordia la temperatura a la que podía ope- por ignición. Diesel esperaba lograr narse a la seguridad, a la solidez y rar. Concluyó que la mejor substan- la combustión interna controlando la duración de la máquina, al pequeño cia termodinámica era la que más se tasa de inyección de combustible. No espacio a ocupar, pocos gastos de insexpandía para un cambio de tempe- obstante, el primer motor que cons- talación, etcétera. Saber apreciar, en ratura dado. Los gases ofrecían mejo- truyó en 1898 operaba según un ciclo cada caso y en su justo valor, las conres expectativas que los sólidos o los diferente en el que no había ningún sideraciones de conveniencia y de ecolíquidos según este criterio. proceso isotérmico, como en todos los nomía que puedan presentarse; saber Carnot reconoció las ventajas motores diesel subsiguientes. La his- discernir entre las más importantes potenciales del aire como substancia toria de estos motores confirma la y las que sólo son accesorias; saber termodinámica. Con el aire existía idea de que el ciclo de Carnot no es ponderarlas todas entre sí debidala posibilidad de la combustión in- la base de un motor real, sino un ciclo mente para llegar por los medios más terna, lo que hacía innecesar ia la cal- hipotético con el que pueden estu- fáciles al mejor resultado: tal ha de dera o cualquier otra forma de fuente diarse nociones termodinámicas tales ser la principal cualidad del hombre exterior de calor. Tampoco se preci- como la máxima potencia motriz de llamado a dirigir y a coordinar entre saba condensador. Carnot sabía que una máquina. sí los trabajos de sus semejantes y a un proceso de descarga como éste se Carnot también bosquejó el caso hacerlos cooperar hacia un fin útil, estaba explotando ya, no con máqui- de un ciclo compuesto. “Podríamos cualquiera que sea.” nas de aire, sino con máquinas de va- incluso concebir la posibilidad de Poco se sabe de lo que hiciera Carnot por a alta presión, siendo Trevithick hacer actuar al mismo calor sucesi- después de escribir las Réf lexio ns . el pionero de tales ingenios. La ausen- vamente sobre el aire y sobre el vapor Trabajó durante algún tiempo como cia de condensador posibilitó el desa- de agua. Bastaría dejar el aire, des- ingeniero militar en Lyon y Auxonne rrollo de una máquina compacta y de pués de su uso, a una temperatura en 1828, regresando luego a París para fácil transporte y, en virtud de ello, elevada y, en lugar de expulsarlo reemprender sus estudios sobre las de la locomotora de vapor. Carnot inmediatamente a la atmósfera, hacer máquinas y la teoría del calor. Una hiscomprendió que el mecanismo que que rodeara una caldera de vapor, toria de la École Polytechnique, publicomprimiese el aire en una máquina como si acabase de salir directamente cada en la época, nos lo describe como de aire tendría que ser más elabo- de un hogar.” Un ciclo compuesto así constructor de máquinas de vapor, rado y consumir más potencia que el se aprovechó en la máquina Still hacia pero no existen pruebas de que las mecanismo correspondiente de una 1920, un motor diesel que incorporaba construyera en realidad.
L
A
16
TEMAS 16
Carnot aprobó la revolución de julio de 1830, que forzó la abdicación de Carlos X, porque parecía prometer un régimen más liberal. De hecho se propuso que Carnot fuese invitado a entrar en el nuevo gobierno como miembro de la Chambre des Pairs, pero la sugerencia no cristalizó, porque Carnot pronto se desilusionó con un gobierno que restauró la monar-
quía, rechazando la naturaleza hereditaria del cargo que se le había propuesto. Poco después de estos acontecimientos, Carnot empezó a analizar la relación entre la temperatura y la presión de un gas, pero en junio de 1835 contrajo la escarlatina y la “fiebre cerebral”. El 24 de agosto, a la edad de 36 años, murió a causa de una
epidemia de cólera. Como era común en las víctimas del cólera, fue incinerado con casi todos sus papeles y otras pertenencias. Se salvaron algunos fragmentos de sus cuadernos de trabajo. Hippolyte se dirigió de nuevo a la Academia de Ciencias francesa con el manuscrito de las Réflexi ons en 1878. Un fragmento, escrito al parecer entre 1824 y 1826, indica que Sadi había llegado a rechazar la teoría del calórico y a comprender la equivalencia entre calor y trabajo. “El calor no es otra cosa que la potencia motriz o, mejor, el movimiento”, escribió. “Es un movimiento de las partículas de los cuerpos. Dondequiera que hay destrucción de la potencia motriz en las partículas de los cuerpos, hay al mismo tiempo producción de calor en cantidad exactamente proporcional a la cantidad de la potencia motriz destruida; recíprocamente, dondequiera que hay destrucción de calor, hay producción de potencia motriz.” Llegó incluso a bosquejar experimentos que podrían demostrar la equivalencia entre calor y trabajo, pero nunca los llevó a cabo. Algunos de estos experimentos eran similares a los que Joule realizó unos quince años después y le llevaron a establecer la primera ley de la termodinámica.
R
esulta interesante, aunque ocioso, especular sobre lo que Carnot pudiera haber realizado si hubiese vivido más tiempo. ¿Se habrían llevado a la práctica sus ideas sobre las máquinas térmicas o habría muerto como un profeta al que nadie presta oídos? Pero no es demasiado tarde para rendir tributo a su perspicacia y a su capacidad analítica, firmemente asida a las realidades prácticas. La necesidad de atender a los intereses humanos en la vanguardia del trabajo científico y el reconocimiento de la naturaleza empírica del progreso técnico son lecciones que el investigador moderno debería tener presentes.
8. MAQUINA DE DOBLE EXPANSION, desarrollada en 1781 por Jonathan Hornblower. Constaba de dos cilindros. Después de que el vapor sufriese la expansión en un cilindro pasaba a otro en el que podía continuar expandiéndose. En principio, la doble expansión generaría más potencia motriz que la expansión simple. En la práctica, los dos cilindros resultaron ser una complicación innecesaria porque la presión inicial del vapor de agua era demasiado baja. Ulteriormente se desarrollaron máquinas que empleaban efectivamente una expansión compuesta. La ilustración procede de la Britannica de 1797.
CALOR Y MOVIMIENTO
BIBLIOGRAFIA COMPLEMENTARIA A SHORT HISTORY OF THE STEAM ENGINE. Henry W. Dickinson. Cambridge University Press, 1963. FROM WATT TO CLAUSIUS: THE RISE OF THERMODYNAMICS IN THE EARLY INDUS TRIAL AGE. D. S. L. Cardwell. Cornell University Press, 1971. REFLECTIONS ON THE MOTIVE POWER OF FIRE. Sadi Carnot. Peter Smith, 1977. RÉFLEXIONS SUR LA PUISSANCE MOTRICE DU FEU. Sadi Carnot. Librairie Philosophique J. Vrin, 1978.
17
Demonios, motores y la segunda ley Charles H. Bennett
Los físicos se vienen afanando desde 1871 por resolver el problema del demonio de Maxwell, criatura que viola la segunda ley de la termodinámica. La teoría de la computación ofrece soluciones al problema
U
n frigorífico, como dispositivo de la necesidad de fuentes de enerque crea desigualdades de gía, como el petróleo, el uranio o la temperatura en un sistema, luz solar. Cualquier motor funcionanecesita energía para funcionar. Esta ría sin batería, sin depósito de comnecesidad la impone la segunda ley bustible y sin conexión a la red elécde la termodinámica. Recíprocamen- trica. El demonio posibilitaría que te, se puede emplear una diferencia una máquina de vapor funcionase de temperatura para obtener trabajo continuamente sin combustible, por útil; por ejemplo, una máquina de ejemplo, manteniendo la caldera de vapor se apoya en la dife rencia de la máquina perpetuamente caliente temperatura entre caldera y con- y su condensador perpetuamente frío. densador. El físico escocés James Para salvaguardar la segunda ley Clerk Maxwell propuso ya en 1871, los físicos han avanzado distintas en su Teoría del calor , que una cria- razones por las que el demonio no tura suficientemente pequeña, que podría actuar en la forma descrita pudiera ver y manejar moléculas indi- por Maxwell. Pero casi todos esos viduales, se hallaría exenta del cum- argumentos han fracasado. Muchas plimiento de esta ley. Sería, pues, veces las objeciones llegaron de los capaz de crear y mantener diferen- avances en otros campos de la física; cias de temperatura en un sistema bastantes investigadores creyeron sin realizar trabajo. (incorrectamente, como después se “...Si concebimos un ser cuyas facul- ha visto) que las limitaciones que tades estén tan desarrolladas que impone la teoría cuántica invalidapueda seguir la trayectoria de todas ban al demonio de Maxwell. las moléculas, esta criatura, con unos La respuesta correcta —la verdaatributos que no se saldrían de nues- dera razón por la que el demonio de tro dominio finito, sería capaz de Maxwell no viola la segunda ley— se hacer lo que actualmente nos es impo- ha descubierto recientemente grasible realizar a nosotros mismos. Se cias a los trabajos realizados en una ha visto que las moléculas encerra- línea de investigación muy distinta: das en un recipiente lleno de aire a el estudio de los requerimientos enertemperatura uniforme se mueven con géticos de los ordenadores. velocidades que no son uniforme s en absoluto... Supongamos ahora que se esde los tiempos de Maxwell se divide el recipiente en dos mitades, han propuesto numerosas ver A y B, mediante una pared en la que siones del demonio. Conforme a una se haya abierto un pequeño orificio, de las más sencillas, el demonio crea y que este ser, que puede ver las molé- una diferencia de presión (en vez de culas una a una, abre y cierra el agu- una diferencia de temperatura) y per jero de tal manera que no deje pasar mite el paso de todas las moléculas, de A a B más que a las más rápidas sean lentas o rápidas, de B hacia A, y, de B a A, a las más lentas. Pro- pero impide el tránsito de A a B. Con cediendo de este modo, sin co nsumir el tiempo la mayor parte de las molétrabajo, eleva la temperatura de B y culas estarían concentradas en A y baja la de A, en contradicción con la se habría creado un vacío parcial en segunda ley de la termodinámica.” B. Este ser es incluso más plausible Este “ser” no tardó en convertirse que el original de Maxwell, ya que no en el demonio de Maxwell, habida tiene que ver ni que pensar. No es cuenta de los efectos subversivos que inmediata la razón por la que este sus actividades implicaban en el orden demonio —en esencia una válvula natural de las cosas. El más impor- unidireccional para moléculas— no tante de tales efectos era la abolición pueda materializarse en un disposi-
D
18
tivo inanimado simple, una diminuta trampilla con un muelle, por ejemplo. Al igual que el diablillo de Maxwell, el “demonio de la presión” supondría una fuente de energía inagotable para los motores. A modo de ejemplo, los martillos neumáticos usados frecuentemente para reparar el firme de las calles funcionan con aire comprimido de un depósito que se mantiene lleno gracias a un compresor de gasolina. Una simple válvula unidireccional para moléculas de aire haría las funciones del compresor, llenando el depósito con aire de los alrededores sin ningún esfuerzo. Se podría pensar erróneamente que un sistema como el descrito viola la ley de conservación de la energía (conocida también como primera ley de la termodinámica). Pero no hay tal. La energía usada para perforar el hormigón procedería del calor del aire reunido por la válvula unidireccional. Por tanto, el funcionamiento de la máquina provocaría que el aire se enfriase. La primera ley no prohíbe en absoluto el funcionamiento de un motor que satisfaga todas sus necesidades energéticas con el calor circundante y hasta con el calor liberado por su propio rozamiento y por su escape. Lo que impide que existan estos motores es la segunda ley. Para analizar con profundidad las acciones del demonio hay que entender antes algunas sutilezas de la segunda ley. Aunque expresada en un principio como una restricción de las posibles transformaciones entre calor y trabajo, la segunda ley se considera ahora una manifestación del incremento del desorden del universo. De acuerdo con ella la entropía o desorden del universo entero no puede disminuir. Eso significa que sólo caben dos tipos de sucesos: aquellos en los que la entropía del universo crece y episodios en los que permanece constante. A los primeros se les denomina procesos irreversibles, porque su inversión implicaría una violación de TEMAS 16
1. RESPLANDOR UNIFORME de un horno caliente (arriba). Pone de manifiesto una consecuencia de la segunda ley de la termodinámica: es imposible distinguir los objetos de un recipiente sometidos a una temperatura uniforme sin disponer de una fuente luminosa externa cuya temperatura sea superior a la del ambiente. En un recipiente a temperatura uniforme los cuerpos emiten luz de la misma intensidad y del mi smo color (incluso los que tienen diferentes reflectancias y colores). La razón estriba en que, si un cuerpo apareciera más
CALOR Y MOVIMIENTO
oscuro que su entorno, absorbería energía a expensas de sus vecinos y, en consecuencia, se calentaría y los otros se enfriarían. De acuerdo con la segunda ley, los cuerpos que se hallan a la misma temperatura no pueden adquirir espontáneamente diferentes temperaturas. (En la fotografía se puede percibir cierto contraste, ya que el interior del horno no estaba a temperatura uniforme.) Con una fuente luminosa externa se perciben las diferencias de reflectancia intrínsecas ( fotografía inferior ).
19
RECINTO A
RECINTO B
cuánto ha incrementado el gas su desorden después de distribuirse de manera igualitaria por los dos recintos? Consideremos una molécula simple del gas. La molécula que se mueva por todas las zonas gozará del doble de posiciones posibles que otra que no lo haga más que en uno de los recintos. Si hubiese dos moléculas en un sistema con dos zonas, cada molécula tendría el doble de oportunidades de distribuirse que si se hallara en un solo recinto y, por tanto, el sistema global tendría 2 2, o sea, cuatro veces más configuraciones posibles. Si hubiese tres moléculas, el sistema tendría 2 2 2 (ocho) posibles configuraciones más. ∞
∞
∞
E
2. DEMONIO DE MAXWELL, descrito en 1871 por James Clerk Maxwell. Diríase que viola la segunda ley de la termodinámica. El demonio regula una puerta corredera que bloquea una abertura de una pared que separa dos recintos que contienen un gas con las mismas temperatura y presión a ambos lados. El demonio observa las moléculas que se acercan al agujero; abre o cierra la puerta permitiendo el paso de las moléculas que se mueven mas rápido desde el recinto A al B, pero no al revés. A las moléculas cuyo movimiento es lento, sólo les permite el paso de B hacia A. Gracias a la ordenación producida por este ente, B se calienta y A se enfría. Según la segunda ley, se requiere cierta cantidad de trabajo para crear una diferencia de temperatura. El trabajo necesario para mover la puerta corredera puede hacerse arbitrariamente peque-
la segunda ley; los segundos consti- existe una cierta probabilidad de que tuyen los procesos reversibles. La todas ellas pudieran volver simultáentropía de un sistema disminuye si neamente a la zona de donde partiese realiza trabajo sobre él, pero al ron. Ahora bien, si hay n moléculas, efectuar dicho trabajo se incremen- la probabilidad de que todas vuelvan taría la entropía de otro sistema (o a su recinto de origen es la misma que la del entorno del primero) en una can- la probabilidad de que al lanzar n monetidad igual o mayor. das al aire caigan todas de “cara”: 1/2n. Un proceso irreversible clásico, que Por tanto, para el número de moayuda a definir el concepto de entro- léculas con el que se suele trabajar pía de una forma más precisa, es el (300.000.000.000.000.000.000.000 en de expansión libre. Supongamos una un gramo de hidrógeno) la expansión cámara llena de un gas y separada por libre es en realidad un proceso irreuna pared de otra sala de igual volu- versible: un proceso cuya reversimen donde se haya producido el vacío. bilidad espontánea, aunque posible, Si se abriese un agujero en la pared, es tan improbable que puede decirse se escaparía el gas (es decir, se expan- con toda seguridad que nunca se diría libremente) hacia la zona que observará. antes estaba vacía, hasta que ambas El estado desordenado —aquel en cámaras quedasen equilibradas. que el gas se había difundido por los La razón por la que las moléculas dos recintos, contrapuesto a aquel en acaban llenando ambos recintos es que ocupaba sólo uno— resulta más más matemática que física, si se nos probable que el estado ordenado. Es permite esta distinción. Si el número decir, hay más configuraciones de de moléculas presentes en ambos moléculas en las que se ocupen ambos lados de la división tiende a igua- recintos, de la misma forma que, al larse no es porque exista una mutua echar al aire 100 monedas, hay más repulsión y propendan a alejarse, sino formas de obtener 50 caras y 50 cruporque sus frecuentes colisiones con- ces que no 100 caras y ninguna cruz. tra las paredes del recinto y entre sí Al decir que la entropía del universo tienden a distribuirlas al azar por el tiende a crecer, la segunda ley proespacio disponible, hasta que la mitad clama que el universo tiende a evode ellas se encuentre a un lado del lucionar con el discurrir del tiempo muro y la otra mitad en el otro. hacia los estados más probables. Al deberse al azar y no a la repul¿Puede cuantificarse este concepto? sión la difusión de las moléculas, En otras palabras, ¿puede decirse 20
n general, si el gas consta de n moléculas, puede ocupar los dos recintos de 2n formas más que si ocupara uno solo. Se dice así que el gas tiene 2n veces más estados accesibles que el gas confinado en un solo recinto. El número de estados accesibles de la mayoría de los sistemas depende exponencialmente del número de moléculas. La entropía de un sistema se define, por consiguiente, como el logaritmo del número de estados accesibles. En el ejemplo que nos ocupa, el incremento del número de estados en 2 n corresponde a un incremento de la entropía de n bit, o unidad binaria. (La base del logaritmo y por lo tanto el tamaño de las unidades de entropía es arbitraria; por convención se eligen la base 2 y las unidades binarias.) La escala logarítmica tiene la ventaja de hacer que la entropía de una muestra material sea proporcional al número de moléculas que contiene, como les sucede a su energía y a su masa. Se puede establecer una analogía con la memoria de un ordenador: el tamaño, el peso y el costo de una memoria de n bit son, en términos generales, proporcionales a n , mientras que el número de distintos estados posibles de la memoria es 2 n. Las primeras formulaciones de la segunda ley no mencionaban el azar ni el desorden; se referían al calor, al trabajo y a la temperatura. ¿Cómo pueden relacionarse estos conceptos con nuestra definición cuantitativa de entropía? Las moléculas de cualquier muestra de materia se hallan siempre en movimiento. La velocidad y la dirección de cada molécula están distribuidas al azar, pero la velocidad media de las moléculas es proporcional a la raíz cuadrada de la temperatura de la muestra (medida a partir del cero absoluto). Cuando se TEMAS 16
eleva la temperatura de una mues- cen de la capacidad del demonio para mer lugar, que el muelle de la puerta tra (se incrementa la velocidad me- ver moléculas individuales. Pero este ha de ser bastante débil. El trabajo dia), las velocidades de las molécu- exorcismo no ahuyenta al diablo; antes para abrirla venciendo la fuerza del las individuales pasan a distribuirse bien, deja abierta la cuestión en el muelle ha de ser comparable a la eneren un intervalo mayor. sentido de que, si existiera un ser con gía cinética media de las moléculas Si la velocidad media es alta, cada la capacidad de ver y manejar las dis- del gas. Marian Smoluchowski señaló molécula de la muestra dispone de tintas moléculas, podría violarla. en 1912 que los repetidos choques de una escala mayor de velocidades acceUna forma de descubrir por qué las moléculas con la puerta le dan a sibles, de la misma forma que una razón el demonio de Maxwell resulta ésta su propia energía cinética de molécula de un sistema con dos recin- inviable consiste en analizar y recha- movimiento al azar (es decir, enertos puede acceder a mayor númer o de zar diversos dispositivos, simples e gía calorífica). La energía de la puerta posiciones que otra que no se mueva inanimados, que podrían comportarse debida a este movimiento viene a ser más que por uno de ellos. Es así como como demonios; por ejemplo, la tram- la misma que la de las partículas que hay más estados accesibles a tempe- pilla con un muelle a la que nos refe- chocan contra ella; por tanto se moveraturas elevadas que a temperaturas ríamos antes, que actúa como una ría de un lado a otro, a sacudidas, bajas. El movimiento se hace más válvula molecular unidireccional. abriéndose y cerrándose (recuérdese desordenado a temperaturas elevaImaginemos que la puerta se abra que es muy pequeña), alternativadas, pues es más difícil predecir la hacia la izquierda. Si el demonio mente rebotando contra su batiente velocidad de cualquier molécula. trabaja según se supone ha de hacerlo, o abriéndose venciendo la fuerza del A la hora de determinar la entropía cada vez que una molécula proceden- muelle. de un sistema hay que tener en cuenta te del recinto de la derecha golpee la Es evidente que la puerta no funel desorden del movimiento molecular puerta, ésta se abrirá y la molécula ciona como una válvula unidireccioy el de las posiciones moleculares. La entrará en el recinto de la izquier- nal cuando está abierta, ya que las entropía de un gas crece tanto si el gas da. Cuando sea una molécula de la moléculas podrían circular con liberocupa un volumen mayor como si incre- izquierda la que choque con la puer- tad en ambas direcciones. Podría menta su temperatura, ya que los ta, ésta se mantendrá cerrada, impi- esperarse, sin embargo, que la puerta movimientos moleculares se tornan diendo su paso. Con el tiempo todas se comportara como un demonio peremás desordenados. las moléculas estarán reunidas en el zoso, atrapando una mínima cantiCualquier flujo de calor lleva con- recinto de la izquierda y el demonio dad de gas en exceso en el recinto de sigo entropía. Para ser precisos, porta habrá comprimido el gas (reducien- la izquierda, pero ni siquiera esto una cantidad de entropía proporcio- do su entropía) sin realizar trabajo puede hacer. Cualquier tendencia de nal a la cantidad de calor que fluya alguno. la puerta a convertirse en válvula dividida por la temperatura a la que ¿Cómo se puede aniquilar al demo- unidireccional, abriéndose para perse produzca el flujo. Por consiguiente, nio de la puerta? Observemos, en pri- mitir que una molécula de gas fuese el flujo de calor desde un cuerpo caliente hacia otro frío eleva la entropía del cuerpo frío y lo hace en una RECINTO A RECINTO B cuantía superior que la empleada para rebajar la del cuerpo caliente. La cantidad de calor que va del cuerpo caliente al frío es única, pero, en términos de descenso de entropía, en el cuerpo caliente se divide por una temperatura alta, mientras que en el frío lo hace por otra menor. Es así como el flujo de calor de un cuerpo c aliente hacia otro frío incrementa la entropía total del universo. Esta definición más precisa de la entropía nos permite comprender mejor por qué el demonio de Maxwell parece violar la segunda ley. Mediante su selección, el demonio produce un flujo de calor desde A hacia B, incluso cuando el recinto B esté ya más caliente que el A. El demonio rebaja así la entropía de A en mayor medida que eleva la de B, disminuyendo la entro- 3. TRAMPILLA DEMONIACA, una forma del demonio de Maxwell diseñada para pía del universo en su conjunto, lo que funcionar automáticamente y crear desigualdades de presión, no de temperatura. es una imposibilidad termodinámica. Supongamos que una trampilla con un muelle bloquee un agujero que separe dos
M
axwell aclaró que él creía en la validez de la segunda ley al realizar su descripción del demonio. Indicó también que quizá los seres humanos no puedan violar la segunda ley (realizando la misma tarea que los demonios) por la sencilla razón de que careCALOR Y MOVIMIENTO
recintos que contengan un gas cuyas temperatura y presión iniciales sean las mismas a ambos lados. La puerta se abre en un solo sentido, admitiendo moléculas del recinto B hacia el A, pero no al revés. Con el tiempo, cabría pensar, las moléculas se acumularían en A a expensas de B, creando una desigualdad en la presión. La desigualdad no se produce. La trampilla, calentada por los choques con las moléculas, se abre y se cierra aleatoriamente debido a su energía térmica. Cuando se abre, no es una válvula unidireccional y, cuando se cierra, podría empujar a alguna molécula de A a B. Este proceso tiene lugar tantas veces como su inverso, cuando una molécula de B empuja la puerta y pasa a A.
21
A
B
4. EXPANSION LIBRE DE UN GAS. Se trata de un proceso irreversible desde el punto de vista termodinámico. En dicho proceso aumenta la entropía del universo, esto es, su desorden. Inicialmente el gas se encuentra confinado en una zona
determinada de un sistema (izquierda ). Se elimina la barrera entre las dos zonas y las moléculas transitan de una a otra hasta que ambas cuentan con el mismo número de moléculas (derecha ).
de la derecha hacia la izquierda, se que lo haga otro más inteligente. Lo motor es un cilindro en el que se compensaría exactamente con la ten- cierto es que, poco tiempo después de mueve aleatoriamente una molécula. dencia contraria, dándose de bruces que Maxwell describiera su demonio, Cada extremo del cilindro está blocon cualquier molécula que se encon- muchos investigadores creyeron que queado por un pistón; en su interior trase ante ella e impulsándola desde la inteligencia constituía la propie- hay una pequeña división móvil, que el recinto izquierdo hacia el derecho dad crítica que permitía el funcio- se coloca en el centro del cilindro, (ayudada por la fuerza del muelle). namiento del demonio. En un artículo confinando así la molécula en una Los dos procesos —el de una molé- publicado en 1914 escribía Smolu- zona u otra del cilindro ( véase la figucula que fuerza su tránsito de dere- chowski lo siguiente: “Por lo que sabe- ra 5 ). El motor consta también de discha a izquierda y el de la puerta que mos hasta ahora, no existe ninguna positivos que permiten observar en envía una molécula de izquierda a máquina automática de movimiento qué mitad del sistema está la moléderecha— son inversos mecánicos perpetuo que alcance una eficacia cula y de dispositivos que memorizan mutuos: la sucesión de imágenes que permanente, a pesar de las fluctua- esta información. mostrara uno de ellos no podría dis- ciones moleculares; ahora bien, tal El ciclo del motor se desarrolla en tinguirse de la que representara el dispositivo podría funcionar, quizá seis etapas. En la primera, se introcontrario. En un entorno que se encon- de forma regular, si hubiera seres duce la división que confina la molétrase a temperatura y presión cons- inteligentes que controlaran su com- cula en una parte o en otra. En opitantes, los dos procesos se produci- portamiento.” nión de Szilard, el trabajo necesario rían con la misma frecuencia y, por para esta inserción puede reducirse tanto, la trampilla no actuaría como l físico Leo Szilard abordó un aná- en principio tanto como sea necesauna válvula unidireccional y no podría lisis cuantitativo del problema en rio para considerarlo despreciable. funcionar como un demonio. un artículo publicado en 1929 con el En la etapa siguiente, el motor Naturalmente estos dispositivos título de “Disminución de la entro- determina en qué mitad queda encepueden funcionar en circunstancias pía de un sistema termodinámico por rrada la molécula. El dispositivo de en las que la presión a ambos lados la intervención de seres inteligen- memoria de la máquina tiene tres de la puerta sea distinta. Versiones tes”. Aunque esto parezca implicar estados posibles: un estado blanco, a gran escala, construidas con puer- que un demonio inteligente pudiera que significa que no se ha realizado tas macroscópicas y muelles, pueden violar la segunda ley, el artículo se ninguna medida; un estado I , que sig verse en los extr actores de los res- dedica a rechazar tal tesis en pro de nifica que la molécula se ha observado taurantes, diseñados para vaciar el la siguiente: no hay ningún ser, inte- en la mitad izquierda del aparato, y aire del interior sin dejar que las ráfa- ligente o no, que pueda violar dicha un estado D, que significa que la mogas del exterior penetren, ni siquiera norma. Szilard pensaba que las obser- lécula se halla en la mitad derecha. cuando el motor está parado. Las ver- vaciones, o las mediciones, que tiene Al realizar la medida , la mem oria siones microscópicas funcionarían de que realizar el demonio (ver de qué pasa del estado en blanco a uno de la misma forma, permitiendo el paso lado viene una molécula, por ejem- los otros dos estados. de las moléculas si hubiese un exce- plo) no pueden realizarse sin un traLa tercera etapa, que podría denoso de presión en un lado, pero impi- bajo que cause un incremento de minarse la carrera de compresión, diéndoles la circulación si el exceso entropía suficiente para salvar el depende del conocimiento adquirido de presión se produjera en el otro. cumplimiento de la segunda ley. en la etapa anterior. El pistón del Estos dispositivos no violarían la Szilard consideró un demonio que lado que no contiene la partícula segunda ley, ya que lo único que difería en varios aspectos del diabli- avanza hasta que toca la división. A harían sería permitir que la presión llo de Maxwell y al que desde enton- diferencia de la carrera de comprese igualase; en ningún caso formarían ces se denomina motor de Szilard. sión que se produce en un motor de zonas de sobrepresión. (El motor que describiremos aquí combustión interna, ésta no requiere Que un demonio elemental no pue- divergirá un tanto del original de trabajo, pues el pistón “comprime” el da operar quizá no sea obstáculo para Szilard.) El principal componente del vac ío; la molécula, atr apada en el
E
22
TEMAS 16
otro lado de la partición, no puede opo- Leon Brillouin (quien en 1956 escrinerse a su movimiento. bió el famoso libro Science and InEn la cuarta etapa se quita la divi- for mat ion The ory ) y Denis Gabor sión, permitiendo las colisiones entre (inventor de la holografía), intentaron la molécula y el pistón que acaba de fundamentar esta irreversibilidad, adelantarse. Estas colisiones ejercen simplemente postulada, del proceso una presión sobre el pistón. de medida. En concreto se aprestaron En la quinta etapa, que podría deno- a determinar cuál era el costo, en términarse carrera de potencia, la pre- minos de energía y de entropía, de la sión que ejerce la molécula hace retro- observación de una molécula que conceder al pistón hacia su posición sistiera en enviarle un haz de luz y en inicial, realizando un trabajo sobre observar sus reflexiones. él. La energía que la molécula conBrillouin y Gabor acudieron para su fiere al pistón se reemplaza mediante trabajo a una teoría que había venido el calor transmitido a través de las desarrollándose desde los tiempos de paredes del cilindro por el entorno del Maxwell: la teoría cuántica de la radiamismo, con lo que la molécula sigue ción. De acuerdo con la teoría ondulamoviéndose con la misma velocidad toria clásica (a la que Maxwell hizo media. De lo que se infiere que el importantes aportaciones), la energía efecto de la carrera de potencia con- de un rayo de luz puede ser arbitrasiste en la conversión de calor del riamente pequeña. Para la teoría cuánentorno en trabajo mecánico reali- tica, sin embargo, la luz está formada zado sobre el pistón. por paquetes de energía llamados fotoLa máquina borra su memoria en nes. La energía de un fotón depende la sexta etapa, recuperando el estado de su longitud de onda, de su color, y en blanco. La máquina se halla ahora es imposible detectar menos de un exactamente en la misma configura- fotón de luz. Brillouin argumentó que, ción que tenía al comienzo del ciclo, para observar una molécula, ésta ha y éste puede repetirse. de difundir como mínimo un fotón de un haz detector; sostuvo, asimismo, onsideradas en conjunto, las seis que, cuando la energía del fotón se etapas del ciclo han convertido disipe en calor, tal disipación producalor del entorno en trabajo y la cirá un incremento en la entropía, como máquina vuelve a su estado inicial. mínimo del tamaño de la disminución Si durante este ciclo no ocurriera nin- de la entropía que produce el motor de gún otro cambio, la entropía global Szilard, gracias a la información recadel universo disminuiría. Como en bada sobre la molécula difusora. principio puede repetirse el ciclo tan¿Por qué no usar, entonces, un haz tas veces como se quiera, su ejecución de fotones de energía muy pequeña? conduce a una violación arbitraria- Esta vía alternativa tampoco resulta mente grande de la segunda ley. via ble en razón de otra exige nci a, Szilard se salió de este trance pos- más complicada, de la teoría cuántica. tulando que el acto de medir, en el que De acuerdo con la teoría cuántica de se determina la posición de la molé- la radiación, cualquier recinto cuyas cula, produce un incremento de entro- paredes y cuyo interior se hallen a pía suficiente como para compensar la temperatura constante está lleno de disminución causada en la carrera de un “gas” de fotones: un baño de rad iapotencia, sin precisar la naturaleza ni ción. Las longitudes de onda de los la localización de este incremento de fotones dependen de la temperatura entropía. Algunos años después de la del recinto. Este gas de fotones conspublicación de su artículo determina- tituye el resplandor rojizo o naranja dos físicos, entre los que destacaron del interior de un horno caliente. (A
1
MEMORIA
DIVISION MOVIL
2
3
D
4
D
C
5
D
6
CALOR
D
7
CALOR
D
5. MOTOR DE SZILARD, modelado a partir del ingenio descrito en 1929 por el físico Leo Szilard. Por lo que parece, convierte el calor de su entorno en trabajo, saltándose así la segunda ley de la termodinámica. El motor está formado por un cilindro (1) que en ambos extremos se halla bl oqueado por dos pistones. Está equipado también con una división móvil y con dispositivos que observan el contenido del cilindro y registran los resultados de las observaciones. El cilindro no contiene más que una molécula. Al comenzar el ciclo d el motor, se introduce la división 2 ( ), atrapando la molécula en una de las zonas del cilindro. Mediante el dispositivo de observación se determina y se registra en qué mitad se aloja ( 3) y se empuja el pistón de la otra mitad hasta que entra en contacto con la división central 4 ( ). El movimiento de este pistón no requiere t rabajo, ya que comprime el espacio vacío. Se retira entonces la división (5) y la molécula golpea al pistón, haciéndolo retroceder (6). (El gas unimolecular se “expande” contra el pistón.) La energía perdida por la molécula en su forcejeo contra el pistón se recupera luego con calor del entorno. Cuando el pistón se encuentra de nuevo en su posición inicial (7 ), se borra la memoria (8) y el ciclo puede volver a desarrollarse de nuevo.
CALOR Y MOVIMIENTO
8
23
1
2 BASTIDOR
QUILLA
PASADOR
D D
I
I
CLAVIJA DE CIERRE
3
4
D
I D
5
D
24
I
I
6. APARATO DE MEDICION, diseñado por el autor para acoplarse al motor de Szilard y que determina, sin realizar ningún trabajo apreciable, en qué mitad del cilindro está atrapada la molécula. En la parte superior del aparato (1) se acopla un motor de Szilard ligeramente modificado, dentro de un bastidor navicular; se ha substituido parte de la pared cilíndrica por un segundo par de pistones. Debajo del bastidor hay un pasador, cuya posición en una clavija de cierre indica el estado de la memoria del motor. Al comienzo de la medida la memoria se halla en un estado neutro; la división se ha colocado de forma que la molécula quede atrapada en un lado del sistema. Para empezar la medición ( 2) se retira el pasador que, desencajado de la clavija de cierre, encaja con la “quilla” del extremo inferior del bastidor. Entonces se comprime el bastidor ( 3). El pistón que está en la mitad del cilindro donde no hay ninguna molécula puede descender completamente, mientras que el pistón de la otra mitad no, a causa de la presión de la molécula. En consecuencia el bastidor se inclina y la quilla empuja el pasador hacia un lado. Este, en su nueva posición, se mueve para quedar encajado en la clavija de cierre ( 4). Con el retroceso del bastidor (5), se recupera el traba jo realizado al comprimir la molécula en la etapa de compresión. La posición del pasador indica en qué mitad del cilindro está la molécula, a pesar de lo cual el trabajo requerido para efectuar dicha operación puede hacerse despreciable. Para invertir esta operación, se seguirían los distintos pasos en el orden inverso.
TEMAS 16
temperatura ambiente, la mayor parte de los fotones están en la zona infrarroja del espectro y por consiguiente son invisibles.) El gas de fotones podría parecer, a primera vista, una cómoda fuente de luz mediante la cual el demonio obser varía las moléculas de gas (ahorrándose el coste de entropía de su luz). Sin embargo, una de las consecuencias sorprendentes de la segunda ley (descubierta por Gustav Robert Kirchhoff en 1859) es que, con la luz propia de un recinto a temperatura uniforme, resulta imposible ver nada. Si uno mira el interior de un horno donde se cuecen objetos de barro, por ejemplo, se ve un resplandor de color naranja uniforme, desprovisto de contraste, aun cuando los objetos del interior tengan colores, brillos y texturas superficiales diferentes. Diríase que los objetos del interior del horno presentan el mismo color y brillo, lo que no es cierto y se comprueba fácilmente iluminándolos desde fuera con una luz brillante. La razón por la que los cuerpos desaparecen a la luz del horno es que los oscuros (es decir, los no reflectantes) aparecen proporcionalmente más brillantes que los objetos claros (reflectantes), de suerte que la intensidad de la luz total que proviene de cada objeto (reflejada y emitida) es la misma. Para entender por qué se produce semejante y extraña igualación de la intensidad, imaginemos que no ocurriera y pensemos acerca de sus consecuencias para la segunda ley. Supongamos que un jarrón y una taza se encierran en un horno a temperatura uniforme. Si la intensidad de luz que desde el jarrón se dirige hacia la taza fuera mayor que la que va desde la taza hacia el jarrón, se produciría un flujo de energía desde ésta hacia aquél. El jarrón se calentaría y la taza se enfriaría. Así, sin consumo de trabajo, dos zonas que inicialmente estaban a la misma temperatura alcanzarían temperaturas distintas, igual que si el demonio de Maxwell se hubiera sentado entre ellos: habríase violado la segunda ley. Por consiguiente, si la segunda ley es válida, los objetos introducidos en un recinto con temperatura uniforme no pueden tener diferentes intensidades de luz superficiales. Para distinguir los objetos encerrados en el interior de un horno hay que iluminarlos, pues, con una fuente externa, una lámpara de destellos, por ejemplo, cuyo filamento alcanzara una temperatura mayor que la temperatura del horno. En la vida diaria es una fuente luminosa de estas CALOR Y MOVIMIENTO
características —el sol— la que posiLa demostración de Landauer bilita que se vean los objetos en recin- arrancaba de una premisa: los distos que están a una temperatura tintos estados lógicos de un ordenaambiente uniforme. dor podían representarse mediante Brillouin, Gabor y diversos inves- distintos estados físicos del soporte tigadores, armados con sus conoci- físico del mismo. En concreto, cada mientos del gas de fotones, sostuvie- estado posible de la memoria de un ron que el demonio de Maxwell no ordenador podía representarse por podría observar las moléculas para una configuración física diferente (es ordenarlas sin utilizar algún tipo de decir, por un distinto conjunto de fuente luminosa. Lo que es lo mismo, corrientes, voltajes, campos, etcétera). negaban que pudiera violar la segunda Supongamos que se inicia un regisley. Cada vez que observa una molé- tro de memoria de n bit; en otras palacula del gas, el diablillo debe disipar, bras, supongamos que el valor de cada como mínimo, la energía de un fotón, uno de ellos se fija en cero, sin imporenergía del fotón que debe ser mayor tarnos cuál fuese su valor previo. que cierta energía mínima (la deter- Antes de esta operación el registro minada por la temperatura del gas en podía estar en cualquiera de los 2 n la que está el demonio). Estos razo- estados admisibles; tras ella se namientos, aunque no del todo rigu- encuentra en un estado único. La operosos, parecen confirmar la idea de ración, por tanto, ha comprimido Szilard según la cual la adquisición muchos estados lógicos en uno solo, de cierta cantidad de información de la misma forma que un pistón comcomporta la producción de una can- prime un gas. tidad correspondiente de entropía. De acuerdo con la premisa de Landauer, para comprimir un estado a contribución que asestó un golpe lógico de un ordenador se debe commayor a la hipótesis del diabli- primir también su estado físico: se llo débese a los trabajos realizados debe disminuir la entropía de su en termodinámica del proceso de soporte físico. De acuerdo con la sedatos por Rolf Landauer, investiga- gunda ley, la disminución de la entrodor de IBM. Ciertas operaciones de pía del soporte físico del ordenador no proceso de datos, verbigracia la copia puede ocurrir sin un incremento de de la información de un dispositivo entropía del entorno del ordenador. en otro, no divergen mucho de las Por consiguiente no se puede iniciar operaciones de medida, en las que un un registro de memoria sin generar dispositivo adquiere información calor y sin aumentar la entropía del sobre el estado de otro. En ese sen- entorno, por lo que poner a cero un tido creíase por los años cincuenta que registro es una operación termodilas operaciones de proceso de datos námicamente irreversible. eran intrínsecamente irreversibles Landauer identificó otras opera(en la significación termodinámica ciones que eran termodinámicamente del vocablo), de la misma manera que irreversibles. Todas esas operacioSzilard había argumentado que una nes compartían un mismo abandono medida era, en general, irreversible. de información relativa al estado anteSe opinaba que todo tipo de operación rior del ordenador. Se trataba de opecon información requería, en el peor raciones “lógicamente irreversibles”, de los casos, la generación y el tras- por emplear la terminología utilizada lado de un bit de calor por cada bit por él. de datos procesado. (Cantidad de calor La conexión de estas ideas con el extremadamente pequeña; una diez- problema de la medición, implícito en billonésima del calor generado por el trabajo de Landauer y en los modelos circuitos electrónicos existentes.) los reversibles de computación desaLandauer analizó la cuestión con rrollados durante los años setenta por mayor detenimiento a comienzos del Edward Fredkin, por el autor de este decenio siguiente. Descubrió que ha- trabajo y por otros investigadores, bía operaciones costosas desde el punto concluyó en 1982, cuando propuse la de vista termodinámico, mientras que correcta explicación del demonio de otras, entre las que se incluían (bajo Maxwell. Consideremos el ciclo del condiciones apropiadas) el copiar infor- motor de Szilard. La última etapa, mación de un dispositivo a otro, se durante la cual la memoria de la hallaban exentas de cualquier limita- máquina se pone en un estado blanco, ción termodinámica [ véase es lógicamente irreversible, ya que “Limitaciones físicas fundamentales comprime dos estados de la memoria de los procesos de cómputo”, por Charles del motor (“la molécula está en la izH. Bennett y Rolf Landauer; quierda” y “la molécula está en la deINVESTIGACIÓN Y CIENCIA , septiembre recha”) en uno solo (“no se ha definido de 1985]. todavía la posición de la molécula”).
L
25
COLABORADORES DE ESTE NUMERO Traducción: José Mª Valderas Martínez: El mundo de la termodinámica ; Víctor Navarro Brotons: Sadi Carnot ; Josep-Enric Llebot: Demonios, motores y la segunda ley; J. Vilardell: Versión doméstica del motor Stirling construida con materiales corrientes; Néstor Herrán: La flecha del tiempo; David Jou: El movimiento browniano; Amando García Rodríguez: La reaparición de fases; Pilar Iñiguez: Cuando los puntos de fusión y de solidificación no son el mismo; Francisco Martínez González-Tablas: Reacciones químicas oscilantes.
Portada: Prensa Científica, S.A.
26
Página
Fuente
8
J. L. Charmet, Colección particular, París
9
Centro de Investigación de Ciencia y Tecnología, Biblioteca Pública de Nueva York
10-11
Ilil Arbel
12-17
Stuart L. Rabinowitz
19
James Kilkelly y R. Bruce Laughlin
20-24
Jerome Kuhl
28-31
Michael Goodman
33-44
Tom Prentis
47-55
George V. Kelvin
58
Christopher M. Sorensen, Universidad estatal de Kansas
59-64
George V. Kelvin
67
Thomas L. Bech, Universidad de Cincinnati
68-69
Ian Worpole
70
Hai-Ping Cheng, Universidad de Chicago (arriba); Ian Worpole (abajo )
71
Ian Worpole
73
R. F. Bonifield
74-80
Allen Beechel
81
R. F. Bonifield
83-93
David Lurié, J. Wagensberg y A. Sellés
96
C. Mans, J. Llorens y J. Costa-López
97-101
C. Mans, J. Llorens, J. Costa-López y Magda Mària
102
C. Mans, J. Llorens y J. Costa-López
Ocurre así que el motor no puede reiniciar su memoria sin añadir como mínimo un bit de entropía al entorno. Esto vuelve a convertir en calor todo el trabajo que se había ganado en la carrera de potencia. ¿Qué sucede en la etapa en que se mide la posición de la molécula? ¿También es costosa desde el punto de vista termodinámico? En este caso la máquina incrementaría la entropía del universo por partida doble: en correspondencia con la medida de la posición de la molécula y luego con la puesta a cero de su memoria tras la carrera de potencia. Pero lo cierto es que la medición no tiene por qué ser costosa desde el punto de vista termodinámico. Hay otras formas de observar las moléculas que no se basan en exponerlas a ningún tipo de destello. Para demostrar este punto he diseñado un dispositivo de medida reversible, que mide y registra la posición de una molécula sin llevar a cabo ningún proceso que sea termodinámicamente irreversible. Hemos encontrado, pues, la razón de que el demonio no pueda violar la segunda ley: para observar una molécula ha de olvidar antes los resultados de las observaciones precedentes. Olvidar resultados o desechar información resulta costoso desde el punto de vista de la termodinámica. Pero si tuviera una memoria muy potente, recordaría los resultados de todas sus medidas. Ninguna etapa sería lógicamente irreversible y el motor convertiría un bit de calor en un bit de trabajo en cada ciclo. La cuestión radicaría entonces en que el ciclo ya no sería tal, pues la memoria del motor, que se hallaba inicialmente en blanco, adquiriría otro bit aleatoriamente a cada vuelta. La interpretación termodinámica correcta de esta situación consistiría en decir que el motor incrementa la entropía de su memoria para reba jar la entropía del entorno. La atribución del incremento de entropía a la etapa de inicio y no a la de medida podría parecer un mero recurso académico, ya que el ciclo completo de un motor de Szilard tiene que contener ambas etapas; ahora bien, nos ahorraremos bastante confusión si distinguimos con claridad entre adquisición de nueva información y destrucción de información antigua, confusión que no sabemos si existió en la mente de Szilard. En la mayoría de sus artículos alude a la medición como si se tratara de una etapa irreversible; pero hay un momento en que hace un recuento de los c ambios entrópicos registrados durante
el ciclo y encuentra, sin comentarlo de forma explícita, que el incremento de entropía se produce durante la puesta a cero de la memoria. Si se hubiera profundizado en este aspecto de los trabajos de Szilard, se hubiera llegado al conocimiento que tenemos ahora del demonio de Maxwell. Omisión que, ironía de las cosas, no es infrecuente en la historia de la ciencia: el crecimiento de una rama (la teoría cuántica de la radiación) retrasa aparentemente el desarrollo de otra (la termodinámica). Un principio de la mecánica cuántica que refuerza la idea según la cual, para adquirir información, se debe pagar un precio termodinámico fundamental, es el de incertidumbre, en virtud del cual ciertos grupos de mediciones no pueden realizarse con más de un cierto grado de precisión. Aunque el principio de incertidumbre parece similar a otra hipótesis de Szilard (las medidas comportan un coste entrópico irreductible), la verdad es que difieren desde sus cimientos. La hipótesis de Szilard se ocupa del coste termodinámico de las mediciones, mientras que el principio de incertidumbre lo hace de la posibilidad misma de su realización, cualquiera que sea su coste termodinámico. Otra fuente de confusión es que en general no se piensa en la información como en algo que tenga un coste. Pagamos por adquirir los periódicos, no por tirarlos. El recuerdo por parte del demonio de las acciones pasadas lo consideramos intuitivamente como un recurso valioso (o, en el peor de los casos, inútil). Mas para el demonio “el periódico de ayer” (resultado de una medición previa) ocupa un espacio importante y el coste de limpiarlo neutraliza el beneficio obtenido de él cuando era reciente. Quizá la creciente conciencia de la contaminación ambiental y de la explosión de la información debida a los ordenadores haga que ahora nos parezca más natural la idea de que la información tenga valor negativo.
BIBLIOGRAFIA COMPLEMENTARIA IRREVERSIBILITY AND HEAT GENERATION INTHE COMPUTING PROCESS. R. Landauer en IBM Journ al of Researc h and Development , volumen 5, número 3, páginas 183-191; julio, 1961. SCIENCE AND INFORMATION THEORY. Leon Brillouin. Academic Press, 1962. THE THERMODYNAMICS OF COMPUTATION —A REVIEW. Charles H. Bennett en International Journal of Theoretical Physics, volumen 21, páginas 905-940; diciembre, 1982.
TEMAS 16
Versión doméstica del motor Stirling construida con materiales corrientes Jearl Walker
L
os motores térmicos, que transforman el calor en trabajo mecánico utilizable, se dividen en dos grandes categorías. Pertenecen a la primera aquellos en los que la combustión actúa directamente sobre un pistón, mientras que si actúa indirectamente, valiéndose de un intermediario conocido por fluido motor, se les encuadra en la segunda. Los primeros son los motores de combustión interna, de los que el motor de gasolina constituye el ejemplo más conocido; cuando se quema el combustible, los productos gaseosos de la combustión se expanden, empujando directamente un pistón. Los segundos pertenecen al grupo de los motores de combustión externa. De entre ellos, citemos la máquina de vapor, cuyo fluido motor es el agua. Otro caso de motor de combustión externa lo tenemos en el que el reverendo Robert Stirling presentó en Escocia en 1816. Originalmente era el aire su fluido motor, pero en posteriores versiones se sustituyó por hidrógeno y por helio. El motor Stirling merece nuestro interés por varias razones. Recicla continuamente su fluido motor; puede utilizar cualquier fuente calorífica, lo que permite elegir un combustible poco contaminante; además ofrece un rendimiento elevado en la conversión del calor en trabajo, al menos sobre el papel. Pese a todo, debido a un cúmulo de circunstancias, la idea de Stirling quedó arrumbada, primero por culpa del vapor y luego por la combustión interna. Pero la idea sigue merodeando en muchas mentes, en parte por su escasa contaminación y en parte porque no necesita combustibles derivados del petróleo. Este tipo de motor llamó la atención de Peter L. Tailer, que construyó uno tomando como modelo el desarrollado en 1876 por A. K. Rider. No es probable que su artefacto ponga en apuros a los motores clásicos, habida cuenta de su potencia útil, pero es fácil de construir con materiales corrientes y va a permitirnos estudiar el proceso termodinámico que lleva asociado. Característica muy atractiva de esta máquina es que no necesita ni cilindros ni pistones finamente torneados, como les ocurre a otros motores Stirling y a todos los de combustión interna. Tal como se muestra en la figura 1, nuestro motor emplea dos latas (como las que suelen utilizarse para las bebidas refrescantes), parcialmente sumergidas en el agua almacenada en dos depósitos situados en la base. Entre ambos depósitos discurre un tubo lleno de aire, que asciende por sus interiores. Cada lata está unida a un extremo de una biela; el otro extremo se conecta al vástago de un volante con contrapeso montado en la parte superior de la máquina. Cuando el foco calorífico empleado —que puede ser cualquier llama— calienta uno de los depósitos de agua, el aire va y viene entre los depósitos a través del tubo, las CALOR Y MOVIMIENTO
latas suben y bajan y el volante se pone a girar a unas decenas de revoluciones por minuto. Estos movimientos dependen de dos sutiles propiedades del artefacto: la disposición de las manivelas del volante, cuyos brazos externos son perpendiculares entre sí (vistos de costado), y el modo en que se transmite el calor desde el foco al aire encerrado en una de las latas. ntes de entrar en los detalles de la máquina, abordaremos los fundamentos del motor Stirling basánA donos en el modelo que se ofrece en los textos y que se ilustra en la figura 2. Dos pistones macizos se ajustan con muy poco huelgo dentro de un cilindro y pueden ser impulsados hacia la izquierda o hacia la derecha, bien por la presión del aire, bien por el órgano mecánico al que estén unidos. En el centro del cilindro hay un material poroso, tal como una esponja metálica, que es el llamado regenerador y cuya misión consiste en almacenar temporalmente el calor cuando el motor está en marcha. Cerca de los pistones hay dos “acumuladores térmicos” cuyas temperaturas se mantienen constantes. A la izquierda se encuentra el “acumulador de calor”, que se calienta merced a un foco calorífico. A la derecha tenemos el “acumulador de frío”, cuya temperatura se mantiene baja gracias a un proceso de evacuación del calor. Durante el funcionamiento del motor, el aire interno sufre cambios cíclicos de presión, de temperatura y de volumen, diciéndose que cambia de estado. La ilustración muestra la disposición de los pistones para cuatro estados. Las variaciones correspondientes del estado del aire se comprenderán mejor siguiendo la gráfica de la presión en función del volumen, que se representa en la figura 3. En el curso de su funcionamiento, el motor realiza ciclos siguiendo, en sentido horario, el contorno de una suerte de rectángulo deformado y sesgado. Empecemos por el estado 1, que corresponde al primer dibujo de la serie y a la esquina superior izquierda del rectángulo. El pistón B, a la derecha, se encuentra junto al regenerador; algo más lejos está, a la izquierda, el pistón A. El aire encerrado entre ellos se encuentra comprimido. Conforme el acumulador de calor caldea el aire, éste se expande, desplazando A hacia la izquierda. El consiguiente aumento del volumen que los separa relaja la presión. Durante la expansión, la temperatura del aire se mantiene constante, dada la cercanía del acumulador de calor; por ello se dice que la expansión es isotérmica, viniendo representada por la curva superior del rectángulo sesgado. Cuando A llega al extremo izquierdo de su carrera, el aire se encuentra en el estado 2. Seguidamente ambos pistones son desplazados hacia la derecha, no por el calor, sino por el aparato mecánico al 27
que están unidos, hasta que A llega al regenerador y B se encuentra en el extremo de la derecha. Este movimiento de los pistones promueve el flujo del aire a través del regenerador, que absorbe parte del calor y enfría el aire. El movimiento acompasado de los pistones impide que, durante esta transición, varíe el volumen del aire; por eso se habla de transición a volumen constante. A continuación, los mecanismos de B obligan al pistón a desplazarse hacia la izquierda. En la medida en que el aire se comprime, va cediendo calor al acumulador de frío. Como éste se halla a temperatura constante, la del aire no varía; esta transición se denomina compresión isotérmica. Cuando termina el proceso, el aire se encuentra en el estado 4. Para finalizar el ciclo, el órgano mueve ambos pistones a la vez hacia la izquierda, hasta que quedan de nuevo en la posición del estado 1. La transición vuelve a desarrollarse a volumen constante. Cuando el aire fluye a través del regenerador, recupera el calor que había perdido en la anterior transición a volumen constante. El motor repite el ciclo representado en la gráfica mientras funciona. En el paso del estado 1 al 2, uno de los pistones se mueve impulsado por la expansión del aire. En las otras tres transiciones los pistones son accionados por la mecánica del aparato. ¿Es eficaz el motor? Dicho de otro modo, ¿es mayor el trabajo que realiza el aire sobre el órgano mecánico que el realizado por el órgano mecánico sobre el aire? Para responder a esta pregunta tenemos que precisar primero lo que se entiende por “trabajo”. Aunque el término pueda emplearse vulgarmente para designar el consumo de energía, su concepto científico es mucho más preciso: trabajo es la energía que debe aportarse para mover algo. Según esta definición más restrictiva, si un objeto no se mueve cuando se le aplica una fuerza, no se realiza trabajo. Si se mueve, el valor del trabajo será el producto de la fuerza por el desplazamiento del objeto. El agente que produce la fuerza, cualquiera que sea, pierde energía y ésta se manifiesta en forma de movimiento.
I 1. Motor Stirling, de Peter Tailer.
28
maginemos un recipiente cerrado que tenga aire en su interior, hallándose ambos a la misma temperatura. Las moléculas de aire golpean sin cesar contra las paredes del TEMAS 16
2. Las cuatro etapas del motor Stirling teórico.
recipiente y esos choques continuos constituyen una fuerza neta sobre ellas, que no es sino la presión del aire. Si la pared no se mueve hacia fuera por esta causa, el aire no realiza ningún trabajo sobre ella. Pero si cede, realiza trabajo. Para que el aire realice trabajo es necesario que expanda el recipiente que lo confina. Según lo dicho, el trabajo es el producto de la fuerza de cada colisión molecular por el desplazamiento que en la pared origine esa colisión, pero es más fácil expresarlo mediante el producto de la presión (trasunto de la fuerza) por el volumen (correspondiente al desplazamiento). Si hubiera una fuerza exterior que redujera el volumen del recipiente, el trabajo lo haría esa fuerza y no el aire. El agente responsable de la fuerza (que podría ser una persona o un dispositivo mecánico) perdería entonces energía, que pasaría primero al recipiente y luego a las moléculas del aire, al moverse la pared hacia dentro. En este caso se realizaría trabajo contra el aire, cuyo valor volvería a ser el producto de la presión por el cambio de volumen. La idea básica del motor Stirling de aire consiste en lograr que ese aire efectúe trabajo sobre un pistón, impulsándolo hacia fuera y aumentando el volumen del espacio comprendido entre los dos pistones. El movimiento del pistón podrá entonces transmitirse a un artefacto que haga uso de la energía adquirida. Desde luego, si no se obtuviera más que una de tales expansiones, de poco serviría el motor. Este tiene por tanto que comprimir periódicamente el aire, para que pueda expandirse también periódicamente y seguir realizando trabajo. En pocas palabras, el volumen del aire tiene que realizar ciclos. Ahora bien, recordemos que, para que el aire se comprima, el órgano mecánico tiene que realizar trabajo sobre él. Si el que realizase en cada ciclo sobre el aire fuese igual al realizado por éste sobre el primero, el motor no produciría trabajo neto y sería inútil. Esta dificultad se desvanece si interviene la temperatura del aire. Supongamos que el aire esté caliente siempre que realice trabajo. En ese caso los choques de las moléculas de aire con el pistón serán violentos y la presión será elevada. Como el trabajo efectuado sobre el pistón depende directamente de la presión, el trabajo será grande. Supongamos a continuación que la temperatura sea baja siempre que sea el ingenio quien realice trabajo sobre el aire. Entonces los choques serán menos fuertes y el trabajo realizado sobre el aire será menor. Si fuese posible ajustar la temperatura de este modo, el aire efectuaría más trabajo sobre el órgano que éste sobre el aire. En esta variación periódica de la presión y de la temperatura se fundamenta el motor Stirling teórico (al igual que otros muchos motores). Durante la expansión isotérCALOR Y MOVIMIENTO
3. Ciclo presión-volumen.
mica, cuando la temperatura del aire es elevada, el aire realiza trabajo sobre el pistón A. Durante la compresión isotérmica, a baja temperatura, la maquinaria del aparato realiza trabajo sobre el aire. El motor rinde así un trabajo neto. El trabajo puesto en juego durante un ciclo del motor puede deducirse de la gráfica presión-volumen. El trabajo realizado por el aire durante la expansión isotérmica está representado por el área situada bajo la curva correspondiente. El área queda definida por la misma curva, por el eje de volúmenes y por dos rectas verticales, que van desde el eje hasta los puntos extremos de la curva. También el trabajo ejercido sobre el aire durante la compresión isotérmica es el área situada bajo la curva correspondiente. Durante las transiciones a volumen constante no se efectúa trabajo alguno, al no haber cambio de volumen, por lo que el área abarcada por esas rectas es nula. Para hallar el trabajo neto durante un ciclo completo hay que restar, del área definida por la curva de expansión, la definida por la curva de compresión. El resultado es el área encerrada por el rectángulo sesgado. olvamos ahora al artefacto de Tailer. El depósito V caldeado es el acumulador de calor. El otro depósito es el acumulador de frío, cuya temperatura se mantiene por radiación y convección térmicas. Los espacios llenos de aire, incluido el tubo que conecta los depósitos, hacen de cilindro. El tubo mismo, o una esponja metálica que se introduzca en él, funciona como regenerador. El órgano mecánico al que están unidas las latas es el volante. Los dibujos de la figura 4 muestran la respuesta del aire confinado en la parte inferior del ingenio al calentamiento y al movimiento del volante. Se representan los niveles de las latas y del agua, la dirección del flujo del aire y las orientaciones de las manivelas para ocho etapas. Los rótulos de las manivelas indican si están conectadas al depósito caliente o al frío. Nuestro motor es similar al teórico, pero carece de transiciones auténticamente isotérmicas y a volumen constante. Aun así, si representáramos gráficamente la presión del aire en función de su temperatura, describiría ciclos más o menos como los reseñados para el motor teórico. Para seguir el ciclo, consideremos al motor cuando pasa por la etapa a, nada más salir de la etapa h. Durante a, la subida de la lata caliente es más rápida que el hundimiento de la fría. Luego las dos suben hasta llegar a c . A partir de ahí la lata fría se eleva más rápidamente de lo que se hunde la caliente, hasta que llegan a d . Adviértase que, durante la transición de h a d , la lata caliente contiene más aire que la fría. Significa esto que hay más aire 29
calentándose que enfriándose, por lo que la presión del aire aumenta. Adviértase también que, durante el paso de h a d , aumenta el volumen del aire. Esta expansión la causa la presión adicional, lo que significa que el aire efectúa trabajo sobre las latas y, por tanto, también sobre el volante. Las variaciones de volumen y de presión son exactamente las opuestas cuando el motor evoluciona entre d y h; el volante realiza trabajo sobre el aire. El movimiento neto de las latas comprime el aire; el desplazamiento del aire a la lata fría disminuye su temperatura y reduce su presión. Durante la compresión, la presión es baja y por ello el trabajo que realiza el volante sobre el aire es menor que el realizado por el aire sobre el volante durante la transición de h a d . El aire realiza así un trabajo neto. Tailer nos proporcionó instrucciones y planos detallados para construir este motor, aunque los pormenores pueden alterarse a voluntad en función de los materiales disponibles. El cigüeñal se construirá con un alambre fuerte, como el de las perchas de la ropa, que no se doble durante el funcionamiento del motor, y descansa sobre placas de aluminio de 3 milímetros de grosor que sirven de cojinetes. En cada placa se taladran orificios; en el borde superior se cortan sendas entallas donde apoyar el cigüeñal, para luego atornillarlas a la cara interior de un brazo de madera (figura 1). El volante es una polea de 20 centímetros de diámetro con un surco pensado para montar una correa. En su agu jero central se encaja un taco de madera, en cuyo centro se practica un orificio para acomodar el cigüeñal. El alambre se fija al taco con epoxia y el taco se asegura a la polea mediante el tornillo prisionero. El alambre del cigüeñal
tiene que sobresalir de los cojinetes de tal manera que sus extremos puedan cortarse y doblarse dejando sendos tramos de unos cinco centímetros, perpendiculares al eje del cigüeñal. Estos tramos finales tienen además que quedar perpendiculares uno al otro vistos de costado. on una sierra para metales se cortan las tapas de dos latas de refresco. Se ponen boca abajo y se encolan C sendas varillas de madera a sus tapas del fondo. Estas bie-
las deben ser de unos cinco milímetros de diámetro por unos 90 centímetros de largo. Como pegamento se recomiendan los de tipo epoxia de secado lento, que soportarán mejor el calor que los de secado rápido. Durante el montaje final del motor el extremo superior de cada biela se encola o se fija con cinta adhesiva a una tira de aluminio de 3 milímetros de grueso, que a su vez va montada con tuercas y arandelas en un perno largo. Este tornillo atraviesa, además, otras dos bandas de aluminio que están unidas a los extremos exteriores de las manivelas con un perno más corto y con una tuerca. El conjunto completo recibe el nombre de muñequilla de cigüeñal. Los depósitos son botes de café de medio kilo. El tubo que los une está hecho de tubería de cobre de 20 milímetros de diámetro interior. Antes de conectarlos hay que fijar a cada lata un trozo de 15 centímetros de longitud. En el fondo de cada lata se practican cortes radiales con una navaja, forzando hacia el interior el trozo de tubo, que se abrirá paso por entre las aletas que hicieron los cortes. Se dejan fuera de la lata unos dos centímetros de tubo. La juntura entre el tubo y el bote puede cerrarse y afianzarse con epoxia de endurecimiento lento, aunque la soldadura con estaño daría mejor resultado. Si se prefiere esto último, se lija la superficie a soldar del tubo, se reparte fundente sobre ella y por la zona correspondiente al bote y se aplica el soldador para derretirlo. Una vez preparados ambos botes, se colocan sobre sus extremos abiertos. A continuación se lijan y se cubren de fundente los interiores de los codos de los tubos y se los suelda en la posición correcta. Se añaden entonces dos trozos cortos de tubería y se les une mediante un empalme provisto de drenaje. Se sueldan todas estas uniones, excepto la de la pieza que se introduce en el codo del depósito frío, que se asegura con algunas vueltas, bien prietas, de cinta de vinilo, de modo que el conjunto pueda posteriormente desmontarse si se quisiera añadir un regenerador o cambiarlo. Si no fuera posible disponer de un trozo de tubo con drenaje, bastará con abrir un orificio en un tubo corriente, suavizar los cantos y luego cerrarlo con un tapón de madera o de goma. Constrúyase un chasis sobre el que instalar los depósitos y que facilite un buen acceso al drenaje. Después se pasan las varillas que conforman las bielas por las armellas atornilladas al pie que soporta 4. Las ocho etapas del funcionamiento del ingenio.
30
TEMAS 16
5. Montaje de tubos y latas.
el aparato; se fijan a las bandas metálicas externas de las muñequillas tal como se describió antes. Para una carrera de unos 30 milímetros, los tornillos se ajustan en la muñequilla de modo que el tornillo largo pase a unos 20 milímetros por debajo y por encima del eje cuando gire el volante. Para que el volante tenga una masa suficiente que le permita completar la vuelta cuando el motor se ponga en marcha, hay que añadirle peso; para ello, sujétensele tornillos o pernos con cinta adhesiva. Se engrasan entonces los cojinetes y se comprueba si el volante y las latas se mueven sin dificultad. Para poner a punto el motor, se rota el cigüeñal hasta que las manivelas queden a 45 grados respecto a la vertical. Luego, con el drenaje abierto, se llena el depósito frío de agua fría hasta que rebose el tubo de interconexión y salga por el orificio de drenaje. Después, se echa agua caliente al depósito caliente hasta que también rebose. Se cierra el drenaje y se empieza a calentar el depósito caliente; puede hacerse con un soplete de propano o con un mechero Bunsen, por ejemplo. La velocidad de rotación del volante depende de la diferencia de temperatura entre los dos depósitos. Por ejemplo, uno de estos motores giró a 20 vueltas por minuto cuando las temperaturas del agua eran de 95 y de 16 o 17 grados centígrados respectivamente, pero se aceleró hasta las 28 vueltas por minuto cuando el agua caliente se acercó más al punto de ebullición. El funcionamiento del motor puede mejorarse rellenando parcialmente el tubo de interconeCALOR Y MOVIMIENTO
xión con tiras metálicas enrolladas que actúen de regenerador. Cuando Tailer añadió una esponja así a su motor, su velocidad subió hasta casi una vuelta por segundo. l lector podría tratar de estudiar la E influencia de otros parámetros sobre este artefacto, además de jugar con la temperatura. Si se varía la carrera, ¿rotará más rápido el volante? ¿Qué pasará si el ángulo entre las manivelas es distinto del de 90 grados que hemos mencionado? (Y además, por supuesto, ¿por qué es importante ese ángulo y por qué arrastra la manivela caliente a la fría?) ¿Hay otros materiales que, actuando como regeneradores, mejoren nuestro motor? ¿Funcionará mejor si reemplazamos el agua por otro líquido? (¡No usar líquidos inflamables ni que puedan explotar!) ¿Qué ocurre si alteramos la longitud de las bielas para aumentar o disminuir la altura media de la columna de aire contenida en las latas?
BIBLIOGRAFIA COMPLEMENTARIA THE STIRLING ENGINE. Graham Walker en Scientific American, vol. 229, n.o 2, págs. 80-87; agosto de 1973. STIRLING ENGINES. Graham Walker. Oxford University Press, 1980. LIQUID PISTON STIRLING ENGINES. C. D. West. Van Nostrand, 1983. OTHER EXTERNALLY REVERSIBLE CYCLES. J. B. Jones y G. A. Hawkins en Engineering Thermodynamics: An Introductory Textbook . John Wiley & Sons, 1986. PRINCIPLESAND APPLICATIONSOF STIRLING ENGINES. Colin D. West. Van Nostrand Reinhold Company, 1986.
31
La flecha del tiempo David Layzer
¿Por qué nunca retrocede el tiempo? La respuesta no se encuentra al parecer en las leyes de la naturaleza, que apenas distinguen entre pasado y futuro, sino en las condiciones que imperaban en el universo primitivo
P
arece fácil distinguir entre el pasado y el futuro: mientras que la memoria conserva huellas del primero, no sabemos a ciencia cierta qué sucederá en el porvenir. Pero esta distinción desaparece de facto si los acontecimientos se consideran mediante las leyes más fundamentales de la física. El mundo intuitivamente percibido se extiende por el espacio y se “despliega” en el tiempo, pero a escala atómica es un continuo tetradimensional que los ocupa a ambos, espacio y tiempo. Asignamos significados especiales a un momento particular, el presente, al que consideramos como la cresta de una ola que transforma potencialidad en realidad de forma continua, dejando tras de sí un pasado inanimado. Pero la física microscópica no concede un status especial a ningún momento concreto y apenas distingue entre las direcciones del pasado y del futuro. No es posible deshacerse de la concepción intuitiva de un mundo que se despliega temporalmente por el mero recurso de calificarla de subjetiva, ya que tiene manifestaciones objeti vas evidentes en diversos fenómenos biológicos, geológicos y astronómicos, entre otros. Hay pruebas a su favor en los procesos fisiológicos que fundamentan la memoria, en los fenómenos del crecimiento, el desarrollo y la diferenciación de los organismos vivos y también en la evolución orgánica, proceso mediante el que la variación al azar y la selección natural han generado una inmensa y creciente variedad de seres vivos cada vez más complejos. La corteza terrestre registra las vicisitudes de 4500 millones de años de cambio evolutivo y las accidentadas superficies de la Luna, de Marte y de Mercurio preservan huellas cronológicas de duraciones parecidas. Las estrellas normales, las gigantes rojas, las supernovas y las enanas blancas representan las diferentes etapas del ciclo de vida de una 32
estrella, mientras que la recesión de las galaxias lejanas induce a pensar que el universo sea el resultado de un proceso evolutivo, que empezase teniendo un estado enormemente denso y amorfo en un pasado remoto, pero no infinitamente distante. Todos estos procesos tienen una característica común: son transformaciones que generan orden —información— y transforman un estado simple en otro más complejo. En palabras de Arthur Eddington, estos procesos indican la dirección en la que apunta la “flecha del tiempo”, definen lo que yo llamaré “flecha del tiempo histórica”. Aunque parezca un contrasentido, la dirección de la flecha del tiempo también se puede definir a partir de unos procesos diametralmente opuestos: los que destruyen información y generan desorden. Si añado un terrón de azúcar a una taza de té caliente y remuevo su contenido, la concentración espacial de las moléculas de azúcar, el movimiento ordenado del té y la diferencia de temperatura entre el té y sus alrededores representan información macroscópica, orden. A medida que el azúcar se disuelve y el té se detiene y empieza a enfriarse, esta información desaparece de forma gradual. Los procesos irreversibles que destruyen la información macroscópica (en este ejemplo, la difusión, la viscosidad y la conducción térmica) son manifestaciones de la segunda ley de la termodinámica, que enuncia que todos los procesos naturales generan entropía (una medida del grado de desorden). La destrucción irreversible del orden macroscópico define lo que llamaré a partir de ahora la “flecha del tiempo termodinámica”. A escala microsc ópic a no pueden observarse ni la flecha histórica ni la termodinámica, puesto que el movimiento de una molécula individual de azúcar o de té no genera información ni entropía. El “orden” es un concepto
macroscópico, una propiedad de sistemas formados por muchas partículas, que carece de significado cuando se aplica a átomos y a moléculas indi viduales. El mundo de la física de las partículas elementales cambia, pero no evoluciona. Voy a defender la tesis de que la visió n macroscópica del mundo como un sistema que degenera hacia un desorden total no puede derivarse de las leyes físicas fundamentales. Lo mismo sucede con la perspectiva microscópica, que lo considera un sistema cambiante, pero no evolutivo, de partículas y campos que se influyen. Me parece que ambos puntos de vista dependen de suposiciones adicionales sobre la naturaleza y el origen del universo, suposiciones que, en mi opinión, deberían reemplazarse por otras más simples e igual de consistentes con las observaciones. El modelo de universo que nace de esta visión se op one al que ac eptan la mayoría de los físicos, pero resuelve la contradicción aparente entre las flechas del tiempo histórica y termodinámica, reconciliándolas con el carácter prácticamente simétrico respecto al tiempo que tienen las leyes de la física en la escala microscópica. Mi teoría implica que el universo se está desplegando en el tiempo, pero sin desenredarse; al contrario, se está volviendo cada vez más complejo y más rico en información. Irreversibilidad
L
as flechas temporales histórica y termodinámica se derivan de procesos que siempre tienen la misma dirección, de sucesos que no se pueden deshacer. ¿Cuál es la causa de que sean irreversibles? Todos los fenómenos se pueden describir en última instancia como el resultado de relaciones entre partículas elementales; si las leyes que las gobiernan no disTEMAS 16
1. EXPERIMENTO IMAGINARIO sobre la difusión de perfume que revela una aparente paradoja: el proceso completo es unidireccional, pero se compone de sucesos microscópicos esencialmente reversibles. Un frasco de perfume se abre en una habitación cerrada y aislada del mundo exterior. La serie superior de diagramas muestra, de izquierda a derecha, cómo las moléculas escapan del frasco y llenan gradualmente la habitación, hasta que todo el perfume se ha evaporado. Si la serie de diagramas se lee en la dirección opuesta, representa un proceso natural insólito, en el que todas las moléculas se reúnen de nuevo
CALOR Y MOVIMIENTO
y se condensan en la botella. Los diagramas de la parte inferior muestran el mismo proceso con detalle microscópico. En este caso las moléculas individuales escapan de la superficie y siguen complicadas trayectorias en zigzag que las llevan a distintas partes de la habitación. Esta secuencia de sucesos podría producirse en orden inverso, puesto que si todas las moléculas invirtieran su dirección, regresarían de nuevo hacia el frasco por sus trayectorias originales. Cada una de estas moléculas obedecería todas las leyes de la física y sería imposible determinar por su movimiento si se trata del experimento original o del invertido.
33
tinguen entre el pasado y el futuro, ¿cuál es el origen de la irreversibilidad que observamos en el mundo macroscópico? Una posibilidad es que los procesos microscópicos no sean totalmente simétricos respecto al tiempo. La desintegración del mesón K neutro
proporciona una prueba de que existe cierta asimetría temporal en el nivel de las partículas subatómicas. En efecto, uno de los posibles modos de desintegración de esta partícula parece violar alguna simetría de la naturaleza; la interpretación más usual del fenómeno sostiene la rup-
a
tura de la simetría frente a la inversión temporal. No obstante, esta violación es bastante débil y se observa en menos del uno por ciento de las desintegraciones. Los mesones K no aparecen además más que en experimentos de física de altas energías; no son constituyentes de la materia
b ESPACIO UNIDIMENSIONAL REAL
Y
ESPACIO TRIDIMENSIONAL REAL
Z
X
ESPACIO BIDIMENSIONAL DE LAS FASES
ESPACIO FASICO HEXADIMENSIONAL
D A D I C O L E V
POSICION
2. EL ESPACIO CONCEPTUAL DE LAS FASES se utiliza para representar el estado dinámico de un sistema de partículas, que a su vez se pueden definir mediante los vectores ( flechas coloreadas) que detallan su posición y su velocidad. En un universo unidimensional (a) bastan dos números para especificar el estado de una partícula, a la que se puede representar por su punto correspondiente en un espacio fásico de dos dimensiones. Para especificar el estado de una partícula libre que se moviera en un espacio de tres dimensiones (b) se ne-
34
cesitarían seis números (las componentes de la posición y la velocidad en los tres ejes cartesianos), mientras que su espacio fásico correspondiente debería poseer seis dimensiones. Como no es posible construir un espacio real con más de tres dimensiones, hemos representado sobre estas líneas una “sección” del espacio fásico hexadimensional. En un sistema formado por varias partículas se necesitan seis números para representar el estado de cada una de ellas, por lo que el espacio fásico debe tener un número de dimensiones igual a seis ve-
TEMAS 16
ordinaria y, por tanto, no desempeñan función alguna en los procesos macroscópicos que definen a las flechas temporales. Si el origen de la irreversibilidad no se halla en las leyes que gobiern an los sucesos microscópicos, tiene que surgir de ciertas restricciones sobre
la forma en que se desarrollen. Leyes y restricciones son aspectos complementarios de la descripción física de la naturaleza. Las leyes son poco numerosas, bastante generales y describen las regularidades que subyacen a los fenómenos. Las restricciones permiten por su parte seleccionar
c
Y
un fenómeno particular de entre el conjunto de sucesos gobernados por una misma ley. Mientras que las leyes definen lo posible, las restricciones afectan a lo real o a lo relevante, pudiendo adoptar la forma de condiciones iniciales, de condiciones de contorno y de condiciones de simetría.
d ESPACIO TRIDIMENSIONAL REAL
Z
Y
ESPACIO TRIDIMENSIONAL REAL
X
ESPACIO FASICO DE 48 DIMENSIONES
ces el número de partículas. Por ejemplo, un sistema de ocho partículas (c) se podría representar por un punto en un espacio fásico de 48 dimensiones. Toda la información necesaria para especificar el estado está resumida en la posición de este único punto y cada estado posible corresponde a un único punto del espacio de 48 dimensiones. Los ejes de l a sección tridimensional se han escogido arbitrariamente entre los 48 posibles. A medida que un sistema de partículas evoluciona (d), su estado dinámico cambia, cambio que se refleja en el movi-
CALOR Y MOVIMIENTO
Z
X
ESPACIO FASICO DE 48 DIMENSIONES
miento de su punto representativo en el espacio fásico. Las trayectorias pasada y futura del punto están determinadas completamente por su posición inicial, de modo que la historia dinámica del sistema de partículas puede predecirse hasta el mínimo detalle. El punto del espacio fásico puede recorrer además el mismo camino en ambos sentidos, por lo que los movimientos de las partículas son totalmente reversibles. En este caso también se han seleccionado arbitrariamente tres dimensiones de entre las 48 posibles.
35
a
b
3. LA REPRESENTACION PROBABILISTA de un sistema formado por varias partículas ofrece una descripción más verosímil del comportamiento del sistema. La probabilidad se representa como un fluido en el espacio fásico, cuya masa en una región dada corresponde a la probabilidad de que el punto que representa el estado del sistema se encuen tre en dicha
región. En el experimento de difusión del perfume todas las moléculas estaban confinadas inicialmente en la botella, de modo que todo el fluido de probabilidad está confinado inicialmente en un pequeño volumen. La forma del fluido es en realidad una hiperesfera de 6n dimensiones, donde n es el número de moléculas de perfume, pero se representa aquí me-
Los movimientos de los planetas dades estadísticas de los sistemas del sistema solar pueden servirnos planetarios primitivos, incluido el para ilustrar la manera en que leyes nuestro. Esta teoría partiría de ciery restricciones conforman los fenó- tas condiciones iniciales, que a su vez menos físicos. Si se conocen las posi- exhibirían regularidades estadísticiones y las velocidades planetarias cas e invitarían a una explicación teóen un momento determinado, la ley rica de mayor profundidad. Esto nos de la gravitación de Newton permite llevaría a formular una serie de procalcular todas sus posiciones pasadas blemas cosmogónicos de creciente y futuras. La ley explica el movi- generalidad, cuyas soluciones promiento elíptico de los planetas con el porcionarían explicaciones cada vez Sol situado en uno de sus focos, per- más generales sobre las regularidamite demostrar que una línea que des estadísticas del universo astroconecte el Sol con un planeta barre nómico. Esta sucesión hipotética de áreas iguales en tiempos iguales y teorías cosmogónicas debería desemdetermina la proporcionalidad entre bocar finalmente en un conjunto de el cuadrado del período orbital de un restricciones para el universo entero, planeta y el cubo del diámetro de su entre las que estarían las condicioórbita. Es más, podría explicar todos nes iniciales. Es posible que la irreesos aspectos en cualquier sistema versibilidad brote precisamente de planetario. Pero lo que no explica la tales restricciones cosmológicas. ley de la gravitación es por qué las órbitas de los planetas son casi cirInformación y entropía culares, por qué los planos orbitales coinciden casi exactamente o por qué todos los planetas giran alrededor os procesos que definen las fledel Sol en la misma dirección. El prochas temporales histórica y terpio Newton reconoció que estas armo- modinámica generan información y nías deben ser consecuencia de las entropía respectivamente. Claude E. condiciones iniciales. Shannon, del Instituto Tecnológico de Para explicar estas regularidades Massachusetts, mostró en 1946 que la se necesita una teoría sobre la for- información es una propiedad de las mación de los planetas que, aunque descripciones estadísticas de los sisno proporcionase las condiciones ini- temas físicos. Su unidad es el bit (conciales exactas del sistema solar, per- tracción de binary digit, dígito binario), mitiese especificar ciertas propie- que representa la cantidad de infor-
L
36
mación requerida para distinguir dos estados equiprobables. La información también se puede contemplar como una propiedad intrínseca de los sistemas físicos, como una medida de su organización interna. Uno de los teoremas fundamentales demostrados por Shannon estipula que el contenido de información de un sistema es el mínimo número de bits con los que se obtiene una descripción estadística completa del sistema. El concepto de entropía está muy relacionado con el de información. Rudolf Clausius y Lord Kelvin definieron inicialmente la entropía en el contexto de la termodinámica, como una medida de lo alejado que se encuentre un sistema del equilibrio. La entropía alcanza su valor máximo para valores determinad os de la temperatura y la densidad cuando se logra el equilibrio. A partir de una fórmula deducida por Ludwig Boltzmann y J. Willard Gibbs, Shannon definió una entropía de la teoría de la información, que mide la incertidumbre asociada con las descripciones estadísticas de un sistema. La entropía termodinámica de Kelvin y de Clausius y la entropía estadística de Boltzmann, Gibbs y Shannon tienen las mismas propiedades matemáticas, siendo distintas facetas de un mismo concepto. Entropía e información se relacioTEMAS 16
c
d
diante una esfera de tres dimensiones (a). A medida que el sistema evoluciona, el fluido de probabilidad debe migrar a regiones más distantes del espacio fásico, pero, debido a que l as trayectorias son totalmente deterministas, el fluido es incompresible y no puede expandirse como si fuera un gas. En su lugar extiende “ramificaciones” (b), que se vuelven más
alargadas y numerosas a medida que crece el número de estados posibles del sistema (c). Al final todo el hipervolumen se llena de pequeñas ramas de fluido, aunque el volumen de éste permanece constante. La distribución del fluido parece ahora más uniforme desde un punto de vista macroscópico, pero está lejos de serlo si se examina de cerca (d).
nan mediante una ley de conservación muy simple: la suma de la información y de la entropía es constante e igual a la cantidad máxima de información o de entropía que el sistema puede alcanzar bajo unas condiciones dadas. En forma matemática, esta ley afirma que H + I = constante = H max = I max , donde H (la letra griega eta) e I representan los valores efectivos de entropía e información, mientras que H max e I max son los valores máximos que pueden alcanzar estas magnitudes. Por consiguiente, un aumento de información siempre queda compensado por una pérdida equivalente de entropía. Consideremos un sistema físico con ocho (23 ) estados posibles, que se podrían etiquetar en notación binaria como 000, 001, 010, 011, 100, 101, 110 y 111. La especificación de un estado particular (el 101, por ejemplo) requiere tres dígitos binarios. Esta es la cantidad de información asociada a la descripción “el sistema se encuentra inequívocamente en el estado 101”. Es evidente que la incertidumbre o entropía asociada a esta representación es igual a cero. Si no tuviéramos ninguna información acerca del estado del sistema, tendríamos que asignar las mismas probabilidades a cada uno de los ocho estados posibles, con lo que la informaCALOR Y MOVIMIENTO
ción sería igual a cero. Como la suma de la entropía y de la información del sistema es constante, la entropía en este caso tendría que ser igual a tres bits. En general, si un sistema tiene 2 r estados posibles, donde r es un número entero, la máxima cantidad de información y de entropía es igual al logaritmo en base dos de 2 r, o sea, igual a r . Un experimento imaginario
E
l número de estados posibles de los sistemas reales puede que sea muy grande, pero nunca es infinito. Tal número y, por tanto, la cantidad máxima de información están limitados por el principio de incertidumbre de Heisenberg, que afirma que nuestro conocimiento de la posición y de la cantidad de movimiento de una partícula real está sometido a una incertidumbre irreductible, que impone un máximo a la precisión con que se puede especificar el estado dinámico de la partícula. Una consecuencia del principio de incertidumbre es que todo sistema físico finito puede describirse por completo mediante una cantidad finita de información. Para entender la conexión entre la cosmología, la entropía y la información propongo que realicemos un experimento imaginario muy sencillo.
Supongamos que abro un frasco de perfume en un rincón de una habitación cuyo aire esté en reposo absoluto. Mi ayudante en este experimento (que se ha situado en la otra punta d e la habitación) me informa poco después de que puede oler el perfume. Es evidente que el perfume ha escapado de la superficie del líquido y que, chocando con otras moléculas, ha recorrido un camino complicado y sinuoso a través de la habitación. Si se espera lo suficiente, todo el perfume se evaporará y sus moléculas se distribuirán de manera uniforme por toda la habitación ( véase la figura 1 ). Nuestra experiencia y la segunda ley de la termodinámica nos dicen que este proceso es irreversible: por mucho que esperemos, las moléculas de perfume no volverán a reagruparse espontáneamente en el interior del frasco. Pero que tal cosa sucediera no es imposible en teoría. Supongamos que todo el experimento se pudiera filmar con una película de resolución microscópica, de forma que pudiéramos observar los movimientos de cada una de las partículas de perfume. Puede que viésemos cómo acelera una molécula del líquido debido a una colisión y escapa de la superficie. Y que, a continuación, choca con otros miles de otras partículas del aire, con las caras del recipiente y con las paredes de la habi37
a
b
4. LA TEORIA DE LA INFORMACION proporciona una interpretación cuantitativa de la distribución del fluido de probabilidad. El espacio fásico se divide en pequeñas celdas de igual hipervolumen y se supone que todo el fluido está confinado en una sola celda en el estado inicial (a). La información necesaria para especificar esta distribución es igual al logarit-
mo en base 2 del número de celdas. A medida que un sistema de partículas evoluciona, el fluido de probabilidad ocupa progresivamente más espacio (b). La distribución se vuelve finalmente uniforme cuando cada celda contiene un mismo volumen de fluido (c). El estado final del sistema queda entonces indeterminado y no se necesita información para especifi-
tación, modificando su velocidad y su termodinámicos. Pero se puede ahontrayectoria en cada una de estas coli- dar un poco más en esta cuestión y siones. Más tarde la encontraremos, examinar por qué estas condiciones aún en movimiento, en una parte ale- iniciales son tan improbables. jada de la habitación. Si la película se pasara marcha atrás, veríamos El espacio de las fases cómo las moléculas de perfume invertirían sus complicadas trayectorias y convergerían en el frasco de perara discutir esta cuestión necesifume, donde se unirían para formar tamos un medio que permita repreun líquido. Puesto que las leyes que sentar adecuadamente los cambios del gobiernan los movimientos molecu- estado dinámico de sistemas que tenlares son simétricas frente a la inver- gan un gran número de partículas. sión temporal, la trayectoria de una Una elección conveniente es utilizar molécula particular de perfume el concepto de espacio de las fases. habría obedecido todas las leyes de El estado dinámico de una partícula la física. No habría ninguna parti- se puede describir completamente cularidad de las trayectorias de las mediante las tres coordenadas de su moléculas individuales que nos per- posición y las tres componente s de su mitiese distinguir entre la película velocidad. Estos seis número s se real y la invertida. Si esto es así, ¿por corresponden con la posición y la veloqué somos reacios a aceptar la se- cidad a lo largo de los ejes cartesiagunda como reflejo de un suceso real? nos x, y y z, pero también pueden interLa respuesta más evidente y usual pretarse como las seis coordenadas es que en la película invertida las de posición de un punto dentro de un condiciones iniciales son muy espe- espacio de seis dimensiones, el llaciales. Cada una de las moléculas se mado espacio fásico de la partícula. encuentra inicialmente en una tra- Cada punto del espacio fásico corresyectoria que la llevará a converger a ponde a un único estado dinámico y, un pequeño volumen del espacio (el por consiguiente, el movimiento real frasco de perfume) con exclusión de de la partícula provoca que su punto todos los demás (el resto de la habi- representativo trace una curva en este tación). La improbabilidad de tal espacio. Si se conocen la posición y la estado inicial concreto se ha tomado velocidad de la partícula en un moa menudo como explicación suficiente mento dado, podrán predecirse todos de la irreversibilidad de los procesos sus movimientos posteriores con pre-
P
38
cisión arbitraria. En otras palabras, la historia dinámica de la partícula está completamente determinada por las condiciones iniciales, de la misma manera en que su curva en el espacio fásico está fijada por el punto inicial. La trayectoria en el espacio fásico no puede cortarse a sí misma ni ramificarse (aunque sí puede describir una curva cerrada). Si se cortara a sí misma, existiría un estado de la partícula (el correspondiente al punto de intersección) que tendría más de un estado posterior posible, con lo que la historia dinámica de la partícula no estaría determinada de forma única. Nos podemos servir del mismo procedimiento para describir un sistema cerrado de varias partículas en interacción mutua. El estado dinámico de un sistema de n partículas queda determinado por 6n números: las tres coordenadas de posición y las tres componentes de velocidad de cada una de las n partículas. Podemos interpretar estos números como las coordenadas de un punto en un espacio fásico de 6n dimensiones, de manera que el estado del sistema se pueda describir dando la situación de un único punto. Como en el caso anterior, la historia dinámica del sistema se representa por una curva en el espacio fásico, la cual está determinada completa y unívocamente por su punto TEMAS 16
c
d
carlo. Pero un examen atento del espacio fásico muestra que la distribución de fluido está muy lejos de la uniformidad. Si se divide cada celda en varias más pequeñas (d), se puede observar que la cantidad de información necesaria para especificar el estado del sistema permanece inalterada; sigue siendo igual al logaritmo en base 2 del número de celdas. Lo que
sucede es que toda la información sobre el estado macroscópico del sistema presente en el estado inicial se ha convertido en información sobre el estado microscópico. Se puede demostrar que, en el caso de que no exista información microscópica en el momento inicial, toda la información macroscópica del sistema se convierte en microscópica.
de partida. Tal curva pudiera tener mos que todas ellas están confinadas perfume estén determinadas comuna forma complicada e irregular inicialmente en el pequeño volumen pletamente por su estado inicial (lo debido a los choques e influjos mutuos del frasco. Por tanto, no podemos es- que es así aunque no lo conozcamos) de las partículas, pero no podría rami- pecificar las coordenadas exactas del implica que el fluido de probabilidad ficarse ni cortarse a sí misma. punto representativo del sistema en tiene que seguir siendo una burbuja La difusión de las moléculas de per- el espacio fásico; todo lo que pode- única y continua. Si la masa de fluido fume de nuestro experimento imagi- mos indicar es que debe estar dentro inicial se dividiera en dos o más burnario se representa mediante una de un pequeño volumen (o “hipervolu- bujas separadas, la historia dinámica trayectoria única en un espacio fásico men”) del espacio 6 n-dimensional. del sistema se podría representar por de 6n dimensiones, donde n es el Puede representarse esta informa- una trayectoria ramificada, lo cual número de moléculas de perfume. (El ción en el espacio fásico reemplazan- vimos que era imposible. Tampoco número n suele ser muy grande; es do el punto original por una burbuja puede cambiar el volumen de la burdel orden de 6 1020 en un solo gramo de un fluido imaginario, que llene de buja, porque es proporcional al núde perfume.) La trayectoria en el espa- forma uniforme el pequeño hipervo- mero de estados distinguibles que cio fásico une a los puntos que repre- lumen correspondiente a nuestro permite el principio de incertidumsentan los estados inicial y final del conocimiento efectivo del estado ini- bre, número que no puede variar en experimento, pero éstos son de por sí cial. El fluido imaginario represen- tanto que cada estado defina una hiscualitativamente indistinguibles. taría una probabilidad, mientras que toria dinámica única. Como cada punto está determinado la masa de fluido en una región cual A partir de estas consideraciones por el anterior, la descripción de los quiera del espacio fásico represen- podemos concluir que el fluido de promovimientos moleculares es com- taría la probabilidad de que el estado babilidad es continuo e incompresipletamente reversible. dinámico del sistema correspondiera ble; su comportamiento es más pareEste análisis en el espacio fásico a un punto de esa región ( véase la cido al de un líquido que al de un gas. parece abolir la flecha del tiempo e figu ra 3 ). La verdad es que este fluido no modiimplicar un determinismo absoluto, ¿Cómo se extiende el fluido de pro- fica su densidad al expandirse en el que no deja margen para imprevis- babilidad por el espacio fásico a me- hipervolumen, como haría un gas, tos futuros. Pero tal descripción es de dida que las moléculas de perfume se sino que envía “ramificaciones” hacia una precisión inverosímil, puesto que dispersan por el espacio real? Se fuera, que se vuelven más largas, presupone la existencia de mucha podría suponer que el fluido se difun- estrechas y numerosas a medida que más información sobre el sistema de diera en todas direcciones, de la mis- el sistema evoluciona. Gibbs comparó la que se puede adquirir realmente. ma manera que lo hace el perfume, este proceso con la lenta difusión de Lo cierto es que no conocemos las terminando por llenar todo el hiper- la tinta china en el agua destilada. posiciones iniciales precisas de las volumen disponible de forma más o A medida que el fluido de probabi6 10 20 moléculas de perfume, ni menos uniforme. En realidad se com- lidad extiende sus ramificaciones a siquiera dentro de las limitaciones del porta de un modo bastante distinto. escalas cada vez más pequeñas, el principio de incertidumbre; sólo sabeEl hecho de que las velocidades del volumen ocupado por el fluido per∞
∞
CALOR Y MOVIMIENTO
39
manece constante y la forma de la rencia crucial entre los estados iniregión ocupada se vuelve paulatina- cial y final. El fluido de probabilidad mente más compleja. Tras un tiempo está confinado inicialmente en una suficiente, el fluido parecerá haberse pequeña región del espacio fásico, distribuido uniformemente por todo que ocupa uniformemente; el hiperel hipervolumen. Pero si se le examina volumen restante está vacío. En el a una escala muy pequeña, se encon- estado final el fluido ocupa el hipertrará que su distribución no es nada volumen completo y, aunque desde un uniforme. Al describir así nuestro punto de vista macroscópico parezca experimento se descubre una dife- distribuirse uniformemente, su dis-
tribución es muy poco uniforme a escala microscópica.
L
a distinción entre una distribución uniforme y otra no-uniforme del fluido de probabilidad representa una diferencia cualitativa en el contenido de información del sistema. Para medirla dividiremos la región del espacio fásico accesible en pequeñas
a
5. LAS PERTURBACIONES ALEATORIAS procedentes del exterior de un sistema de partículas tienden a disipar la información microscópica. En un sistema aislado de su entorno (a) las trayectorias de todas las partículas están determinadas para siempre y el fluido de probabilidad es incompresible en el espacio fásico del sistema. Pero ningún sistema real está aislado completamente: el calor se comunica a través de las paredes de
40
cualquier recipiente y las partículas del interior están vinculadas gravitatoriamente con la materia distante. Las perturbaciones aleatorias destruyen consecuentemente toda la información sobre el estado microscópico del sistema. Como el estado futuro del sistema ya no se puede predecir en base a su estado actual, el fluido de probabilidad deja de ser incompresible: se expande como una voluta de humo y llena la totalidad del espacio fásico (b).
TEMAS 16
Perturbaciones aleatorias celdas del mismo hipervolumen, cuyo de información? La información manúmero haremos arbitrariamente croscópica puede asimilarse al conoigual a 2 r, con r entero (véase la figu- cimiento de las propiedades estadísstas condiciones iniciales especiales podrían explicar la flecha ra 4 ). En el estado inicial, todo el ticas del sistema, mientras que la fluido de probabilidad está confinado microscópica describe el conocimiento del tiempo termodinámica, pero se en una de las celdas. La información detallado de las moléculas indivi- trata de una solución poco satisfacrequerida para especificar este estado duales y, en particular, de las corre- toria. ¿Por qué se dan frecuentemente es igual al número de dígitos bi- laciones entre las velocidades de las en la naturaleza estas condiciones narios necesario para designar una partículas. Nuestro experimento ima- iniciales concretas? Si la información celda determinada. Como el número ginario carece de información micros- microscópica se genera de una forma de bits requerido es igual al loga- cópica en el estado inicial, debido a tan sencilla, ¿por qué aparece solaritmo en base 2 del número de cel- que en él no había correlaciones entre mente en los estados finales de los sisdas, log 2 2r = r, el estado inicial del velocidades moleculares; determinar temas naturales y no en los iniciales? experimento mental se puede repre- la velocidad de una molécula no nos ¿Qué significa decir que no se dissentar mediante r bits de información. habría permitido predecir la veloci- pone de información microscópica de En el estado final, una vez distri- dad de cualquier otra. A medida que cierto estado? La verdad es que siembuido uniformemente el fluido, cada el sistema evolucionaba, las colisio- pre se puede adquirir si se gasta una una de las 2r celdas contiene el mismo nes crearon correlaciones entre las cantidad suficiente de energía. Por volumen de fluido de probabilidad, velocidades de las partículas, de modo último, ¿qué significado puede atripor lo que, así descrito, está comple- que toda la información macroscó- buirse a la distinción entre los nivetamente indeterminado y no se nece- pica inicial se convirtió finalmente en les de descripción macroscópico y sita ninguna información para espe- la información microscópica repre- microscópico? El matemático francés cificarlo. La evolución del sistema sentada por esas correlaciones. Émile Borel describió en 1912 una parece haber destruido toda la inforSe puede comprobar que este pro- manera plausible de tratar estas cuesmación contenida en el estado inicial. ceso es inevitable en el caso de ciertos tiones, que fue redescubierta y reePero si examinamos la distribu- tipos de sistemas físicos y bajo cier- laborada posteriormente por John M. ción del fluido a una escala más fina, tas condiciones iniciales. Si un sis- Blatt, Peter G. Bergmann, Joel L. podremos descubrir dónde ha ido a tema cerrado compuesto por muchas Lebowitz y Philip Morrison. parar toda esta información. Si cada partículas interactuantes carece de La conclusión de que la informacelda contiene un volumen igual de información microscópica en su estado ción microscópica de un sistema se fluido y el volumen total de fluido de inicial, la información necesaria para incrementa cuando decrece la inforprobabilidad no ha cambiado, éste no especificar su estado macroscópico mación macroscópica no es válida puede ocupar más que 1/2r partes del tiene que disminuir de forma gradual más que para sistemas cerrados, es volumen de cad a celda. Aunque la hasta que se convierta por completo decir, para los que no se comuniquen densidad del fluido no haya cambiado, en información microscópica. Nikolai con su entorno. Pero Borel demostró la forma de la región ocupada es ahora Bogolyubov, Leon C. P. van Hove, Ilya que ningún sistema físico finito se muy compleja. Si dividiésemos la Prigogine, Radu Balescu, Marc Kac y puede considerar cerrado. Considecelda en “microceldas” más peque- otros investigadores formularon desde remos, por ejemplo, la habitación ñas, se vería que la información reque- 1946 varios teoremas de este tipo para donde realizamos nuestro experirida para especificar la distribución ciertas clases de sistemas físicos y mento imaginario sobre la difusión del fluido en la totalidad del volumen para definiciones específicas de infor- del perfume. Aunque el cuarto no volvería a ser igual a log 2 2r = r. La mación microscópica. tenga puerta ni ventanas, aunque las información macroscópica que se Como la información macroscópica paredes estén aisladas y dotadas de hallaba presente en el estado inicial decrece invariablemente en aquellas un considerable grosor, el sistema no ha desaparecido en el estado final; situaciones en las que aumenta la de moléculas no puede estar aislado tan sólo se ha convertido en infor- entropía termodinámica, es tentador del resto del universo. Las molécumación microscópica. definir a esta última como informa- las de perfume y de aire chocan en Esta afirmación se puede expresar ción macroscópica cambiada de signo. realidad contra las paredes, que a su de una forma completamente gene- De hecho, una definición tal lleva vez están en contacto con el exterior. ral y precisa. Sea cual fuere la forma directamente a la ecuación presen- Más importante aún es que no se en que dividamos el espacio fásico en tada más arriba: H + I = H max = I max , pueda evitar que las moléculas sufran “macroceldas”, la información macros- donde ahora interpretamos H como la los influjos gravitatorios de la matecópica puede definirse como la infor- entropía termodinámica e I como la ria distante. Los efectos de estas permación necesaria para especificar el información macroscópica. La entro- turbaciones son extremadamente conjunto de probabilidades asociado pía de un sistema cerrado siempre es pequeños, pero no despreciables. con ellas. La información microscó- positiva o nula, y la entropía máxima Borel calculó que si se desplazase un pica puede definirse por su parte como permanece constante, lo que implica centímetro un gramo de materia que la información necesaria para espe- que la entropía tiene que crecer cuando se encontrara a la distancia de la cificar la distribución concreta del la información macroscópica dismi- estrella Sirio, no tardaría más de un fluido dentro de las macroceldas. La nuya. Esto nos permite ubicar el ori- microsegundo en producirse una evolución del sistema cerrado de molé- gen de la flecha del tiempo termodi- variación del potencial gravitatorio culas mantiene constante la canti- námica en una propiedad de los suficiente para alterar de forma susdad de información que especifica la estados iniciales de los sistemas cerra- tancial el estado microscópico de un distribución del fluido de probabili- dos: la entropía de un sistema cerrado volumen macroscópico de gas. dad, pero permite la transformación no aumentará más que cuando exista La relación inevitable de un sisde información macroscópica en información macroscópica en el estado tema aparentemente cerrado con el microscópica y viceversa. inicial del sistema sin que haya infor- resto del universo funciona como una ¿Qué representan estos dos tipos mación microscópica. pequeña perturbación que destruye
E
CALOR Y MOVIMIENTO
41
las correlaciones entre las velocida- que afirma que ninguna de sus prodes de las partículas y disipa la infor- piedades estadísticas define posimación microscópica. De esta manera ciones ni direcciones privilegiadas en se restauran, una y otra vez, las con- el espacio. El principio cosmológico diciones iniciales que aseguran la débil, enunciado por Albert Einstein desintegración de la información en 1916, afirma que la distribución macroscópica y el crecimiento de la espacial de materia y de movimiento entropía termodinámica. Esta desa- del universo es homogénea e isótropa, parición efectiva del aislamiento hace salvo irregularidades locales; la verque la historia dinámica del sistema sión fuerte añade que incluso las irredeje de estar completamente deter- gularidades son estadísticamente minada. El fluido de probabilidad ya homogéneas e isótropas. El principio no es incompresible y se expande en cosmológico fuerte es heredero del el espacio fásico como una voluta de principio copernicano, que afirma que humo, hasta que llena todo el hi- nuestro planeta no ocupa un lugar pripervolumen disponible ( véase la vilegiado en el cosmos. Se trata del figu ra 5). En el mundo real, la infor- postulado de simetría más simple y mación macroscópica se convierte en amplio que pueda hacerse sin coninformación microscópica, que a su tradecir las observaciones y las leyes vez se disipa a consecuencia de las físicas establecidas; y tiene una conperturbaciones aleatorias. secuencia inesperada que se relaciona directamente con nuestra búsqueda del origen de la flecha del El principio cosmológico tiempo termodinámica. En efecto, argumentaré a continuación que el l argumento de Borel gira alre- principio cosmológico fuerte implica dedor de la supuesta aleatoriedad que el universo no contiene inforde los influjos entre los sistemas mación microscópica objetiva, la cual “cerrados” y el resto del universo. Si no puede adquirirse ni especificarse. se conocieran las posiciones y las velo- Esta limitación de nuestro conocicidades de todas las partículas que per- miento representa en cierto modo una turban el sistema, se podría ampliar indeterminación cósmica, relacionada la definición de sistema cerrado para (a pesar de su distinta naturaleza) con incluirlas. Pero este sistema ampliado la indeterminación del principio de también estaría sujeto a perturba- incertidumbre de Heisenberg. Se ciones externas y, en última instan- trata de una propiedad del universo cia, nos veríamos obligados a incluir en su conjunto que no comparte con todo el universo en nuestra descrip- sus subsistemas limitados, cuya inforción. Esta descripción microscópica mación microscópica puede adquidel universo tan completa (dentro de rirse y especificarse libremente. las limitaciones que impone el prinPuede ilustrarse la noción de indecipio de incertidumbre) no podría dar terminación cósmica por medio de un pie a ninguna distinción cualitativa “universo reducido” formado por parentre las dos direcciones del tiempo, tículas puntuales que se distribuyan debido a que sería simétrica respecto de forma aleatoria, aunque con dende la inversión temporal. ¿Se puede sidad uniforme, a lo largo de una línea obtener una descripción así, aunque recta infinita. Las propiedades estano sea más que teóricamente? dísticas de este universo unidimenTodo sistema físico finito admite sional se pueden calcular con preciuna descripción microscópica com- sión arbitraria; por ejemplo, se puede pleta que contenga una cantidad estimar el número medio de puntos finita de información, por lo que po- por unidad de longitud con la precidríamos pensar que el universo pu- sión que se quiera, tomando promediera describirse de la misma manera. dios sobre segmentos de línea cada Que su descripción contuviera una vez mayores. ¿Podrían especificarse cantidad finita o infinita de infor- también otras propiedades no estamación dependería en tal caso de que dísticas, o microscópica s, de este unisu volumen fuera finito o infinito. (La verso reducido? ¿Qué constituiría una cosmología relativista admite ambas propiedad microscópica en este caso? posibilidades.) Pero el universo tiene Supongamos que partimos de dos ciertas características que no com- representaciones del universo reduparten sus subsistemas, en especial cido que sean idénticas en sus prola de que todos los subsistemas fini- piedades estadísticas. Yo afirmo que tos del universo estén confinados, podremos definir una propiedad mientras que el cosmos, sea o no infi- microscópica en tal supuesto si enconnito, se supone ilimitado. Es más, el tramos alguna manera de distinguir universo parece cumplir lo que lla- entre las representaciones. Esto es maré el principio cosmológico fuerte, debido a que el único tipo de infor-
E
42
mación en la que puede basarse dicha distinción es en la información no estadística, es decir, en la información microscópica. Para representar la influencia del principio de incertidumbre de Heisenberg tenemos que dividir el universo unidimensional en celdas de la misma longitud, en función de la precisión con que se pueda especificar la posición de una partícula. A continuación puede especificarse el número de partículas que ocupan cada celda, de forma que el universo reducido quede caracterizado por una secuencia de “números de ocupación” infinita y abierta en los extremos. La información microscópica se define entonces como información que nos permita distinguir entre dos secuencias de números de ocupación que tengan las mismas propiedades estadísticas (o macroscópicas). Para establecer que dos secuencias son diferentes se podría intentar compararlas, celda por celda, a lo largo de toda su longitud. Sin embargo, dado que ninguna secuencia tiene principio, final ni cualquier otro punto privilegiado, existen infinitas maneras de alinearlas. La imposibilidad de completar una serie infinita de tareas hace que este método no pueda evidenciar nunca la imposibilidad de una coincidencia. Un procedimiento alternativo consistiría en intentar demostrar que las dos secuencias son idénticas. En primer lugar, se seleccionaría una subsecuencia de longitud arbitraria en una de las secuencias de números de ocupación, buscándose luego una subsecuencia igual en la otra línea. Como en una línea ilimitada cualquier subsecuencia de longitud acotada aparece con frecuencia infinita, la ley de los grandes números garantiza que la búsqueda tiene que finalizar tras una serie finita de intentos. Más aún, tendríamos éxito cualquiera que fuese el tamaño de la subsecuencia, siempre que su longitud fuera finita. Las dos secuencias infinitas son operacionalmente indistinguibles porque, si no lo fueran, una de ellas tendría una subsecuencia sin réplica en la otra. Por tanto, no hay más que una secuencia infinita de dígitos con las propiedades estadísticas que definen el universo reducido y no se puede distinguir entre dos representaciones del universo con propiedades estadísticas idénticas. Dado que la información microscópica es, por definición, aquello que hace posible las distinciones, tenemos que concluir que este tipo de información está ausente del universo reducido. TEMAS 16
Este razonamiento se puede extender sin dificultad a aquellos modelos infinitos del universo tridimensional real que satisfacen el principio cosmológico fuerte y el requisito adicional de que su estructura local tenga una división mínima irreductible. La estructura de estrellas y de galaxias que observamos desde la Tierra es tan peculiar y compleja que parecería definir nuestra posición en el uni verso de la misma manera que una huella digital define a su dueño. Pero en un universo infinito, isótropo y estadísticamente homogéneo es seguro que la misma estructura de estrellas y de galaxias se repetirá indefinidamente. Si nuestro universo satisface el principio cosmológico fuerte, todas sus características serán estadísticas y su estado microscópico estará completamente indeterminado. El pensamiento cosmológico ha aceptado tácitamente desde tiempos de Newton que el universo admite una descripción microscópica completa. Ahora podemos ver que esto no tiene por qué ser así. Si el universo es lo bastante simétrico, la información microscópica no tendrá cabida en él. El origen de la información
H
emos visto que la flecha del tiempo termodinámica surge de la ausencia de información microscópica y de la presencia de información macroscópica en los estados iniciales de los sistemas cerrados. También hemos comprobado que un universo que satisfaga el principio cosmológico fuerte carece de información microscópica. Por otra parte no hemos encontrado ninguna justificación de que la información macroscópica no tuviera que estar también ausente en un principio. La comple jidad del universo astronómico parece difícil de explicar en estas condiciones. Los sistemas aislados evolucionan ineludiblemente hacia un estado de equilibrio termodinámico carente de estructuras. Puesto que el uni verso es en cierto sentido un sistema aislado, ¿por qué no ha alcanzado el estado de equilibrio? Una posible respuesta, defendida por muchos cosmólogos, es que el cosmos tiende de hecho hacia el equilibrio, pero que aún ha pasado muy poco tiempo para que el proceso se complete. Fred Hoyle y J. V. Narlikar han escrito que “según la cosmología de la gran explosión, el universo tiene que empezar con un marcado grado de desequilibrio termodinámico e ir degradándose con el CALOR Y MOVIMIENTO
tiempo”. En lo que sigue argumentaré que esta concepción es fundamentalmente incorrecta. Ni el universo se está degradando ni tiene por qué haber empezado lejos del equilibrio; es más, el estado inicial pudiera haber carecido de información tanto macroscópica como microscópica. Supongamos que el equilibrio termodinámico local reinase en un momento inicial del universo. La entropía de cualquier región sería la máxima posible para los valores de temperatura y de densidad de aquel momento. A medida que el universo se expandiera desde ese estado hipotético, los valores locales de la densidad y de la temperatura medias cambiarían, como lo haría la entropía de la región. Para que la entropía se mantenga en su valor máximo (y, por tanto, se conserve el equilibrio) ha de cambiar el reparto de la energía entre materia y radiación, así como las concentraciones de los diversos tipos de partículas. Los procesos físicos que participan en estos cambios se desarrollan a velocidades finitas; si estas velocidades de “equilibración” fuesen mucho mayores que la velocidad de expansión cósmica, se mantendría un cierto equilibrio termodinámico local. Si son menores, la expansión produciría desviaciones significativas del equilibrio a escala local. Estos alejamientos del equilibrio constituirían la información macroscópica generada por la expansión, cuya magnitud vendría dada por la diferencia entre el valor real de la entropía y el máximo teórico que pudiese alcanzar a la temperatura y densidad promedias. Este razonamiento no depende de la expansión cósmica en sí, sino de la
a
b
c
6. EL UNIVERSO “REDUCIDO” consiste en una línea recta que se extiende infinitamente en ambas direcciones y se divide en pequeños dominios, que pueden estar ocupados (cuadros negros) o vacíos (cuadros blancos). Aunque la distribución de cuadros obedezca ciertas propiedades estadísticas, se puede demostrar que el universo reducido no contiene información microscópica. En efecto, las propiedades específicas de las secuencias de cuadros individuales no tienen ningún sentido, debido a que toda secuencia de longitud finita se podrá encontrar en cualquiera de las representaciones y, por tanto, no servirá para distinguir a una de la otra (a, b). Una secuencia determinada tampoco definirá una posición concreta en una representación, ya que la misma secuencia se podrá encontrar en cualquier otro lugar (c). Este argumento se puede extender al universo real, que satisface las mismas condiciones estadísticas.
43
a
b
c
d
e
f
44
TEMAS 16
7. LA EVOLUCION DEL UNIVERSO representa un aumento de la información macroscópica. En un modelo ideado por el autor y sus ayudantes, el estado inicial del universo se supone carente de información y de estructura. En el período inmediatamente posterior a la gran explosión (a) el universo está en equilibrio termodinámico, mantenido por la rápida interacción de partículas y radiación. Tras expandirse durante unos 15 minutos, el universo cristali za, o se congela, en una mezcla de hidrógeno y helio (b). La continuación de la expansión cósmica hace que este universo sólido se fragmente en pedazos del tamaño de un planeta (c). Estos cuerpos forman un “gas” en el sentido de que sus partes se perturban frecuente y aleatoriamente, como en un gas ordinario. Las fluctuaciones del gas planetario originan estructuras cada vez mayores a medid a que los grupos de f ragmentos van agregándose (e). Al final se forma una jerarquía de estructuras, correspondiente a las estrellas, galaxias y cúmulos de galaxias que observamos en la actualidad (f ).
velocidad finita del cambio de densi- del universo, aunque esto implique dad y de temperatura. Se obtendría que su expansión haya generado inforla misma conclusión si el universo, mación macroscópica y entropía simulen lugar de expandirse, se estuviera táneamente. La conclusión es que contrayendo desde un estado de equi- todas las flechas del tiempo (cosmolibrio, caso en el que la información lógica, histórica y termodinámica) son macroscópica y la entropía también consecuencia del principio cosmológico aumentarían, siempre que la veloci- fuerte y de la suposición de que el dad de contracción fuera mayor que equilibrio termodinámico local prela de los procesos que mantienen el valeciera en la singularidad inicial o equilibrio termodinámico. Vemos, por en sus cercanías. Es de destacar que tanto, que la dirección de la flecha del ninguna de estas suposiciones se tiempo cosmológica no se deriva de refiera directamente al tiempo ni a la dirección de la flecha del tiempo procesos temporales. termodinámica, sino que tanto la Para que esta formulación se pueda información macroscópica como la considerar plausible, queda por resentropía se generan a medida que el ponder una última cuestión: ¿es la universo evoluciona a partir de un expansión cósmica la que produce los hipotético estado de equilibrio ter- tipos de información macroscópica modinámico local. que caracterizan al universo actual? ¿Es razonable suponer que el uni- Pudiera ser en realidad que parte de verso haya estado siempre en equili- la información estuviera presente brio termodinámico local (o que vaya desde el origen, quizá bajo la forma a estarlo alguna vez)? Para respon- de fluctuaciones de densidad. Aunque der esta pregunta hay que comparar la pregunta no tenga una respuesta las velocidades de los procesos que firme, es importante señalar que no equilibran (que generan entropía) con es necesario suponer un estado inila velocidad de expansión o de con- cial estructurado. He desarrollado en tracción cósmica. Ninguna de estas colaboración con mis alumnos un velocidades es constante. La de expan- modelo de la evolución del universo sión aumenta conforme se retrocede que empieza con un estado de equial momento de la gran explosión, librio termodinámico completo a temhaciéndose infinita en el origen del peratura igual a cero ( véase la figura tiempo, en la singularidad cosmoló- 7 ). Por tanto es posible que el universo gica. Las velocidades de los procesos astronómico, con toda su riqueza y equilibrantes también se incremen- diversidad, haya evolucionado desde tan a medida que uno se acerca a tal un estado carente de información y singularidad, debido a que los encuen- de estructura. Si se postula la existros entre las partículas se vuelven tencia de un estado primigenio de más frecuentes con el aumento de la este tipo, puede prescindirse incluso densidad y de la temperatura. La ver- del principio cosmológico fuerte. En dad es que las velocidades de los pro- este caso la homogeneidad y la isocesos equilibrantes son mucho mayo- tropía estadísticas del universo resulres que la de expansión cósmic a en el tarían del hecho de que todas las leyes período inmediatamente posterior a físicas conocidas sean invariantes al la singularidad. La gran explosión es, ser sometidas a traslaciones y a rotaen consecuencia, un proceso suave; los ciones en el espacio. procesos de equilibrio local acompasan el ritmo de variación de las conemos seguido la pista de las flediciones macroscópicas de temperachas termodinámica e histórica tura y de densidad durante la primera hasta su origen común: el estado inifracción de microsegundo. No se puede cial del universo. En este estado no suponer la existencia del equilibrio ter- se dispone de información microscómodinámico local más que durante pica y la información macroscópica esta breve fase inicial de la evolución pudiera estar ausente o ser mínima;
H
CALOR Y MOVIMIENTO
la expansión a partir de aquel estado ha generado la entropía y las estructuras macroscópicas. Por otra parte, la información microscópica está ausente de los sistemas astronómicos recién formados y ésta es la razón por la que sus subsistemas exhiben la flecha termodinámica. Esta perspectiva de la evolución del cosmos difiere radicalmente de la que ha dominado la física y la astronomía desde los tiempos de Newton, una visión que enc uentra su expresión más conocida en las palabras de Pierre Simon de Laplace: “Una inteligencia que conociera en todo momento la totalidad de las fuerzas que animan la materia, las posiciones mutuas de los cuerpos que la componen y fuera capaz de abarcar lo suficiente para someter estos conocimientos a su análisis, podría condensar en una sola fórmula el movimiento de los mayores cuerpos del universo y, a la vez, del átomo más ligero. Un intelecto así no conocería la incertidumbre y tanto el futuro como el pasado estarían presentes a sus ojos.” En el mundo de Laplace no hay nada que se parezca al paso del tiempo. Para la “inteligencia” de Laplace, igual que para el Dios de Platón, de Galileo y de Einstein, el pasado y el futuro coexisten en los mismos términos, como dos segmentos de una recta dividida arbitrariamente. Pero si la teoría que he presentado aquí es correcta, ni siquiera el ordenador más avanzado —el propio universo— contendría información suficiente para definir completamente sus estados futuros. El momento presente contiene siempre un elemento de novedad genuina y el futuro nunca se puede predecir del todo. Como los procesos biológicos también generan información y la conciencia nos permite experimentar estos procesos directamente, la percepción intuitiva de un mundo que se de spliega en el tiempo capta una de las propiedades más profundas del universo.
BIBLIOGRAFIA COMPLEMENTARIA THE NATURE OF TIME. Dirigido por Thomas Gold y D. L. Schumacher. Cornell University Press, 1967. CO SM OL OG Y A ND T HE AR ROW O F TIME . David Layzer en Vistas in Astronomy, vol. XIII. Pergamon Press, Inc., 1972. THE NATURE OF TIME. Gerald Whitrow. Holt, Rinehart and Winston, 1973. PHYSICS OF TIME ASYMMETRY. P. C. W. Davies. Univ. of California Press, 1974. LA SEGUNDA LEY. P. W. Atkins. Biblioteca Scientific American. Prensa Científica, S.A. Barcelona, 1992.
45
El movimiento browniano Bernard H. Lavenda
La observación del recorrido aleatorio de una partícula suspendida en un fluido condujo a la primera medición precisa de la masa del átomo. El movimiento browniano sirve de modelo matemático para los distintos procesos aleatorios
E
n determinadas ocasiones una moléculas circundantes. Por otro minaba diversas constantes físicas gota de agua puede quedar lado, como el microscopio es esen- de importancia: las masas de los átoatrapada en un fragmento de cialmente un filtro que sólo pone de mos y las moléculas y el valor del roca ígnea durante su solidificación. manifiesto los efectos de fluctuacio- número de Avogadro, que es el número El botánico escocés Robert Brown nes de cierta magnitud en el entorno de partículas elementales por mol, descubrió una gota así en un trozo de molecular local, el movimiento obser- la unidad química estándar de cualcuarzo a principios del siglo XIX . El vado só lo i nsin úa l a co mple jidad de quier sustancia. El movimiento browagua, pensó, tenía que haber per- la trayectoria real. Si el poder de niano también ha contribuido a una manecido aislada durante siglos del resolución del microscopio se incre- comprensión teórica más honda de polen y de las esporas transportadas mentara en un factor de 10, 100 o los principios de la termodinámica, por el viento y la lluvia. Pero al enfo- 1000, se detectarían los efectos del formulados con anterioridad sobre lo carla en un microscopio observó tra- bombardeo por grupos progresiva- que resultaron ser generalizaciones zas de minúsculas partículas sus- mente menores de moléculas. A un empíricas simplificadas en exceso. pendidas en ella que oscilaban sin mayor aumento, partes de la traEl estudio del movimiento browcesar con un movimiento completa- yectoria de la partícula que inicial- niano ha conducido en fechas más mente irregular. Este movimiento le mente habían aparecido como rectas recientes a la invención de imporresultaba familiar a Brown: había se observarían ahora dotadas de una tantes técnicas matemáticas para la observado antes semejante tipo de estructura quebrada e irregular. La investigación general de procesos prooscilaciones en sus estudios de gra- trayectoria de una partícula en el babilísticos, técnicas que se han aplinos de polen en agua. El nuevo expe- movimiento browniano fue uno de cado al control del “ruido” electrorimento, sin embargo, invalidaba la los primeros fenómenos naturales magnético y han contribuido a la explicación que hasta entonces había en los que se reconoció una autose- comprensión de la dinámica de la propuesto: “La vitalidad se mantiene mejanza a cada grado de aumento, agregación estelar, de la evolución por [las “moléculas” de una planta] una propiedad clave de los objetos de ecosistemas y del comportamienlargo tiempo después de la muerte [de geométricos que Benoit B. Mandel- to de los precios de mercado. ésta].” Brown concluyó con razón que brot ha denominado fractales. Por sorprendente que parezca, el la agitación de las partículas atramovimiento browniano no despertó padas en el interior del cuarzo tenía especial interés durante el siglo XIX . Fenómenos probabilísticos que ser un fenómeno físico y no bioLos científicos de entonces desechalógico, pero no pudo llegar a mayoron el fenómeno en la creencia de que res precisiones. l estudio del movimiento brow- se trataba de un simple efecto de La explicación del denominado niano ha ejercido una poderosa corrientes térmicas locales debidas a movimiento browniano se encuentra influencia en física, química y mate- diminutas diferencias de temperahoy bien asentada. Un grano de polen mática desde principios de siglo. En tura en el fluido. Si el movimiento lo o de polvo suspendido en un fluido se manos de Albert Einstein convirtióse causaran tales corrientes, las partí ve some tido al bombardeo cont inuo en un método de observación con- culas próximas sufrirían el arrastre de las moléculas de éste. Una sola cluyente para la confirmación de la de la corriente local y, por tanto, sería molécula difícilmente podría tener teoría atómica de la materia. Einstein de esperar que tales partículas se suficiente ímpetu para que su efecto demostró además que la medición de movieran aproximadamente en la sobre la partícula en suspensión lo ciertas propiedades del movimiento misma dirección. La observación merecogiera el microscopio. Pero cuando browniano de las partículas deter- diante el microscopio contradice de muchas moléculas chocan con la partícula en la misma dirección y simultáneamente, producen una deflexión 1. MOVIMIENTO ALEATORIO, BROWNIANO, de una partícula microscópica suspendida en agua. En la ilustración superior se muestra tal como fue representado observable de su trayectoria. El movimiento browniano es, por en 1912 por Jean Baptiste Perrin. El diagrama de Perrin registra la posición de la consiguiente, un efecto doblemente partícula cada 30 segundos; tales diagramas “no dan más que una idea muy pobre de la extraordinaria complejidad de la trayectoria real”, como él mismo observó. aleatorio: la trayectoria de la partí- Si se considerara con más detalle parte de la trayectoria y si la posición de la parcula en suspensión deviene impre- tícula se registrara con una frecuencia cien veces mayor, pon gamos por caso, se re visible en razón de las fluctuaciones produciría la complejidad de la trayectoria inicial (abajo). El diagrama inferior se arbitrarias de la velocidad de las basa en una simulación numérica llevada a cabo por el autor.
E
46
TEMAS 16
A
A
CALOR Y MOVIMIENTO
B
B
47
TIEMPO = 0
TIEMPO = 0,3 SEGUNDOS
TIEMPO = 1 SEGUNDO
plano semejante expectativa. Las partículas en suspensión no inciden unas en otras, ni siquiera cuando se hallan a distancias menores que sus diámetros respectivos. Diversos descubrimientos experimentales comenzaron a sacar a la luz el origen molecular del movimiento browniano hacia finales del siglo. Se sabía que cuanto menor fuese el tamaño de la partícula, más rápido se desarrollaba el movimiento browniano. Un aumento de la temperatura del fluido también parecía incrementar la agitación de dicho movimiento. Se reconoció que tales efectos eran coherentes con la teoría cinética de los gases, poco después de su elaboración por James Clerk Maxwell y Ludwig Boltzmann hacia 1870. Pero hubo que esperar hasta 1905 para que Einstein estableciera las primeras implicaciones cuantitativas de la teoría cinética en el movimiento browniano.
Teoría cinética
TIEMPO = 5 SEGUNDOS
L
a teoría cinética de los gases constituyó el primer intento afortunado a la hora de explicar algunas propiedades conocidas de los gases, considerándolas efectos macroscópicos de átomos en movimiento. Se sabía desde las investigaciones de Robert Boyle en el siglo XVI I que existía una relación inversa entre la presión y el TIEMPO = 3 SEGUNDOS volumen de un gas. Si se mant iene constante la temperatura y se disminuye el volumen, aumenta la presión en una cantidad inversamente proporcional. Si el volumen aumenta, la presión disminuye. Según la teoría cinética la presión es el resultado de un bombardeo constante de las partículas contra las paredes del recipiente. La presión aumenta al disminuir el volumen porque la tasa de bombardeo de las partículas es mayor para un volumen pequeño que para otro grande. Existe una relación análoga directa _ _ _ _ _ _ 23 33 entre presión y temperatura. Si la –33 –23 –3 0 3 temperatura de un gas aumenta sin 2. DIFUSION de partículas brownianas (coloreadas) en un líquido transparente o en que su volumen cambie, la presión un gas, mostrada en instantes sucesivos. Las partículas parten de una membrana peraumenta proporcionalmente. Si baja meable colocada en el centro de la caja. La curva acampanada correspondiente representa la densidad relativa de partículas en cada punto a lo largo de la dimensión la temperatura, remite la presión. La horizontal de la caja. El desplazamiento cuadrático medio de una partí cula al cabo de teoría cinética interpreta la tempeun tiempo dado es proporcional a la raíz cuadrada del tiempo transcurrido: se trata ratura como una medida de la enerdel desplazamiento más probable. La curva acampanada del pie de la ilustración muesgía cinética media de las partículas. tra cómo se relaciona el desplazamiento cuadráti co medio con la probabilidad de que Una mayor temperatura equivale a una partícula ocupe cierta región de la caja al cabo de un tiempo. Por ejemplo, si el un aumento de la energía media de — desplazamiento cuadrático medio al cabo de tres segundos es de - 3 centímetros, la — bombardeo, por lo que sube la presión probabilidad de que una partícula se halle a menos de - 3 centímetros de la membradel gas. na central es igual al área de la región coloreada comprendida bajo la curva, que vie— Amba s relacione s queda n resum ine a valer 0,68. La probabilidad de que se halle a más de 2- 3 centímetros de la membrana central es igual a la suma de las áreas de las dos regiones grises, que es menor das en una ley sencilla para el caso que el 5 por ciento del área encerrada bajo la curva. del llamado gas ideal. Dicha ley esta-
48
TEMAS 16
blece que, para un mol de un gas, el producto de la presión por el volumen del gas dividido por su temperatura absoluta es igual a una constante. Esta se denomina constante universal de los gases y se designa mediante la letra R, que vale 1,99 calorías por mol y por grado Celsius. El progreso conceptual más importante de la teoría cinética fue la renuncia a cualquier pretensión de dar una descripción detallada de los distintos movimientos de las partículas. Ofrecía una descripción estadística del movimiento ocurrido, que resultaba plausible por el hecho de que un sistema constituido por muchas partículas tiene muy poca probabilidad de desviarse significativamente de su comportamiento promedio. Esta es la razón de que la teoría cinética se denomine muchas veces mecánica estadística.
Einstein
V
isto con perspectiva histórica podría parecer intuitivamente obvio que una partícula de polvo o un grano de polen sumergidos en el entorno turbulento atómico de un gas o de un líquido experimentaran un movimiento browniano. Pero para valo rar la contribución de Einstein debe tenerse presente que la realidad física del átomo y de sus constituyentes, que actualmente se da totalmente por descontada, no gozaba más que de un estatuto provisional hace un siglo. El físico alemán Wilhelm Ostwald consideraba todavía a los átomos como “meras nociones hipotéticas que proporcionan una imagen muy conveniente” de la materia. Ernst Mach mantenía que todas las entidades teóricas, incluidos átomos y moléculas, debían ser tratados como ficciones útiles. Einstein era un realista en estos temas. En 1905 escribía que el propósito original de sus investigaciones sobre teoría atómica era “hallar hechos que garanticen en lo posible la existencia de átomos de tamaño definido. Entre esos hechos”, continuaba Einstein, “descubrí que, de acuerdo con la teoría atomística [es decir, la teoría cinética], debería haber un movimiento de las partículas suspendidas susceptible de contemplarse, ignorante de que las observaciones sobre el movimiento browniano eran ya habituales desde hacía largo tiempo”. Einstein tuvo, pues, visión física para reconocer que los átomos revelarían su existencia en el movimiento de las partículas
CALOR Y MOVIMIENTO
suspendidas en un fluido. Aunque y los límites del espacio accesible a desconocía el movimiento browniano, la misma. La solución es una exprearguyó que la detección de tales par- sión matemática que da la concentículas constituiría una potente con- tración de sustancia en cada punto firmación de la teoría cinética. Entre del espacio para cada instante. las conclusiones de su trabajo hay Verb igracia, si la sustancia difusora una ecuación que posibilitó la medi- está inicialmente concentrada sobre ción precisa de la masa del átomo. la superficie de una membrana perLa investigación de Einstein sobre meable que divida una caja en dos la teoría atómica del movimiento partes iguales, la solución de la ecuabrowniano se descompone en dos par- ción de difusión será una familia de tes principales. La primera es mate- curvas acampanadas. El centro de mática: se deduce una ecuación que cada curva coincidirá con el centro describe la difusión de una partícula de la caja; a medida que transcurra browniana en suspensión a través de el tiempo, la curva adquirirá una un medio fluido. La segunda parte anchura mayor y una forma más achaconstituye un argumento físico y rela- tada. ciona la tasa mensurable de la difusión de la partícula con otras magDesplazamiento nitudes físicas, tales como el número de la partícula de Avogadro y la constante universal de los gases. Para expresar la difusión de una xiste otra manera de interpretar partícula en el lenguaje matemático las curvas acampanadas. Sea de la mecánica clásica hay que cono- cada punto de la curva la densidad cer dos cosas de antemano: la velo- de probabilidad para la difusión de cidad inicial de la partícula y el valor una sola partícula browniana a pary dirección de los impulsos que reciba tir de la membrana central de la caja . en un instante dado. Como una par- La elección del término metafórico tícula browniana experimenta unas de densidad de probabilidad resulta 1021 colisiones por segundo, cualquier apropiada porque la densidad de una efecto que su velocidad inicial ejerza sustancia multiplicada por su volusobre el movimiento subsiguiente se men es igual a la masa de dicha susperderá entre los producidos por las tancia. Análogamente, la densidad colisiones moleculares en un tiempo de probabilidad multiplicada por una despreciable por brevísimo. Resul- medida apropiada da origen a una ta inviable, asimismo, describir los probabilidad. La medida apropiada impulsos uno a uno. De ahí que Ein- para las curvas acampanadas es la stein abandonara la descripción mecá- longitud, no el volumen: se trata de nica directa de la difusión de la par- la distancia entre dos puntos a lo tícula browniana e introdujera en su largo del eje horizontal de la gráfica. lugar una descripción probabilística. El producto de dicha distancia por la Para deducir el resultado de Ein- altura media de la curva en el interstein nos servirá imaginar un pequeño valo e ntre ambos puntos es una pro volu men, de forma a rbitraria, en la babilidad. región accesible a las partículas difuEl área encerrada bajo una de las soras. La tasa con que la concentra- curvas acampanadas entre las dos ción de estas partículas varíe con el líneas verticales representa la protiempo será igual al caudal entrante babilidad de que la partícula browmenos el caudal saliente de dicha niana se halle en una región dada de región. Cada caudal depende del flujo la caja en un determinado instante. de partículas, del caudal por unidad Cada línea vertical pasa por uno de de área. El flujo de partículas entre los dos puntos del eje horizontal que dos puntos de un fluido es directa- corresponden a los limites de la región mente proporcional a la diferencia considerada. Según esta interprede concentraciones de partículas en tación, la solución de la ecuación de ambos puntos. El coeficiente de pro- difusión no es una expresión de la porcionalidad se denomina coeficiente distribución de concentraciones de de difusión, o D; su valor se determina partículas, sino una distribución de experimentalmente. La relación entre probabilidad. el flujo y la tasa de cambio de la conUna medida probabilística convecentración se conoce como ley de Fick. niente para una partícula browniana La formulación matemática de esta es el desplazamiento cuadrático situación física conduce a una ecua- medio. Para entender qué significa ción diferencial denominada ecua- dicha magnitud atendamos a la difución de difusión, que puede resolverse sión de un gran número de partícusi se especifican las posiciones ini- las brownianas. Se miden los desciales de la sustancia que se difunde plazamientos de todas ellas en un
E
49
cierto instante t; se elevan al cuadrado. La raíz cuadrada de la media de los cuadrados de los desplazamientos constituye el desplazamiento cuadrático medio en el instante t. La probabilidad de que una partícula browniana se difunda como máximo una distancia igual al desplazamiento cuadrático medio a partir de la membrana central de la caja es 0,68; la probabilidad de que recorra más del doble de dicho desplazamiento cuadrático medio es menor de 0,05. El desplazamiento cuadrático medio de una partícula browniana que se difunde a partir de la mem— brana de la caja es -2 Dt , donde D simboliza el coeficiente de difusión y t designa el tiempo. Así pues, si una partícula se difunde en promedio un centímetro en un segundo, se necesitarán cuatro segundos para difundirse dos centímetros y nueve segundos para difundirse tres centímetros. Otras condiciones iniciales diferentes en la ecuación diferencial para la difusión dan origen a soluciones seme jantes. jan tes. Einst E instein ein llegó ll egó a pre decir deci r que el desplazamiento radial de una partícula que se difunda en cualquier dirección a partir de un punto central “no sería proporcional al tiempo sino a la raíz cuadrada del tiempo.
N O I C A R T N E C N O C
Este resultado se sigue”, afirmaba, “de los caminos recorridos durante dos intervalos consecutivos de tiempo, que no siempre deben sumarse, sino que con casi igual frecuencia se deben restar”.
Medidas de difusión
G
racias a esta predicción llegó la primera comprobación adecuada de la expresión de Einstein para la distribución distribución de probabilidades probabilidades de los desplazamientos de una partícula browniana. El físico francés Jean Perrin y sus colaboradores siguieron el movimiento de una partícula browniana casi esférica y registraron su posición a intervalos iguales de tiempo. Tras repetir el experimento muchas veces, representaron el promedio del cuadrado del desplazamiento desplazamiento en función del tiempo. La gráfica así obtenida era una línea recta, cuya pendiente se deslizaba proporcional a D, el coeficiente de difusión. El valor experimental de D es una de las nuevas magnitudes introducidas por la teoría de Einstein que permite medir el tamaño del átomo. Imaginemos que se han suspendido gránulos microscópicos o partículas
VARIACION DE LA DISTANCIA
VARIACION DE LA CONCENTRACION CON LA DISTANCIA
VARIACION DE LA CONCENTRACION DISTANCIA
SECCION DELGADA
DIFUSION
3. UNA CONCENTRACION NO UNIFORME de partículas brownianas en una caj a (en color ) da lugar a una fuerza de difusión que las impulsa hacia zonas de menor concentración. Arriba: concentración de partículas en un instante dado en función de la posición. La tasa de cambio de la concentración entre dos puntos de la caja viene determinada por la pendiente de la recta que une los puntos de la gráfica correspondientes a ambos puntos de la caja. El flujo medio de partículas a través de una sección de la caja es proporcional a la tasa de variación de la concentración de partí culas con la distancia; es, pues, el flujo proporcional a la pendiente de la recta que une los dos puntos de la curva de concentraciones correspondientes a los límites de la sección considerada. El flujo es igual a la concentración media de las partículas en el interior de la fina sección recortada en el centro, multiplicada por su velocidad media.
50
brownianas en una columna vertical de aire en reposo ( véase la figura 4 ). Como los gránulos están sometidos a la fuerza de la gravedad, tenderán a caer hacia el fondo de la columna. Pero conforme su concentración cerca del fondo va aumentando, la diferencia de concentración entre éste y la superficie tiende a llevar los gránulos hacia esta última, donde su concentración es relativamente menor. Cuando se establece el equilibrio, la distribución de gránulos refleja un equilibrio entre el impulso hacia abajo de la gravedad y el impulso ascendente de la difusión. La viscosidad del aire impide que los gránulos reciban una aceleración continua por parte de la gravedad. Adqui eren una cierta cier ta velo cidad terminal y se desplazan luego hacia abajo con esta velocidad constante, que es igual a la fuerza de la gravedad sobre cada partícula dividida por la viscosidad. Como ésta cambia con el aumento de densidad del aire, la velocidad terminal varía con la altura, pero dicha complicación puede eliminarse si se consideran sólo las velocidades de las partículas a cierta altura, determinada de manera arbitraria. En la situación de equilibrio el número de gránulos que pasen hacia abajo a este nivel tiene que compensarse con el de partículas que lo atraviesen en sentido ascendente. Por tanto, a una altura dada, la velocidad media de un gránulo que se mueva hacia arriba tiene que ser igual a la velocidad terminal de los gránulos descendentes. El flujo de los gránulos que se difunden es igual a su velocidad media dividida dividida por el volumen de la pequeña nube que atraviesa el nivel considerado de la columna en un breve inter valo. val o. Así pue s, el flujo flu jo equ iva le al producto de la velocidad de los gránulos por su concentración C al nivel considerado. Y por ser el flujo también igual al producto de D, el coeficiente de difusión, por la tasa de variación de la concentración de gránulos con la altura, la velocidad media con que los gránulos se difunden hacia arriba equivaldrá a D/C multiplicado por la tasa de cambio de concentración con la altura.
Masa del átomo
L
a tasa de cambio de la concentración es proporcional a la tasa de variación de la presión de los gránulos con la altura; la constante de proporcionalidad se deduce de la ley de los gases ideales: ésta resulta ser
TEMAS 16
igual a N 0/RT , donde N 0 representa el número de Avogadro, R la constante universal de los gases y T la temperatura absoluta del gas. La aparición en este punto del número de Avog adro se sigue de la propia ley de los gases ideales, pero cuando Einstein propuso este argumento se conocía dicha magnitud experimentalDIFUSION mente y con mucha imprecisión. Su introducción en este contexto permitió relacionar dos propiedades de los fluidos que hasta entonces habían parecido independientes: el movimiento de una partícula en el seno de un fluido viscoso y la denominada SECCION presión osmótica que ejerce una susDELGADA tancia disuelta confinada por una fuerza exterior en una pequeña región GRAVEDAD de un fluido. La tasa de variación de la presión con la altura en una posición determinada se expresa a través de la concentración de gránulos en una fina 4. DISTRIBUCION DE EQUILIBRIO de partículas brownianas en un campo gravicapa por encima mismo de la posición tatorio que resulta de un balance dinámico entre la gravedad y la fuerza de difuconsiderada multiplicada por la sión, que las impulsa desde las zonas de mayor concentración del fondo de la cofuerza que la gravedad ejerce sobre lumna hasta las de menor concentración de la parte superior. La velocidad media cada gránulo. Al igualar la velocidad descendente de las partículas debida a la gravedad iguala la velocidad media asde difusión de un gránulo con la velo- cendente en cualquier sección transversal de la columna. La velocidad ascendencidad terminal de éste bajo la acción te es proporcional a la variación de la concentración de partículas con la altu ra (véde la gravedad, una sencilla mani- ase la figura 3). Si se supone que las partículas forman un gas ideal, resulta fácil deducir una expresión algebraica para el peso de un átomo o de una molécula en pulación algebraica da la ecuación función de magnitudes mensurables experimentalmente. de Einstein para el coeficiente de difusión: D = RT/f N 0, donde f representa la viscosidad del aire. En vir- la masa de los átomos y de las molé- lógicas, o macroscópicas, macroscópicas, aproximatud de esa expresión, el valor del culas. Por definición, la masa de una damente correctas antes incluso del número de Avogadro es RT/Df RT/D f ; vale partícula elemental es la masa de un desarrollo de la mecánica estadística. decir: el producto de la constante uni- mol de la sustancia compuesta por Según la ley de los grandes números, vers al de los gase s por la tempera tem pera-- dichas partículas, dividida por el las fluctuaciones o desviaciones espectura absoluta, dividido por el coefi- número de Avogadro. Por ejemplo, taculares del comportamiento medio ciente de difusión y la viscosidad. viscosidad. un mol de oxígeno pesa 16 gramos. han de constituir la excepción en un La determinación del valor del El peso de una molécula de oxígeno sistema macroscópico de 10 23 partínúmero de Avogadro equivale a la es por consiguiente 16/(6 1023), o sea culas. Otras fluctuaciones, menores medida de las dimensiones atómicas. 2, 7 10 –2 3 gramos. El puntilloso y más comunes, predichas para tales En este sentido explotó Perrin el esfuerzo que condujo a este cálculo y sistemas se hurtaban a los instruresultado de Einstein, por cuya razón a otros similares fue el golpe de gra- mentos de medida poco sensibles del se le atribuyó el mérito de ser el pri- cia para los que aún permanecían siglo XIX . Sin embargo la visión esmero que pesó el átomo. La viscosi- escépticos con respecto a la teoría tadística de la termodinámica exigió dad f puede medirse de varias ma- atómica. Perrin obtuvo el premio la revisión de sus leyes fenomenoneras; una de ellas, a partir de la Nobel de física en 1926. lógicas. velo cidad cida d con que una partí cula se Por ejemplo, el movimiento perpesedimenta en el seno de un fluido. La tuo de una partícula en el movimiento Termodinámica constante universal de los gases R se browniano contradice la versión fenodetermina a partir de la temperatura menológica primitiva de la segunda y la presión de una cantidad conocida o que he dicho hasta ahora sobre ley de la termodinámica. Según el de gas confinada en un volumen conla teoría de Einstein del movi- enunciado fenomenológico de la siderado. Puesto que Perrin ya había miento browniano no le hace aún jus- segunda ley, en un sistema cerrado medido D, y T viene vien e dada por un ter - ticia. No sólo verificó la existencia la temperatura de todos los puntos mómetro, cabe calcular el número de física de los átomos sino que además tiende al mismo valor; cuando se Avog adro, adro , cu yo v alor se aproxima apro xima a su éxito espectacular estableció la alcanza el equilibrio, no hay manera 23 6 10 . mecánica estadística como la base de transformar la energía térmica en Ante las múltiple múlt ipless h ipótesis ipót esis ima- sobre la cual tienen que hallar soporte energía útil, o trabajo, en dicho sisginadas por Einstein llama la aten- o refutación las leyes de la termodi- tema. ción que el valor de Perrin para el námica. Ahora Ahor a bien, la temperat temp erat ura de una número de Avogadro no difiera más Dado el valor del número de partícula browniana suspendida en que en un 19 por ciento del valor acep- Avog adro y lo dimin uto del átomo, se agua es la misma que la del agua, tado hoy en día. El valor del número explica por qué fue posible estable- pero la energía cinética de su consde Avogadro conduce directamente a cer leyes termodinámicas fenomeno- tante agitación ha de provenir de la ∞
∞
L
∞
CALOR Y MOVIMIENTO
51
BARRERAS DE ENERGIA
SISTEMA FISICO
compatibles con el macroestado correspondiente y mayor será la entropía del macroestado. La relación precisa entre la entropía de un macroestado y el número de microestados asociados fue formulada por Boltzmann en 1896. La entropía es proporcional al logaritmo del número de microestados; la constante de proporcionalidad, denominada constante de Boltzmann, es la constante universal de los gases, R, por átomo, que equivale, pues, a 3,3 10–24 calorías por grado Celsius. El cambio clave estriba en que, en termodinámica estadística, la segunda ley no puede tomarse ya como una verdad ab soluta. solut a. Por ser ig ualme nte probables todos los microestados del sistema, hay una probabilidad pequeña, aunque no nula, de fluctuaciones que lleven a un macroestado muy ordenado. Dicho de forma más precisa, la probabilidad de que una fluctuación espontánea produzca una disminución de entropía es proporcional a e, la base de los logaritmos naturales, elevada a un exponente igual a dicha variación de entropía cambiada de signo y dividida por la constante de Boltzmann. Por ejemplo, la probabilidad de un descenso espontáneo de entropía de un mol de helio a cero grados Celsius es del orden de 10–19 . Es posible, aunque extraordinariamente improbable, que todas las moléculas de aire de una habitación se congreguen de forma espontánea en un rincón, dejando el vacío en el resto de la habitación. La validez de la termodinámica fenomenológica refleja el hecho de que, con respecto a los patrones ordinarios, la constante de Boltzmann es un número extraordinariamente pequeño. ¿Podríamos sobrevivir en un mundo donde la constante de Boltzmann alcanzara un valor muy superior al actual? Probablemente no. En ese mundo el incremento de energía cinética de cada átomo para un aumento dado de temperatura sería mucho mayor que en nuestro universo. Crecería la probabilidad de fluctuaciones que disminuyeran la entropía; la aparición espontánea de sistemas físicos ordenados sería también mucho más frecuente a escala macroscópica. Tal mundo sería semejante al que experimentaríamos si pudiéramos reducirnos a las dimensiones de una partícula browniana. A dicha escala, la temperatura, la presión y el volumen de la materia circundante fluctúan incesantemente. Por si esto fuera poco, en las proximidades de un punto crítico de una transición de fase, ver∞
A
ESTADO DEL SISTEMA
B
5. DIAGRAMA DE ENERGIA de un sistema físico con dos estados, A y B, cuya energía potencial es mínima con respecto a los estados de sus distintos entornos. En ausencia de fluctuaciones térmicas, si el sistema ocupara uno de estos estados, A o B, permanecería indefinidamente en él. En presencia de fluctuaciones aleatorias, sin embargo, acontece una probabilidad f inita de que el sistema no permanezca en ninguno de dichos estados con un mínimo local de energía. Un sistema en un estado A puede atravesar la barrera de energía y llegar al estado B, y un sistema en el estado B puede alcanzar el A. La estabilidad relativa de ambos estados A y B se infiere de las probabilidades respectivas de ambas transiciones.
energía cinética de las moléculas del enunciado fenomenológico de la seagua. Como la temperatura es una gunda ley, la entropía de un sistema forma de expresar la energía ciné- aislado siempre tiende hacia un tica traslacional de las moléculas, la máximo con el transcurso del tiempo. breve transferencia de energía cinéEn termodinámica estadística, la tica a la partícula browniana no puede definición de entropía recibe una conseguirse más que con un enfria- modificación sutil. Según la teoría miento local del agua. Así pues, el atómica, todos los macroestados de movimiento browniano muestra que un sistema, que son los estados obserel estado de temperatura completa- vables vab les ma croscópi cros cópicame came nte, inclu ido mente uniforme que presupone la el equilibrio, manifiestan las diversegunda ley no se satisface nunca de sas configuraciones de átomos y moun modo cabal en la naturaleza. La léculas. Dichas configuraciones se definición de equilibrio termodiná- denominan microestados. microestados. Los micromico ha de tener en cuenta fluctua- estados compatibles con un maciones aleatorias, pequeñas aunque croestado dado son equiprobables en persistentes, en la temperatura del un sistema aislado. De donde resulta sistema. razonable suponer que el estado de De la importancia de dichas fluc- equilibrio identificado por la segunda tuaciones en los sistemas físicos habló ley en su versión fenomenológica sea ya Einstein en 1910. A este respecto el macroestado para el cual existe un desarrolló una teoría de las fluctua- mayor número de microestados. ciones mediante la introducción de Hay muchísimos más microestaconceptos estadísticos en la termodi- dos esencialmente indistinguibles y námica. La termodinámica fenome- asociados con un macroestado desornológica se limitaba a codificar las denado que microestados asociados repetidas observaciones experimen- a otro ordenado. Por tanto, si en tertales según las cuales la energía siem- modinámica estadística el estado de pre se degrada, en el sentido de que equilibrio había de seguir siendo el cada vez cuesta más extraerla para de máxima entropía, debíase redefiefectuar un trabajo útil. En la ter- nir la entropía: sería la medida del modinámica fenomenológica, la me- desorden de un sistema físico, no la dida de esta degradación de la ener- medida de la degradación de su energía fue denominada entropía, de la raíz gía. Cuanto mayor sea el desorden del griega que significa cambio. Según el sistema, más microestados se harán
52
TEMAS 16
bigracia, el correspondiente al paso de vapor a líquido, las fluctuaciones aleatorias crecen de un modo espectacular. Maria Goeppert-Mayer y Joseph Edward Mayer utilizaron una frase de una opereta de Gilbert y Sullivan para expresar la interpretación probabilística de las leyes de la termodinámica fenomenológica: “¿Nunca? No, ¡nunca! ¿Nunca? Bueno, casi nunca”.
Termodinámica fuera de equilibrio
L
a comprobación de que el movimiento browniano es una manifestación de las fluctuaciones estadísticas entre los microestados de un sistema termodinámico tuvo para el estudio de los sistemas fuera de equilibrio consecuencias de mayor alcance que para el de los sistemas que se
mantenían dentro. El orden de producción de los sucesos en situación equilibrada es irrelevante: las fluctuaciones entre microestados difícilmente dan lugar a un macroestado observable. Pero el orden temporal de los acontecimientos resulta de suma importancia en el caso de los sistemas fuera de equilibrio. Ya he coment ado q ue un a versión estadística de la segunda ley de la ter-
TIEMPO = 1 SEGUNDO
TIEMPO = 2 SEGUNDOS
TIEMPO = 3 SEGUNDOS
S A S R O U T M A E R R T A E X R P E R M E S A T O B E D A D S L E A O I L D C E N R E T R N E F E I D
A L U C I T R A P A L E D D A D I C O L E V
TIEMPO
6. LA TENDENCIA A LA TEMPERATURA de equilibrio de una barra calentada por un extremo (serie esquemática de la derecha) es matemáticamente análoga al movimiento de un grano de arena en un líquido (esquemas de la izquierda). La fuerza de resistencia que se ejerce sobre el grano por parte de la viscosidad del líquido es análoga a la “fuerza” que tiende a restablecer una temperatura uniforme en la barra calentada. La fuerza de resistencia es proporcional a la velocidad del grano, por lo cual va disminuyendo a medida que el grano se detiene. Análogamente, la fuerza que tiende a restablecer el equilibrio en la barra calentada es proporcional a la diferencia de temperaturas que se registra entre sus dos extremos; a medida que dicha diferencia disminuye, la fuerza restauradora se reduce. Ambos procesos se representan gráficamente en las curvas ne-
CALOR Y MOVIMIENTO
TIEMPO
gras continuas (abajo). Superpuesta sobre cada uno de estos procesos hay una rápida fuerza fluctuante debida a la agitación molecular aleatoria. La fuerza fluctuante que actúa sobre el grano hace que éste describa un movimiento browniano alrededor de la trayectoria rectilínea en el seno del líquido. En el caso de la barra las fuerzas fluctuantes presentan la forma de fluctuaciones de temperatura en pequeñas regiones; las regiones relativamente más calientes se han coloreado; y las regiones más frías se indican mediante una gradación descendente de la intensidad del color y tonalidades grises cada vez más oscuras. Las fluctuaciones se representan mediante líneas quebradas de color que oscilan en torno a las curvas negras suaves; dichas fluctuaciones se han exagerado en los diagramas para poder ofrecer mayor claridad.
53
modinámica fenomenológica debe minal que depende de la viscosidad resistencia sobre la partícula por la explicar cómo evolucionan los siste- del fluido. La viscosidad opone una tendencia del sistema termodinámico mas hasta el estado de equilibrio. En fuerza de resistencia, proporcional a hacia su estado de equilibrio. Así otras palabras, la segunda ley tiene la velocidad de la partícula, que actúa pues, la “fuerza” termodinámica que que explicar la razón de que los macro- en la misma dirección y sentido lleva la barra desigualmente calenestados ordenados originen espontá- opuesto que dicha velocidad; tiende, tada hacia el equilibrio se compara neamente macroestados desordena- pues, a frenarla. La energía del movi- con la resistencia viscosa que frena dos. Batir un huevo y otros procesos miento hacia adelante se disipa en la partícula en movimiento. La ecuaafines son irreversibles en el tiempo; forma de calor, que desencadena fluc- ción resultante sirve entonces para determinan por tanto una dirección tuaciones térmicas en el fluido. estudiar la influencia de las fluctuatemporal. En la termodinámica fenoSupongamos ahora que el tamaño ciones térmicas sobre los procesos menológica se ha desarrollado un con- de la partícula es variable y que lo irreversibles. junto de leyes a part ir de estu dios va mo s re duci en do co nt in ua me nt e El truco matemático de Onsager empíricos que describen la evolución hasta dimensiones microscópicas. pone de manifiesto una profunda anade diversos procesos irreversibles Una partícula de tamaño macroscó- logía entre el movimiento de la pardesde ciertos estados especiales de no pico no “notaría” más que la fuerza tícula y el relajamiento de un estado equilibrio. de resistencia y su movimiento no de no equilibrio. En intervalos temPor ejemplo, si una barra metálica sería afectado esencialmente por el porales largos, comparados con el se calienta por un extremo y la dife- bombardeo molecular. Pero, a medida tiempo de relajación de una fluctuarencia de temperaturas entre sus dos que menguase, las fluctuaciones se ción, Onsager supuso que, en proextremos no es demasiado elevada, harían cada vez más ostensibles hasta medio, el proceso de decaimiento la tasa con que la energía calorífica que terminase por comportarse como venía dado por las leye s fenomen otiende a fluir desde el extremo caliente si no le afectara la fuerza macroscó- lógicas de la termodinámica de no hasta el frío es directamente pro- pica de resistencia; presentaría enton- equilibrio. La aparición de un flujo porcional a la diferencia de tempe- ces movimiento browniano. La ecua- de calor de variación suave, desde el raturas. Así pues, a medida que la ción de Langevin combina ambos extremo caliente al extremo frío de barra se aproxima al equilibrio tér- efectos y los aplica a partículas de la barra, resulta muy parecida a la mico, la “fuerza” debida a la dife- tamaño intermedio. aparición de una fuerza de resistenrencia de temperaturas disminuye y cia media en una partícula relativadecrece el “flujo” o tasa de transfemente grande que se desplazara en rencia de calor. Análogamente, según un líquido. En cada caso las obserEcuación de Langevin se vio antes, la ley de Fick establece vaciones se llevan a cabo en intervalos que el flujo de un gas que se difunda a ecuación de Langevin se ve así cortos, finitos, pero que se prolongan desde regiones de gran concentraenraizada en dos mundos: el lo suficiente para que las fluctuacioción hacia otras de baja concentra- macroscópico, representado por la nes aleatorias se cancelen entre sí. ción es directamente proporcional a fuerza de resistencia, y el microscó- Sólo en intervalos cortos se detectan la “fuerza” descrita por la diferencia pico, manifestado por la fuerza fluc- las fluctuaciones erráticas superde concentraciones entre ambas regio- tuante o browniana. Según dicha ecua- puestas sobre el flujo medio y suave nes. Una y otra ley son relaciones ción, la fuerza total que actúa sobre que se observa. lineales, porque el flujo es siempre una partícula es la suma de ambas La hipótesis de Onsager sobre la proporcional a la fuerza, a pesar de fuerzas, que pueden interpretarse evolución promedia de un sistema que se hallen en cambio incesante. como las componentes de la fuerza hacia el equilibrio parece razonable. En principio la termodinámica de total en escalas temporales diferen- ¿Cómo si no iban a emerger las relano equilibrio no está restringida a rela- tes. En tiempos cortos, la fuerza que ciones lineales de la termodinámica ciones lineales entre flujos y fuerzas. domina es la fluctuante, que varía con de no equilibrio? ¿Hay acaso una desCuanto más se aleje un sistema del rapidez. En intervalos más largos cripción estadística mejor? A pesar equilibrio, mayor interés adquieren empiezan a predominar los efectos de de lo cual peca de restrictiva, pues los efectos no lineales. No existe un la fuerza de resistencia. La fuerza limita su teoría al estudio de sistemas método general de formular leyes que total equivale a la masa de la partí- cuyas fluctuaciones queden descritas describan tales efectos, sólo hay apro- cula multiplicada por la aceleración mediante una campana de Gauss. En ximaciones por ensayos sucesivos. Pero producida por ambas componentes, otras palabras, las pequeñas flucla comprensión estadística de sistemas que es la tasa de cambio de la veloci- tuaciones de temperatura de la barra de no equilibrio que obedezcan leyes dad de la partícula con el tiempo. con respecto a los valores medios dados fenomenológicas lineales puede lleEl físico noruego Lars Onsager por las leyes fenomenológicas del var a un mejor conocimiento de los observó agudamente que, con un sim- transporte de calor han de distribuirse efectos no lineales. El tratamiento ple cambio de notación, la ecuación de la misma manera que los desplamatemático de la termodinámica de de Langevin podía suministrar una zamientos de un gran número de parno equilibrio puede retrotraerse a una descripción estadística de los proce- tículas brownianas con respecto a un ecuación que el físico francés Paul sos irreversibles. Propuso entonces punto y en un instante determinados. Langevin formuló en 1908 para la des- sustituir la velocidad de la partícula cripción del movimiento de una par- descrita por la ecuación de Langevin Inversión temporal tícula en un fluido viscoso. por la desviación de una magnitud terImaginemos que una pequeña par- modinámica con respecto a su valor y evolución tícula esférica, del tamaño de una de equilibrio. Por ejemplo, si una ué ocurre si la distribución de canica, por ejemplo, sea impulsada a barra se calienta por un extremo, su través de un fluido por alguna fuerza desviación del equilibrio se asimila las fluctuaciones no se supone exterior. Recuérdese que la partícula a la velocidad de una partícula. Tam- acampanada o gaussiana? Se puede acaba por alcanzar una velocidad ter- bién propuso reemplazar la fuerza de partir entonces de otra hipótesis razo-
L
¿Q
54
TEMAS 16
nable y menos restrictiva: cualquier estado de no equilibrio de un sistema físico ha de tender hacia un estado de equilibrio caracterizado por la anulación de los flujos. Según esta condición, no es imprescindible que el estado de equilibrio se mantenga estable en el sentido estático habitual. Ante s bien, el estado de equilib rio es aquel hacia el que tienden todos los demás estados. Si se perturba el sistema fuera de equilibrio, éste responde disminuyendo la magnitud de la perturbación, para así restablecerse el estado inicial de equilibrio. Esta definición de equilibrio reconoce que las fluctuaciones térmicas, por minúsculas que sean, alteran la evolución de un sistema termodinámico. Siempre habrá alguna probabilidad no nula de que el sistema evolucione contra corriente. Por muy lejos del equilibrio que se halle cierto estado y por pequeñas que sean las fluctuaciones aleatorias, existe siempre una cierta probabilidad no nula de que más tarde o más temprano el sistema alcance dicho estado a partir del equilibrio. Un análisis matemático detallado da un resultado todavía más notable. Sucede que en su aproximación a ese estado de no equilibrio, muy improbable, el sistema tiende a seguir justamente el inverso del camino que seguiría si, a partir de dicho estado, se aproximara al de equilibrio, suponiendo que no haya interferencias exteriores al sistema. Esta evolución antitermodinámica, descrita por la inversión temporal, no es lenta y continua, sino que se desarrolla con brusquedad y a saltos. En un tiempo virtualmente ilimitado, el crecimiento y decaimiento de las fluctuaciones térmicas manifiestan una simetría entre pasado y futuro opuesta a la asimetría temporal asociada más comúnmente a la termodinámica mediante la segunda ley.
Analogías matemáticas
E
l aparato matemático desarrollado para abordar las fluctuaciones reflejadas en el movimiento browniano puede aplicarse, en líneas generales, a cualquier disciplina en que se pretenda evaluar los efectos de una variable aleatoria. Estas magnitudes suelen presentarse en la descripción de muchos fenómenos naturales por una razón principal: los valo res de s us v ariables no se cono cen o son difíciles de determinar. Una de las primeras aplicaciones fue el filtrado del ruido electromagnético,
CALOR Y MOVIMIENTO
U O
S
7. SIMETRIA ENTRE PASADO Y FUTURO, esquematizada mediante el recorrido temporal de un sistema a lo largo de una serie de estados físicos. Cada punto del interior de la región gris representa un estado del sistema. El estado de equilibrio es el punto O. Si se desplaza el sistema hasta cierto estado de no equilibrio U , correspondiente al máximo de entropía del sistema sobre la frontera, éste evolucionará casi con toda seguridad según las leyes macroscópicas de la termodinámica. Dichas leyes predicen que pasará por algún estado de no equilibrio S, de entropía no menor que la de U , y que llegará, por último, hasta las proximidades de O (en color ). Una vez allí, el sistema fluctuará sin cesar alrededor de O. Por muy pequeñas que sean las fluctuaciones, es posible que su efecto acumulativo conduzca el sistema de nuevo al punto U de la frontera. Si no se interviene sobre el sistema, la última parte del recorrido desde S hasta U seguirá casi siempre un camino infinitesimalmente próximo al que antes había recorrido desde U hasta S.
aleatorio y estático, de las señales de cuenta tan sólo el potencial gravitaradar y de las emisoras de radio. Por torio global del cúmulo. Un estudio analogía, muchas técnicas matemá- llevado a cabo a principios de los a ños ticas semejantes resultan útiles cuarenta por Subrahmanyan Chancuando puede identificarse algún tipo drasekhar permite calcular la prode “ruido” en un sistema cuya evolu- babilidad de que el valor de la fuerza ción pueda determinarse en ausen- gravitatoria sobre una estrella se cia de dicho ruido. El problema con- encuentre entre dos valores dados. siste en este caso en evaluar la En los ecosistemas se presentan influencia de la variable aleatoria muchos casos en los que variables sobre el resultado final. que fluctúan al azar pueden influir Por ejemplo, en el estudio de la en la evolución a largo plazo. La predinámica de cúmulos estelares, la visión del núme ro de individuo s de fuerza sobre una estrella puede des- las poblaciones se basa en recuentos glosarse en dos componentes: la de muestras de diversas poblaciones influencia gravitatoria global del rivales, efectuados a lo largo de mucúmulo, considerado como un todo, y chos años. Los resultados de tales la influencia gravitatoria del entorno recuentos varían con los métodos estelar. La influencia global del empleados para la elaboración del cúmulo varía lentamente con el censo; los propios puntos exactos de tiempo y con la posición de la estre- vari ación resultan a menudo difíc illa; puede aproximarse mediante una les de cifrar. Puede llevarse a cabo expresión sencilla para la energía una previsión más fiable si tales variapotencial gravitatoria, ya que el ciones se tratan matemáticamente número de estrellas que engendran como variables fluctuantes aleatodicha fuerza es muy grande. rias. De modo semejante, las flucLa influencia de la distribución de tuaciones impredecibles de fremateria en el entorno estelar intro- cuencias genéticas en una población duce fluctuaciones de variación muy animal pueden conducir a la fijación rápida en el potencial gravitatorio de de un solo genotipo; la mejor manera la estrella considerada. Tales fluc- de abordar el proceso correspondiente tuaciones determinan que la fuerza es a través de un planteamiento de que actúa sobre la estrella difiera de las fluctuaciones cual si fueran sucela fuerza que resultaría de tener en sos aleatorios.
55
Economía y navegación
M
ás reciente es la aplicación de análisis probabilísticos, basados en las matemáticas del movimiento browniano, a la economía. Los profesionales de esta rama han utilizado tales técnicas para justificar el comportamiento de precios de mercado, las tasas de inflación, las de interés y otras variables financieras. En este contexto, el precio de una partida viene controlado en parte por opciones de comercio, que son contratos que dan derecho a comprar o a vender la partida en un período especificado. Se espera que el precio de la partida fluctúe según el número y el precio de las opciones negociadas; dicha fluctuación se superpone al precio que presumiblemente determinarían las puras fuerzas de mercado en ausencia de opciones. El objetivo es, como siempre, la predicción del precio futuro de la partida con la mayor fiabilidad posible. Una vez estimados los efectos de una fluctuación aleatoria, lo que se pretendería a continuación sería la posibilidad de controlarlos. De nuevo las técnicas matemáticas desarrolladas en una disciplina han experimentado una rápida generalización. Un método de control estadístico, seme jante al desarrollado para mejorar la recepción de las señales de radar durante la segunda guerra mundial, lo explotan hoy muchos sistemas que recogen entradas continuas de datos; por ejemplo, los sistemas de radiona vegación. También se ha aplicado al control de calidad de las mercancías fabricadas en serie. Aunque se haya desentra ñado la naturaleza del movimiento browniano que dio origen a la teoría, queda mucho camino por andar en lo concerniente al desarrollo de sus analogías matemáticas. Si nos atenemos a la historia, el movimiento browniano seguirá reapareciendo durante muchos años, en formas cada vez más abstractas, para iluminar las disciplinas más dispares.
BIBLIOGRAFIA COMPLEMENTARIA S ELECTED P A PE RS O N NO IS E A ND S TO CHASTIC PROCESSES. Dirigido por Nelson Wax. Dover Publications, Inc., 1954. INVESTIGATIONS ON THE TH EOR Y O F T HE BROWNIAN MOVEMENT. Albert Einstein, preparado por R. Fürth y traducido por A. D. Cowper. Dover Publications, Inc., 1956. DYNAMICAL THEORIES OF BROWNIAN MOTION. Edward Nelson. Princeton University Press, 1967.
56
La complejidad, cuantificada Ramón Margalef
L
a mayoría de la gente admitirá que las rosas son más complejas que los gases; pero, ¿cuánto más? ¿Qué son más complejas, las rosas o las moscas del vinagre? En los últimos tiempos se han propuesto varios procedimientos para medir la complejidad de los números, pero ninguna medida de la complejidad de los objetos físicos ha ganado la aceptación general. Seth Lloyd y Heinz Pagels esbozaron un enfoque prometedor: la profundidad termodinámica, una medida que enlaza complejidad y termodinámica. El parámetro se formuló de tal modo que resulta nulo en los estados totalmente ordenados, como la disposición regular de los átomos del diamante, y en los estados totalmente aleatorios, como las moléculas de los gases. Su valor es elevado en los estados intermedios. Otra premisa: adquirir complejidad no debe resultar un proceso sencillo; verbigracia: dos bacterias no duplican la complejidad de una sola, pues las bacterias generan fácilmente copias de sí mismas. Esos requisitos y unas pocas estipulaciones más llevaron a Lloyd y Pagels a una noción basada en el proceso de creación de los objetos. Por ejemplo, la profundidad termodinámica de fabricar un coche a partir de un esbozo equivale a la suma de la profundidad termodinámica de fabricar todos los componentes a partir del esbozo más la profundidad termodinámica de reunirlos. Técnicamente, la profundidad termodinámica actual de un sistema es la diferencia entre dos cantidades. La primera: la entropía (una medida de la falta de exactitud del conocimiento que tiene el observador sobre un sistema). El valor de la segunda cantidad depende de la cantidad de información necesaria para especificar todas las trayectorias por las que el sistema puede haber alcanzado su estado actual a partir de un estado medido en un tiempo anterior. Son muchas las trayectorias posibles, pues el sistema podía encontrarse en muchos estados, diversos pero difícilmente distinguibles. Desde una interpretación más intuitiva, la profundidad termodinámica de un proceso es una medida de la dificultad que entraña reunir algo: la diferencia entre la cantidad de información necesaria para describir el sistema ahora y la cantidad precisa para describir todos los estados en que podía hallarse al comienzo del proceso. Consecuentemente, la profundidad termodinámica resulta proporcional a la cantidad de información que ha descartado el proceso. La medida presenta varias propiedades satisfactorias. La profundida d termodinámica de una bacteria es muy elevada, porque, a lo largo de los eones, la evolución ha descartado gran cantidad de información genética hasta llegar a los ejemplares actuales. La profundidad termodinámica añadida cuando obtiene una copia de sí misma es relativamente pequeña. La medida supera también anteriores definiciones de la complejidad. ¿Para qué sirve medir la complejidad? Si se demuestra que la profundidad termodinámica resulta de aplicación general, podría constituir una herramienta de estudio de los sistemas complejos: la evolución y procesos biológicos como el autoensamblaje de las proteínas, donde la tendencia universal de la materia hacia el desorden sufre una inversión local. El parámetro podría resolver también conceptos que hoy constituyen meras conjeturas, como es el caso de la hipótesis según la cual los sistemas complejos son, por necesidad, termodinámicamente inestables.
TEMAS 16
La reaparición de fases James S. Walker y Chester A. Vause
La materia se ordena a medida que se enfría, pero hay sistemas que parecen volver a desordenarse si continúa el descenso de temperatura. La razón estriba en las relaciones que hay entre energía y entropía
C
uando una copa de agua se coloca en un congelador, el agua se solidifica y se produce hielo. Cuando se enfría una barra de hierro incandescente, puede polarizarse magnéticamente. Cuando metales como el aluminio se enfrían a temperaturas extremadamente bajas, se convierten en superconductores, perdiendo toda resistencia al flujo de una corriente eléctrica. Cuando se enfrían ciertas mezclas homogéneas de líquidos se tornan inmiscibles, formándose dos líquidos diferentes separados por una superficie conocida con el nombre de menisco. Todos estos fenómenos son otros tantos ejemplos de las denominadas transiciones de fase. Se dice que una muestra de materia está en una determinada fase (recuérdense la fase sólida o la superconductora) cuando posee un conjunto bien definido de propiedades macroscópicas observables (tales como la dureza o la falta de resistividad). La fase de una muestra material constituye, en realidad, una indicación del grado de orden o de desorden que caracteriza a las moléculas y a los átomos que la constituyen. Por ejemplo, las moléculas que forman un cristal de hielo están mucho más ordenadas que las de agua líquida. El campo magnético asociado con cada átomo de una barra de hierro imantada se alinea ordenadamente con los campos de todos los demás, lo que origina la creación de un campo magnético intenso; los campos magnéticos de los átomos del hierro no imantado se orientan al azar. Dos líquidos separados uno del otro están más ordenados que si estuviesen mezclados con homogeneidad. Cuando se enfría un material, el orden de las moléculas y de los átomos que lo constituyen aumenta progresivamente. La fase de temperatura elevada se vuelve inestable y el material sufre una transición a una fase más ordenada. Por ejemplo, cuando se enfría el vapor de agua, se transCALOR Y MOVIMIENTO
forma de fase gaseosa en fase líquida bles en razón de la temperatura. La y más tarde en fase sólida. Pero hay fase inmiscible, en la que las distinmateriales en los que la secuencia tas clases de moléculas están sepanormal parece invertirse. Cuando se radas en lugares diferentes del recienfrían, pasan de una fase a otra más piente, parece ser la forma más ordenada, como sería de esperar. Pero ordenada de ambos líquidos. Cabe si se los sigue enfriando, retornan a esperar, pues, que las mezclas camla fase inicial. ¿Cómo se produce tal bien de miscible a inmiscible al disreaparición de la primera fase? Estos minuir la temperatura. Esta es la procesos parecen violar una condi- transformación que efectivamente se ción fundamental de la termodiná- observa en la mayoría de las mezclas mica, consistente en que la materia binarias de líquidos. aumente su orden cuando la tempePero el químico Basil McEwen desratura disminuya. cubrió en 1923 que no todas las mezLa reaparición de fases es con- clas binarias seguían esta secuencia secuencia directa de las relaciones tan simple. Estudió varias mezclas existentes entre energía y entropía, binarias que eran miscibles a altas o desorden, por un lado, y la asocia- temperaturas. De acuerdo con lo especión de dichas relaciones con los movi- rado, cuando se enfriaban se conmientos y perturbaciones de las molé- vertían en inmiscibles. Lo que no se culas que forman los materiales, por esperaba era que, cuando la tempeotro. El fenómeno de la reaparición ratura descendiese todavía más, algude fases tiene gran utilidad en el estu- nas de las muestras volviesen a resuldio de los sistemas físicos, pues per- tar miscibles y, por tanto, pareciesen mite obtener una descripción más más desordenadas a temperaturas detallada y completa de tales inte- bajas de lo que habían sido a temperacciones microscópicas. raturas intermedias. Desde la época de McEwen se ha visto que, aunque n ejemplo relativamente senci- la reaparición de fases miscibles sea llo de este fenómeno se encuen- un fenómeno bastante raro, se pone tra en los sistemas conocidos como de manifiesto en algunas mezclas mezclas binarias de líquidos, es decir, binarias. ¿Cómo hay que interpretar mezclas de dos líquidos diferentes. este contradictorio fenómeno? Supongamos que, en una copa, echamos dos líquidos (café y leche o aceite l primer paso para comprender el y agua) y removemos a continuación. comportamiento de las mezclas Si los dos líquidos se mezclan perfec- binarias de líquidos consiste en repretamente (como sucede con el café y la sentarlo en un diagrama de fases, leche) y la copa se llena con un fluido consistente en una gráfica cuyo eje único y homogéneo, se dice que la mez- vertical representa la temperatura y cla constituye una fase miscible. Por cuyo eje horizontal representa las el contrario se dice que son inmiscibles proporciones relativas de los dos líquisi permanecen separados; por ejem- dos que constituyen la mezcla. plo, cuando se mezclan agua y aceite La característica fundamental de resultan dos líquidos diferenciados los diagramas de fases es una curva (uno de ellos es fundamentalmente conocida como curva de coexistencia. aceite y el otro fundamentalmente Los puntos situados por encima de ella agua), separados por un menisco. A representan mezclas miscibles; los esta coexistencia de dos líquidos la lla- situados por debajo, mezclas inmismaremos fase inmiscible. cibles. En consecuencia, cuando baja Ciertas mezclas binarias de líqui- la temperatura a la que se encuendos pueden ser miscibles o inmisci- tra una determinada mezcla, el punto
U
E
57
representativo de la misma desciende desde la región de las mezclas miscibles a la de las inmiscibles y la mezcla se vuelve inmiscible al enfriarse. La forma de la curva de coexistencia indica las composiciones exactas de los dos fluidos en los que se separa una mezcla inmiscible para una determinada temperatura. (Ninguno de ellos es absolutamente puro; ambos están compuestos por un predominio de uno de los líquidos puros y una pequeña cantidad del otro.) En esta curva existe un punto especial; se trata del punto en el que los líquidos situados por encima y por debajo del menisco tienen la misma concentración. Se le conoce como punto crítico; en él las fases miscible e inmiscible son indistinguibles. En los diagramas de fases de las mezclas que presentan el fenómeno de la reaparición, la curva de coexistencia adquiere la forma de una línea cerrada. Los puntos situados a la derecha y a la izquierda de este anillo representan mezclas que nunca se convertirán en inmiscibles, por mucho que descienda la temperatura. Las mezclas con concentraciones intermedias son miscibles a temperaturas elevadas y se convierten en inmiscibles cuando la temperatura disminuye lo suficiente como para que el punto representativo de la mezcla esté situado en el interior del anillo cerrado, volviendo a ser miscibles cuando el punto descienda por debajo de la parte inferior del anillo. Los diagramas de fases que contienen anillos cerrados poseen dos puntos críticos, llamados punto crítico superior e inferior, respectivamente.
FASE MISCIBLE
FASE MISCIBLE
PUNTO CRITICO SUPERIOR
CURVA DE COEXISTENCIA
PUNTO CRITICO FASE INMISCIBLE
A R U T A R E P M E T
A R U T A R E P M E T
PUNTO CRITICO INFERIOR FASE INMISCIBLE
100%
50%
0%
100%
50%
0%
0%
50%
100%
0%
50%
100%
CONCENTRACION
CONCENTRACION
2. DIAGRAMAS DE FASES que muestran si una mezcla de dos líquidos es miscible o inmiscible a cierta temperatura. El diagrama de la izquierda se puede aplicar a la mayoría de las mezclas. El eje horizontal representa las proporciones relativas de los ingredientes en la mezcla, mientras que el vertical corresponde a la temperatura. Si el punto indicativo de una mezcla est á situado por encima de la curva de coexistencia, la mezcla es miscible; si lo está por debajo, es inmiscible. La mezcla en cuestión se separa en dos líquidos cuyas concentraciones pueden determinarse representando los puntos para los que la línea correspondiente a la temperatura (línea horizontal de trazos discontinuos) corta la línea de coexistencia. Las mezclas que muestran el fenómeno de la reaparición de fases se representan mediante diagramas como el de la derecha, cuya curva de coexistencia forma un anillo cerrado. Cuando la temperatura de una mezcla miscible disminuye, la mezcla se hace primero inmiscible y luego vuelve a mezclarse.
L
os diagramas de fases representan el comportamiento de una mezcla a escala macroscópica. En otras palabras, muestran el comportamiento del líquido en su conjunto. Para comprender la razón de que tengan una forma determinada y, sobre
todo, para comprender por qué alguTodas las moléculas se atraen y se nos de ellos contienen anillos cerra- repelen entre sí debido a un influjo dos que originan la reaparición de conocido con el nombre de fuerza de una fase, es necesario tomar en con- Van der Waals. La fuerza de Van der sideración el comportamiento micros- Waals es de origen eléctrico, aunque cópico de las moléculas individuales afecte a los átomos y moléculas neude los líquidos. tros. Las cargas negativas que existen en el interior de una molécula están en el interior de una “nube” de 1. MISCIBILIDAD O INMISCIBILIDAD de dos líquidos: a t ravés de esa propiedad se electrones que rodea a los núcleos pone de manifiesto el grado de desorden que existe en las moléculas que los consti- atómicos cargados positivamente que tuyen. La fase inmiscible, o separada, parece estar más ordenada que la fase misci- constituyen el corazón de la moléble, u homogénea; en consecuencia, cabría esperar que dicha fase apareciera a bacula. La nube de electrones de una jas temperaturas. Hay sin embargo algunas mezclas, como las de esta figura, que se molécula puede desplazarse, es decir, separan al disminuir la temperatura para volver a mezclarse si sigue descendiendo, lo que pone de manifiesto la existencia de alguna clase de orden oculto en la fa- puede modificar su posición de forma se miscible que ha reaparecido. Los tubos de ensayo contienen diversas proporcio- tal que ya no esté centrada sobre nes de alcohol butílico (rosa) y agua. A 90 grados Celsius todas las mezclas son dichos núcleos. En tal caso, una parte miscibles. Cuando la temperatura disminuye a 70 grados, todas son inmiscibles. A de la molécula (la parte de su cora20 grados se han mezclado de nuevo por completo; en esto consiste la reaparición zón que no está totalmente rodeada de la fase miscible. A –20 grados, una de las mezclas (extremo de la izquierda) se ha por la nube de electrones) posee un solidificado y tres son miscibles, en tanto que dos de ellas (extremo de la derecha) exceso de carga positiva, mientras muestran la reaparición de una fase inmiscible. Los tubos que presentan una nube coloreada (las dos centrales a 88 grados y la tercera de la izquierda a 50 grados) es- que la otra (la parte de la nube de electán en puntos críticos, donde los dos líquidos que coexisten de la fase inmiscible son trones que está alejada de los núcleos) posee un exceso de carga negativa. idénticos y, por tanto, la fase inmiscible no se puede distinguir de la miscible. CALOR Y MOVIMIENTO
59
3. FUERZA DE VAN DER WAALS, que atrae a las moléculas entre sí. Suele ser más fuerte cuando las moléculas que se atraen son idénticas. Para distancias relativamente grandes (a), la nube de electrones de cada molécula puede desplazar su posición respecto a los núcleos que constituyen el corazón de la molécula. En tal caso, las moléculas poseen regiones con un exceso de carga negativa (donde la nube de electrones se ha alejado del corazón de la molécula) y regiones con un exceso de carga positiva (en las que el corazón de la molécula está cerca de los límites de la nube de electrones). El extremo positivamente cargado de una molécula resulta atraído por el extremo negativamente cargado de la otra y las moléculas tienden a unirse. Cuando las moléculas están más próximas
(b), el desplazamiento de las nubes de electrones es mayor y, por tanto, la atracción es más fuerte. (El desplazamiento no es estático, las posiciones de las nubes de electrones fluctúan cuando las moléculas se agitan.) La intensidad de la fuerza de Van der Waals de largo alcance viene a ser la misma, au nque las moléculas no sean idénticas (c). Sin embargo, para distancias pequeñas (d), las nubes de las moléculas diferentes no se suelen desplazar tanto como las de las moléculas ig uales y, en consecuencia, la fuerza no es tan int ensa como la que atrae a moléculas idénticas próximas entre sí. Desde el punto de vista energético, resulta favorable que las mezclas tiendan a separarse a fin de que las moléculas próximas sean, en general, idénticas.
Cuando dos moléculas están próxi- rentes suele ser mucho más débil que mas, sus nubes de electrones resultan entre moléculas iguales. La energía desplazadas y el exceso de carga posi- de un par de moléculas que se mantiva de una de ellas queda atraído por tengan unidas por una fuerza intensa el exceso de carga negativa de la otra; suele ser menor que la de otro par en consecuencia, las dos moléculas se unido por una fuerza débil; se neceatraen mutuamente. El desplaza- sita una energía mayor para separar miento de las nubes de electrones no a las moléculas más unidas. La eneres estático, sino que fluctúa rápida- gía de un par de moléculas iguales mente mientras las moléculas se mue- que estén próximas es a menudo ven y giran al azar. Cuando una molé- mucho menor que la de otro formado cula se mueve en dirección a otra, las por moléculas diferentes. nubes de electrones respectivas se desEste hecho experimental permite plazan todavía más, aumentando la empezar a comprender los diagramas intensidad de la fuerza atractiva. de fases. A consecuencia de la fuerza Pero las moléculas se atraen hasta de Van der Waals, la energía de una un cierto límite. Cuando dos de ellas mezcla de dos líquidos es mínima están lo suficientemente próximas cuando la mayoría de las moléculas como para que sus nubes electrónicas vecinas de una molécula determinada se empiecen a solapar, los electrones son de la misma naturaleza que ella. de una repelen a los de la otra, al Por tanto, en términos energéticos, igual que sucede con los núcleos, de la situación más favorable se premanera que las moléculas se man- senta cuando todas las moléculas de tienen separadas. un tipo dado se agrupan entre sí. Es La intensidad de la interacción de evidente que ésta es una descripción Van der Waals varía generalmente de la fase inmiscible. según la naturaleza química de las Pero las consideraciones energéticorrespondientes moléculas. La fuer- cas no bastan por sí solas para comza atractiva entre moléculas dife- prender el comportamiento de un sis60
tema físico. Por ejemplo, ¿por qué son miscibles las mezclas binarias —aunque sea a temperaturas elevadas— si al mezclar dos líquidos aumenta la energía de la mezcla? La respuesta a esta pregunta hay que buscarla en otro aspecto de la termodinámica, tan importante como la energía: la entropía. En términos simples, la entropía de un sistema físico proporciona una medida del desorden de dicho sistema.
L
a explicación del hecho de que las mezclas se hagan miscibles a temperaturas elevadas radica en un principio fundamental de la termodinámica: todo sistema tiende a minimizar, no su energía, sino el valor de una magnitud conocida como energía libre. La energía libre de un sistema es igual a la energía de dicho sistema menos el producto de su temperatura por su entropía. Para una temperatura dada, la energía libre se puede rebajar disminuyendo la energía del sistema o aumentando su entropía. Cuando la temperatura de un sistema es baja, el cambio de su entropía afecta muy poco a su energía TEMAS 16
libre (debido a que la magnitud significativa es el producto de la temperatura por la entropía). En consecuencia, para temperaturas bajas, el agotamiento de la energía libre equi vale prácticamente a la minimización de la energía. Por el contrario, a temperaturas elevadas, incluso un pequeño cambio en la entropía tiene un efecto importante sobre la energía libre y por tanto los sistemas tienden a maximizar su entropía en este caso. Las mezclas binarias de líquidos se tornan inmiscibles a bajas temperaturas porque cae su energía; a altas temperaturas se hacen miscibles por el aumento de su entropía. (Una mezcla miscible posee lo que podría denominarse entropía de composición: las dos clases de moléculas están distribuidas al azar.) Todo sistema físico presenta una situación de compromiso entre la energía total más baja y la entropía total más alta. Esta competencia entre energía baja y entropía alta explica la formación y la e stabilidad de las diferentes fases de la materia. La energía libre es el árbitro que determina, en última instancia, la naturaleza de la fase de equilibrio.
L
os conceptos de energía y de entropía permiten describir las propiedades microscópicas de los diagramas de fases ordinarios, en los que las mezclas son miscibles a temperaturas elevadas y no miscibles a temperaturas bajas. ¿Cómo explican estos conceptos el fenómeno de la reaparición de fases? Dado que la influencia de la entropía es menor al disminuir la temperatura, parece fuera de lugar que una mezcla se vuelva miscible a temperaturas bajas aumentando su entropía. La misma existencia del fenómeno de la reaparición de fases pone de manifiesto que la imagen microscópica del sistema que hemos descrito anteriormente es incompleta. ¿Qué falta? La respuesta fue propuesta en 1937 por Joseph O. Hirschfelder, David Stevenson y Henry Eyring y se basa en la existencia de un influjo molecular conocido como enlace de hidrógeno: fuerzas atractivas entre moléculas que, en ocasiones, pueden llegar a ser más fuertes que las de Van der Waals, aunque sean siempre considerablemente más débiles que los enlaces que unen a los átomos para formar las moléculas. Al contrario que las fuerzas de Van der Waals, que afectan a todas las moléculas, los enlaces de hidrógeno no pueden formarse más que con determinadas clases de moléculas. Surgen cuando el núcleo de un átomo de hidrógeno de una molécula se CALOR Y MOVIMIENTO
4. EL ENLACE DE HIDROGENO mantiene unidas a las moléculas en una orientación determinada. En un enlace de hidrógeno (arriba), el núcleo de un átomo de hidrógeno de una molécula resulta atraído por un lóbulo de electrones no compartidos de un átomo electronegativo de otra. (El lóbulo es una región donde existen electrones que no participan en los enlaces que mantienen unida a la segunda molécula.) Si las moléculas no están orientadas de forma tal que el hidrógeno pueda alinearse con el lóbulo (abajo), no se unirán.
separa parcialmente de su electrón molécula dada fuera una molécula a causa de la influencia de un átomo diferente. Si predominara el enlace electronegativo (por ejemplo, de un de hidrógeno entre moléculas difeátomo de oxígeno) que forme parte de rentes, la entropía de la mezcla la misma molécula. En tal caso, el aumentaría y se obtendría una fase núcleo de hidrógeno resulta atraído miscible. En consecuencia, se podría por los electrones de un átomo elec- pensar que el enlace de hidrógeno se tronegativo de una molécula próxima. produciría a temperaturas elevadas, Los dos átomos electronegativos com- es decir, cuando la entropía es eleparten en cierto sentido el mismo vada. De hecho sucede exactamente núcleo de hidrógeno y las moléculas lo contrario: el enlace de hidrógeno en cuestión quedan enlazadas. se produce fundamentalmente a bajas temperaturas. ¿Por qué? l igual que la fuerza atractiva de La razón estriba en la existencia Va n de r Wa al s, el en la ce de de un efecto sutil del enlace de hidróhidrógeno disminuye la energía del geno por el que se reduce en realidad sistema, debido a que la energía de la entropía de un sistema, en vez d e las moléculas enlazadas es menor aumentarla. Dos moléculas pueden que la de las libres. ¿Qué sucede con formar un enlace de hidrógeno únila entropía? Supongamos que, en camente en el caso de que una de ellas cierta mezcla, no puedan formar un posea cierta orientación respecto a la enlace de hidrógeno más que las molé- otra, permitiendo que el núcleo de culas diferentes. El enlace de hidró- hidrógeno de una se alinee con los geno exigiría entonces que una de electrones del átomo electronegativo las vecinas más próximas de una de la otra. La dispersión angular de
A
61
los enlaces de hidrógeno es tan sólo geno tiene un efecto importante sobre de 10 grados habitualmente; en otras la energía libre del sistema, mientras palabras, si la orientación relativa que las consecuencias de la disminude las dos moléculas enlazadas varía ción de la entropía son pequeñas. Por en más de 10 grados, el enlace se tanto, los enlaces de hidrógeno son terrompe. Los enlaces de hidrógeno se modinámicamente estables a temperompen con facilidad; ahora bien, raturas bajas. Por otra parte, el papel mientras perduran, mantienen a las de la entropía para temperaturas elemoléculas engarzadas en una única vadas adquiere mayor importancia, orientación relativa. Las moléculas caso en el que la entropía baja de un que no poseen enlaces de hidrógeno enlace de hidrógeno tiene un efecto pueden girar libremente sobre sí mis- grande y desfavorable sobre la enermas y tomar cualquier orientación. gía libre y los enlaces de hidrógeno En consecuencia, estas moléculas tienden a no formarse. poseen una “entropía de orientación” elevada, en tanto que las moléculas hora ya podemos explicar el fenócon enlaces de hidrógeno poseen una meno de la reaparición de fases entropía de orientación muy baja. en términos de los procesos microsLa entropía de orientación que se cópicos subyacentes. Para temperapierde al formar un enlace de hidró- turas altas, la mezcla es miscible y geno entre moléculas diferentes es la entropía es elevada. Las molécumucho mayor que la entropía de com- las componentes se mezclan al azar posición que se gana. En consecuen- (lo que confiere a la mezcla una entrocia, el efecto del enlace de hidrógeno pía de composición alta) y están orienentre moléculas diferentes consiste tadas al azar (lo que la confiere una en disminuir la energía total del sis- entropía de orientación alta). Cuando tema y, al mismo tiempo, reducir la la temperatura disminuye, la imporentropía total (suma de las entropías tancia de la energía aumenta. La disde composición y de orientación). minución de energía asociada con la Cuando el sistema se encuentra a tem- atracción de Van der Waals acaba peraturas bajas, la disminución de la por tener un efecto más importante energía que produce el enlace de hidró- sobre la energía libre que la entro-
A
a
A R U T A R E P M E T
c
R O I O O R C T I E T I P N R U U P C S
R O O T C O I I N T R I U E R P F C N I
N O I C I S O P M O C E D
N O I C A T N E I R O E D
L A T O T
A I P O R T N E
A R U T A R E P M E T
R O I O O R C T I E T I P N R U U P C S
R O O T C O I I N T R I U E R P F C N I
5. ENTROPIA de una mezcla. Dicho desorden disminuye cuando la temperatura desciende, incluso en el caso de que la mezcla tenga una fase miscible que reaparezca. Para temperaturas altas (a), las moléculas están totalmente mezcladas, lo cual da como resultado cierta “entropía de composición”. Estas moléculas están también mutuamente orientadas al azar, lo cual conduce a una “entropía de orientación” elevada. Para temperaturas intermedias (b), la mezcla es inmiscible y las moléculas componentes se separan; en consecuencia, la entropía
62
pía de composición. En consecuencia, la mezcla se hace inmiscible: las moléculas tienden a disminuir la energía agrupándose con otras moléculas iguales a ellas, en lugar de e levar la entropía al mezclarse con moléculas diferentes. Si la temperatura de la mezcla sigue disminuyendo en la fase inmiscible, surge otro efecto combinado entre la energía y la entropía. En este caso se trata de una interrelación entre la entropía de orientación de la fase inmiscible y la disminución de energía que produce el enlace de hidrógeno. La temperatura acaba por caer hasta que la pequeña energía del enlace de hidrógeno predomina sobre la energía libre del sistema, temperatura a la que la mezcla se hace miscible de nuevo con las mismas propiedades macroscópicas que la mezcla miscible de altas temperaturas. La fase miscible ha reaparecido. ¿Para qué intervalo de temperaturas y de concentraciones permanecerá inmiscible la mezcla antes de que reaparezca la fase miscible? En otras palabras, ¿cuál es el tamaño del anillo cerrado del diagrama de fase y qué forma tiene? En el curso de nuestro propio trabajo hemos desa-
N O I C I S O P M O C E D
N O I C A T N E I R O E D
L A T O T
A I P O R T N E
A R U T A R E P M E T
R O I O O R C T I E T I P N R U U P C S
R O O T C O I I N T R I U E R P F C N I
N O I C I S O P M O C E D
N O I C A T N E I R O E D
L A T O T
A I P O R T N E
de composición disminuye. Para temperaturas bajas (c), muchas moléculas diferentes se hallan unidas entre sí por enlaces de hidrógeno en la fase miscible que reaparece. Por tanto, la entropía de composición aumenta, pero la entropía de orientación disminuye considerablemente debido a que las moléculas unidas por enlaces de hidrógeno se mantienen en una orientación relativa única. Incluso en el caso de que las moléculas de la fase que reaparece estén mezcladas, la entropía total resultará menor que en la fase inmiscible.
TEMAS 16
rrollado una teoría para determinar la dependencia de los tamaños y formas de los anillos cerrados con las diferentes variables experimentales. Un parámetro que reviste particular interés es la intensidad del enlace de hidrógeno o, dicho de otro modo, la cantidad en que disminuye la energía de dos moléculas cuando forman parte de un enlace de hidrógeno. Cuando el enlace de hidrógeno es infinitamente débil, es decir, cuando las moléculas de los dos líquidos presentes en la mezcla no forman enlaces de hidrógeno en absoluto, no se producirá la reaparición de la fase miscible. Un ejemplo de este caso lo tenemos en la mezcla de glicerina y de metil-etil-cetona, que se une muy débilmente con enlaces de hidrógeno y que no muestra la reaparición de fase. ¿Qué sucede en los casos en que el enlace de hidrógeno es más fuerte? Cálculos basados en nuestra teoría nos han permitido alcanzar un buen acuerdo cuantitativo con los diagramas de fases para tres sistemas experimentales que estaban entre las muestras originales de Basil McEwen. Siguiendo un orden creciente en la intensidad del enlace de hidrógeno, los sistemas son glicerina mezclada con benciletilamina, glicerina mezclada con m-toluidina y glicerina mezclada con guayacol. (En este último caso tiene que añadirse también una pequeña cantidad de agua para debilitar el enlace de hidrógeno entre la glicerina y el guayacol que, de lo contrario, se enlazarían entre sí tan fuertemente que la mezcla nunca se vol vería inmiscible.) El anillo cerrado se hace paulatinamente más pequeño a medida que la intensidad del enlace de hidrógeno aumenta. Esto es intuitivamente razonable; cuando más fuerte sea el enlace de hidrógeno, más pronto tendrá la energía suficiente para que la mezcla pierda la entropía de orientación por su causa. Estas diversas mezclas presentan diferencias muy acusadas entre sí. La de glicerina y metil-etil-cetona no posee en absoluto anillo cerrado, mientras que las demás presentan anillos que difieren considerablemente en tamaño y forma, a pesar de lo cual todos estos casos se pueden representar conjuntamente en un solo diagrama de fase tridimensional, conocido con el nombre de diagrama de fase global.
A
l igual que en los diagramas de fases bidimensionales ordinarios, el eje vertical de un diagrama de fase global representa la temperatura y uno de los ejes horizontales representa la concentración relativa CALOR Y MOVIMIENTO
de los dos líquidos de la mezcla. El tercer eje representa la intensidad del enlace de hidrógeno. El diagrama de fases tridimensional tiene una forma parecida a la sección de la proa de un avión a reacción. En la región en la que el enlace de hidrógeno es débil, el diagrama semeja una cúpula sin base y representa los sistemas en los que el enlace de hidrógeno es demasiado débil para dar lugar a la reaparición de la fase inmiscible. A medida que aumenta la intensidad del enlace de hidrógeno, la base de la cúpula se cierra, hasta formar un anillo; este anillo se contrae a medida que el enlace se hace más fuerte. Cuando la intensidad del enlace es muy elevada, el anillo de inmiscibilidad se contrae hasta desaparecer por completo; a partir de ese punto, los sistemas son siempre miscibles, cualesquiera que sean las proporciones de los ingredientes. El anillo no sólo cambia de tamaño, sino también de forma, desde una región en la que posee una parte superior curva y una parte inferior plana (para intensidades de enlace bajas) hasta
regiones en las que la parte superior e inferior son virtualmente imágenes especulares la una de la otra. Cualquier “corte”, o sección transversal, de esta estructura tridimensional es un diagrama de fases que describe el comportamiento de una mezcla en particular. Para comprobar este modelo experimentalmente, se provoca un pequeño cambio en la intensidad del enlace de un sistema determinado y se observan los cambios que se producen en el diagrama de fases del sistema en cuestión. A continuación puede compararse el nuevo diagrama de fases con la sección del diagrama de fases global que corresponda a la nueva intensidad de enlace. Una forma de cambiar la intensidad del enlace de una mezcla consiste, simplemente, en cambiar uno de los componentes líquidos: pares diferentes de moléculas componentes se enlazan con intensidades diferentes. Una forma más precisa de cambiar la intensidad del enlace, que elimina las complicaciones propias del cambio de naturaleza química de la
6. ESTE DIAGRAMA DE FASES GLOBAL muestra la forma en que los diagramas de fases de las mezclas binarias de líquidos dependen de la intensidad de los enlaces de hidrógeno que se forman entre moléculas diferentes. Cada “corte” transversal del diagrama de fases global representa el diagrama de fases de una mezcla con una intensidad del enlace de hidrógeno diferente. Cuando los enlaces de hidrógeno son débiles (extremo derecho ), la mezcla tiene el típico diagrama de fases con forma de cúpula que indica la inexistencia de la reaparición de fase. Cuando los enlaces son más fuertes (centro e izquierda), la región que representa la fase inmiscible se cierra para formar un anillo y la mezcla presenta el fenómeno de la reaparición de fase.
63
7. LA REAPARICION DE DOS FASES se puede producir cuando las moléculas iguales y las diferentes forman enlaces de hidrógeno, tal como pone de manifiesto este diagrama de fases. La intensidad de los enlaces de hidrógeno entre moléculas ig uales es en él constante, mientras que la de los que se dan entre moléculas diferentes varía. Cuando los enlaces de hidrógeno entre moléculas diferentes son débiles (derecha), el diagrama de fase de la mezcla tiene la forma habitual de cúpula. Cuando la intensidad de los enlaces aumenta, la región que representa la fase inmiscible se contrae un tanto, para terminar desdoblándose en regiones distintas. En consecuencia, cuando la temperatura de la mezcla disminuye, la mezcla es primero miscible, luego inmiscible, a continuación miscible y termina siendo inmiscible. Las moléculas iguales están unidas entre sí por enlaces de hidrógeno en la última fase inmiscible, disminuyendo tanto la entropía de composición como la de orientación. El corte situado más a la izquierda representa el diagrama de fases de las mezclas de alcohol butílico y agua que se representan en la figura 1.
mezcla, consiste en modificar la presión ejercida sobre el sistema. La mayoría de las experiencias se lle van a cabo a presión atmosférica; pero si, por ejemplo, la presión aumenta, las moléculas se verán forzadas a unirse más estrechamente. Como norma general, la unión entre dos moléculas por enlace de hidrógeno es más fuerte cuando dichas moléculas se encuentran más próximas. En consecuencia, el aumento de presión produce un enlace de hidrógeno más fuerte y da lugar a una contracción del anillo de inmiscibilidad del diagrama de fases. Para presiones suficientemente altas, el anillo desaparece y la mezcla se torna miscible a cualquier temperatura. Otra forma de alterar la intensidad del enlace consiste en añadir una pequeña cantidad de un tercer componente que sea miscible con la mezcla binaria. (Si sólo se añade una pequeña cantidad de este tercer lí64
quido, la mezcla se comporta todavía en muchos aspectos como una mezcla binaria.) Como ya hemos mencionado anteriormente, cuando se añade agua a una mezcla de glicerina y guayacol, la intensidad del enlace disminuye. Esto sucede debido a que una parte del guayacol se enlaza con el agua, en vez de hacerlo con la glicerina, con lo cual disminuye el influjo de enlace promedio entre el guayacol y la glicerina y se produce la aparición de la fase inmiscible.
C
on este sistema de guayacol, glicerina y agua puede llevarse a cabo una experiencia particularmente interesante. Consiste en cambiar la intensidad del enlace de suerte tal que el anillo de inmiscibilidad llegue a desaparecer. Cuando esto ocurre, los puntos críticos superior e inferior se unen; en otras palabras, la temperatura a la que la mezcla se hace inmiscible es exactamente la misma misma
que aquella a la que vuelve a ser miscible. La unión de los puntos críticos superior e inferior forma lo que se conoce por punto crítico doble. Una mezcla que se halle en un punto p unto crítico doble posee algunas propiedades singulares. Una de tales propiedades se refiere a los exponentes críticos. Estos entes matemáticos indican la velocidad a la que se produce una determinada transición de fase cuando varía un parámetro externo como la temperatura o la presión [véase “Problemas físicos con muchas escalas de longitud”, por Kenneth G. Wilson; INVESTIGACIÓN NVESTIGACIÓN Y CIENCIA ; octubre de 1979]. El hecho más destacable de los exponentes críticos es que se trata de constantes universales. Por ejemplo, el valor de los exponentes críticos que describen la cuantía en la que una mezcla se hace inmiscible al variar la temperatura en las proximidades del punto crítico es el mismo para todas las mezclas binarias líquidas. Los exponentes críticos que describen muchos otros tipos de transiciones de fase son además idénticos a los que describen las transiciones de miscibilidad-inmiscibilidad. miscibilidad-inmiscib ilidad. Por ejemplo, los mismos valores numéricos de los exponentes críticos que describen la transición de la miscibilidad a la inmiscibilidad dan cuenta también de la forma en que tiene lugar cualquier transición entre la fase líquida y la gaseosa en el punto crítico de esta transición. Los valores que ciertos exponentes críticos adoptan en los puntos críticos dobles son exactamente el doble de sus valores normales. Este resultado se predijo y se comprobó independientemente por dos grupos experimentales: los formados por Roger G. Johnston, Noel A. Clark, Pierre Wiltzius y David S. Cannell y por G. A. Larsen y Christopher M. Sorensen. Ambos realizaron la confirmación estudiando la dispersión de la luz en ciertas mezclas líquidas cuyas intensidad del enlace de hidrógeno, temperatura y composición eran las adecuadas para producir un punto crítico doble. Aunque Aun que estos esto s experi exp eriment mentos os sean sea n muy interesantes, no agotan todas las posibilidades de la reaparición de fases en las mezclas binarias. Supongamos que dos moléculas iguales puedan unirse por enlace de hidrógeno, de la misma forma en que lo hacen dos moléculas diferentes. (Así una molécula de agua no sólo puede unirse por enlace de hidrógeno con otra de alcohol butílico en una mezcla de ambos, sino que también puede hacerlo con otra molécula de agua.) Supongamos, además, que la energía de un par de molécuTEMAS 16
las iguales enlazadas sea menor que la de un par de moléculas diferentes. En este caso habrá dos reapariciones de fase. A temperaturas altas, la mezcla sería miscible. Al descender la temperatura, la mezcla se volvería inmiscible. Si la temperatura disminuyera todavía más, la mezcla volvería a ser miscible y finalmente, para temperaturas muy bajas, volvería a ser inmiscible. En esta segunda fase inmiscible, las moléculas iguales estarían unidas entre sí por enlaces de hidrógeno y perderían su entropía de composición y de orientación para disminuir la energía. Los datos aportados por la experimentación indican que la manipulación de ciertas mezclas podría dotarlas de propiedades todavía más raras. Supongamos que una de las moléculas de la mezcla fuese capaz de formar dos enlaces de hidrógeno a la vez. vez . El diagra dia grama ma de fases fa ses de la l a mezcla podría tener entonces varios anillos cerrados. Puede así imaginarse una mezcla que poseyera hasta cinco puntos críticos, alternando repetidamente entre la miscibilidad y la inmiscibilidad a medida que la temperatura disminuyera.
E
n este artículo nos hemos ocupado del fenómeno de la reaparición de fases en mezclas binarias de líquidos, el medio en el que este fenómeno se descubrió. Existen también numerosos ejemplos del mismo fenómeno en otros tipos de sistemas. Uno de ellos se encuentra en la superconductividad. Ciertos metales pueden estar en fase normal o en fase superconductora. En la fase normal, se comportan como cualquier otro conductor: ofrecen una resistencia finita al paso de una corriente eléctrica. Sin embargo, cuando la temperatura es muy baja, estos metales pierden de repente toda su resistencia al paso de la electricidad y se vuelven superconductores. La fase superconductora se debe a cierto tipo de orden de largo alcance (conocido por apareamiento de Cooper) entre los electrones del metal. En consecuencia, la fase superconductora está más ordenada que la fase normal que se pone de manifiesto manifiesto a altas temperaturas. Pero G. Riblet y K. Winzer descubrieron en 1971 que hay superconductores que, enfriados a temperaturas todavía más bajas, vuelven a convertirse en conductores normales. Otra clase de reaparición de fases se encuentra en las monocapas adsorbidas, que son capas sencillas de moléculas formadas sobre la superficie de un sólido. Las moléculas adsorbidas se pueden mover con relativa libertad CALOR Y MOVIMIENTO
por la superficie del sólido, pero la existencia de una intensa fuerza atractiva les impide abandonarla. Los sistemas adsorbidos se comportan como si fueran bidimensionales, pero poseen fases que son análogas, en muchos sentidos, a los gases, líquidos y sólidos tridimensionales. Cuando el gas noble criptón se adsorbe en grafito, forma una fase líquida bidimensional a unos 130 grados Kelvin (130 grados Celsius por encima del cero absoluto). Este líquido solidifica y da lugar a un cristal bidimensional cuando se enfría a unos 125 grados Kelvin, fundiendo de nuevo y formando una fase líquida a unos 120 grados. Dado que la reaparición de fases es un fenómeno que se produce en gran número de sistemas, es natural que los mecanismos microscópicos subyacentes sean bastante diferentes, a pesar de lo cual en todos estos ejemplos se da un rasgo común: los cambios de fase se producen en virtud de la competencia entre energía y entropía; la reaparición de fases pone de manifiesto la existencia de interacciones que disminuyen la entropía de alguna forma “oculta” y, al mismo tiempo, disminuyen la energía del sistema como un todo. Las mezclas binarias de líquidos constituyen un medio particularmente bueno para estudiar la termodinámica de la reaparición de fases. Las temperaturas necesarias son accesibles y resulta bastante fácil la manipulación de diversos parámetros para comprobar los métodos y descripciones teóricos, los cuales pueden aplicarse posteriormente a otros campos en los que el estudio experimental del fenómeno de la reaparición de fases sea mucho más difícil.
BIBLIOGRAFIA COMPLEMENTARIA HEORY Y OF BINARY FLUID MIXLATTICE THEOR TURES: PHASE DIAGRAM IAGRAMS S WITH WITH UPPER AND LOWER CRITICAL POINTSFROMA OINTSFROMA RENORMALIZATION GROUP CALCULATION . James S. Walker y Chester A. Vause en The Journal of Chemical Physics, vol. 79, n.o 6, págs. 2660-2676; 15 de septiembre de 1983. CRITICAL BEHAVIOR NEAR A VANISHING MISCIBILITY GAP. Roger G. Johnston, Noel A. Clark, Pierre Wiltzius y David S. Cannell en Physical Review Letters, vol. 54, n.o 1, págs. 49-52; 7 de enero de 1985. SHEAR -V ISCOSITY BE HA HA VI VI OR OR N EA EA R T HE HE DOUBLE CRITICAL POINT OINT OF THE THE MIXTURE 3-M ETHYSPYRIDINE , WATER, AND HEAVY WATER. G. A. Larsen y C. M. Sorensen en Physical Review Letters, vol. 54, n.o 4, págs. 343-345; 28 de enero de 1985.
65
Cuando los puntos de fusión y de solidificación no son el mismo R. Stephen Berry
Los agregados atómicos ofrecen pistas para entender los fenómenos de solidificación y de fusión, pues pueden coexistir en las fases sólida y líquida
C asi todos los sólidos tienen un adoptar muchas formas estables número variable de átomos o molépunto de fusión y casi todos diferentes diferentes —un icosaedro de 55 áto- culas que contienen, sino también en los líquidos uno de solidificación. solidificación. mos o un “balón de fútbol” de 60 áto- el número de ellos que residen en la Ambos puntos coinciden, coincide n, vistos desde mos—, podrían condensarse formando superficie. Sólo una pequeña fracción dos perspectivas diferentes: el hielo sólidos distintos de los conocidos. Los de los átomos de un sistema macroscófunde a cero grados centígrados, la investigadores en ciencia de mate- pico se encuentran en su superficie, mayor temperatura a la que puede riales esperan poder diseñar mate- mientras que en los agregados la fracser sólido estable, mientras que el riales cuyas propiedades microe- ción puede ser muy grande. Así, por agua se congela a cero grados, la lectrónicas, mecánicas o catalíticas ejemplo, puede decirse que 42 de los menor temperatura a la que puede estén determinadas de antemano. átomos de argón de un agregado que ser líquido estable. ¿Puede haber algo tenga 55 se ubican de alguna manera esde los tiempos del científico en la superficie. más sencillo? Pero las apariencias a veces inglés John Dalton, a comienEl fundamento teórico de la disengañan. Los microagregados de áto- zos del siglo XI X , cuando la teoría paridad entre los puntos de fusión y mos y de moléculas están ofreciendo atómica comenzó a recibir general de solidificación se encaja dentro de nuevas pistas para entender mejor los aceptación, el estudio del compor- varios vari os concepto conc epto s y, y , m uy en particupart icupuntos de fusión y de solidificación. tamiento de la materia se realiza en lar, en el denominado pozo de potenEstos agregados consisten en grugru - dos campos. La investigación que cial. Es ésta una idea general que pos de átomos y de moléculas, cuyo pudiéramos llamar reduccionista se proviene de nuestra experiencia cotinúmero puede estar comprendido centra en las propiedades de átomos diana de vivir bajo la acción de la graentre unos cuatro o cinco y unos cien y moléculas. Este enfoque condujo, vedad. veda d. Pens emos en e n las coli nas y los o doscientos, y pueden coexistir como en los años treinta del siglo XX , a la valles vall es del relieve reli eve terre t erre stre. stre . El fondo fo ndo sólidos y líquidos dentro de cierto física nuclear y a la física de partí- de un valle, o pozo, corresponde al rango de temperaturas y presentar culas. Otros investigadores se han punto en el que un objeto pesado, puntos de fusión y de solidificación ocupado de la materia macroscópica sometido a la gravedad, tiene la diferentes. y ponen el acento en las propieda- energía potencial mínima. Un balón El carácter especial de los agrega- des de grandes aglomeraciones de rueda cuesta abajo hasta el fondo y dos ha empujado a los investigado- átomos y moléculas. Los agregados, allí permanece. Una fuerza atrae o res, entre los que me incluyo, a explo- sin embargo, tienden un puente que repele a un objeto en la dirección que rar los secretos de sus puntos de fusión vin cul a am bas áre as d e tr aba jo. Su reduce su energía potencial. y de solidificación. Los agregados son exploración tuvo que esperar el desaUna molécula o un agregado en mayores que las moléculas indivi- rrollo de técnicas experimentales y equilibrio también se encuentran en duales, pero menores que los mate- teóricas adecuadas, con las que no el fondo de un pozo de potencial, aunriales macroscópicos, que pueden con- se contó más que a partir de los años que en este caso sean fuerzas de tipo siderarse formados por un número setenta. eléctrico y no gravitatorio las que, infinito de átomos; tal es la razón de A diferencia de las moléculas, carac- mediante atracciones y repulsiones, que exhiban propiedades típicas de amam - terizadas por composiciones defini- reduzcan su energía potencial. Se dan bos límites. Debido a su tamaño inin - das y, casi siempre, por estructuras fuerzas atractivas entre los e lectrotermedio, pueden abordarse casi con también definidas, los agregados no nes y los protones de los átomos consla precisión de sus átomos y molécu- están sujetos a esas restricciones. Un tituyentes y fuerzas repulsivas entre las constituyentes, al tiempo que agregado de átomos de silicio, por partículas de la misma especie. El muestran ciertas características de ejemplo, puede contener tres, diez o balance entre los dos tipos de fuerlos materiales macroscópicos. macroscópicos. cien átomos. La mayoría de los agre- zas determina el tamaño de los átoLos agregados atómicos podrían gados puede adoptar además múlti- mos, que son las distancias a las que emplearse en el futuro para la fabri- ples estructuras estables, unas más los átomos chocan unos con otros. Los cación de nuevos materiales y para estables que otras. átomos no poseen la dureza de las la puesta en práctica de nuevas reacLos agregados difieren de los mate- bolas de billar, ni siquiera la de las ciones químicas. Dado que pueden pueden riales macroscópicos no sólo en el pelotas de tenis; no andaríamos muy
D
66
TEMAS 16
lejos de la verdad si dijéramos que tienen la blandura de una almohadilla bajo el pulgar de nuestra mano. El potencial de interacción entre dos átomos que formen un enlace presenta un valor constante cuando están alejados. Al acercarse, el potencial decrece debido a las fuerzas atracti vas electrón-protón y, por debajo de cierta distancia de separación, crece súbitamente. Aunque es relativamente fácil generalizar el concepto de pozo de potencial para representar el influjo mutuo de tres o más átomos, dibujarlo es difícil, porque tiene muchas dimensiones. En otras palabras, el pozo depende de demasiadas variables indepe ndientes co mo pa ra representarlo en un papel e incluso en un modelo tridimensional. Pero la terminología y las imágenes asociadas a la noción de pozo de potencial siguen siendo útiles en el caso de varios átomos.
H
asta aquí hemos descrito los agregados en términos de la mecánica clásica. Pero el mundo real se caracteriza mejor a través de la mecánica cuántica. La diferencia más importante entre ambas consiste en la cuantización de las energías permitidas a un agregado. Clásicamente, desde luego, un agregado que se encuentre en un pozo de potencial puede tener cualquier energía, mientras que según la mecánica cuántica su energía está restringida a una serie discreta de niveles. Los niveles de energía forman una suerte de escalera irregular en el pozo de potencial. La diferencia de alturas de los escalones o niveles cuantizados de energía de esta escalera es responsable, en buena medida, de que los puntos de fusión y de solidificación no coincidan: un pozo profundo y estrecho tiene unos escalones altos, mientras que los niveles de un pozo ancho están próximos. Los pozos pueden ser estrechos y profundos en el centro, pero se ensanchan hacia sus extremos, caso en el que los niveles de baja energía se hallan separados, mientras que los de energías altas están próximos. Los pozos profundos caracterizan a los agregados sólidos. Estos experimentan vibraciones atómicas y pueden rotar a la manera de los modelos moleculares de bolas y barras. Los 1. AGREGADOS de 19 átomos de argón. Pueden existir en estado sólido ( arriba) o líquido (abajo). Los agregados sólidos presentan vibraciones rígidas y temblorosas, mientras que los líquidos carecen de estructura geométrica definida y se reordenan fácilmente.
C ALOR Y MOVIMIENTO 67
2. POZO DE POTENCIAL, un concepto útil para la descripción del comportamiento de los agregados. Podemos imaginarnos una molécula o agregado en equilibrio como si estuviera ocupando el fondo de un pozo de potencial, cual una bola que descansa en el fondo de un valle y permanece estacionaria. Para la mecánica clásica, un agregado puede adquirir cualquier energía dentro de su pozo de potencial; en mecánica cuántica, la energía está restringida a una serie discreta de niveles (planos horizontales) que forman los peldaño s de una especie de escalera irregular. Los pozos profundos y empinados tienen niveles de energía espaciados; en ellos residen los agregados sólidos. Los pozos anchos y someros poseen niveles de energía próximos entre sí; albergan a los agregados líquidos.
pozos de potencial suaves y ondulantes corresponden a los agregados líquidos, los cuales no poseen una estructura geométrica definida sino que cambian de forma fácilmente. El espaciado de los niveles de energía de los agregados sólidos es grande; en los agregados líquidos, la distribución de niveles de energía es densa. La situación más favorable para que los puntos de fusión y de solidificación no coincidan es aquella en que los valles estrechos y profundos del potencial están separados de sus sierras anchas y ondulantes por puertos moderadamente altos o inaccesibles. El último concepto que se necesita para explicar la disparidad de los puntos de fusión y de solidificación es el de energía libre de los agregados. Por energía libre se entiende la energía del sistema, en este caso un conjunto de moléculas, menos el producto de su temperatura y su entropía o desorden. El agregado cambia de estado para rebajar su energía libre minimizando su energía, maximizando su entropía o combinando ambos procedimientos. La materia tiende a tener poca energía y mucha entropía. Imaginemos ahora una colección de agregados mantenidos a una temperatura suficientemente baja como para que todos ellos se hallen en estado sólido. A esa temperatura la entropía de cada agregado es pequeña, ya que los niveles se encuentran muy separados y sólo están ocupados unos
68
pocos. La escasa energía provoca que en este caso la energía libre de cada agregado sea mínima. Supongamos un ligero aumento de temperatura. Ahora cada agregado tiene acceso a niveles de energía superiores —que es una forma de aumentar la entropía—, lo que conduce a una disminución de su energía libre. Pero si el incremento térmico fuese muy pequeño, la entropía que se ganase ocupando niveles de energía superior se contrarrestaría con la que se ahorraría permaneciendo en los niveles más bajos. Y así los agregados permanecerían en fase sólida, aventurándose ocasionalmente por los estados de la gama de energías más separadas.
A
umentando más aún la temperatura, cada agregado iría teniendo más acceso a los niveles de energía de la fase líquida, niveles que están más densamente distribuidos cuanto más alta sea la energía. En consecuencia, el desorden asociado a un agregado individual crece enormemente cuando ocupa esos niveles. Esta vez la notable ganancia de entropía bastaría para contrarrestar la energía invertida en alcanzar los niveles del líquido, de modo que la energía libre de los agregados en la fase líquida es mínima. Bajo esas condiciones se producen algunos resultados sorprendentes. Persiste el mínimo de la energía libre
de los agregados sólidos (aunque sea menos profundo). Y como la energía libre tiene dos mínimos, pueden coexistir ambos agregados, líquidos y sólidos. Si sigue elevándose la temperatura posteriormente, el balance energíaentropía se inclina en favor de los agregados líquidos y el mínimo de energía libre para agregados sólidos se va haciendo cada vez menos pronunciado. A una temperatura suficientemente alta, ese mínimo desaparece, no quedando más que el mínimo de la fase líquida, de modo que el balance energía-entropía favorece completamente a los agregados líquidos. Ahora no pueden existir más que agregados líquidos. Desde la primera aparición del líquido estable hasta la desaparición del sólido estable, hay, pues, un rango de temperaturas en el que pueden coexistir los agregados líquidos y los sólidos. Dentro del rango de coexistencia, la relativa abundancia de agregados líquidos y sólidos depende de la diferencia de energía libre entre las dos fases, que varí a con la tem pera tura . La frac ción de agregados presentes en la fase líquida varía concretamente según una curva del tipo de una S aplanada conforme aumenta la temperatura. La densidad de niveles de energía y la competencia entre energía y entropía conducen así a un punto de solidificación definido, por debajo del cual no es estable más que la fase sólida, y a un punto de fusión definido, por encima del cual sólo lo es la líquida. Entre ellos hay un rango de temperaturas en el que ambas fases son estables. Dicho con otras palabras, los puntos de fusión y de solidificación no son el mismo, se han desconectado y nada impone que necesariamente se den a la misma temperatura. La no coincidencia de ambos puntos constituye una aparente paradoja para nuestra experiencia habitual. Pero las propiedades especiales que el tamaño intermedio de los agregados conlleva reconcilian esa contradicción. Un sistema pequeño, de 10, 100 o incluso 10.000 átomos o moléculas, difiere mucho de un sistema grande, que tenga mil billones de ellos. Un agregado pequeño, de unos 10 o 20 átomos, dispone de un rango de coexistencia de varios grados, mientras que el de un macroagregado de un millón de átomos se estima en menos de una milésima de grado. Los límites de este rango de coexistencia están tan próximos en el caso de los objetos macroscópicos ordinarios que probablemente no puedan distin-
TEMAS 16
guirse, indistinguibilidad que justifica el uso indistinto de los términos en el mundo macroscópico. Tanto los experimentos como las simulaciones por ordenador apoyan la teoría de la no coincidencia de los puntos de fusión y de solidificación en agregados. Estos se producen en el laboratorio por agregación de los vapores atómicos o moleculares de los componentes o por la ruptura de un sólido. Con ambos métodos se pueden estudiar los agregados, ya sea formando parte de un vapor o como especies atrapadas en una matriz inerte.
P
ara distinguir entre agregados sólidos y líquidos deben obser varse estas dos manifestaciones de la materia. Los sólidos son rígidos y no maleables; se pueden golpear, por ejemplo. Los líquidos, por contra, son blandos y maleables; no se puede presionar el agua con un dedo, pues a la más mínima presión cede. (Claro que, si la fuerza se aplica muy rápido, hasta el líquido parece sólido, como bien sabe quien distraídamente se cae de plancha en una piscina.) Un agregado sólido no es maleable porque está casi completamente restringido a vibraciones atómicas alrededor de una configuración geométrica (o valle particular). El agregado puede experimentar un millón o mil billones de vibraciones alrededor de una configuración antes de cambiar a otra, siempre que disponga de energía para hacerlo. (Un agregado típico vibra unos 10.000 billones de ve ce s po r se gu ndo. ) Un ag re ga do líquido es maleable porque pasa fácilmente de una configuración a otra (de un valle a otro). El agregado no puede vibrar más que unas pocas veces, unas centenas como mucho, antes de cambiar de configuración. Para que los agregados sean obser vables co mo sólidos y como líquidos deben ser capaces de pasar un tiempo suficiente en la fase de que se trate. Los líquidos han de permanecer líquidos suficiente tiempo para poder mostrar sus propiedades características y, muy en especial, la de explorar un número grande de configuraciones geométricas a través del reordenamiento laxo de sus átomos. Los agregados sólidos tienen que exhibir las características de rigidez y de falta de maleabilidad propias de esta fase. Los datos experimentales más rigurosos indican que los agregados líquidos y sólidos pueden distinguirse realmente unos de otros. La mayor parte del trabajo realizado en esta dirección se basa en incorporar al agregado una molécula extraña diferente de
C ALOR Y MOVIMIENTO
E R B I L A I
G R E N E
SOLIDO
LIQUIDO
3. COEXISTENCIA de agregados sólidos y líquidos en un rango finito de temperaturas. La temperatura correspondiente a cada uno de los cinco paneles crece de abajo arriba. El eje vertical de cada panel es la energía libre de los agregados: la energía menos el producto de su temperatura y su entropía, o desorden. El eje horizontal de cada panel es una medida de la n o rigidez de los agregados; los agregados sólidos están a la izquierda y los líquidos a la derecha. A la temperatura más fría ( panel inferior ), la energía libre sólo tiene el mínimo correspondiente a agregados sólidos; a la más alta temperatura ( panel superior ), el que corresponde a los líquidos. En un rango intermedio de temperaturas (tres paneles centrales ) se tienen mínimos para ambos tipos de agregados sólidos y líquidos: coexisten las dos formas y, por tanto, los puntos de fusión y de solidificación no son el mismo.
69
4. MOLECULAS DE SONDA inmersas en agregados. Permiten a los i nvestigadores distinguir entre estados líquidos y sólidos. En el panel superior, creado por Hai-Ping Cheng, una sonda de sodio (rojo) está inmersa en un agregado de 54 átomos de argón. La sonda emite diferentes longitudes de onda de radiación según el agregado sea sólido (abajo, a la izquierda) o líquido (abajo, a la derecha).
previamente había sido excitada. Esto es, el segundo láser arranca a la sonda uno de sus electrones más externos. El electrón libre escapa, dejando al conjunto agregado-sonda con una carga neta positiva. Esta carga residual permite acelerar el agregado, mediante la aplicación de un campo eléctrico, y extraerlo de entre una mezcla de agregados. Así se le identifica de acuerdo con su masa, del número de átomos y moléculas que lo compongan. Jürgen Bösiger, Samuel Leutwyler, Mee Hahn y Robert L. Whetten siguieron este camino en la caracterización de agregados de argón. Los dos primeros utilizaron una molécula grande y aplastada denominada carbazol. Los restantes se sirvieron de una molécula de benceno, más pequeña y con forma de píldora. Cuando la sonda está inmersa en un agregado sólido produce un espectro pronunciado característico, mientras que en los agregados líquidos resulta un espectro ancho. (A pesar de las sutilezas de la interpretación de los datos experimentales, los argumentos empleados en la caracterización de los espectros son convincentes.) De ambos experimentos parece inferirse que, a una temperatura de entre 20 y 30 grados kelvin (–253 a –243 grados centígrados), los agregados pequeños se comportan como líquidos (con espectros anchos) y los agregados mayores como sólidos (con espectros pronunciados). Los agregados de un rango intermedio de tamaños muestran un espectro que indica una mezcla de agregados sólidos y líquidos coexistentes. Estos datos representaron un paso importante dentro del programa experimental de la ciencia de agregados. La coexistencia de agregados sólidos y líquidos, con un rango finito de tamaños y a determinada temperatura, respalda vigorosamente la disparidad de los puntos de fusión y de solidificación, aunque las pruebas no sean del todo concluyentes. Sería ideal contar con un único tamaño de agregados y variar la temperatura, pero la precisión que tal experimento requiere es difícil de alcanzar. Se necesita trabajar más para obtener una conclusión absolutamente irrefutable.
las que lo componen, que cumple el Un método poderoso para identifipapel de sonda. El espectro de esta car el agregado utiliza un primer láser sonda, las longitudes de onda de emi- para excitar la molécula sonda hasta sión y de absorción de radiación carac- un nivel de energía conocido. (La lontra forma de poner a prueba la terísticas, depende en parte de los gitud de onda de la radiación lasérica teoría es a través de la simulaátomos que la rodeen, además de sus requerida para inducir esa excita- ción de agregados por ordenador. propias características, razón por la ción depende sensiblemente del tipo Aunque las simulaciones no sean expeque el espectro de una sonda que esté de sonda y de los átomos del a gregado rimentos reales, mientras haya maneinmersa en un agregado sólido dife- que la rodeen.) Luego se sintoniza un ras de conocer su validez el método rirá del mostrado si lo estuviera en segundo láser a una longitud de onda puede revelar nuevos fenómenos y otro líquido. justa para ionizar la molécul a que permitir experimentos mucho más
O
70
TEMAS 16
económicos que sus contrapartidas de laboratorio. Sin olvidar que los modelos de ordenador ayudan a diseñar experimentos de laboratorio. Un gran volumen de cálculo resulta idóneo para simular un sistema con una teoría bien fundamentada, aunque demasiado complicada para realizarlo con papel y lápiz; es el caso de un agregado de átomos. De muchas sustancias se conocen las fuerzas que existen entre dos átomos cualesquiera, pero resolver las ecuaciones del movimiento en forma analítica se hace imposible incluso para tres átomos, por no hablar de más de tres. Las ecuaciones del movimiento de varios átomos (e incluso de muchísimos) pueden, sin embargo, resolverse numéricamente con la ayuda del ordenador. Se facilita así el seguimiento de cada uno de los átomos de la simulación.
simulaciones que “evapora” átomos, como cabría esperar.
E
ntre los dos extremos hay un rango de temperaturas en el que los agregados conservan una energía constante y en el que algunos presentan un notable fenómeno: pasan largos intervalos de tiempo como sólidos y luego, más o menos fortuitamente, saltan a la fase líquida por períodos bastante largos, volviendo después a ser sólidos y así sucesivamente. Otros agregados que muestran esa coexistencia incluyen los formados por 7, 15 y 19 átomos de argón. Se debe destacar, no obstante, que no todos los agregados manifiestan con claridad la coexistencia de ambas fases. Por ejemplo, los agregados de 6, 8 y 17 átomos de argón no lo hacen. Los agregados de 6 átomos de cobre presentan dos tipos de formas e ocuparé a continuación de unas sólidas, unas rígidas y otras blandas. simulaciones de agregados de Algunos macroagr egados de clorur o átomos de argón realizadas por Thomas de sodio, según resulta de las simuL. Beck, Hai-Ping Cheng, Heidi L. laciones realizadas por Daphna Davis, Julius Jellinek, David J. Wales Scharf y Joshua Jortner, y también y yo mismo. De entre las informacio- por Uzi Landman, pueden exhibir nes que tales simulaciones suminis- regiones sólidas y líquidas simultátran, la más sencilla de entender es la neamente en diferentes partes del historia de un agregado particular evo- mismo agregado. En las simulaciones lucionando en el tiempo. Una magni- de Cheng, las superficies de agregatud importante que surge sin compli- dos de 52 o 55 átomos de argón funcaciones es la temperatura media de den a temperaturas bastante menoun agregado cuya energía total sea res que las de fusión de los propios constante, o su complementaria: la agregados, descubrimiento que hace energía promedio de un agregado man- patente la importancia de los rasgos tenido a temperatura constante. (La de la superficie en los agregados, contemperatura media es, aparte de un trariamente a lo que sucede en los factor de conversión numérico, la materiales macroscópicos. energía cinética media.) En resumen, los microagregados El significado de “promedio” en esos pueden mostrar diferentes comporexperimentos es crucial. Promediar tamientos a medida que disponen de la temperatura sólo una vez duran- más energía y van haciéndose más te la historia entera puede resultar laxos y menos rígidos. Tal riqueza de tan erróneo como promediarla du- posibilidades constituye una valiosa rante un tiempo tan corto que cada herramienta para una exploración átomo no haya tenido casi tiempo de más honda de los fenómenos de la encontrarse con el resto de los áto- fusión y de la solidificación. mos. Tomábamos promedios cada cinco picosegundos, el tiempo justo para que se produjeran unas pocas BIBLIOGRAFIA COMPLEMENTARIA vibracio nes de los átomos de argó n. Hemos descubierto que un agreELEMENTAL AND MOLECULAR CLUSTERS. gado de 13 átomos de argón con poca Dirigido por G. Benedek y Martin Pacenergía presenta pequeñísimas flucchioni. Springer-Verlag, 1988. EVOLUTION OF SIZE EFFECTS IN CHEMICAL tuaciones térmicas en torno a su temDYNAMICS, Parte 2. Dirigido por I. Priperatura media. Semejante agregado gogine y Stuart A. Rice, en Advances in frío se comporta como un sólido. Un Chemical Physics, vol. 70. Wiley-Interagregado mucho más energético posee science, 1988. una temperatura media mucho más THE CHEMICAL PHYSICS OF ATOMIC AND alta y las fluctuaciones en torno a la M OLECULAR C LUSTERS . Dirigido por misma son correspondientemente Giacinto Scoles y S. Stringari, en Proceedings of the CVII Course of the Intermayores. Diferentes aspectos de su national School of Physics “Enrico comportamiento indican que el agreFermi”, Varenna, vol. 289. Società Itagado está en fase líquida. Si la energía liana di Fisica. del agregado es alta, se deduce de las
M
5. SIMULACION POR ORDENADOR de las historias de la temperatura en función del tiempo, para agregados de 13 átomos de argón a diferentes energías constantes, que pone de manifiesto la coexistencia de agregados líquidos y sólidos. A baja energía (arriba) los agregados se comportan como sólidos; a alta energía ( centro), como líquidos, y a una energía intermedia (abajo) los agregados se comportan como ambos, sólidos y líquidos. La temperatura de un agregado es directamente proporcional a su energía cinética. Cada punto representa 5 10 –12 segundos.
C ALOR Y MOVIMIENTO
71
Reacciones químicas oscilantes Irving R. Epstein, Kenneth Kustin, Patrick De Kepper y Miklós Orbán
Son reacciones en las que las concentraciones suben y bajan periódicamente. Hubo un tiempo en que se creyó que violaban las leyes de la naturaleza
L
os fenómenos periódicos u oscilantes se presentan en física, en astronomía y en biología. Van de sde el movimiento de los péndulos hasta las órbitas de los planetas y los complicados relojes biológicos que gobiernan el comportamiento diario y estacional de los organismos. Hasta ayer mismo los químicos creían que las reacciones que se desarrollaban en sus tubos de ensayo y vasos de precipitados eran inmunes a ese tipo de conducta periódica, tan común en otros campos de la ciencia. La mayoría de los químicos formados antes de mediados de siglo habrían afirmado que cualquier mezcla de sustancias inorgánicas sencillas que participara en una reacción que oscilara visible y periódicamente violaría una ley inmutable de la naturaleza. Incluso hoy damos por sentado que las reacciones químicas discurren en una única dirección. Si dos sustancias reaccionan para producir una tercera, la reacción continuará, se supone, hasta que se consuman los reactivos o hasta que se alcance el estado de equilibrio. Nadie suele esperar que la concentración de los productos intermedios llegue a cierto nivel, caiga luego a otro más bajo, torne a subir para bajar de nuevo, una y otra vez, hasta que resulten productos estables, resistentes a más cambios. Con carácter esporádico se mencionaba esta clase de reacciones en la literatura química del siglo XIX y comienzos del XX ; no merecían, sin embargo, la ponderación de los profesionales. Se las suponía fenómenos no reproducibles, atribuibles quizás a procesos extraños como la corrosión o la formación de películas durante el curso de la reacción. Pero en los últimos tiempos el estudio de las reacciones químicas oscilantes se ha rodeado de la respetabilidad suficiente para constituir hoy una de las ramas más inquietas de la química. 72
De su avance se esperan nuevos planteamientos de la dinámica química, del mecanismo de la catálisis y puede que hasta nuevas claves para entender fenómenos periódicos que, obser vados en procesos biológicos y geológicos, carecen todavía de explicación. Las primeras reacciones químicas oscilantes se descubrieron por azar. Aho ra sabemos ya las condicion es que conducen a la oscilación y nos permiten montar una búsqueda sistemática de nuevos sistemas oscilantes. Una búsqueda que se ha ganado ya la recompensa. Los químicos reacios a aceptar la realidad de las reacciones oscilantes se fundaban, principalmente, en la segunda ley de la termodinámica. En su formulación mejor conocida, establecida en el siglo pasado por el físico alemán Rudolf Clausius, determina que la entropía o el desorden del uni verso tiende a aumentar. Aplicado a las reacciones químicas, este principio exige que un sistema químico tiene que aproximarse continuamente hacia un estado final de equilibrio, siempre que no se introduzca materia o energía. Esto es, si A se transforma en B, ha de hacerlo siguiendo el curso de la reacción y no volver de nuevo a A durante el proceso. Si alguna reacción parecía violar esta regla, había que buscar la razón en las condiciones experimentales, pobremente controladas, cuando no trampas deliberadas, puesto que vendría a constituir una suerte de máquina química en movimiento perpetuo. Esa era la opinión reinante.
en determinadas condiciones, la velocidad de producción de oxígeno y la concentración de yodo en la disolución cambiaban periódicamente. Durante los cincuenta años siguientes nadie reparó en esa observación. Los contados trabajos que se ocuparon de la reacción de Bray explicaban las oscilaciones como artificios creados por partículas de polvo o por impurezas; pero faltó quien examinara el fenómeno con mayor profundidad. Como veremos después, el yodo, el ion yoduro (I–) y el ion yodato desempeñan un papel destacado en varios sistemas oscilantes de reciente creación. La época moderna de las reacciones químicas oscilantes comienza con un descubrimiento realizado al azar en 1958 por el químico ruso B. P. Belousov. Observó que si disolvía en agua ácido cítrico y ácido sulfúrico con bromato potásico y una sal de cerio, el color de la mezcla cambiaba periódicamente de incoloro a amarillo pálido. En 1958 había ya quimicofísicos dispuestos a considerar posible esta información; por dos razones: primero, porque la reacción de Belousov se podía repetir con facilidad y, segundo, porque las ideas termodinámicas del siglo XIX habían gozado de un amplio desarrollo en los años que siguieron a la segunda guerra mundial. Adelantado de este empeño fue Ilya Prigogine, quien advirtió que la termodinámica clásica de Clausius no sólo requería que los sistemas se hallaran aislados de su entorno, sino también que estuvieran cerca de su estado de equilibrio. Para sistemas situados abe suponer, pues, con cuánta lejos del equilibrio, ya fuese porque indiferencia se recibió el trabajo la reacción estuviese comenzando o sobre una reacción oscilante que porque el sistema fuese abierto y somepublicó en 1921 William C. Bray. tido por tanto a flujos externos de Investigaba Bray la conducta del energía o de materia, Prigogine y sus yodato, el ion del yodo oxidado (IO3–); colaboradores desarrollaron una teral catalizar la descomposición del modinámica irreversible. Estos traperóxido de hidrógeno (agua oxige- bajos le valieron a Prigogine el prenada) en agua y oxígeno, observó que, mio Nobel de química en 1977.
C
TEMAS 16
1. EXHIBICION DE UN SISTEMA QUIMICO OSCILANTE, en el laboratorio de los autores en la universidad norteamericana de Brandeis. La reacción se desarrolla en una vasija de vidrio, en la que se bombean tres soluciones a velocidad constante; a saber: yodato potásico, una disolución de ácido perclórico y peróxido de hidrógeno y una disolución de ácido malónico que contiene sulfato manganoso monohidratado. El almidón sirve de indicador; forma un complejo azul os-
CALOR Y MOVIMIENTO
curo en presencia de yodo. De una fotografía a la siguiente, comenzando por la parte superior izquierda y leyendo de izquierda a derecha, media un intervalo inferior a tres segundos (como indica la manilla del segundero del reloj). Esta reacción la idearon dos profesores de bachillerato de California, Thomas S. Briggs y Warren C. Rauscher. La reacción se ha modificado para que se desarrolle en condiciones de flujo continuo.
73
AGITADOR
ELECTRODO DE REFERENCIA
FUENTE LUMINOSA MONOCROMADOR
TUBO DE DESAGÜE
ELECTRODO SENSIBLE AL YODURO FOTOCELULA
REACTOR
REGISTRADOR RECIPIENTE 1 RECIPIENTE 2
RECIPIENTE 3
BOMBA PERISTALTICA 2. REACTOR DE FLUJO CONTINUO en un tanque agi tado; en él buscaron los autores reacciones químicas oscilantes. A tal fin establecieron las condiciones de no equilibrio necesarias para que se desarrollaran las reacciones en cuestión. La ilustración muestra un experimento típico. Los reactivos, que se albergan en tres depósitos, se bombean continuamente hacia
la base de la vasija de reacción. El primer sistema oscilante descubierto era alimentado con soluciones acuosas ácidas de un clorito, un yodato y un arsenito. Los cambios de color periódicos se seguían con una fotocélula. Las oscilaciones registradas en la concentración de iones específicos (en este caso el yodo) se detectaban mediante un electrodo.
En los sistemas que están lejos del jos, cesan las oscilaciones y muere el equilibrio surgen algunos fenómenos organismo. nuevos que se engloban en las llaLas implicaciones de la termomadas estructuras disipativas. Estas dinámica irreversible de Prigogine estructuras presentan oscilaciones no las entendían en 1958 más que un periódicas en las concentraciones de puñado de químicos. Del descubriespecies intermedias de una reacción miento de Belousov no se enteró casi química; pero ni los r eactivos inicia- nadie, puesto que apareció publicado les ni los productos finales se hallan en una oscura colección rusa de resujetos a oscilaciones. Los organismos súmenes técnicos sobre medicina suministran los ejemplos más inte- nuclear. La reacción oscilante de resantes y variados de osciladores Belousov presentaba ventajas imporabiertos y alejados del equilibrio. Se tantes sobre el anterior sistema de mantienen en un estado de no equi- Bray. Se desarrollaba a temperatura librio con la admisión de reactivos ambiente y no generaba productos (alimentos) del medio exterior y la nocivos. Las oscilaciones podían verse salida de los productos de desecho. además a simple vista conforme el Si se detiene cualquiera de estos flu- cerio cambiaba, en un sentido y otro, 74
de la forma oxidada (cérica), que es amarilla, a la menos oxidada (cerosa), incolora.
A
lgunos años después de su publicación, la reacción de Belousov llegó a manos de A. M. Zhabotinsky, del Instituto de Biofísica, con sede en los aledaños de Moscú. Modificó algo el protocolo de Belousov (sustituyó el cerio por el hierro, produciendo un color azul rojizo más fácil de distinguir) y emprendió el estudio sistemático de la reacción, que pasó a denominarse de BZ (en honor de Belousov y Zhabotinsky). En los primeros años del decenio de los sesenta, Zhabotinsky publicó una nutrida relaTEMAS 16
ción de resultados experimentales; entre ellos, el hallazgo siguiente: si dejaba sin perturbar una fina capa de una solución inicialmente uniforme y roja de BZ, aparecían pronto puntitos azules que crecían formando unas estructuras sorprendentes en formas de anillos. La reacción BZ y la termodinámica irreversible de Prigogine conocieron un rápido auge en las postrimerías de los sesenta y primeros años de los setenta. En todas partes había algún químico fascinado por el fenómeno BZ, pero la gran mayoría seguía considerándolo mera curiosidad, más útil para deslumbrar a los estudiantes en las clases que como tema de investigación serio. En poco tiempo aparecieron muchas variaciones de la reacción BZ, que sustituían uno o varios componentes con otros productos químicos; surgían así osciladores más lentos, más rápidos o de distinto color. La variante más espectacular, desde el punto de vista cromático, es un híbrido de los sistemas BZ y Bray que inventaron dos profesores de bachillerato de San Francisco, Thomas S. Briggs y Warren C. Rauscher, en 1973. Su sistema, que utiliza peróxido de hidrógeno, yodato potásico, ácido perclórico, ácido malónico, sulfato de manganeso y almidón, cambia de incoloro a dorado y pasa a azul, para volver a empezar. [Pueden verse mayores detalles de su trabajo en la sección “Taller y laboratorio” de INVESTIGACIÓN Y CIENCIA , septiembre de 1978.]
1
2H + + Br – + BrO3–
2
H + + HBrO2 + Br–
3
HOBr + Br – + H+
4
CH2 (COOH)2
5
Br2 + (OH)2C=CHCOOH
6
HBrO2 + BrO3– + H+
7
BrO2 + Ce3+ + H+
8
Ce4+ + BrO2 + H2O
9
2HBrO2
HOBr + HBrO2 2HOBr Br2 + H2O (OH)2C=CHCOOH H + + Br – + BrCH(COOH) 2 2BrO2 + H2O Ce4+ + HBrO2 BrO3– + 2H+ + Ce3+
HOBr + BrO3– + H+
10
Ce4+ + CH2(COOH) 2
CH(COOH)2 + Ce3+ + H+
11
CH(COOH) 2 + BrCH(COOH)2 + H2O
12
Ce4+ + BrCH(COOH)2 + H2O
13
2HOC(COOH) 2
14
Ce4+ +
15
Ce4+ + O=CHCOOH
16
2O=CCOOH + H2O Br2 + HCOOH
18
2CH(COOH) 2 + H2O
Br – + HOC(COOH)2 + Ce3+ + 2H+
HOCH(COOH)2 + O=CHCOOH + CO 2 HOC(COOH)2 + Ce3+ + H+
HOCH(COOH)2
17
Br– + CH2(COOH) 2 + HOC(COOH)2 + H+
O=CCOOH + Ce 3+ + H+ O=CHCOOH + HCOOH + CO 2 2Br – +
CO2 + 2H +
CH2(COOH) 2 + HOCH(COOH)2
3. SIMULACION POR COMPUTADOR DE LA OSCILACION en la reacción Belousov-Zhabotinsky. Consta de 18 pasos elementales y pone en juego 21 especies químicas diferentes. La reacción lleva el nombre de dos químicos rusos: B. P. Belousov, que la descubrió, y A. M. Zhabotinsky, quien la mejoró. Se comienza con tres sustancias inorgánicas, los iones bromato (BrO 3–), los iones bromuro (Br–) y los iones cerosos (Ce 3+), y una sustancia orgánica, el ácido malónico (CH2(COOH)2). Un medio de ácido sulfúrico suministra los iones hidrógeno (H+). Los productos de la reacción son dióxido de carbono (CO2), ácido fórmico (HCOOH) y ácido bromomalónico (BrCH(COOH)2). Como el cerio oscila entre el estado cérico (Ce 4+) y el ceroso (Ce 3+), la solución alterna entre amarilla y clara transparente. Las reacciones que se muestran arriba en color involucran solamente especies inorgánicas y se entienden mejor que las reacciones que aparecen en negro, que tratan con especies derivadas del ácido malónico.
A
unque la reacción BZ y sus variantes gozaban ya de amplia difusión a finales de los años sesenta en lecciones y conferencias, la naturaleza del fenómeno oscilante permanecía en vue lta en el mister io. Los químicos entienden las reacciones cuando son capaces de exponer el mecanismo subyacente. Un mecanismo es una serie de reacciones componentes, los así llamados pasos elementales, cada uno de los cuales describe un encuentro o colisión real entre moléculas; a través de esas etapas los reactivos se transforman en productos. Las ecuaciones estequiométricas, de las que suelen echar mano los químicos para simbolizar una reacción, ofrecen el resultado neto, pero no dicen nada de cómo se desarrolla la reacción a escala molecular. Por ejemplo, cuando el acetileno (C2H2) se combina con oxígeno (O 2) en el soplete de un soldador para formar dióxido de carbono (CO2) y agua (H2O), la reacción total se puede escribir 2 C2H2 + 5 O2 → 4 CO2 + 2 H2O. CALOR Y MOVIMIENTO
L A I C N E T O P
C
B
A
POSICION 4. REPRESENTACION DE UN SISTEMA QUIMICO BIESTABLE a través de una analogía mecánica. Una pelota que rueda en un pozo de potencial con dos mínimos, A y B, puede permanecer en cualquiera de ellos. A y B representan estados estables del sistema; C, un estado inestable. Aunque la pelota pudiera ll egar a pararse en C, la menor perturbación la mandaría hasta A o hasta B. En este diagrama la variable es la posición de la pelota ( abscisas); la condición externa, la forma del poro de potencial (ordenadas ).
75
Y SS
1
2
Y
Y
3
Y C Y B1
Y B1
Y A1
Y A1
Y B2
Y B2
Y A2
Y A2
B
A
C X 0
C 2 B
A C 1 X 0
TIEMPO
5. CICLO DE HISTERESIS representado por un sistema químico biestable que opera en un reactor de flujo continuo en un tanque agitado. A medida que la concentración X 0 de la sustancia X que fluye en el reactor aumenta desde un valor bajo, el valor estable Y SS de la especie Y en el reactor disminuye suavemente siguiendo la curva roja, hasta que en el punto crítico A cae de repente desde Y A1, hasta Y . Si sigue creciendo, cae X Y A 2 0 SS de nuevo, a lo largo de la curva azul. Si se disminuye X 0, Y SS torna a recorrer la curva azul y pasa el punto A hasta que alcanza un segundo punto crítico B. Aquí Y SS salta desde Y B 2 hasta Y B1. Entre los puntos A y B se dará cualquiera de los dos estados estables.
6. SE PRODUCE UNA OSCILACION si se añade una sustancia apropiada, Z , a un sistema químico biestable que muestre histéresis. Si la sustancia Z reacciona con la sustancia Y a una velocidad reducida para rendir la sustancia X , la concentración eficaz de la sustancia X 0 se modifica de forma que el sistema “ve” un valor más alto de X que el que recibe realmente del depósito que le alimenta ( izquierda ). El efecto de una cantidad dada de Z sobre X 0 ( flechas verdes ) será mayor en la rama roja del ciclo de histéresis (donde hay más Y ) que en la rama azul. Supongamos que la reacción comienza con un flujo de X igual a C. Se añade ahora bastante Z , digamos la cantidad Z 0, de suerte que la X 0 eficaz sea igual a C1 cuando el sistema esté sobre la rama roja e igual a C2 cuando esté sobre la rama azul. En ausencia de Z , el flujo X 0 = C produciría un valor estable Y c. Con la adición de Z 0, sin embargo, el sistema sigue la curva roja a medida que el valor eficaz de X sube lentamente debido a la reacción de Y con Z . El sistema intenta alcanzar el valor de C1, pero al llegar al valor de A cae abruptamente desde la rama roja y sufre una transición rápida a la rama azul. Allí el sistema “ve” un valor de X 0 = C2, y así se desplaza hacia la izquierda siguiendo la curva azul en un intento de alcanzar el nuevo valor eficaz de X 0. Antes de conseguir este objetivo, en X 0 = B salta de repente a la rama ro ja y se cierra el ciclo (flechas amarillas ). X 0 tiene de nuevo el valor eficaz de C1, de
Es improbable que dos moléculas de acetileno y cinco de oxígeno choquen a la vez y se separen dando cuatro moléculas de dióxido de carbono más dos de agua. En la realidad la reacción se desenvuelve a través de una secuencia de reacciones elementales; cada una de éstas implica una colisión entre dos moléculas o la ruptura de una de ellas, creando o destruyendo especies intermedias que no aparecen en la ecuación estequiométrica. Descifrar un mecanismo constituye una tarea ardua, para la que se exige ingenio, análisis de muchos datos experimentales y, en no pocos casos, simulación del mismo en el ordenador. La ingente tarea de buscar el mecanismo de la reacción oscilante de BZ lo llevó a cabo, en los años setenta, Richard M. Noyes en colaboración con Richard J. Field y Entre Körös. Antes de terminar 1972 habían esbozado ya un esquema que constaba de 18 pasos elementales con 20 especies químicas involucradas, capaces, tal parecía, de explicar las oscilaciones.
Dos años después, una simulación fundizar en el comportamiento periódetallada en el computador reali- dico de los organismos vivos. Nadie zada por Noyes Field y David Edelson ha conseguido todavía definir un conconfirmaba que el mecanismo pre- junto de co ndiciones nece sarias y decía la oscilación. Estudios pos- suficientes para la oscilación quíteriores han demostrado que el me- mica. El decenio de los setenta se canismo justificaba también la acercaba a su fin y el número de osciformación de estructuras espacia- ladores químicos diferentes que se les. Noyes compara su método de tra- conocían resultaba descorazonador bajo al detectivesco de Sherlock por lo exiguo. Todos se habían desHolmes: “Cuando todas las demás cubierto por casualidad; sólo se había posibilidades fallan, la que resta, descifrado uno en sus pormenores; aunque improbable , tiene que ser la nadie sabía qué hacer para enconcierta.” trar más. Los sistemas biológicos constituon la solución del mecanismo de yen una buena fuente de situaciola BZ, las reacciones oscilantes nes donde aparecen oscilaciones, alcanzaron carta de ciudadanía en pero desafían el análisis mecanicista química y se convirtieron en un que conduce a la generalización. campo apasionante para los intere- Podemos preparar estos sistemas sados en los mecanismos y la diná- oscilantes extrayendo el contenido mica de las reacciones. Se aventu- químico de las células de levadura raron varias hipótesis sobre las y separándolo de las paredes celucondiciones que se requerían para lares y de otras estructuras extraque oscilara una reacción y corrió el ñas. Si agregamos los nutrientes optimismo en algunos círculos al adecuados a la “sopa” resultante, la suponer que una mejor comprensión concentración de los iones hidrógeno de las oscilaciones ayudaría a pro- y de la molécula nicotinamidín
76
C
TEMAS 16
4
0
O S C I L A C I O N
ESTADO ESTABLE
B I E S T A ESTADO ESTABLE B I L I D A D B
A X 0
forma que el sistema se mueve otra vez hacia la derecha. La repetición de esta secuencia resulta en una oscilación periódica en el valor de Y (en el medio ). El diag rama de fases en forma de cruz ( ilustración de esta misma página ) muestra cómo aumentando el valor de Z 0 se puede desplazar el sistema de la biestabilidad a la oscilación. Si Z se hace 0, el sistema exhibe entonces dos condiciones estables; a saber: el estado ro jo para un X 0 pequeño y el estado azul para un X 0 grande. Cuando X 0 se encuentra entre los puntos A y B, el sistema es biestable. A medida que Z 0 aumenta, la región de biestabilidad se estrecha hasta que, a un determinado valor crítico, comienza la oscilación.
adenín dinucleótido, que en su forma reducida (NADH) transporta electrones en el ciclo energético normal de la célula, oscilarán. Britton Chance y sus colaboradores demostraron que muchos de estos osciladores biológicos recurren a la glicólisis, proceso mediante el cual las células generan energía metabolizando el azúcar en ausencia de oxígeno. Por hallarse dichas reacciones catalizadas por una serie de enzimas, presentan una complejidad inabordable. En 1979 dos de nosotros (Epstein y Kustin) pensamos que había llegado el momento de inventar un procedimiento sistemático para diseñar un oscilador químico. ¿Por dónde comenzar? Por identificar tres condiciones que sabíamos eran necesarias para la oscilación química o conducían a ella. Primera condición: los sistemas químicos oscilan sólo si están lejos del equilibrio. La segunda es la de retroalimentación o feedback: un producto de un paso de la secuencia de reacciones ha de influir en su propia velocidad de formación. La terCALOR Y MOVIMIENTO
cera condición decía que el sistema químico tenía que presentar biestabilidad. Bajo el mismo conjunto de condiciones externas, a las que nos referimos como factores limitantes, el sistema ha de poder existir en dos estados estables diferentes. La exigencia de que el sistema se mantenga lejos del equilibrio se lograba desarrollando la reacción en un aparato que conocen bien los ingenieros químicos: el reactor de flu jo co ntinuo en un tanq ue agitado (CSTR, del inglés “continuous-flow stirred-tank reactor”). Mediados los años setenta Adolphe Pacault y sus colaboradores habían adaptado el CSTR para el estudio de reacciones químicas oscilantes. Cuando uno de los firmantes (De Kepper) abandonó Burdeos en 1980 para unirse a nuestro grupo de la Universidad de Brandeis, se vio lógico construir un reactor similar. La llegada de Orbán desde Hungría, experto en osciladores de bromato, completó el grupo. Una clase común de retroalimentación (“feedback”) que se encuentra en los organismos es la autocatálisis, consistente en que la tasa de producción de una sustancia aumenta con su concentración. La idea se generaliza a poblaciones de organismos: el número de organismos en que crece una población en un tiempo dado es casi siempre proporcional al número de individuos que la componen. (Esta observación reitera la predicción de Thomas Malthus en 1978, según la cual las poblaciones tienden a crecer más deprisa que los alimentos.) Los sistemas autocatalíticos son raros en química, pero no extraordinarios. Alfred J. Lotka demostró en 1920 que un esquema sencillo de dos reacciones autocatalíticas acopladas provocaría la oscilación. Aunque no se ha conseguido aplicar a ninguna reacción química, el mecanismo de Lotka ha guiado el pensamiento de muchos químicos y ha servido de mucho a la hora de explicar las oscilaciones de poblaciones depredadoras y de sus presas en los ecosistemas.
en otro nuevo estado. Si el menor cambio causa una transición a un estado diferente del sistema, se dice que es inestable. Por ejemplo, una canica en el fondo de un cuenco se halla en un estado estable; ella misma balanceándose en el borde, se encontrará en un estado inestable. Los factores limitantes o parámetros externos que controlan los valores estacionarios del sistema reaccionante en un reactor de flujo continuo y agitado suelen ser: la temperatura del baño termostático, la concentración de las sustancias químicas en el depósito que alimenta el reactor y sus velocidades de flujo. Si alteramos los parámetros externos de un sistema químico biestable, puede presentarse un fenómeno peculiar llamado histéresis. Se trata de un fenómeno corriente en magnetismo, donde adquiere la forma de “ciclo de histéresis”. Cuando sometemos un trozo de hierro a un campo magnético cada vez más intenso, el hierro termina por alcanzar su completa saturación magnética. Si se desconecta el campo, tomando de nuevo el valor cero, el hierro retiene parte de su magnetización. Para reducir la magnetización del hierro de nuevo hasta cero, es necesario someter la muestra a un campo de sentido opuesto. El ciclo entero de magnetización y desmagnetización toma la forma de un bucle en forma de S, ancho en el centro y puntiagudo en los extremos. Un fenómeno análogo puede ocurrir en un sistema químico biestable. Jacques Boissonade y uno de los autores (De Kepper) realizaron en 1979 un estudio del que se desprendía que las oscilaciones podían inducirse al añadir otra sustancia química a un sistema capaz de histéresis. El comportamiento de este sistema se representaba en un diagrama de fases en forma de cruz, donde se evidenciaba que si la sustancia añadida ejercía efectos significativamente diferentes sobre las dos ramas de los estados estables del sistema, era probable que surgieran oscilaciones. ayamos con la tercera condición: Nuestro plan de trabajo para la biestabilidad, o existencia de diseñar un oscilador químico comdos estados estables diferentes, en prende los cuatro pasos siguientes: un sistema químico oscilante. Por encontrar un sistema autocatalítico, estado estable se entiende el sistema llevar a cabo la reacción en un reacen que todas sus variables, así la con- tor de flujo continuo, variar las concentración de cada especie química, diciones hasta que se encuentre una han alcanzado valores constantes. región de biestabilidad y entonces De un estado decimos que es estable introducir otra sustancia que sea si es capaz de acomodarse a un capaz de afectar las dos ramas de pequeño cambio en una variable, la biestabilidad de forma diferente e adición de una gota de ácido por e jem- inducir así oscilaciones. Buscamos plo, y se recupera sin transformarse bibliografía sobre reacciones auto-
V
77
catalíticas; dimos con algunas que prometían. Había dos en particular muy sugestivas, ya que compartían el yodo como especie intermedia común; una involucraba iones yodato y arsenito, mientras que en la segunda eran iones yoduro y clorito. ¿Podía tener una reacción el efecto perturbador deseado sobre la otra? Pronto se comprobó que la reacción yodato-arsenito era biestable. Introdujimos clorito y el sistema compuesto comenzó a oscilar, casi inmediatamente. El primer empeño sistemático aplicado al diseño de un nuevo oscilador químico resultó un éxito.
Variando los componentes que rito que se han encontrado a través entran en el reactor de flujo continuo de un programa de trabajo es mucho hemos ampliado el oscilador clo- más amplia. Dos factores, uno quírito-yodato-arsenito del comienzo mico y otro histórico, justifican esta hasta reunir una familia numerosa de paradoja. Químicamente, cada famidos docenas de sistemas relacionados lia de osciladores posee un miembro que tienen el ion clorito en común. unidad, o más sencillo, del que puePodemos ya clasificar una taxonomía den deducirse otros añadiendo nuede los osciladores clorito. Habrá que vas sustancias. El oscilador clorito relacionarla con las familias de los unidad, formado por clorito más osciladores de yodatos y bromatos. yoduro, oscila en un intervalo de con Aunque los osciladores bromato se diciones amplias. Por contra, la unicuentan entre los primeros en haberse dad del oscilador bromato, bromato descubierto, y se comprende mejor más bromuro más un ion metálico, no su mecanismo que el de los oscilado- opera más que bajo condiciones muy res clorito, la gama de sistemas clo- precisas. La verdad es que la bús-
OSCILADORES BROMATO CON ION METALICO
SIN ION METALICO
BROMATO + BROMURO + ION METALICO (MINIMO)
BROMATO + BROMURO + ION METALICO + OXIDANTE
OSCILADORES CLORITO SIN YODO
CLORITO + BROMURO + OXIDANTE
BROMATO + BROMURO + REDUCTOR
BROMATO + BROMURO + ION METALICO + REDUCTOR
REDUCTOR ORGANICO
REDUCTOR INORGANICO
CON YODO
CLORITO + REDUCTOR
CLORITO + YODO (MINIMO)
CLORITO + YODATO + REDUCTOR
CLORITO + YODO + REDUCTOR
REDUCTOR INORGANICO
REDUCTOR ORGANICO
CLORITO + YODO + OXIDANTE
OSCILADORES YODATO REDUCTOR INORGANICO
REDUCTOR ORGANICO
YODATO + PEROXIDO DE HIDROGENO
YODATO + PEROXIDO DE HIDROGENO + CATALIZADOR + REDUCTOR 7. PRINCIPALES CLASES DE OSCILADORES QUIMICOS, agrupados en la ilustración según una taxonomía provisional. Los hemos reunido en tres familias principales. El oscilador Belousov-Zhabotinsky y sus muchas variantes se encuentran en la rama de la familia del bromo que tiene iones metálicos; el oscilador bromato en la rama que está libre de iones metálicos constituye el trabajo de Körös y uno de los autores (Orbán). Todos los osciladores clorito han sido descubiertos por los autores. Los sistemas bromato que implican reductores inorgánicos fueron
78
desarrollados en condiciones de flujo continuo. La familia yodato consta de menos miembros. El primer sistema que se menciona en este grupo es la reacción oscilante que estudió en 1921 William C. Bray, que permaneció ignorada durante medio siglo. El segundo sistema de la familia del yodato es un híbrido de los sistemas Belousov-Zhabotinsky y de William C. Bray. Las líneas a trazos conectan sistemas que tienen ciertos reactivos en común. Una sustancia reductora es aquella que dona electrones a otra sustancia; la oxidante capta electrones.
TEMAS 16
queda del oscilador bromato unidad YODO no dio resultados, después de que Kedma Bar-Eli predijera su existencia, hasta que dos de los autores N I (Orbán y Epstein) lograron hallarlo O C tras buscarlo sistemáticamente a A R través del diagrama de fases de forma T N E cruzada. C Desde el punto de vista histórico, N O los primeros osciladores bromato se C descubrieron antes de que se utilizaran los reactores de flujo continuo. S E ARSENIATO/ARSENITO Los sistemas bromato oscilaban fácil- N O I C mente en condiciones de flujo nulo. A Los osciladores clorito, como la gran R T mayoría de los nuevos sistemas, N E muestran un comportamiento perió- C N dico sólo en condiciones de flujo con- O C tinuo, porque el flujo es necesario E D para mantenerlos lejos del equili- N O brio. Un sistema que oscile en con- I C L diciones normales, sin flujo, casi A E siempre lo hará en condiciones de R flujo continuo; lo contrario ocurre YODO muy pocas veces. La mayoría de los osciladores bromato se buscaron originalmente en condiciones normales, en tanto que los osciladores clo- N rito se buscaron sólo en condiciones O I de flujo. De ahí que los múltiples sis- C A temas clorito que se descubrieron R T E pronto sobrepasaran el número de N C sistemas bromato. (Los autores N C hallarían más tarde que varios osci- O ladores clorito operaban también en condiciones normales.) Podría decirse A B C A que la facilidad con que oscilaron los TIEMPO primeros sistemas bromato bloqueó la búsqueda de otros nuevos. Sólo 1 CLORITO + YODURO Æ CLORURO + YODO 3 YODATO + YODURO Æ YODURO recientemente se han utilizado los 2 CLORITO + YODO Æ CLORURO + YODATO 4 YODO + ARSENITO Æ YODURO + ARSENIAT reactores de flujo continuo para idenPAUTA DE OSCILACION observada en el primer sistema oscilante ideado por tificar nuevos osciladores bromato y 8. los autores. Puede interpretarse cualitativamente a partir de la interacción entre estudiar la tercera familia de osci- cuatro reacciones principales. El sistema oscilante se mantiene a través de un fluladores: los sistemas yodato; hasta jo, uniforme y equilibrado, de tres soluciones salinas: un clorito, un arsenito y un hoy, la familia más exigua. yodato. En el seno del reactor de flujo continuo, las concentraciones de yodo y yo Al diseñ ar cada nue vo oscil ado r dato, así como la razón de arseniato a arsenito, oscilan, según nos manifiestan las químico, nos proponíamos obtener tres curvas. En el punto A están subidos el yoduro y el arsenito, en tanto que yodo un sistema cuyo mecanismo pudiera y arseniato se hallan bajos; p or tanto, predominan las reacciones 1 y 3. Estas reacaumentan drásticamente la concentración de yodo e inician el descenso de descifrarse y compararse con los de ciones la concentración de yoduro, llevando el sistema hasta el punto B y suspendiendo las reacciones oscilantes ya exami- las reacciones 1 y 3. Intervienen entonces las reacciones 2 y 4, rebajando el yodo y nadas antes. La disección de la fami- convirtiendo el arsenito en arseniato. El sistema alcanza el punto C, donde el arlia de los sistemas oscilantes clorito senito y el yodo se encuentran en niveles mínimos, o en su vecindad. La alimentalleva buen camino. Se han estudiado ción del reactor hace que se recupere el arsenito mientras baja el arseniato por salas velocidades de varios procesos lida del mismo. La reacción 4 regenera el yoduro al tiempo que consume yodo, que la componen y empieza a haber devolviendo el sistema al punto A. varias piezas del rompecabezas; la descripción completa del esquema oscilante parece ser cuestión de ir pone de varios pasos elementales. en las concentraciones de yodo y acomodando los grupos hasta que Dos de ellos implican la reacción del yodato y en la razón de arseniato a casen todos. clorito con el yoduro o con el yodo, rin- arsenito (véase la figura 8 ). diendo cloruro y yodo en el primer caso La oscilación química, fascinante e puede dar ya una visión esque- y cloruro y yodato en el segundo. En en sí misma, está relacionada con mática de cómo funciona nuestro la tercera reacción, el yodato reac- otros fenómenos de no menor interés; primer sistema oscilante, en donde ciona con el yoduro para dar yodo. En por ejemplo, con la formación de entran soluciones de sodio o potasio la cuarta, yodo y arsenito forman yodo estructuras espaciales en un medio en forma de clorito, yodato y arse- y arseniato. Las variaciones en las inicialmente homogéneo. Estas esnito. Consta de sólo cuatro reaccio- velocidades de estas cuatro reaccio- tructuras se originan en uno de los nes fundamentales; cada una se com- nes originan oscilaciones periódicas osciladores que se han descubierto
S
CALOR Y MOVIMIENTO
79
a
d
b
e
c
f
donde los ingredientes son clorito, yoduro y ácido malónico. Cuando se añade almidón como indicador, la disolución adquiere un color azul oscuro uniforme al comienzo, debido a un complejo que forman el yoduro, el yodo y el almidón. A medida que avanza la reacción, aparecen puntos blancos que se desarrollan en anillos y conjuntos de anillos concéntricos, que se aniquilan entre sí al chocar. Alguien comparó la aparición de los puntos blancos contra el fondo azul oscuro con la aparición de las estrellas al atardecer. La presencia de estas formas geométricas en una masa antes indiferenciada nos trae a la mente otra clase de procesos: los que tal vez permiten que las células embrionarias de los organismos se especialicen en determinados tipos que constituirán la sangre, el cerebro o los huesos.
T L O V I L I M 0 0 2
T L O V I L I M 0 0 2
T L O V I L I M 0 0 2
30 MINUTOS
30 MINUTOS
9. OSCILACIONES PERIODICAS en la reacción clorito-tiosulfato. Muestran un amplio abanico de comportamientos cuando la velocidad de inyección al reactor de flujo continuo se altera de un modo sistemático. Cada ciclo tiene una gran oscilación y otras n pequeñas, donde n varía de 0 a 16. a T L O V I L I M 0 0 2
b T L O V I L I M 0 0 2
c T L O V I L I M 0 0 2
30 MINUTOS
10. OSCILACION APERIODICA, o caótica. Se observa a veces en un intervalo estrecho de velocidades de flujo entre velocidades que dan origen a una conducta periódica compleja. Tenemos un tipo de caos en una mezcla aparentemente al azar de dos clases de oscilación periódica, una con n y otra con n + 1 oscilaciones pequeñas por cada oscilación grande. Podría explicarse d iciendo que variaciones no controladas en la velocidad de flujo modifican el sistema al azar adelante y atrás, desde una velocidad que da una oscilación de la clase n hasta otra que da la clase (n + 1). La alternativa, que defienden los autores, afirma que la oscilación caótica es intrínseca de la dinámica de la reacción química a ciertas velocidades.
80
O
tro fenómeno relacionado, cuya existencia ha desatado en la comunidad química una polémica similar a la que suscitó hace un cuarto de siglo la reacción oscilante, es el del “caos químico”. La expresión alude a una reacción en que las concentraciones ni alcanzan valores constantes ni oscilan periódicamente, sino que aumentan y disminuyen al azar y de forma imprevisible. Hemos obser vado estas fluctuaciones en el sistema BZ y en uno de nuestros nue vos osciladores clorito, cuando se les hacía reaccionar en un reactor de flujo continuo sometido a riguroso control. Presentan un interés especial para los matemáticos: si fueran parte genuina de la dinámica de la reacción, constituirían ejemplos físicos de ciertos conceptos matemáticos, los llamados atractores extraños. Dichos atractores extraños surgen cuando se iteran determinadas ecuaciones, o se resuelven repetidamente, con el resultado de que una iteración sirve de información (“input”) para la siguiente. En un sistema de ecuaciones con un atractor extraño el camino que describen las sucesivas soluciones varía de un ciclo al siguiente de forma impredecible. (Douglas R. Hofstadter lo exploró en la sección de “Temas metamágicos” de Investigación y Cienci a , enero de 1982.] Los químicos escépticos atribuyen el caos químico a posibles fluctuaciones experimentales incontroladas, en la temperatura o en la velocidad de flujo por ejemplo, lo que desplazaría al azar el sistema de un modo de oscilación periódica y compleja a otro. Aunque la pelota está TEMAS 16
aún en el tejado, trabajos experimentales y teóricos realizados con extrema finura por Harry L. Swinney y Jack Turner, Jean Claude Roux, Christian Vidal y su grupo y por J. L. Hudson sugieren firmemente que el caos químico es un fenómeno genuino de la dinámica de al menos algunos osciladores químicos. No sabemos todavía dónde nos llevarán las implicaciones de un caos intrínseco. ¿Por qué no pensar, como afirmara en cierta ocasión Henry Adams, que “el caos engendra vida, cuando el orden crea hábito”?
D
emostrada la coherencia de los osciladores químicos con las leyes de la naturaleza y nuestra posibilidad de diseñarlos y describirlos sistemáticamente, comienzan a hacer acto de presencia, con un papel destacado, en varias áreas de la ciencia. El cambio de un estado a otro, distintivo de la reacción oscilante, quizá guarde la clave que nos descifre algunos procesos reguladores de la célula: los mecanismos que inician o bloquean la transcripción de una cadena de ADN o la contracción de un músculo. Las mismas fuerzas que crean anillos coloreados y capas en osciladores químicos sin agitar podrían tener que ver con las responsables de las distancias que median entre los anillos de Saturno y las estrías periódicas que se encuentran en ciertas formaciones rocosas, que no encuentran una explicación cómoda a través de los procesos geológicos con vencionales. También parece plausible que muchas, si no todas, las reacciones catalíticas que son fundamentales en la industria química tengan lugar de forma oscilatoria. El catalizador alternaría, en este supuesto, entre dos formas a lo largo de un intervalo temporal demasiado corto para detectarlas por los métodos de análisis clásicos. El estudio de las reacciones oscilantes se convertirá en banco donde probar las teorías de catálisis, y de modo más general, las teorías que describen la dinámica de las reacciones químicas. Cualquier modelo que prediga con éxito la compleja conducta de las reacciones oscilantes debe interpretar fácilmente los fenómenos más sencillos que se observan en reacciones menos exóticas. A medida que se diseñen o se encuentren nuevos osciladores químicos, se irá recogiendo información para abordar, desde una nueva perspectiva, múltiples fenómenos, incluidos los relojes y toboganes que operan dentro de nosotros. CALOR Y MOVIMIENTO
11. SE DESARROLLA UNA ESTRUCTURA EN TRES DIMENSIONES en un oscilador basado en el clorito, yoduro y ácido malónico. La solución, colocada en un plato llano, arranca desde un morado uniforme (arriba, a la izquierda ) de un complejo de yodo, yoduro y un indicador de almidón. A medida que la reacción avanza aparecen puntos blancos; éstos crecen formando anillos y conjuntos de anillos concéntricos, que se aniquilan entre sí al chocar. La última foto se tomó a los 90 segundos de empezar la reacción.
BIBLIOGRAFIA COMPLEMENTARIA B I O L OG I C AL A N D B IOCHEMICAL O SCI SENITE-I ODATE-C HLORITE SYSTEM. PaLLATORS: PROCEEDINGS OF THE CONFE trick De Kepper, Irving R. Epstein y KenRENCEON BIOLOGICALAND BIOCHEMICAL neth Kustin en Journal of the American OSCILLATORS, PRAGUE , 1968. Dirigido Chemical Society , vol. 103, n.o 8, págs. por B. Chance, E. K. Pye, A. K. Ghosh y 2133-2134; 22 de abril de 1981. B. Hess. Academic Press, 1973. MINIMAL BROMATE OSCILLATOR: BROMATE-BROMIDE-CATALYST. Miklós Orbán, CHEMICAL OSCILLATIONS. G. Nicolis y J. Portnow en Chemical Reviews, vol. 73, Patrick De Kepper e Irving R. Epstein en Journal of the American Chemical Son.o 4, págs. 365-384; agosto, 1973. A SYSTEMATICALLY DESIGNED HOMOGEciety , vol. 104, n.o 9, págs. 2657-2658; NEOUS OSCILLATING REACTION: THE AR5 de mayo de 1982.
81
Termodinámica de la evolución biológica David Lurié y Jorge Wagensberg
Los seres vivos son unos sistemas termodinámicamente abiertos que intercambian materia y energía con el mundo exterior para adquirir y mantener estructuras que, a su vez, son susceptibles de evolucionar
E
l siglo XIX contempló el apogeo de una ciencia determinista que culminó con la formalización más perfecta de la mecánica newtoniana. Esta ciencia exhibe un concepto de “orden” inspirado en la observación de los fenómenos astronómicos y proporciona una imagen armónica y preestablecida de la naturaleza. El tiempo constituye un parámetro sin dirección, todas las ecuaciones son reversibles y no existe privilegio alguno entre las nociones de pasado y de futuro. En este ambiente nació la termodinámica con su célebre “segundo principio”, que aporta la irreversibilidad del tiempo y, con ella, una dirección bien definida para las evoluciones. La nueva ciencia fue aceptada dentro de la familia de la física como una entidad extraña y molesta. Pero a partir de entonces se han venido desarrollando nuevas disciplinas protagonizadas por el nuevo concepto del tiempo. Hoy la termodinámica se nos ofrece como una ciencia clave para la comprensión y descripción del concepto general de “cambio”. En biología, la termodinámica ha encontrado no sólo un dominio inagotable de aplicación sino también una fuente de inspiración que ha sido decisiva para su propio progreso durante los últimos decenios. Las razones han sido fundamentalmente dos. Por un lado, el alto g rado de complejidad que los sistemas vivos muestran en sus estructuras a todos los niveles (muy alejado ya del concepto de orden astronómico); por otro, la necesidad de un tiempo irreversible que describa la evolución y la interelación de dichas estructuras. La termodinámica interesa al problema de la vida desde sus mismos cimientos, léase primer y segundo principios, que rigen el conjunto de transformacione s fisicoquímicas que
82
tienen lugar en el seno de los sistemas observables . El primer principio afirma la conservación de la energía total de un sistema en el transcurso de dichas transformaciones. Un sencillo ejemplo: el trabajo que mueve un automóvil más las pérdidas (en forma de calor, por ejemplo) equivale a la energía química de combustión de la gasolina liberada en el interior de los cilindros del motor. El segundo principio, en su versión original, describe la evolución de un sistema aislado (que no intercambia materia ni energía con su vecindad): existe una magnitud S, llamada “entropía”, que no puede hacer más que crecer durante el desarrollo de cualquier transformación de energía, de forma que, transcurrido un tiempo suficientemente largo, alcanzará un valor máximo, que caracteriza al estado final, llamado de equilibrio termodinámico, estado en el que ningún proceso que altere el valor de S es posible. El segundo principio aporta, con esta primera formulación, un criterio de evolución hacia el futuro y adquiere una fuerza especial con la interpretación estadística de Boltzmann: la entropía es una medida del desorden molecular. El segundo principio se convierte así en una ley de desorganización progresiva y los sistemas que la obedecen, en contraste con los sistemas mecánicos, se olvidan de sus condiciones iniciales ( véase la figura 1 ).
D
e acuerdo con la teoría clásica del equilibrio, la evolución natural es una sucesión de estados cada vez más desordenados. El segundo principio habla de sistemas aislados y de equilibrio. Está claro que para aproximarnos a los sistemas vivos es necesario relajar estas dos fuertes limitaciones. En efecto, los sistemas vivos
son, ante todo, sistemas termodinámicamente abiertos, es decir, intercambian materia y energía con su ambiente. Abrir esta posibilidad supone una situación muy diferente incluso en el mundo inanimado; existe ya la oportunidad para la existencia de estados ordenados de baja entropía a una temperatura suficientemente baja. Se trata de estructuras de equilibrio como los cristales. Esta generalización permite la descripción del crecimiento de un cristal hasta una situación estable; pero, aunque más cerca, todavía está lejos de explicar cómo, a temperaturas ordinarias, las moléculas puedan organizarse hasta formar complejas estructuras que a su vez realicen las coordinadas funciones de los procesos vitales. Las estructuras de equilibrio citadas se mantienen indefinidamente sin el concurso de ningún proceso de transformación energética. Hay que hacer, además, una nueva concesión: los sistemas abiertos tienen que evitar las situaciones de equilibrio. Se trata de otro aspecto evidente que los organismos muestran a todos los niveles. Basta pensar en los fuertes gradientes de energía o en los intensos gradientes de potencial químico que se dan en las células. En estas condiciones un sistema puede llegar a una situación estable de no equilibrio, llamada estado estacionario. En tales casos se produce una cierta entropía positiva di S que el sistema, dada su condición de abierto, puede disipar totalmente al exterior d e S ( = –d S i ). Mantiene de esta forma una estructura constante, ya que el balance de entropía global es nulo: dS = d S i + d e S = 0. El gas de Knudsen es un ejemplo de sistema cerrado (no intercambia materia) pero no aislado (intercambia energía). En este caso se observa
TEMAS 16
una evolución del sistema hacia un estado estacionario de no equilibrio, caracterizado por una separación de fases; es decir, ilustra cómo en una situación de no equilibrio se consigue la transición de un estado homogéneo a otro diferenciado —impuesto por las ligaduras exteriores— en el que se mantiene. Si se aísla un sistema vivo, privándole de intercambio de materia y de energía, el segundo principio se aplica con toda su fuerza; el sistema se dirige entonces al estado de equilibrio, que es sinónimo de muerte biológica. Se necesita, pues, una termodinámica de no equilibrio para sistemas no aislados. Hemos conservado hasta aquí el concepto de orden entrópico de Boltzmann y cabe preguntarse hasta qué punto puede extenderse esta idea a los sistemas vivos. [La ecuación de Boltzmann relaciona la entropía de un sistema con su grado de desorden o su probabilidad termodinámica W ; es decir, S = f (W ).] El precedente más importante está en la obra de Erwin Schrödinger ¿Qué es la vida ? (1945). Si se admite que un aumento en el nivel de organización tiene asociado un descenso en el valor de la entropía del sistema, se obtiene un atractivo sentido biológico para el balance entrópico: la diferenciación de los organismos se consigue disipando más entropía de la que en su interior se produce. Dicho de otra manera, los sistemas vivos roban orden a su ambiente por medio de un flujo negativo de entropía, término que Schrödinger bautizara como “neguentropía”. Pero, como tantas veces ocurre en un problema científico, un concepto que es satisfactorio a determinado nivel pierde consistencia en otros más finos. La biología es rica en un amplio espectro de niveles de observación, que van desde el molecular hasta el de poblaciones de individuos. La sospecha de que el sencillo y arquitectural orden de Boltzmann sea insuficiente para explicar el orden complejo y funcional de los procesos bioquímicos está ju stifi cada. Pero la misma te rmo dinámica de los procesos irreversibles ofrece nuevas alternativas: el orden por fluctuaciones y el concepto de estructura disipativa. Cuando los sistemas se alejan mucho del equilibrio, la situación deja de describirse como una prolongación lógica de dicho estado. Abandonan el llamado régimen “lineal” de la termodinámica para entrar en el “no lineal”. En este régimen aparecen discontinuidades e inestabilidades, el estado esta -
CALOR Y MOVIMIENTO
cionario compatible con las condi- librio, importa dar cuenta de la preciones que impone el ambiente ya no sencia de estructuras de equilibrio es único y las fluctuaciones espontá- en los niveles más elementales de la neas —antes siempre condenadas a vida. Así, en el virus. El virus es una regresar— pueden amplificarse y estructura de equilibrio cuya formaarrastrar los sistemas a nuevos esta- ción y estabilidad recuerda mucho la dos estables: las estructuras disipa- de ciertas estructuras cristalinas tivas. Numerosos casos de autoorga- inorgánicas. Un virus aislado se mannización se explican según el nuevo tiene como un cristal sin necesidad concepto de orden termodinámico. de ninguna clase de intercambio con La evolución natural de la termo- el ambiente; mas para realizar una dinámica de los procesos irreversibles función específicamente vital, como tiene una interesante proyección en es la reproducción, no tiene otro remelos conceptos biológicos de creci- dio que hospedarse en una célula, miento, diferenciación y evolución. que no es sino un sistema abierto y Como primer paso hay que estable- de no equilibrio. Se trata, pues, de un cer el dominio de aplicabilidad de caso límite. La estructura se forma cada uno de los niveles termodiná- fuera del equilibrio, pero es capaz de micos a los sistemas vivos. A pesar mantenerse en él. de nuestra insistencia en el no equiLa termodinámica del no equili-
ESTADO 1
ESTADO 2
ESTADO 3
1. SEGUNDO PRINCIPIO DE LA TERMODINAMICA, que dice: la entropía de un sistema aislado aumenta en el transcurso de cualquier transformación fisico-química. Dos gases diferentes están en un principio conf inados en las dos mitades de un volumen aislado (estado 1). Si se deja evolucionar el sistema, los gases se mezclan (estado 2) y el sistema tiende a alcanzar el estado de máximo desorden (estado 3). A medida que el carácter aleatorio de la distribución de las moléculas crece, la entropía aumenta. La evolución hacia el estado 3 de equilibrio ( abajo) es irreversible; la mezcla no se separará espontáneamente para recuperar el estado 1 inicial. El tiempo tiene aquí un sentido bien definido.
83
brio parte del concepto de balance de bilidad de una estructuración inteentropía, introducido por Ilya Pri - rior si la competencia entre los térgogine. Consideremos en primer lugar minos de producción y de flujo de un sistema aislado. El segundo prin- entropía se resuelve favorablemente cipio de la termodinámica expresa (véase la figura 2 ). que la entropía producida en el inteLa producción de entropía se rior del sistema es positiva durante expresa en una forma muy simple y el desarrollo de procesos irreversibles general en términos de los llamados y nula en el equilibrio (dS = dt S ≥ 0). “fuerzas” y “flujos” termodinámicos Si el sistema no está aislado, se debe asociados al desarrollo de un conjuncompletar la expresión con un tér- to de procesos irreversibles. A cada mino de flujo de entropía d e S , que fuerza X le corresponde un flujo conrepresenta el intercambio entrópico jugado J . Ejemplos de estas magnicon el ambiente. Se establece así una tudes correspondientes son gradiente ecuación de balance de entropía térmico y flujo de calor, afinidad química y velocidad de las reacciones, dS = d e S + d S i . Es importante que sólo el término de producción tenga potencial eléctrico y flujo de cargas, un signo bien definido. Si se acepta gradiente de densidad y flujo de masa, la entropía como una medida del etcétera. La producción de entropía desorden, está claro que los sistemas para un conjunto de n procesos aislados tienen su evolución com- simultáneos se escribe como la suma prometida hacia el máximo caos; pero de los n términos formados por los proen los sistemas abiertos existe la posi- ductos de las fuerzas y flujos corres-
ESTADO 1
T1
T2
n1
n2 T1 = T2 n1 = n2 ESTADO 2
n
pondientes: dtS/dt =i ∑ i i (Conviene = 1 J X distinguir la i subíndice de la entropía, que significa que la entropía de que hablamos es interna, de la i subíndice de fuerza, X , o flujo, J , que representa un número natural.) En las situaciones próximas al equilibrio, flujos y fuerzas conjugados se relacionan entre sí por leyes empíricas lineales que en los ejemplos anteriores corresponden a las leyes de Fourier para la conducción de calor, de Hartley-Fick para la difusión, etc. En una superposición de procesos el flujo i -ésimo se expresa como una combinación lineal de todas las fuerzas, donde los coeficientes (llamados de Onsager) cumplen una condición n de simetría: J i = j∑ Xj, con Lij = Lij. = 1 Lij Esta formulación permite definir el concepto estacionario de no equilibrio y determinar los criterios de estabilidad y de evolución que a él se refieren. Los estados estacionarios ocupan un lugar de interés práctico dentro de la termodinámica por su accesibilidad al tratamiento matemático y por el gran número de situaciones reales que representan. Un sistema está en un estado estacionario si sus parámetros microscópicos tales como temperatura, presión, entropía o composición son independientes del tiempo. Esto es compatible con el desarrollo de procesos irreversibles en el interior del sistema y con que los parámetros intensivos sean función de las coordenadas especiales. La introducción de las fuerzas termodinámicas permite una clasificación muy útil de los estados estacionarios.
C
T1
T2
n1
n2
T1 > T2 n1 n2
2
=
T2 T1
2. GAS DE KNUDSEN. Consiste en un gas encerrado en dos vasijas comunicadas por un tubo capilar. El conjunto constituye un sistema cerrado pero no aislado. Si el sistema está sumergido en un baño de temperatura uniforme, las moléculas se distribuyen de forma homogénea en el estado 1 de equilibrio. En un sistema no aislado puede establecerse un gradiente térmico fijando las temperaturas de las vasijas en T 1 > T 2. Se observa entonces que el sistema evoluciona hacia un estado 2 estacionario de no equilibrio que presenta una separación de fases; las moléculas que pueblan las vasijas están ahora en la relación n2 / n1 = √ T 1 / T 2. Se demuestra que la entropía del estado 2 es menor que la del estado 1.
__
84
onsideremos un sistema caracterizado por n fuerzas X 1 , X 2 , ..., X n, k de las cuales se mantienen fijas mediante ligaduras impuestas al sistema desde el exterior. Experimentalmente se observa que, con independencia de la configuración inicial de las n-k fuerzas libres, el sistema alcanza tarde o temprano un estado en que todas las fuerzas —y, por tanto, todos los flujos que de ellas se componen linealmente— son constantes en el tiempo. Un estado estacionario preparado de esta manera se llama estado estacionario de orden k . El equilibrio queda entonces como el estado estacionario de orden cero, o bien, como el que corresponde a no imponer ninguna ligadura termodinámica. Ocurre además que, en un estado estacionario, los flujos asociados a las fuerzas libres son no solamente constantes sino nulos, y el sistema en dicho estado queda perfectamente caracterizado por el nú-
TEMAS 16
TA mero y la intensidad de las fuerzas fijadas. Estas fuerzas miden de alguna manera la distancia del estado al equilibrio y su debilidad garantiza la aplicabilidad de la formulación 4 Æ • lineal. 2 El balance entrópico refleja en qué 3 forma puede mantenerse un estado estacionario. El sistema envía al 1 ambiente toda la entropía que en su 1 interior se produce, precio ineludible de cualquier proceso irreversible 2 según el segundo principio. Como consecuencia, el sistema mantiene su 3 4 Æ • entropía constante. La persistencia de un sistema en un estado estacionario equivale entonces a la conser vación de una determinada estructura A R o grado de organización. Por otro lado, TB U T la evolución hacia ese estado esta A R E cionario desde una configuración ini P cial supone la adquisición de dicha M E T estructura final, o si se quiere, la acomodación interna del sistema a las condiciones impuestas por el ambiente. Dentro del régimen lineal, la estabilidad del estado estacionario está asegurada; esto es, cualquier perturbación fortuita que suponga un desplazamiento del mismo es vencida por el sistema que tiende a restituir la situación estacionaria. En otras palabras, las fluctuaciones que pueden aparecer no tienen oportunidad de progresar, se amortiguan y no trascienden microscópicamente. 3. EVOLUCION de una configuración de temperaturas en una barra aislada en toSe puede demostrar que esto es una do su contorno excepto en los extremos donde se ha fijado la temperatura T A y T B. consecuencia directa de la estabili- La configuración inicial 1 está representada a intervalos regulares de tiempo 2, 3, dad del equilibrio. La ley de evolu- 4... (infinito) hasta alcanzar el estado estacionarlo (rojo) impuesto por las temción hacia los estados estacionarios peraturas extremas. La discretización de la barra inferior en n celdas iguales perfue enunciada y demostrada por mite una cómoda simulación numérica de la evolución de las temperaturas y del Prigogine; se trata del célebre prin- balance entrópico. cipio de la mínima producción de entropía. Dicho principio establece que el estado estacionario se carac- tacto con baños a temperatura manLa configuración final de tempeteriza por un valor mínimo de la pro- tenida constante, T A y T B respecti- raturas y los correspondientes valoducción de entropía compatible con vam ent e. Podemo s dividir lon gitu- res de la producción e intercambio de las ligaduras impuestas: la produc- dinalmente la barra en n celdas entropía dependen únicamente de las ción de entropía es una magnitud no idénticas de longitud 1/ n cada una. La ligaduras termodinámicas exterionegativa que decrece durante cual- hipótesis del equilibrio local permite res (en este caso T A y T B). La evoluquier evolución y que se hace cons- hacer una discretización de la distri- ción hacia dicho estado final de la tante y mínima una vez se ha alcan- bución de temperaturas que tanto más configuración y del balance entrópico zado el estado estacionario. se aproximará al caso continuo cuanto depende de la configuración inicial de Inmediatamente después del esta- mayor sea n. La estructura del sistema temperaturas y cumple el teorema blecimiento de este principio, Prigo- en cada instante vendrá dada por las de la mínima producción de entropía gine y Wiame propusieron su aplica- dos temperaturas mantenidas fijas ( véase la figura 3 ). ción al crecimiento y desarrollo de T A y T B y las n – 2 restantes. Si sistemas biológicos. Desde entonces T A = T B, la distribución será indel primer problema a afrontar en se planteó una controversia no del pendiente de la posición y del tiempo, el caso de los seres vivos reside todo resuelta hasta el momento. Pero esto es, todas las celdas tendrán siem- en saber qué término del balance veamos primero un ejemplo físico muy pre la temperatura de los extremos. entrópico puede evaluarse experisimple descrito por la aproximación Se trata del equilibrio termodinámico mentalmente durante el desarrollo de lineal de la termodinámica: el caso de como corresponde a la ausencia de un organismo. Uno de los casos más la conducción de calor en una barra ligaduras exteriores. Si T A es mayor discutidos es la descripción temporal metálica. Sea una barra homogénea que T B el sistema evolucionará hacia del metabolismo expresado por terde metal, de sección fija, longitud 1 y un estado estacionario en que las tem- mogramas específicos obtenidos por aislada en todo su entorno excepto en peraturas serán independientes del técnicas de calorimetría, esto es, la sus extremos A y B que están en con- tiempo pero no de la posición. medida de la disipación de calor por
E
CALOR Y MOVIMIENTO
85
+
O C I P O R T N E E C N A L A B
SEGUNDOS 10
20
–
4. EVOLUCION DEL BALANCE ENTROPICO correspondiente a la ilustración anterior. La curva sólida indica producción de entropía; la curva punteada, intercambio de entropía con el exterior y la curva a trazos, la variación de entropía. En el estado estacionarlo la entropía es constante.
unidad de masa y de tiempo a temperatura constante. En la figura 5 aparece el termograma específico continuo de un sapo, según Gayda, desde el instante de la fertilización del huevo; el de una rata desde su alumbramiento, según Prat y Calvet; y la evolución del calor liberado durante el crecimiento de un cultivo de bacterias Citrobacter intermedium C3, calculado por unidad de célula viable, según Wagensberg y Torra. El carácter específico de estas medidas es imprescindible si se desea aproximar estos registros a los criterios termodinámicos de evolución. En la figura 6 tenemos el registro térmico total de la población bacteriana en el que destacan dos fases respiratorias (aeróbica y anaeróbica) bien diferenciadas, pero que desaparecen al dividir por el número total de indi viduos. Tradicionalmente se ha considerado una buena aproximación el considerar dichos termogramas específicos como la producción de entropía por unidad de masa. Así lo han supuesto Prigogine, Zotin y Trintscher, entre otros. Basta una ojeada a los dos primeros casos para ver que el teore ma de la mínima producción de entropía se satisface una ve z se ha su pe ra do la fa se de
86
embriogénesis; y que se cumple siempre en el tercer caso, donde no puede decirse que dicho período se dé en el estricto sentido de la palabra. Existen dos interpretaciones del aumento de disipación durante esta fase. Una debida a Zotin, según el cual las ligaduras no tienen por qué mantenerse constantes durante el período de embriogénesis, requisito imprescindible en la deducción del teorema de la mínima producción de entropía. Una segunda explicación más atractiva se debe a Prigogine y ha sido materializada a nivel de modelo matemático por dos investigadores de su escuela, Hiernaux y Babloyantz: durante la embriogénesis, etapa que incluye los fenómenos de diferenciación y crecimiento, los sistemas vivos escapan del equilibrio atravesando incluso la frontera del régimen lineal. Esta interpretación salva también la contradicción, ya que el principio de la mínima producción de entropía limita su validez a las situaciones próximas al equilibrio. Según este último punto de vista los sistemas vivos utilizan procesos no lineales para aumentar su disipación al tiempo que forman estructuras disipativas espaciotemporales en los primeros pasos a través de una
sucesión de inestabilidades. Y sólo una vez dicha fase se ha superado se encara una evolución hacia un estado estacionario que se caracteriza por un mínimo valor de la producción de entropía. Au nq ue qu iz á pu ed a ll eg ar se a demostrar que las dos imágenes se aproximan a la realidad, existe una tercera posibilidad igualmente sugestiva que proponemos para la interpretación termodinámica de un organismo (Lurié y Wagensberg, 1977). Se trata de prescindir, en primer lugar, de la aproximación habitual que identifica el flujo de calor, del organismo al ambiente, con una medida de la producción de entropía y tomarlo en su acepción real de inte rcambio de entropía. Rechazar dicha aproximación tiene el inconveniente de que no se puede argumentar directamente sobre los termogramas utilizando el principio de evolución que afecta al término de producción y no al de intercambio. Sin embargo, permite construir una nueva imagen del desarrollo, a nivel de analogía, sin necesidad de prescindir de las hipótesis de la descripción lineal de la termodinámica. Es importante destacar que aproximar un índice experimental de intercambio a uno de producción es equivalente a anular el término de variación neta de entropía, es decir, equivale —si seguimos asignando a la entropía una cierta representación del grado de estructura— a imponer al organismo una evolución a estructura constante; y eso es tanto más cierto cuanto más cerca se está de la edad adulta, a llí donde la diferenciación y el crecimiento tienden a desaparecer, y tanto menos cierto cuanto más cerca se está de la fertilización, allí donde el crecimiento y la diferenciación se imponen y donde el principio de la mínima producción de entropía parece violarse. Recuperemos, pues, las hipótesis de las que nos serviremos para reconstruir la historia de un organismo desde la fecundación: a) los datos calorimétricos suponen una información cuantitativa de la variación temporal de intercambio específico de entropía; b) existen ciertas leyes fenomenológicas lineales entre fuerzas y flujos; c) las ligaduras exteriores se mantienen constantes desde la fecundación.
D
eben hacerse dos comentarios en relación con la tercera hipótesis. En primer lugar cabe esperar una relajación de las ligaduras exteriores superpuesta a la evolución del sis-
TEMAS 16
tema, pero muy lenta en relación con los efectos de crecimiento y diferenciación. Bajo este punto de vista, el envejecimiento, en su sentido estricto, empieza inmediatamente y se manifiesta, una vez se ha alcanzado el estado estacionario, por el progresivo debilitamiento de las ligaduras que corresponde a la evolución gradual desde dicho estado, caracterizado por una producción de entropía positiva, hasta el de equilibrio donde aquélla se anula. En segundo lugar, una justificación de dicha hipótesis. En la termodinámica lineal de los procesos irre ve rs ib le s, un es ta do es ta ci on ar io queda determinado —de manera única— una vez se han fijado las ligaduras exteriores. En biología, por otro lado, el estado adulto de una especie dada viene en gran parte determinado por la información contenida en el código genético. Es, por tanto, tentador suponer que, para cada organismo, las ligaduras termodinámicas exteriores quedan fijadas desde el momento de la concepción al completarse la información genética y que la degeneración del individuo se explica por una serie de errores no corregibles en el código que, como hemos dicho, suponen un olvido gradual de las ligaduras iniciales y que, en definitiva, conduce al organismo hacia el estado final de máximo desorden. Admit iendo las tres hipótesis nos hemos armado de la siguiente información con respecto al balance de entropía que, para la evolución de un organismo, vamos a reconstruir en la figura 8. Por un lado, la experiencia proporciona el comportamiento cuantitativo del intercambio específico de entropía. (Se trata de un termograma generalizado del tipo de los mostrados en la figura 5 y que aparece en la figura 7 —curva punteada— refle jada por el eje de abscisas, para señalar que la disipación de calor corresponde a un flujo negativo de entropía para el organismo.) Por otro lado, la termodinámica propone un comportamiento cualitativo de la producción específica de entropía como una cantidad positiva y decreciente. El término resultante del balance, la variación específica de entropía, es el objetivo de nuestro análisis, ya que representa, según la sugerencia original de Schrödinger, la trayectoria estructural del organismo. Se observa que, en general, este término puede adoptar sucesivamente los signos positivo y negativo durante la evolución. ¿Cómo interpretar este hecho? Es importante comprobar que el
CALOR Y MOVIMIENTO
término de variación de entropía por unidad de masa 1/ m dS/dt es el resultado de otros dos términos en competencia, con un significado biológico muy claro: crecimiento y diferenciación. El primero representa el efecto de producción de nueva biomasa y su
aporte entrópico se expresa como el producto entre la tasa de crecimiento relativo 1/ m dm /dt y el contenido entrópico de la unidad de masa S/m ; el segundo representa la diferenciación y organización de dicha biomasa, y se expresa por la derivada tempo-
TIEMPO (DIAS) 100
50
150
A R A O I R H O O20 L A M C A R G
20
40 DIAS
60
30
8 –
0 1 ¥
T T A A 20 W L U O L R E C I C M
10
1
2
3
DIAS
5. TERMOGRAMAS ESPECIFICOS de sistemas vivos. En la ilustración superior, la curva azul representa el termograma de un anfibio según Gayda desde el instante de fertilización del huevo (la flecha designa el momento de la eclosión), la curva ro ja representa el de una rata desde el momento de alumbramiento. En la figura inferior se registra la evolución del calor liberado durante el crecimiento de un cultivo de bacterias Citrobacter intermedium C 3 calculado por unidad de célula viable, según Wagensberg y Torra. Los datos se han obtenido mediante un microcalorímetro de flujo especialmente sensible.
87
b
100 T T A W O R C I M
a
50
1
2
DIAS
3
4
6. TERMOGRAMA GLOBAL correspondiente a toda la población del cultivo de Citrobacter , representada en la ilustración precedente. Se distinguen las dos fases respiratorias: aerobia (a) y anaerobia (b).
ción de la teoría de la información a la biología arrancó con mucho entusiasmo después de los primeros trabajos de Shannon (1948); la razón era obvia: ofrecía aquello que necesitaba la biología, a saber, una teoría cuantitativa de la organización. Así, por ejemplo, una molécula de ADN extraída de una célula de mamífero tiene una capacidad de 2 × 10 10 bits (unidades de información) que puede compararse al contenido informático de cien frases de la Enciclopedia Británica. De esta forma puede evaluarse la complejidad de un organismo completo. Morowitz calculó en 1955 el valor info rmático de las instrucciones que serían necesarias para construir una célula de Escherichia coli a partir de un conjunto desordenado de moléculas. Encontró 2 × 10 11 bits. Este resultado coincide bien con un cálculo que hemos realizado a partir de la entropía puesta en juego para la formación de la célula, detectada por microcalorimetría y que proporciona un valor de 3,5 × 10 11 bits.
gur a 3 ), para encontrar configuraciones iniciales que proporcionen una evolución del balance entrópico en el sentido de lo que puede ocurrir en el orton A. Johnson ha expresado 1 dS 1 dm S desarrollo de un organismo vivo. Estas su decepción por el hecho de que = + configuraciones iniciales resultan ser la teoría de la información y biología m dt m dt m de un tipo de “estados estaciona- no acaban de converger claramente, d S + rio-perturbados” especiales que dan en el sentido de que aquélla no ha dt m lugar, durante su posterior evolución, permitido todavía programar o intera dos efectos en competencia: uno que pretar experiencias concretas en el a idea de Schrödinger se refiere, tiende a aumentar la entropía y otro laboratorio, que es la única medida pues, al segundo término, que que tiende a disminuirla. Se trata de de relevancia para cualquier teoría. debe esperarse que sea negativo un efecto paralelo al del conflicto cre- Para Johnson, el organismo es una durante un proceso de diferenciación. cimiento-diferenciación que sugiere la consecuencia operacional, una “deducEl primer término es, en cambio, posi- siguiente interpretación del desarro- ción” de una parte de la información tivo durante un proceso de creci- llo de los seres vivos. La fertilización contenida en el huevo. Esta imagen miento. En definitiva, el signo del tér- transmite al sistema las ligaduras es coherente con el supuesto de unas mino de variación específica de exteriores y establece su estructura ligaduras termodinámicas impuestas entropía depende del peso relativo de inicial como una “perturbación” o “fluc- desde el tiempo cero de la concepción los dos anteriores. A pesar de qu e no tuación” con respecto al estado esta- a través del código genético. La inforse dispone de un conocimiento directo cionario adulto. En este aspecto, la mación original se almacena en las de los flujos y fuerzas termodinámi- recién creada biomasa debe contem- células en una forma redundante, lo cos, dada la gran complejidad de los plarse como un sistema inestable e que supone una cierta protección, pero sistemas biológicos, resulta relevante imperfecto que requiere de la subsi- no se puede evitar que aquélla se el hecho de que la evolución tempo- guiente evolución para ir ajustándose pierda en el transcurso del tiempo o ral del término intercambio especí- progresivamente a las ligaduras que se produzcan errores en el matefico de entropía observado por vía impuestas. El estado adulto no puede rial genético. La degeneración de esta experimental sea esencialmente el mantenerse eternamente y el enve- información asociada a las ligaduras mismo para todos los organismos vivos jecim ien to se int erp ret a com o una heredadas no puede restituirse extraestudiados. Esto sugiere la existen- aproximación gradual del estado esta- yendo información del ambiente a cia de un denominador común rela- cionario hacia el de equilibrio por una través de un flujo neguentrópico. El cionado con las configuraciones estruc- relajación paralela de las ligaduras sistema es en este aspecto aislado y turales iniciales. En este aspecto es externas. Puede decirse que en cierto el caos final imparable. El individuo, difícil resistirse a la tentación de inves- sentido el sistema se olvida de las incapaz de reponer parte de la infortigar la naturaleza de dichas confi- órdenes recibidas en la fertilización mación, está condenado a una pérguraciones, aunque sea recurriendo a causa de una sucesión de errores dida continua de orden. Esto se refleja a analogías con fenómenos físicos sen- moleculares que no se corrigen, es termodinámicamente por el hecho de cillos, que presenten perfiles simila- decir, de una progresiva pérdida de que el estado adulto de un organismo res en las curvas de evolución tem- la información inicial. no sea sino una ilusión de estado estaporal de intercambio y producción de La evolución biológica adquiere, cionario y, como hemos visto en nuesentropía. Basta atender al caso de bajo esta óptica, cierta coherencia en tra analogía, el envejecimiento equiconducción de calor en una barra me- lo que a crecimiento, diferenciación vale a la progre siva horizonta lidad tálica, comentando antes (véase la fi- e información se refiere. La aplica- de dicho estado en el diagrama hasta
ral del contenido entrópico de masa d ( S / m )/dt , esto es,
(
)
H
( )
L
88
TEMAS 16
el fatal equilibrio final. La reproduc- parámetro ξ, por ejemplo ξ2 > ξ1, tiene Es fácil encontrarse con situaciones ción es la mejor solución (y la más soluciones múltiples asociadas. En experimentales y teóricas de esta clase: económica desde el punto de vista este caso, las fluctuaciones deciden las reacciones autocatalíticas en quíentrópico) para garantizar la persis- el camino a tomar en cada bifurca- mica, la inestabilidad de Bénard en tencia de la vida: hacer copias a tiempo ción. Resulta interesante resaltar hidrodinámica, el láser según la intery a bajo precio, esto es, desencadenar aquí la reconciliación entre azar y pretación de Haken en física y la teoría la formación de nuevos sistemas fuera determinismo. La descripción de un de Eigen para la evolución prebiótica, del equilibrio por transmisión de las sistema con bifurcaciones implica la entre otras. La química ha sido, sin ligaduras pertinentes. coexistencia de elementos proba- duda, un campo pionero de trabajo en Hasta aquí la interpretación ter- bilísticos y deterministas: entre dos este sentido, profundamente estumodinámica —a nivel de organismo— puntos de bifurcación reinan las leyes diado por la escuela de Bruselas. A ella es determinista como corresponde al deterministas —como las ecuaciones pertenece el caso más espectacular de dominio lineal. Quedan otros aspec- cinéticas químicas—, pero en la vecin- los hasta hoy descritos: la reacción de tos de la evolución por describir: auto- dad de cada uno de esos puntos pre- Zhabotinski-Belousov. En una soluorganización, mutación y selección, vale cen las fluctuaciones. Esta cola- ción homogénea de ciertos compuesentre varios. Es el momento de atrave- boración entre azar y determinismo tos aparecen espontáneamente, supesar la frontera que separa el dominio introduce un nuevo concepto de his- rado un umbral crítico de disipación, lineal del no lineal en la termodiná- toria dentro de la física, tradicional- unas oscilaciones alternativamente mica de los procesos irreversibles, de mente reservado a fenómenos bioló- rojas y azules (excesos de iones Ce+3 dar un salto que permita descender gicos, sociales o culturales. En efecto, y Ce+4 indicados por ferroína) que derihasta los niveles subcelular y bio- llegar al estado IV del diagrama por van gra dualmente hacia una estrucquímico, que es donde se originan los un aumento de la disipación —y, por tura en el espacio formada por estraacontecimientos de la evolución, e tanto, del parámetro ξ— conlleva el tos horizontales estables rojos y azules. interpretar fenómenos no determi- conocimiento de que las visitas a los Esta especie de bandera azulgrana nistas que aparecen en niveles supe- puntos de bifurcación I, II y III se puede mantenerse en un tubo de riores. En esta frontera termodiná- han realizado. ensayo de 10 mililitros durante una mica encontramos una discontinuidad La formación de una estructura hora, e indefinidamente en un sisen el concepto de orden y estructura, disipativa, auténticos nuevos esta- tema abierto en el que se establezca así como en la forma en que éstos se dos físicos de la materia, requiere un flujo apropiado de reactivos ( véase adquieren. tres elementos fundamentales: 1 ) la figura 11 ). Función, esto es, la actividad fundauperada una distancia crítica del mental descrita por ecuaciones deecuperando en síntesis lo exequilibrio, las ecuaciones cinéticas terministas no lineales; 2 ) estrucpuesto cabe insistir en el hecho se hacen no lineales y sus soluciones turación espaciotemporal de dicha de que dentro de la termodinámica pierden unicidad. Llegamos de este función, y 3 ) fluctuaciones. puede concebirse la creación de modo a nuevos estados de organización espaciotemporales, que Prigogine + ha llamado “estructuras disipativas”. Estos estados responden a un principio de orden bien diferente del principio de Boltzmann: “el principio de orden por fluctuaciones”. El diagrama inferior de esta página ayuda a comprender la esencia de la nueva idea de orden sin necesidad de recurrir al com- O I plicado aparato matemático que lo C P describe. Sea ξ una medida de la dis- O R tancia al equilibrio y η una medida de T N la estructura relacionada con el nú- E TIEMPO E mero de soluciones (estados estables) C N accesibles al sistema y compatibles A L con las condiciones de contorno. Para A B un alejamiento suficiente aparecen puntos de inestabilidad que representan una bifurcación matemática de la solución. La multiplicidad de estados posibles se enriquece, en general, con la distancia al equilibrio. A un valor ξ1, – corresponde una solución única. Desde el punto de vista de la estabi- 7. EVOLUCION DEL BALANCE ENTROPICO para un ser vivo desde su concepción lidad del sistema, puede decirse que hasta su estado adulto compatible con los datos calorimétricos y con la termodinálas fluctuaciones espontáneas, enten- mica de los procesos irreversibles en su aproximación lineal. La curva sólida designa la producción específica de entropía (función positiva y decreciente de acuerdo didas como desviaciones aleatorias con el segundo principio y con el teorema de Prigogine); la curva punteada, un inde las medidas estadísticas, tienden tercambio de entropía específico con el exterior (según los registros experimentaa regresar. Su papel no llega a inci- les de disipación de calor); y la curva a trazos describe variación específica de endir en la evolución del sistema. Sin tropía (función que representa el proceso de crecimiento-diferenciación). La embargo, un valor mayor del estructura inicial determina el perfil del diagrama.
S
CALOR Y MOVIMIENTO
R
89
a
b
c
d
e
f
8. IMAGEN TERMODINAMICA de la evolución de un ser vivo (curvas en negro ). El estado adulto ( color ) se consigue por la adaptación del sistema a las ligaduras termodinámicas transmitidas por la fecundación e impuestas por el
ambiente. La degeneración de dicho estado (envejecimiento) aparece por una lenta relajación de dichas ligaduras. El estado final de muerte equivale al equilibrio termodinámico.
estructuras en tres sentidos: de equi- fluctuaciones quienes inducen nue- energía que el ambiente impone. librio, cerca del equilibrio y lejos de va s es tr uctu ra s am plif ic án do se y Adaptación en un caso y reestructuél. Pero la gran diferencia es la que arrastrando al sistema; rige el prin- ración en el otro. separa los dos primeros del tercero. cipio de orden por fluctuaciones. La El orden por fluctuaciones plantea En el dominio lineal, la creación de diferencia que separa ambos princi- numerosos interrogantes en biología. estructuras está gobernada por el pios puede resumirse cualitativa- ¿Cuál es su impacto en la evolución principio de orden de Boltzmann: el mente en la propiedad siguiente. En biológica y en la prebiótica? ¿Cuál es estado estacionario final está estric- la proximidad del equilibrio un sis- su convergencia con la teoría de Dartamente determinado por el extre- tema se ajusta a las ligaduras impues- win? ¿Cómo se hace compatible con mal (un mínimo o un máximo) de un tas, con la obsesión de acomodarse en la imagen lineal ofrecida para el crepotencial termodinámico apropiado; un estado lo más próximo posible al cimiento y desarrollo a nivel de orgalas fluctuaciones desempeñan un equilibrio. Lejos del equilibrio, un nismo? Antes de aventurar cualquier papel secundario. Lejos del equili- sistema se reorganiza mediante la respuesta, merece hacerse una revibrio ocurre todo lo contrario, la exis- amplificación y posterior estabiliza- sión rápida de las pruebas experitencia de un potencial termodiná- ción de fluctuaciones en presencia de mentales más importantes registramico está comprometido y son las los intensos flujos de materia y das y de las especulaciones propuestas a nivel de modelo. La química del metabolismo reúne L L todas las características para la apa A A O E I E rición de estructuras disipativas, N N I N I I L L léase reacciones complejas no linea M O O O I les con etapas catalizadas por enzi D N N I mas, fenómenos de transporte por M O difusión, paso de iones a través de D membranas, etcétera. Una de las IV cadenas bioquímicas mejor estudiaIII η das, desde este punto de vista, es la glicólisis. La experiencia muestra cómo ciertos intermediarios metabólicos presentan oscilaciones temporales no amortiguadas en su concenII tración, con períodos y amplitudes I reproducibles. El comportamiento del NADH, por ejemplo, se visualiza por fluorimetría. No es difícil construir modelos basados en los pasos fundamentales de dicho ciclo y en datos conocidos. Goldbeter y Lefever han ξ1 ξ2 demostrado con simulaciones numéDISTANCIA AL EQUILIBRIO ξ ricas que los resultados experimentales pueden interpretarse cuanti9. DETERMINISMO E INDETERMINISMO según la distancia al equilibrio. En los tativamente como una estructura puntos de bifurcación (que aparecen, más gruesos, en color ), las fluctuaciones dedisipativa temporal a la que se llega ciden el futuro del sistema.
90
TEMAS 16
tras superar ciertas inestaintervalo de tiempo, un umbral bilidades. Cabe esperar que químico crítico para ciertas una gran parte de los procesustancias que son vertidas al sos de regulación metabólica medio extracelular en forma de respondan a la misma interpulso y cuyo calor de dilución pretación termodinámica. H recoge el termograma en forma Existen también interesantes D de pico. Según esta imagen la A N convergencias numérico-exunidad del nivel supracelular perimentales en el control de no conserva las característisíntesis de proteínas en las cas de una célula. La nueva células —donde una inestaunidad (una unidad de reacbilidad separa los efectos de ción-difusión “macroscópica”) activación e inhibición—, en es un conjunto de células que 1 2 3 4 5 6 7 MINUTOS el funcionamiento del sisoscilan en fase. Cada una de tema nervioso —donde la 10. ORGANIZACION temporal de no equilibrio. Oscilacio- estas unidades tiene un comdiferencia de densidad de nes del intermedio metabólico de la glicólisis. NADH re- portamiento diferente, si bien carga es la fuerza que con- gistradas por fluorimetría. La tasa de entrada de glucosa cooperativo, con respecto al duce al sistema a la zona de era de 18 mm por hora. sistema global que puede coninestabilidades—, en la agresiderarse como una nueva gación de seres unicelulares para for- laciones de relajación, detectadas por jerarquía de orden biológico: la agremar colonias, etcétera. calorimetría, han sido identificadas gación. Se han advertido casos de agreLa autoorganización temporal por como oscilaciones glicolíticas, regis- gación análogos, como el del Dy cfluctuaciones adquiere una especial trando por fluorimetría la concen- tiostelium discoideum . El caso del importancia en ciertos sincronismos tración de un intermediario meta- Flavobacterium descrito contiene, sin observados a un nivel muy superior, bólico: el NADH. 3 ) Las poblaciones embargo, aspectos especialmente releel de poblaciones de individuos. En que muestran este comportamiento vant es. Por un lado, la evolució n y el sudeste asiático, las luciérnagas exhiben agregaciones de células éxito del efecto cooperativo se ha regis Luciola se reúnen en gran número en visua lmente ob serva bles, cuyo ta- trado en el laboratorio desde un estado árboles del género Sonnerat ia donde, maño está en relación con el perfil del “salvaje” hasta otro “educado”. Por al anochecer, emiten luz a interva- termograma y, por tanto, con la ampli- otro lado, resulta sugestivo el hecho los progresivamente regulares y tud y período de los picos. de que estas organizaciones de no equisincrónicos. La biofotogénesis tiene, librio y no lineales (solución de las en este caso, una motivación de conué sentido tiene aquí la for- leyes cinéticas) provean el mecanismo voca toria sexual y lo s mach os con simación de una estructura en por el cual crece la interacción entre guen con esta organización temporal el tiempo? ¿Tiene siquiera un sentido? las células —inicialmente indepenenviar un mensaje más potente, que En el caso de las Luciola la bondad de dientes— a través de la comunicación reduce el número de hembras que se la organización resultante parece química (propagación de ondas). Esta despistan en el bosque. clara: mediante la sincronización situación podría representar perfecHemos detectado un fenómeno aumenta la interacción entre los tamente un estado de la evolución similar en el crecimiento de un cul- machos, con lo que se consigue atraer biológica intermedio entre una poblativo de bacterias marinas, aisladas a un mayor número de hembras. Ello ción de células libres (interacción débil) en el noreste de Africa por la expe- redunda positivamente en el futuro de y una población de células con una dición ATLOR VII del Instituto de la especie. La sincronización celular fuerte y armoniosa interdependencia: Investigaciones Pesqueras. El estu- no está, en este momento, tan clara. el tejido (interacción fuerte). dio microcalorimétrico de dicha cepa, Existe, sin embargo, una atractiva En el nivel molecular y dentro de identificada como un Flavobacterium , interpretación que servirá para des- la evolución prebiótica, el concepto de se resume en los puntos siguientes: cribir el mecanismo por el cual el orden orden por fluctuaciones y la teoría no 1 ) La serie de termogramas obteni- por fluctuaciones incide en la evolu- lineal hallan su aplicación más impordos exhiben una evolución que tiende ción biológica. tante en el modelo de Manfred Eigen. a mostrar una capacidad creciente Un análisis de la estabilidad de las El modelo pretende describir la evopara realizar la fase de respiración ecuaciones cinéticas no lineales del lución de una población de polímeros anaerobia. 2 ) Se observa un ritmo modelo alostérico de Goldbeter para que se supone existía ya en las conenergético temporal asociado con este el ciclo de la glicólisis, muestra que la diciones de la tierra primitiva. Los fenómeno. Si los termogramas se exa- organización de la onda química que polímeros tienen la propiedad de cataminan localmente (véase la figura 12 ) representa al producto es especial- lizar su propia replicación, pero el se puede ver cómo ciertos picos mente sensible a la longitud del sis- juego de azar puede int ervenir para energéticos, que aparecen en la fase tema. Para un valor suficientemente sustituir uno de los monómeros de la aerobia A , tienden a alcanzar una or- grande de dicha distancia (distancia cadena por otro. Un error así se llama ganización temporal de período cons- supracelular) nacen ondas de con- mutación y puede ser considerado tante durante la culminación de la centración en el contorno del sistema como una fluctuación en el sentido terfase anaerobia B. Durante la fase de que se propagan en el espacio hasta modinámico. Estas fluctuaciones se muerte C , en la que el sistema se colisionar en su centro. En dicho punto, expresan como un término de ruido aproxima a un sistema termodiná- el pico resultante desaparece lenta- añadido a las ecuaciones cinéticas micamente cerrado (dada la herme- mente hasta que nuevos frentes de químicas que rigen las reacciones de ticidad del recinto-laboratorio), la onda vuelven a nacer en el contorno. autorreplicación. Si la mutación creaestructura temporal degenera aumen- Este efecto resulta ser periódico en el da por una de esas fluctuaciones contando progresivamente la distancia tiempo. Puede obtenerse que en el sigue catalizar su propia replicación entre picos consecutivos. Estas osci- punto central se supere, en un pequeño con mayor fidelidad, tomará ventaja
¿Q
CALOR Y MOVIMIENTO
91
11. DEL CAOS AL ORDEN en la reacción de Zhabotinski-Belousov. Formación de organizaciones espaciotemporales de iones Ce+3 (rojo) y Ce+4 (azul) realizadas en el Departamento de Termología de Barcelona por los alumnos de quinto curso
sobre los demás polímeros y, con el tiempo, tenderá a sustituirle por completo. Es lo que hemos llamado ampliación de una fluctuación. Las ecuaciones de Eigen aseguran, de hecho, el éxito de la población de macromoléculas que mejor se autorreplique. Se trata de un ej emplo de supervivencia darwiniana con un criterio de selección bien definido. La evolución de la población de polímeros se visualiza como una sucesión de inestabilidades provocadas por fluctuaciones, que no son sino los errores que sobrevienen en el proceso de replicación autocatalítica. Cada estado estacionario alcanzado quedará caracterizado por la especie de polímeros dominante.
de Física. En la serie superior se observan oscilaciones temporales previas al asentamiento de la estructura espacial . En un sistema abierto ésta podría mantenerse indefinidamente en el tiempo.
El modelo de Eigen muestra la íntima armonía en la colaboración azar-determinismo. Las fluctuaciones (azar) tienen un papel principal: arrastran el sistema de un estado estacionario a otro. Las ecuaciones cinéticas no son menos importantes (determinismo): determinan si la fluctuación se impone o no. La evolución y la selección darwiniana aparecen así como un proceso aleatorio operando dentro de un armazón de leyes deterministas. Esta imagen de la evolución incide en el problema del origen de la vida. Se opone al punto de vista, compartido por muchos científicos, de que la aparición de la vida se explica como una combinación de sucesos enormemente improbables, hipótesis de la el modelo de Eigen se desprende que Jacques Monod es sin duda el que un sistema formado por pro- máximo exponente. A una visión purateínas sin polinucleótidos nunca ter- mente indeterminista, la termodinámina en sucesión de inestabilidades. mica del no equilibrio opone la idea Nunca se llega a un estado estaciona- de que la creación de los sistemas rio estable con respecto a los errores vivos es inevitable bajo las leyes de la de replicación. Sin embargo, en un sis- cinética química, del transporte y de tema mixto de proteínas y polinu- unas condiciones mínimas de alejacleótidos, en que se pueden generar miento del equilibrio. Lo que no es los unos con la ayuda de los otros posible es predecir en qué forma surge (mecanismos de catálisis mutua), sí se la vida y cuál va a ser su posterior evoalcanzan estados estacionarios de gran lución. En el caso del modelo de Eigen, estabilidad con respecto a los errores. por ejemplo, el estado estacionario no Un sistema así correspondería a un puede predecirse en razón del número precursor del código genético. vertiginosamente astronómico de polí-
D
92
meros posibles que pueden obtenerse por errores de replicación. La noción del azar de Monod responde a una prolongación un tanto ingenua de la mentalidad de la termodinámica o mecánica estadística del equilibrio. La misma existencia de las estructuras disipativas advierte hasta qué punto es imposible extrapolar la relación orden-probabilidad desde el equilibrio hasta situaciones muy alejadas de él. La configuración de celdas hexagonales que aparece en el fenómeno de Bénard tiene, si calculamos según la mecánica estadística del equilibrio, una probabilidad infinitamente pequeña. No obstante, lo cierto es que aparece y se mantiene en condiciones mínimas de disipación. El orden por fluctuaciones y las grandes distancias del equilibrio parecen ser el soporte físico más sólido del orden biológico. ¿Dónde queda el orden de Boltzmann y las situaciones próximas al equilibrio? El caso de la cepa marina es un buen ejemplo para poner de manifiesto la coexistencia de los dos principios, pero en niveles diferentes. Los picos comentados y el orden por fluctuaciones es un fenómeno local dentro del desarrollo de toda la población, en el sentido de que afecta a una observación de corto período. Dicho de otro modo, el mismo termograma expuesto por
TEMAS 16
200
A
T T A W O100 R C I M
B
B
C C A
200
A
T T A W O100 R C I M
B B
A
C C
200 B
A
T T A W O100 R C I M
B
C
A
C 1
2
3
4 DIAS
5
6
12. EL CASO DEL FLAVOBACTERIUM MARINO según Rodellar y Wagensberg. Los termogramas ( izquierda) muestran la adaptación de esta cepa (aislada en condiciones favorables de oxígeno) para la realización de la fase anaerobia. A la dere-
unidad de masa tiene un aspecto análogo al de la figura 5, que hemos descrito dentro del régimen lineal y, por tanto, acorde con el orden de Boltzmann. Es un buen ejemplo de cómo la componente rutinaria de la evolución en un nivel está confiada a un rea juste determinista, al tiempo que el orden por fluctuaciones trabaja en una subestructura temporal. Se trata de dos comportamientos superpuestos de diferente orden de magnitud. El orden biológico parece tener una imagen termodinámica que depende del tamaño del escenario que se observa. Un orden de Boltzmann para los sistemas grandes, donde pocas novedades pueden observarse, y un orden por fluctuaciones en los sistemas microscópicos, que continua-
CALOR Y MOVIMIENTO
7
cha, tres detalles de los mismos que muestran la organización temporal asociada a la formación de agregaciones. Esta estructura del no equilibrio tiene un sentido en el campo de la evolución biológica.
mente aporta “ideas nuevas”. La incidencia de la componente estocástica a nivel molecular garantiza a la larga lo que el ecólogo Ramón Margalef llama “lo barroco del mundo natural” cuando se refiere al hecho de que lo s ecosistemas contienen muchas más especies de las que harían falta si se atendiese simplemente al principio de la eficacia biológica. Huir del equilibrio predispone a la intervención del orden por fluctuaciones a modo de fábrica continua de estructuras, cuya persistencia depende de una selección posterior —en el sentido darwiniano de la palabra— según una funcionalidad medida por un criterio bien convincente: la supervivencia. En este hecho descansa la seguridad de una evolución que nunca tendrá fin.
BIBLIOGRAFIA COMPLEMENTARIA SELFORGANIZATION IN NON-EQUILIBRIUM SYSTEMS . G. NicoIis y L. Prigogine, John Wiley and Sons, Nueva York, 1977. A COOPERATIVE EF FE CT W IT H S IGNIFI CANCE IN BIOLOGICAL EVOLUTION. J. Wagensberg en Lectures Notes in Physics, volumen 84, páginas 350. Springer-Verlag. Nueva York, 1978. ENTROPY BALANCE IN BIOLOGICAL DEVEL O PM E NT A N D H EAT D I S SI P AT I ON I N EMBRYOGENESIS. D. Lurié y J. Wagensberg en Jour nal of Non -Equ ilib riu m Thermodynamics núm. 4, página 120, 1979. NON EQUILIBRIUM THERMODYNAMICSAND BIOLOGICAL GR OW TH A ND DEVELOPMENT. D. Lurié y J. Wagensberg en Journal of Theoretical Biology .
93
La interfase gas-líquido Claudi Mans, Joan Llorens y José Costa López
El estudio termodinámico y mecánico de la interfase gas-líquido permite comprender la noción de tensión interfacial. Su modificación por tensioactivos altera la transferencia de materia entre ambos estados
E
n las condiciones habituales de entre tales partículas son desprecianuestro entorno la materia se bles. Además, ocupan éstas un escaso nos presenta en conjuntos físi- volu men en relación al v olumen del camente homogéneos que denomi- recipiente que las contiene. El chonamos fases. Hablamos así de las que de las partículas con las paredes fases sólida, líquida y gaseosa. Si en del recipiente genera una presión, P, lugar de considerar las propiedades que se ajusta a la ecuación de estado macroscópicas de la materia se atien- de los gases perfectos: la presión ejerde a su estructura atómico-molecu- cida es igual al producto de tres faclar, se observa que existen esta dos de tores, la densidad de partículas o ordenación muy diversos. En un moléculas por unidad de volumen ( n), extremo tenemos la fase gaseosa, que la constante de Boltzmann ( k) y la corresponde a un estado diluido y temperatura absoluta (T ). En realidad esa ecuación no se cumtotalmente desordenado de la materia; en el otro, en el dominio de la ple exactamente más que cuando se materia condensada, hallamos dife- trata de concentraciones molecularentes grados de ordenación, que van res bajas, puesto que a mayores condesde la fase líquida clásica hasta la centraciones la interacción molecufase sólida cristalina, dotada de un lar deja de ser despreciable y empieza orden molecular riguroso, pasando a adquirir importancia el volumen por las mesofases o cristales líqui- ocupado por las propias moléculas. dos. Otro estado de la materia menos Otras formulaciones incluyen nuehabitual en la vida cotidiana es la vos términos en la ecuación de estado, fase plasma, formada por la materia que tienen en cuenta esas desviacioionizada, de enorme interés en cam- nes de la situación ideal. Ahora bien, pos tan dispares como la cosmología incluso para los gases no ideales, la principal característica a considerar y la energía de fusión. Entre dos fases cualesquiera existe sigue siendo la movilidad de las molésiempre una zona de separación o de culas y la escasa interacción entre unión, según se mire, denominada ellas. El estado líquido se caracteriza por interfase, constituida por materia la movilidad de sus moléculas y por cuyas propiedades son intermedias entre las de las dos fases adyacentes. una interacción molecular bastante El espesor de una interfase depende intensa. En ese estado las fuerzas del tipo y condiciones de las fases pre- intermolecula res restringen el movisentes. Una interfase gas-líquido se miento, sin impedirlo; por esta razón caracteriza por su escaso espesor; y los líquidos son mucho más viscosos para conocer sus propiedades con- que los gases. Mientras que el estado gas ha sido vien e comprende r primero las de las objeto de intensa investigación a lo dos fases que la definen. El modelo teórico más sencillo para largo de la historia, y e l sólido consdescribir las propiedades de la fase tituye hoy uno de los campos más gaseosa, o fase gas, como la llamare- fecundos de la física, el estado líquido, mos en adelante, es la teoría cinética no obstante su extraordinario interés de los gases perfectos. En su marco, en la química y otros ámbitos, no ha se considera que la fase gas está for- recibido idéntica atención. Tres enfomada por un gran número de partí- ques se han seguido a la hora de aborculas en constante movimiento, que darlo: el estado líquido entendido chocan entre sí y con las paredes de como un sólido modificado, el estado una manera totalmente elástica. Las líquido entendido como un gas modifuerzas de atracción y de repulsión ficado y el estado líquido entendido
CALOR Y MOVIMIENTO
como un estado peculiar. Esta tercera aproximación parece hoy la más idónea.
L
a difracción de rayos X en un sólido cristalino muestra máximos de difracción muy definidos y a distancias determinadas en virtud de su orden molecular intrínseco. Si se acomete un análisis de difracción de rayos X de una fase gas, no se observa ninguna difracción coherente porque en tal situación no existe orden molecular. Pero si de un líquido se trata, encontraremos una difracción coherente, aunque con unos máximos de difracción mucho más difuminados que los registrados en un sólido cristalino. Del análisis de difracción de rayos X se puede obtener la función de distribución radial desde un punto cualquiera de la fase. Ello consiste en imaginar esferas concéntricas sobre una molécula cualquiera, tomada como origen, de suerte que el volumen comprendido entre dos esferas consecutivas sea constante, para determinar luego el cociente entre el número de moléculas existente en cada una de esas capas esféricas y el número de moléculas que le correspondería si la densidad molecular fuera completamente uniforme. Si se analiza la función de distribución radial en el sólido, se observa que la materia se concentra en múltiples intervalos, muy estrechos, que se reparten de manera regular por la fase. Sin embargo, en el líquido la función de distribución radial presenta unos cuantos máximos, muy pocos, difuminados en la región más próxima a la molécula tomada como origen; a distancias mayores, la materia se nos ofrece como si estuviera uniformemente repartida. Por consiguiente, en el estado líquido existe cierto orden molecular a distancias cortas, por lo que se puede considerar que el líquido está constituido por pequeños grupos de moléculas o áto-
95
1. DOS INTERFASES AIRE-AGUA DISTINTAS en la depuración de aguas residuales urbanas. El sedimentador ( fot o superior ) muestra una interfase gas-líquido en aparente reposo, con la típica ondulación interfacial generada por el viento. No se persigue en esta etapa la transferencia de
96
oxígeno a través de la interfase. En el aireador ( fot o in fer ior ) los agitadores aumentan la superficie interfacial aire-agua. De ese modo aumenta notablemente la transferencia de oxígeno del aire al agua, favoreciéndose la depuración.
TEMAS 16
mos que mantienen cierta regulari- tan muy difíciles de comprobar. Piéndad interna, pero que no guardan ese sese que el espesor de una interfase orden entre grupos. Esa ausencia gas-líquido viene a ser de escasos diáde orden molecular a distancias lar- metros moleculares; intentar detergas hace que los líquidos se aseme- minar a través de la misma el perfil jen, hasta cierto punto, a los sólido s de densidad constituye una pretenamorfos (polímeros y vidrios), materia- sión inabordable con nuestros medios les que, por otra parte, fluyen de un experimentales. modo viscoso como los líquidos, eso sí, El estudio teórico de las interfases con una viscosidad muy superior. puede plantearse desde dos enfoques La interfase gas-líquido posee pro- independientes, aunque en cierto piedades distintas de las que carac- modo complementarios: el trataterizan a la fase gas y de las propias miento mecánico y el tratamiento terde la fase líquida que la rodean. modinámico, ambos tanto en su verDentro de la interfase, todas las pro- tiente macroscópica como en su piedades van cambiando gradual- vert iente atómico-mo lecu lar. mente al pasar de una fase a la otra; ¿Qué dice el planteamiento teresto hace que la interfase, a diferen- modinámico? Una forma del segundo cia de la fase, no sea isótropa, sino principio de la termodinámica estaanisótropa (es decir, que sus propie- blece que, en un sistema que no interdades no sean las mismas en todas cambie ni materia ni energía con su las direcciones). Los principios de la entorno, cualquier cambio espontáfísica y de la química permiten diseñar neo, en una transformación natural, modelos teóricos generales de las es decir, irreversible, procede en el interfases y, a través de los mismos, sentido de aumentar su entropía, S. inferir muchas de sus característiDe acuerdo con otra forma altercas que, por vía experimental, resul- nativa del segundo principio de la ter-
modinámica, en un sistema sujeto a temperatura y volumen constantes cualquier cambio espontáneo va en el sentido de que, en el equilibrio, la energía libre de Helmholtz sea mínima. La energía libre de Helmholtz, F , se define según la relación F = E – TS, donde E es la energía interna y T la temperatura absoluta del sistema. Consideremos un sistema que se halle en esas condiciones, formado por una sustancia líquida en equilibrio con su vapor y que presente una determinada área interfacial. Cualquier aumento que se produzca en el área interfacial del sistema implicará un alejamiento del equilibrio y, en consecuencia, producirá un aumento positivo de la energía libre del sistema. Si imaginásemos que la energía libre del sistema disminuyera al aumentar el área interfacial, ésta tendería espontáneamente a crecer sin límites y la energía libre del sistema iría disminuyendo: el líquido se dividiría en porciones, tan pequeñas que se obtendría una única fase gas,
MERCURIO SOLIDO MERCURIO LIQUIDO L A I D A R N O I C U B I R T S I D E D N O I C N U F
2
1
0
DISTANCIA A UN ORIGEN ARBITRARIO (nm)
2. CONOCIMIENTO DEL ESTADO DE ORDENACION de una fase de un cuerpo a través del análisis de difracción de rayos X. En efecto, a partir de los datos de difracción de rayos X se obtiene la función de distribución radial de la materia de una fase (gaseosa, líquida o sólida). En la figura se ilustra la función de distribución radial para los casos del mercurio líquido y del mercurio sólido. La función de distribución radial se obtiene imaginando esferas concéntricas sobre una molécula cualquiera de la fase, tomada como origen, de forma que el volumen comprendido entre dos esferas consecutivas sea constante; luego se determina el cociente entre el número de moléculas existente en cada capa esférica y el número de moléculas que le correspondería si la densidad molecular fuera enteramente uniforme. Si se analiza la función de distribución radial en el sólido, se observa que la materi a está concentrada en múltiples y estrechos intervalos que se reparten de una manera regular a lo largo de toda la fase. En el líquido, sin embargo, la
CALOR Y MOVIMIENTO
1
función de distribución radial no presenta más que unos cuantos máximos difuminados en la región inmediata a la molécula tomada como origen, mientras que, a distancias mayores, la materia se presenta como si estuviera uniformemente repartida. Eso sugiere que la posición de una molécula —sita alrededor de la molécula tomada por origen— no está completamente indeterminada en el estado líquido, a diferencia de lo que sucede en un gas. Por consiguiente, en el estado líquido existe cierto orden molecular a distancias cortas, que nos faculta para entender el líquido constituido por pequeños grupos de moléculas y de átomos que mantienen determinado orden interno, si bien no lo guardan entre grupos. Al aumentar la distancia al origen, la función de distribución radial de la fase líquida tiende a la unidad (densidad uniforme), mientras que en la fase sólida cada máximo tiende a ser infinitamente estrecho y alto a lo largo de toda la fase. Los sólidos amorfos presentan características parecidas a los líquidos.
97
O
F
PT,PN
F
PT
+
PN
PLACA
θ
– LIQUIDO
3. PLACA DE WILHELMY para medir la tensión interfacial. Se trata de un procedimiento sencillo y directo que mide la fuerza que ejerce el menisco del lí quido sobre una placa metálica vertical cuando se halla en contacto con el líquido y con su extremo inferior, justo al mismo nivel que el nivel del líquido. Existe una relación sencilla entre la tensión interfacial del líquido, la fuerza que actúa sobre la placa y el ángulo del menisco o ángulo de contacto. Desde el punto de vista mecánico, la tensión interfacial viene dada por el valor del área comprendida entre los valores de la tracción normal, Pn, y la tracción transversal Pt, a lo largo del espesor de la interfase; se calcula de suerte que el área sea positiva cuando Pn es ma-
yor que Pt y negativa en caso contrario. La estabilidad de la interfase exige que el valor de la tensión interfacial sea positivo; en lógica coherencia, en la mayor parte del espesor de la interfase el valor de Pt será menor que el valor de Pn. En una interfase estable pueden coexistir regiones en tensión, con Pn mayor que Pt, y regiones en compresión, con Pn menor que Pt, siempre que las primeras abunden más que las segundas. En virtud de lo cual en la interfase hay siempre una tensión: para aumentar el área interfacial, es decir, para estirar la interfase, debe aplicarse una fuerza igual y contraria a la tensión interfacial. Esto es precisamente lo que hace el artificio de la placa de Wilhelmy.
sin interfase gas-líquido, y con una una propiedad característica del energía libre menor y, por ende, más fluido e independiente de la orientaestable. La mera existencia de inter- ción de la superficie sobre la cual se fases gas-líquido constituye una mide, no puede representarse por prueba de que, para aumentar el área medio de un solo valor. interfacial, hay que elevar la energía En un sistema de coordenadas dado, libre del sistema. El valor positivo del la orientación en el espacio de una incremento de energía libre del sis- superficie viene indicada por tres tema al aumentar el área superficial números, al igual que cualquier otro constituye, pues, una medida de la vector. En un sentido completamente estabilidad de la interfase. A esa general, la presión se representa, energía libre asociada al área inter- entonces, como un tensor o conjunto facial se la denomina tensión de nueve números ordenados en tres interfacial, γ , y es siempre positiva filas y tres columnas. Cada uno de en una interfase estable. (El concepto estos números o componentes mide de tensión interfacial no se limita a la contribución a la presión de las las interfases gas-líquido, sino que se fuerzas o tracciones ejercida s a través aplica a todo tipo de ellas. En la inter- de las distintas orientaciones de la fase gas-líquido, la tensión interfa- superficie. Si de un planteamiento cial recibe también el nombre de ten- general pasamos a una fase fluida en sión superficial.) equilibrio hidrostático, o mecánico, el tensor de la presión tiene entonces no de los principales avances en todos sus elementos iguales a cero, el estudio de la interfase gas-lí- salvo los tres elementos de la diagoquido ha sido, sin duda, el desarro- nal principal del tensor, que equivallo de la teoría mecánica de las inter- len, todos, al valor de la presión fases. En mecánica de fluidos se llama medida en dicha fase. presión a la fuerza que ejerce la materia situada a un lado de una superonsideremos, en cambio, una ficie unidad sobre la materia situada interfase plana en equilibrio hial otro lado. Dentro de cualquier fase drostático, con un sistema de coordefluida isotrópica la fuerza ejercida a nadas rectangulares con dos de sus través de esa superficie es indepen- ejes situados en el plano de la interdiente de la orientación y posición fase. También en este caso el tensor que la superficie tenga en el espacio. de la presión tiene sus elementos iguaEn la interfase, sin embargo, y debido les a cero, salvo los tres elementos de a la anisotropía, la fuerza ejercida a la diagonal principal, pero ahora uno través de una superficie por la mate- de esos valores difiere de los otros dos, ria situada a un lado de dicha super- que son iguales entre sí. Ese valor ficie sí depende de su orientación y distinto de los otros dos representa la posición. Por tanto, en la interfase, tracción normal a la interfase, Pn ; la presión en un punto, que debe ser cuando hay equilibrio mecánico este
U
C
98
valor debe ser consta nte en cualquier punto de la interfase e igual a la presión de ambas fases. Los otros dos valores representan la tracción trans versal, Pt; son iguales entre sí, debido a que, por la propia geometría del sistema, todas las propiedades medidas en cualquier dirección sobre un mismo plano paralelo a la interfase deben ser iguales. El valor de la tracción transversal, a diferencia de lo que ocurre con el de la tracción normal a la interfase, varía a través del espesor de la interfase y se iguala a Pn, como se dijo antes, fuera de la región interfacial pero dentro del dominio de cada fase. Importa resaltar, además, que la condición de equilibrio hidrostático, o igualdad de Pn a través de la interfase, implica la existencia de equilibrio termodinámico, es decir, de un valor mínimo para la energía libre. Dicho con otras palabras: el equilibrio mecánico implica, asimismo, un equilibrio químico. La tensión interfacial puede determinarse también como una tensión mecánica sin hacer referencia obligada a la existencia de las leyes de la termodinámica. En principio, el valor de Pt puede ser mayor o menor que el de Pn. Las regiones de la interfase en que Pt alcance valores superiores a Pn serán regiones “en compresión”, mientras que las regiones en que Pt sea inferior a Pn serán regiones “en tensión”. Las primeras tienden a aumentar el área interfacial, en tanto que las segundas muestran la inclinación opuesta. Desde esta perspectiva, el valor de la tensión interfacial viene dado por el valor
TEMAS 16
T1
DENSIDAD
T2
U , L A I C N E T O P A I G R E N E
DISTANCIA
DISTANCIA INTERMOLECULAR, I T2
–ε
PT
T1 DISTANCIA
d Rd
U= •, l
T2 > T1
4. PARA CALCULAR LA TENSION INTERFACIAL, tau, es necesario conocer los valores de la tracción transversal en la interfase, Pt. Si se considera una interfase plana y se aplica la teo ría del gradiente de densidad en la interfase, según la cual la densidad en la interfase varía de una forma gradual, uniforme y continua desde la fase líquida hasta la fase gas, se obtiene que Pt = (1/3) Pn + (2/3) Po, donde Po es el valor de la presión calculado a partir de una ecuación de estado. Para calcular estos valores de Po a través de la interfase hay que conocer la densidad en cada punto de la interfase, lo que implica establecer un modelo de interacción molecular. Uno de los más interesantes por su simplicidad es el del potencial de foso cuadrado. De acuerdo con el mismo, se considera que dos partículas situadas a distancias superiores a cierto valor no tienen interacción molecu-
del área comprendida entre las representaciones de Pn y Pt a través del espesor de la interfase, calculada de forma que el área resulta positiva cuando Pn es mayor que Pt , y negativa en el caso contrario. Puesto que la estabilidad de la interfase exige que el valor de la tensión interfacial sea siempre positivo, en la mayor parte del espesor de la interfase el valor de Pt deberá ser menor que el valor de Pn. Por consiguiente, si bien en una interfase estable pueden coexistir regiones en tensión y regiones en compresión, siempre las primeras abundarán más que las segundas. De donde se infiere que, para aumentar el área interfacial, es decir, para estirarla, se ha de aplicar una fuerza igual y contraria a la que ejerce la tensión interfacial. Aunque hay varios procedimie ntos
CALOR Y MOVIMIENTO
lar y la energía potencial es nula; al disminuir la distancia intermolecular, la energía potencial cae bruscamente a un valor negativo y constante (pozo de potencial), hasta que al llegar a otra distancia determinada las fuerzas de repulsión entre partículas son tan grandes que la energía potencial se hace infinita. Con la teoría del gradiente, y con el modelo de interacción molecular con energía potencial de foso cuadrado, se han calculado los perfiles de densidad en la interfase y los valores de tensión superficial a diversas temperaturas. De estos resultados se desprende que, al aumentar la temperatura, los valores calculados para el espesor de la interfase aumentan, mientras que disminuyen los valores de tensión interfacial. Resultados que concuerdan con lo que se obtiene experimentalmente y refrendan así este modelo simplificado.
para medir el valor de la tensión inter- radas por una interfase curvada no facial, quizás uno de los más senci- son iguales. Si el espesor de la región llos y directos sea el de la placa de interfacial es pequeño comparado con Wilhelmy, con la que se determina la el radio de curvatura de la interfase, fuerza que ejerce el menisco del R, entonces la diferencia de presiolíquido sobre una placa metálica ver- nes entre esas dos fases vale γ (2/ R). tical cuyo extremo inferior está en el A esta relación se la denomina ecuamismo nivel que la superficie del ción de la capilaridad de Young-Lalíquido. La fuerza sobre la placa es place y explica fenómenos tales como igual al producto de la tensión inter- el ascenso de un líquido por un capifacial del líquido por el perímetro lar o el aumento de la presión de vapor mojado de la placa y por el coseno del de un líquido cuando se atomiza denángulo de contacto. tro de una fase gas en gotas muy Cuando una interfase no es plana, pequeñas. ni Pn ni Pt son constantes a través de la interfase. Fuera de ésta, y denué relación existirá entre el tro de cada fase, ambos valores son tensor de la presión —una constantes e iguales entre sí, pero a vari able macroscópica— y la estrucdiferencia de lo que sucede con la tura atómico-molecular del fluido? interfase plana, esos valores difieren Desde el punto de vista molecular, en de una a otra fase. Por consiguiente, el tensor de la presión distinguimos las presiones medidas en fases sepa- la contribución de dos factores: el
¿Q
99
cinético, que corresponde a la energía térmica de las moléculas, y el relativo a las fuerzas intermoleculares. La contribución cinética al tensor de la presión depende sólo de la temperatura; en un sistema en equilibrio térmico, dicha componente es isótropa. Afirmar, pues, que el tensor de la presión es anisótropo en la interfase equivale a decir que las fuerzas intermoleculares ejercidas sobre las moléculas de la interfase son también anisótropas. La intensidad de la fuerza que ejercen las moléculas vecinas sobre una molécula cualquiera depende del número que de aquéllas haya dentro de una distancia igual al rango de las fuerzas intermoleculares. En el entorno de una molécula cualquiera de la interfase hay siempre más densidad molecular en el lado más próximo a la fase líquida que en el lado más próximo a la fase gas. Por tanto, las fuerzas sobre dicha molécula dependerán de la dirección que se considere y, en consecuencia, no habrá isotropía. Si se impone la condición de equilibrio hidrostático — Pn cons-
tante a través de la interfase— se obtiene una relación matemática entre los componentes del tensor de la presión a través de la interfase, l as fuerzas intermoleculares y la distribución de la densidad en la interfase. La verdad es que esa relación matemática no se puede resolver de forma rigurosa, por lo que se recurre a una simplificación útil para obtener soluciones prácticas: introducir la teoría del gradiente de la distribución de la densidad en la interfase. Esta teoría, que arranca de los trabajos de Rayleigh y de van der Waals, postula la existencia de una variación gradual y continua de la densidad desde la fase líquida hasta la fase gas a través de la interfase. Vemo s, pues, en esa afirmación un cambio importante con respecto a la primitiva teoría de Young y Laplace, partidarios de la opinión según la cual la densidad cambiaba bruscamente al pasar de una fase a la otra. Aplicando la teoría del gradie nte de la densidad a una interfase plana resulta que Pt = (1/3) Pn + (2/3) Po , donde Po es el valor de la presión cal-
culado a partir de una ecuación de estado, ecuación que relaciona la presión Po con la temperatura y la densidad en una fase homogénea. El valor calculado para Po va cam bia ndo a través del espesor de la interfase, conforme se modifica la densidad; no ocurre así con Pn, que es constante para mantener el equilibrio mecánico.
L
a ecuación de estado a utilizar debe tomar en consideración la interacción molecular y el volumen ocupado por las propias moléculas, siendo la ecuación de van der Waals una de las más empleadas. Dentro de una fase no todos los valores de Po y de densidad calculados con la ecuación de van der Waals se mantienen físicamente estables; además esos valores de Po se obtienen en el cálculo de Pt a través de la interfase. Se cree que el propio gradiente de densidad de la interfase estabiliza dichos valores de Po en la interfase, por cuya razón resultaría adecuada la utilización de la ecuación de estado de van der Waals en la interfase. Para calcular el valor de la tensión
MOLECULA DE TENSIOACTIVO
CADENA HIDROCARBONADA (HIDROFOBICA)
GRUPO POLAR (HIDROFILICO)
INTERFAZ
DISOLVENTE
N O I C A R T N E C N O C
SOLUTO
0 FASE LIQUIDA
INTERFASE
FASE GAS
A
B MICELA
L A A I C A F R E T N I N O I S N E T
B
C 0 CONCENTRACION MICELAR CRITICA
5. NOCION DE EXCESO INTERFACIAL introducida por Gibbs. Se basa en suponer una interfaz, o superficie de espesor nulo, en la interfase y considerar que las dos porciones separadas por aquélla son homogéneas hasta la misma, produciéndose en dicha interfaz un cambio brusco de propiedades. Si un componente se concentra en la interfase, puesto que consideramos que ambas fases son homogéneas hasta la interfaz, quedará una cantidad del componente en cuestión sin contabilizar en ninguna de las dos fases, y habrá que asociarla a la interfaz. Esa cantidad, dividida por el área de la interfaz, constituye el exceso interfacial del componente. La noción de exceso interfacial resulta válida también para otras propiedades distintas de la propia concentración. En principio, la
100
C
CONCENTRACION DE TENSIOACTIVO
situación de la interfaz dentro de la interfase es arbitraria. Lo que no obsta para que la posici ón más conveniente sea la que provoca que el exceso de concentración interfacial de disolvente sea nulo. Partiendo de los principios de la termodinámica se demuestra que, cuando un componente posee un exceso de concentración interfacial positivo, la tensión interfacial disminuye. Los tensioactivos son sustancias que se concentran en la interfase y rebajan notablemente la tensión interfacial. Cuando la interfase se encuentra saturada de tensioactivo, y seguimos incorporando más, las moléculas de tensioactivo se asocian entre sí, dentro de la fase acuosa, formando grandes paquetes moleculares: las micelas. Estas presentan, en la fase acuosa, una envoltura hidrofílica.
TEMAS 16
interfacial es necesario conocer el valor de Pt a través de la interfase, lo que, a su vez, implica conocer el perfil de la densidad en la interfase. Podemos determinar la densidad en la interfase averiguando las interacciones moleculares. A este propósito, uno de los modelos más convenientes por su simplicidad es el denominado modelo de potencial de foso cuadrado. Se supone en éste que dos partículas situadas a distancias superiores a cierto valor no tienen interacción molecular y la energía potencial es nula. Al disminuir la distancia, la energ ía potencial cae bruscamente a un valor negativo y constante (pozo de potencial), hasta que, al llegar a otra distancia determinada, las fuerzas de repulsión entre partículas adquieren tal intensidad que la energía potencial deviene infinita. Con la teoría del gradiente, y con el modelo de interacción molecular con energía potencial de foso cuadrado, se han calculado los perfiles de densidad en la interfase, así como los valores de tensión interfacial a diversas temperaturas. De esos resultados se observa que, en la interfase, hay
regiones en compresión, con Pn menor que Pt , y regiones en tensión, más abundantes que las anteriores, con Pn mayor que Pt . Además, al aumentar la temperatura, los valores calculados para el espesor de la interfase crecen también, en tanto que disminuyen los valores calculados para la tensión interfacial. Resultados todos ellos que concuerdan con lo que nos muestra la experimentación y refrendan la validez de ese modelo simplificado. La resolución de modelos matemáticos más rigurosos —y mucho más complejos— conduce a resultados similares.
P
ero los resultados en cuestión se han obtenido para un sistema de un único componente: un líquido puro en equilibrio con su vapor. Mas si consideramos un sistema de dos componentes, formado por un soluto y un disolvente, en equilibrio entre sí y con la fase vapor, la concentración de soluto que haya en la interfase diferirá de la concentración de soluto que encontramos en cada fase. La teoría mecánica de las interfases, que es la herramienta con que hemos venido
trabajando, ofrece especial atractivo merced a su carácter general, intuitivo y fácilmente representable. De acuerdo con la teoría mecánica, en un sistema multicomponente en equilibrio todos los componentes del sistema se distribuyen entre las fases y la interfase de suerte tal que exista un equilibrio hidrostático para cada uno de los componentes. Pero la termodinámica, a diferencia de la teoría mecánica, proporciona información sobre las propiedades de la interfase en el caso de sistemas de varios componentes con un tratamiento matemático mucho más simple. En términos termodinámicos, para obtener la distribución entre las fases y la interfase de los distintos componentes del sistema en una situación de equilibrio es necesario introducir el concepto de potencial químico. Se trata de un concepto parecido al de la temperatura, que se iguala en todos los puntos de un sistema que se encuentre en equilibrio térmico. El potencial químico de un componente del sistema en un punto de dicho sistema se define como el cambio de energía libre cuando se agrega
2
GAS EFECTO HIDRODINAMICO
Π
Π
O C E D A V I T A L E R N O I C 50 R O S B A
10
20
30
PRESION INTERFACIAL (mN/m) n-C 16 H 33 N(CH 3 ) 3 Br C12 H 25 SO 4 Na p-n-C 12 H25 -(C 6 H 4 )-SO 3 Na LIQUIDO
C16 H 33 SO 4 Na (CH 3 ) 2 CH(CH 2 CHCH 3 ) 3 -(C 6 H 4 )-SO 3 Na
6. INCIDENCIA DE LOS TENSIOACTIVOS en la adsorción de un gas. Los experimentos llevados a cabo en el laboratori o de los autores demuestran que la adsorción de un gas, en un líquido en movimiento, desciende hasta un 40 por ciento cuando se introducen pequeñas cantidades de tensioactivo. Hay dos efectos principales de los tensioactivos que disminuyen la adsorción de un gas en un líquido: el efecto de barrera y el efecto hidrodinámico. El efecto de barrera consiste en que el tensioactivo “tapona” el paso de las moléculas de gas hacia el interior del líquido; el efecto hidrodinámico estriba en la disminución de la renovación interfacial de los elementos de líquido en contacto con la interfase. Según el efecto hidrodinámico, cuando un elemento de líquido en contacto con la interfase se sustituye por un elemento de líquido del interior de la fase se produce localmente, en la interfase, un aumento de la tensión interfacial, toda vez que el elemento de lí-
CALOR Y MOVIMIENTO
quido recién llegado a la interfase no ha tenido tiempo todavía de concentrar el tensioactivo en la interfase; en consecuencia, su tensión interfac ial viene a ser la misma que la del líquido carente de tensioactivo. El aumento de la tensión interfacial implica la elevación de la energía libre y, por ende, un cambio desfavorable. En virtud de ello, los elementos de líquido en contacto con la interfase con tensioactivo adsorbido son muy estables y se resisten a verse sustituidos por elementos de líquido del interior de la fase. En los experimentos realizados se observó que todos los resultados de adsorción mostraban una correlación con la presión interfacial, independiente del tamaño y naturaleza química del tensioactivo que se empleara. Eso nos permite concluir que la presión interfacial es determinante para explicar la adsorción de gases en líquidos en movimiento con tensioac tivo. El efecto hidrodinámico es decisivo.
101
una molécula del componente en cuestión en ese punto y se mantienen constantes la temperatura, el volumen y la distribución de los demás componentes. La distribución de todos los componentes entre las fases y la interfase es entonces tal, que, en equilibrio, el potencial químico de cada componente es el mismo en cualquier punto del sistema. Para estudiar los sistemas de varios componentes, Gibbs introdujo la noción de “exceso interfacial”. Este concepto surge de imaginar una hipotética superficie de espesor nulo, una interfaz, en el interior de la interfase, de forma que se pueda considerar que las dos fases separadas por esa superficie son homogéneas hasta allí donde se produce el cambio brusco de propiedades. Si un componente o una propiedad se concentran en la interfase, al suponer homogéneas hasta la interfaz ambas fases, queda parte de esa componente o propiedad que, por no estar contabilizada en ninguna de las dos fases, hay que asociar a la interfaz; esa cantidad, dividida por el área de la interfaz, es el exceso interfacial de la componente o propiedad en cuestión. Naturalmente, este concepto introducido por Gibbs no constituye ningún modelo de la interfase, sino una mera forma ingeniosa de describir sus propiedades, que, según hemos visto, en realidad cambian gradualmente dentro del espesor de la interfase. En principio, la situación de la interfaz dentro de la interfase es arbitraria; no obstante, la posición más conveniente es aquella que hace que el exceso de concentración interfacial de disolvente sea nulo.
E
n un sistema formado por un soluto y un disolvente, el exceso positivo de concentración interfacial de soluto indica que dicho componente se concentra en la interfase, es decir, se adsorbe en la interfase. Ahora bien, cuando en un sistema algún componente se adsorbe en la interfase la tensión interfacial disminuye, según se comprueba experimentalmente y se puede demostrar teóricamente desde principios de la termodinámica. A los componentes que se adsorben en gran cantidad en la interfase y pro vocan la consecuente caíd a de tensión interfacial se les denomina compuestos tensioactivos. Se trata de sustancias que, en general, contienen una cadena hidrocarbonada junto con un grupo polar o iónico. La parte hidrocarbonada, que puede ser lineal o ramificada, apenas reacciona con las moléculas de agua. Pero las molécu-
102
7. MENISCO DEL LIQUIDO adherido a la superficie de la placa de Wilhelmy, que se emplea para medir las tensiones superficiales. Normalmente la placa se construye con platino, porque se empapa fácilmente.
las de agua se influyen mucho entre sí, debido a las fuerzas de dispersión de London, a las interacciones electrostáticas y a los enlaces de hidrógeno. (Las fuerzas de dispersión de London se llaman así en honor de Fritz Wolfgang London; dependen del potencial de ionización y de la polarización de los átomos de la molécula de agua.) En razón de ello la parte hidrocarbonada del tensioactivo tiende a ser “marginada” y expulsada del agua (parte hidrófoba). En cambio la parte polar o iónica del tensioactivo reacciona fuertemente con las moléculas de agua y, en consecuencia, tiende a quedar retenida dentro del medio acuoso (parte hidrofílica). Así pues, debido a su peculiar naturaleza, la mayor parte del tensioactivo añadido al líquido se concentra en la interfase con la parte hidrofílica orientada hacia la fase acuosa y la parte hidrófoba orientada hacia la otra fase, disminuyendo notablemente la tensión interfacial. La relación entre la tensión interfacial, la concentración de tensioactivo en el seno de la fase acuosa y el exceso de concentración interfacial del tensioactivo viene dada por una ecuación denominada isoterma de adsorción de Gibbs. Si crece la concentración de tensioactivo en la fase acuosa, aumentará consecuentemente la concentración de tensioactivo en la interfase, manteniéndose entre ambas un equilibrio dinámico. Cuando la interfase se encuentra ya saturada de tensioactivo y se sigue añadiendo tensioactivo al líquido, las moléculas de ten-
sioactivo empiezan a asociarse entre sí, dentro de la fase acuosa, formando grandes paquetes moleculares o micelas. (La concentración de tensioactivo en la fase acuosa a la cual empiezan a formarse, en cantidad apreciable, dichas micelas se la conoce por concentración micelar crítica.) Las micelas se estructuran de forma tal que su envoltura externa no presente a la fase acuosa más que la parte hidrofílica del tensioactivo; el interior de la micela, constituido por la agrupación de las cadenas hidrocarbonadas, tiene propiedades parecidas a las de un hidrocarburo líquido y de ahí que en una fase acuosa con micelas puedan solubilizarse moléculas orgánicas normalmente insolubles en una fase acuosa sin micelas.
E
l comportamiento de las moléculas de tensioactivo adsorbidas en la interfase es análogo al comportamiento de las moléculas de un gas en un espacio bidimensional. Las moléculas de tensioactivo de la interfase ejercen una presión interfacial, π (pi), que aumenta con el exceso de concentración interfacial del tensioactivo, ρ (rho), y con la temperatura, T . Para el caso ideal en que el tamaño molecular sea muy pequeño, comparado con la distancia media entre moléculas, y la interacción intermolecular sea despreciable, se cumple π = kρT , ecuación equivalente a la de los gases perfectos. Esta ecuación ideal no se cumple más que para excesos de concentración interfacial muy bajos. Para concentraciones interfaciales
TEMAS 16
de tensioactivo más elevadas la inteMuestra la experimentación que la la molécula de tensioactivo, más imracción molecular deja de ser des- cantidad de gas absorbida por un portante será su efecto de barrera. Por preciable. En razón de esas fuerzas líquido en movimiento llega a dismi- contra, el efecto hidrodinámico deintermoleculares, la presión inter- nuir hasta en un 40 por ciento si en pende sólo de la presión interfacial, facial no aumenta tan rápidamente el líquido se introducen pequeñas can- pues ésta mide el aumento de energía con la concentración de tensioactivo tidades de tensioactivo. Ese compor- libre que se opone a la renovación en la interfase debido a la atracción tamiento obedece, se supone, a dos interfacial. mutua de las cadenas hidrocarbona- motivos. El primero es el denominado Para detectar el efecto de barrera das del tensioactivo; en cambio la efecto de barrera del tensioactivo, en en nuestros ensayos recurrimos a tenrepulsión electrostática de los grupos virtud del cual la eleva da concen tra- sioactivos de tamaños moleculares y iónicos del tensioactivo promueve el ción del tensioactivo en la interfase de naturaleza química distintos. En efecto contrario; el efecto neto depen- tapona, por así decir, el paso de las lo concerniente al tamaño molecular, derá, en cada caso, del tipo de ten- moléculas del gas hacia el interior del utilizamos tensioactivos de cadena sioactivo empleado. Desde un punto líquido. El segundo, denominado hidrocarbonada más o menos larga y de vista mecánico, la presión inter- efecto hidrodinámico, consiste en la tensioactivos lineales o ramificados, facial hace que sea más fácil exten- disminución de la renovación inter- todos ellos con el mismo grupo hidrofíder o expandir la interfase, con lo que facial de los elementos de líquido en lico; en lo relativo a la naturaleza la tensión interfacial de la disolución contacto con la interfase. química, se emplearon prototipos con de tensioactivo, τ (tau), sea menor el grupo hidrofílico portador de carga que la tensión interfacial del disolegún el efecto hidrodinámico, eléctrica negativa (tensioactivos anió vente puro, τ0:τ = τ 0–π. cuando un elemento de líquido nicos) y tensioactivos con el grupo La disminución de la tensión inter- en contacto con la interfase se susti- hidrofílico dotado de carga eléctrica facial de un líquido al añadirle ten- tuye por un elemento de líquido del positiva (tensioactivos catiónicos). sioactivos provoca grandes modifi- interior de la fase, se produce localSe hizo descender agua con tensiocaciones en los procesos de absorción mente un aumento de la tensión inter- activo en condiciones turbulentas sobre y desorción de gases en líquidos en facial en la interfase: el elemento de un soporte sólido inerte, mientras que movimiento, y en otros procesos afi- líquido recién llegado a ella no ha simultáneamente se hacía ascender el nes. Cuando una fase gas contiene una tenido tiempo todavía de adsorber gas en contracorriente. Se repetía sustancia soluble y entra en contacto tensioactivo y, por consiguiente, su luego el ensayo sin tensioactivo. El con el líquido, se produce una trans- tensión interfacial es casi igual a la análisis químico del líquido que abanferencia de dicha sustancia desde la del líquido libre de tensioactivo. Un donaba el sistema nos permitía conofase gas hacia la fase líquida; deci- aumento local de la tensión interfa- cer las cantidades totales de gas adsormos entonces que el gas se absorbe cial implica un aumento global de la bido. Para cada tipo de experimento en el líquido; el proceso inverso, o energía libre del sistema y, por tanto, se determinó el efecto del tensioactivo desorción, acontece cuando la fase un cambio desfavorable. Ello provoca dividiendo la cantidad de dióxido de líquida, por ejemplo, está saturada que los elementos de líquido en con- carbono adsorbida en una unidad de con dicha sustancia, pero no lo está tacto con la interfase con tensioactivo tiempo por la cantidad adsorbida en la fase gas; entonces parte de dicha adsorbido sean muy estables y se las mismas condiciones cuando el sustancia abandona el líquido y pasa resistan a su reemplazamiento por líquido no contenía tensioactivo. a la fase gas. Ejemplos típicos de esos elementos de líquido del interior de Obteníase así el valor 1 para el agua procesos los encontramos en la absor- la fase, pues tal cosa implicaría un pura y valores inferiores a 1 para los ción y desorción de los gases atmosfé- aumento de la energía libre. Así pues, ensayos con tensioactivos. En todos los ricos en la hidrosfera, la depuración la presencia de tensioactivo en la casos, dentro de un amplio margen de de las aguas residuales por oxigena- interfase reducirá la renovación inter- caudales de líquido, los resultados ción con aire y el tratamiento de gases facial y, en consecuencia, disminuirá experimentales ofrecieron una correen instalaciones industriales. la absorción del gas. lación directa con la presión interfaPara explicar el mecanismo de la Se han expresado muchas opinio- cial, con independencia del tamaño y absorción de un gas en un líquido en nes contrapuestas en torno a la impor- de la naturaleza del tensioactivo usado. movimiento turbulento suele recu- tancia relativa entre el efecto de Dicho de otro modo: todos los tensiorrirse a la teoría de la renovación barrera y el efecto hidrodinámico. Con activos ensayados producían un misinterfacial. Considera ésta que el gas el objeto de poder cuantificar por se- mo efecto con tal de que la presión se va difundiendo por los elementos parado ambos efectos hemos reali- interfacial que provocaban fuera la del líquido que se hallan en contacto zado en nuestro laboratorio de la misma. Obviamente, para alcanzar con la interfase; supone también que Universidad de Barcelona una serie idéntica presión interfacial cada tenesos elementos, concentrados con la de experimentos de absorción de dió- sioactivo necesita una concentración sustancia que se está absorbiendo, xido de carbono en agua sin tensio- distinta, que tiene que ver con su mayor se sustituyen continuamente, a un activo y con éste. Todos los tensioac- o menor actividad como tensioactivo. ritmo que depende de la intensidad tivos ensayados pertenecen al grupo de la turbulencia del líquido, por otros mayoritario de los empleados en la e estos resultados se desprende elementos de éste procedentes del fabricación de detergentes; los resulque el efecto hidrodinámico es, interior de la fase, en donde la con- tados obtenidos son generalizables al con mucho, el efecto determinante y, centración de la sustancia que se caso de la absorción de gases en aguas por tanto, es la presión interfacial absorbe es menor. En otras palabras, contaminadas con detergentes. del tensioactivo la causante de la disla absorción cursa a través de dos Conviene tener presente que el minución de la adsorción de gases en etapas: una etapa de difusión mole- efecto de barrera depende del tamaño líquidos turbulentos. Importa resalcular en la región próxima a la inter- y de la naturaleza de la molécula de tar que basta una concentración bafase y una etapa de transporte tur- tensioactivo adsorbida en la inter- jísima de tensio activo para producir bulento en el interior del líquido. fase; cuanto mayor sea el tamaño de una caída drástica de la adsorción.
S
D
CALOR Y MOVIMIENTO
103
Cuando el líquido se mantiene estático o fluye en condiciones no turbulentas, no se produce el efecto hidrodinámico. En esas situaciones sólo interviene el efecto de barrera. Aunque la ma gnit ud ab so luta del efecto de barrera sea escasa, sí resulta, no obstante, detectable. En este sentido se ha experimentado en la aplicación de agentes de superficie para la reducción de la evaporación de agua estancada en grandes superficies de zonas áridas utilizando dicho efecto de barrera. Los resultados muestran una apreciable reducción de la evaporación, atribuible al efecto de barrera y, en buena parte también, a la supresión de las ondulaciones superficiales del líquido pro vocada por el a gent e de superficie. El interés que despierta el estudio de las propiedades interfaciales responde, en parte, a la transferencia de materia, de energí a y de cantidad de movimiento entre dos fases, que necesariamente se efectúa a través de una interfase. Por consiguiente, las propiedades de dicha interfase determinarán, en buena medida, los caudales transferidos. A lo largo del artículo hemos visto cómo la presión interfacial de un líquido, por pequeñas que sean las cantidades de tensioactivo introducidas, desempeña un papel decisivo en la hidrodinámica interfacial y ésta, a su vez, repercute sobre la transferencia entre las fases líquida y gaseosa. En la biología y campos afines reviste una importancia especial la comunicación o transferencia de materia y de energía entre los sistemas. Ni que decir tiene, la complejidad de la mayoría de las interfases que intervienen en los sistemas biológicos es superior a la mera interfase gas-líquido con tensioactivo aquí descrita. Ello no obstante, muchas veces los principios que se deducen de estos sistemas más sencillos sirven de punto de partida para abordar los sistemas más complejos, ya que el comportamiento se apoya en las mismas leyes fundamentales.
BIBLIOGRAFIA COMPLEMENTARIA INTERFACIAL PHENOMENA. J. T. Davies. Academic Press, 1961. TURBULENCE PHENOMENA . J. T. Davies. Academic Press, 1972. PHYSICAL CHEMISTRY OF SURFACES. Arthur W. Adamson. John Wiley & Sons, 1976. STRESS AND STRUCTURE IN FLUID INTERFACES. H. T. Davis y L. E. Scriven en Advances in Chemical Physics, vol. XLIX. J. Wiley & Sons, 1982.
104
TEMAS 16