La información
6 3 0 0 0
4 0 0 2 e r t s e m i r t o
2
8 6 6 5 5 3 1 1 4 8 7 7 9
6,50 EURO
o i r a m u S
CUANTIFICAR LA INFORMACION
4 Los orígenes del código binario F. G. Heath
12 El geómetra de la información Jérôme Segal
16 La información en el universo holográfico Jacob D. Bekenstein
24 Un Alan Turing desconocido B. Jack Copeland y Diane Proudfoot
ALMACENAR LA INFORMACION
32 Nanounidades de memoria Peter Vettiger y Gerd Binnig
40 DVD Alan D. Bell
46 El primer siglo de
las memorias magnéticas
James D. Livingston
52 ¿Son perdurables los documentos digitales? Jeff Rothenberg
58 La crisis de las memorias masivas Jon William Toigo
TRANSMITIR LA INFORMACION
72 Criptografía para Internet Philip R. Zimmermann
79 Láser en el kilómetro final Anthony Acampora
84 Informatización del hogar W. Wayt Gibbs
90 Antenas adaptables Martin Cooper
CUANTIFICAR LA INFORMACION
E L O P R O W N A I
Los orígenes del código binario Los antecedentes de este elemento clave clave para los sistemas de cómputo modernos se remontan hasta el siglo XVII . Francis Bacon se valió entonces de una treta tipográfica binaria para codificar sus mensajes secretos F. G. Heath
E
l sistema binario de numeraEl lector podrá observar que cada decimal, este método se vale de proceción se ha convertido en un paso adelante en este sistema lleva sos binarios. elemento básico para la tec- al número inmediatamente mayor El sistema binario muestra su gran nología moderna. Sirve como medio que podemos formar con las cifras 0 valor valo r en ope operac racione ioness de natu naturale raleza za de cómputo en los ordenadores digi- y 1. En la conversión (de decimal a binaria: encendido o apagado, abierto tales, así como de sistema de control binario) de un número un poco ma- o cerrado, verdadero o falso, seguir o en una infinidad de mecanismos. Sin yor como el 41, por ejemplo, la mis- parar, y así sucesivamente. Un comembargo, pocos conocen la historia ma progresión produce 101001. Para ponente electrónico de un ordenador de este código o los personajes que pro- convertirlo de nuevo en decimal de- se encuentra activo o inactivo. La tagonizaron los descubrimientos más bemos leer las cifras binarias de de- información que aporta el que esté en importantes en este campo. Describiré recha a izquierda en forma de po- uno o en otro estado recibe el nomen estas páginas cuatro de tales des- tencias crecientes de 2. Así, en este bre de bit, palabra construida truncubrimientos, las aportaciones de ejemplo concreto se comprueba que cando la frase “binary digit” (“dígito cuatro hombres que enfocaron la cues- hay un 1, ningún 2, ningún 4, un 8, binario” en inglés). Esa es la razón tión desde distintos ángulos. Fueron ningún 16 y un 32, por lo que tene- por la cual el sistema binario resulta éstos Francis Bacon (1561-1626), cu- mo moss 1 +8 + 32 =41. tan eficaz para el cálculo computayo código omnia per omnia para enEn el cálculo mental que usamos cional. viar mens mensaje ajess secr s ecreto etoss era e ra en rea realili- para resolver pequeñas operaciodad binario; Joseph Marie Jacquard nes, la codificación binaria no ha El alfabeto binario (1752-1834), quien diseñó un sistema sido tan fructífera. Las largas ris- de Bacon para el control de telares basado en tras de ceros y unos ejercen un efeca aportación de Bacon no correstarjetas perforadas, de código bina- to hipnótico que dificulta su recoponde al cómputo sino a la cod irio; George Boole (1815-1864), mate- nocimiento y manejo. Probablemente ficación. Fue el primero en idear consmático inglés cuya álgebra proposi- la única aplicación del sistema bi- cientemente un código binario y en cional constituye la base de la lógica nario en la computación no meca- describir sus propiedades. Se propocomputacional; y Emile Baudot (1845- nizada haya sido la “multiplicación nía desarrollar una clave para sus 1903), que tanto contribuyó a la tele- del campesino ruso”: los dos núme- mensajes diplomáticos secretos. En grafía con su código de permutación ros a multiplicar se escriben uno primer lugar, estableció para cada cíclica. ju ntoo a ot junt otro ro (c (com omo, o, po porr ej ejem empl plo, o, en una de las 24 letras del alfabeto inglés El sistema binario de numeración 10 × 12); el número de la izquierda (que en aquella época no incluía las solamente utiliza dos símbolos: 0 y 1. se divide divide por 2 (sin tener tener en cuenta letras v y j) un código binario de cinco De ahí su nombre. El sistema decimal, la parte fraccionaria del resultado) letras compuesto por diversas comque nos resulta más familiar, se basa al tiempo que se duplica el número binaciones de a y b: la letra a se traduen los números que van del 0 al 9. En de la derecha; a continuación se cía en aaaaa, la b en aaaab, y así suel sistema binario, las diez unidades tachan en la columna de la derecha cesivamente hasta la z, sin repetir del sistema decimal se expresan co- todos los números situados frente a ningún grupo de cinco letras. (Bacon mo sigue: números pares en la izquierda; el pudo asimismo haber hecho que los cálculo termina sumando todos los símbolos del código fueran 0 y 1.) D e c i ma l B in ar io números que aún queden a la dereEl segundo elemento de la clave de 0 0 cha. En el ejemplo de 10 × 12 se pro- Bacon consistió en un “alfabeto bi1 1 cedería como sigue: forme”. Se trataba de utilizar dos ti2 10 pos de letra ligeramente distintos 3 11 10 × 12 para imprimir un mensaje aparen4 10 0 5 24 temente inocente. Uno de los tipos 5 10 1 2 48 representaba la a de su código bina6 11 0 1 96 rio; el otro denotaba la b. Por ejem7 11 1 120 plo, una G mayúscula de un cierto tipo 8 1 00 0 de letra podría representar una a, la 9 1 00 1 Aunq Au nque ue se op oper eraa en la no notac tac ió ión n segunda G se tomaría de otro tipo de
L
4
TEMAS 36
letra y representaría una b; dos g mi- b, la e del tipo a y la r del tipo b, lo núsculas se diferenciarían de modo que proporcionaría la letra f a quien similar. dispusiera de la clave. Partiendo del Para dar un ejemplo, el propio mensaje exterior, uno acabaría con Bacon propuso la codificación del la siguiente secuencia: aababb aamensaje “fuge”, que en latín signi- bbaa bbaaa baa[aaa] . Agrupando las fica “huye”. Examinando las agru- letras en grupos de cinco, se obtenpaciones de cinco letras se comprue- dría la versión codificada de fuge . ba que la f se traduce en aabab, u en Bacon hizo breve mención del código baabb, g en aabba y e en aabaa. Ahora en 1605, en Of the Advancement of es preciso formular un mensaje “exte- Learning Lear ning . Lo describió por completo rior” que abarque el mensaje “inte- en De augmentis scientiarum . El objerior”; el mensaje exterior de Bacon fue tivo fundamental y la naturaleza “Manere te volo, doneo venero”. La binaria del código fueron enunciados M y la a habrían de ser impresas con como sigue en un pasaje de esta última el tipo de letra representativo de la obra: “Estos c aracteres-cifras no son a, la n se tomaría de la letra del tipo nada baladíes: pues por este arte un
camino se abre, por cuya virtud puede un hombre expresar y dar significado a sus pensamientos a cualquier distancia, mediante objetos que puedan verse y oírse; suponiendo, únicamente, que éstos admitan sólo una doble condición. Para ello sirven campanas, trompetas, luces y antorchas, mosquetes y cualesquiera instrumentos de similar naturaleza”. Si bien Bacon opinaba que la disposición binaria proporcionaba el código más efectivo, él mismo ideó y utilizó otros sistemas criptográficos. En uno de ellos, empleaba palabras clave para señalar párrafos de lugares sin relación que, ensamblados,
C E T C A N M O V I H C R A / S E D R O L L A S E R E T
1. EL TELAR JACQUARD, desarrollado en Francia a principios del siglo XIX por Joseph Marie Jacquard, constituye la primera máquina de producción con control binario. Opera mediante tarjetas perforadas. Estas gobiernan el alzamiento de la urdimbre (hilos longitudinales) de forma que la lanzadera, que contiene la trama (hilos transversales), se entrecruce con la urdimbre tejiendo un determinado motivo. Las tarjetas pasan y se apoyan sobre un bloque cuadrangular de madera. Cada una de las caras del bloque tiene un conjunto de perforaciones enfrentadas a un arreLA INFORMACIÓN
glo horizontal de agujas unidas a ganchos que alzan los hilos de la urdimbre. Cuando las agujas se dirigen hacia el bloque de madera, topan con una tarjeta. Las que encuentran una perforación, siguen su camino hasta penetrar en el orificio del bloque y alzan el hilo de urdimbre correspondiente. correspondiente. Las que no encuentran perforación, quedan bloqueadas; su gancho se desvía y el hilo de urdimbre no se alza. El número de tarjetas necesarias en cada caso es igual al número de hilos de la trama del motivo que se pretende tejer. 5
componían el mensaje secreto. Tal rario. En 1725, Basile Bouchon ideó cies planas en el portador de tarjetas, esquema aparece ahora en los orde- un sistema en el cual los hilos de la resultó decisiva. Además, el uso genenadores con el nombre de “descrip- urdimbre se controlaban mediante ralizado de telares fácilmente reprotor” o “método de direccionamiento papel perforado y un conjunto de agu- gramables, aptos para tejer cualquier indirecto por palabras clave”. jas. En 1728, Jean Falcon propuso motivo, puede considerarse también utilizar una tarjeta para cada sepa- resultado directo de su trabajo. El telar de Jacquard ración de la urdimbre en hilos levanDel telar Jacquard emanaron dos e forma parecida, el telar de Jac- tados y no levantados. En 1745, Jac- desarrollos importantes. Por un laquard constituye el ancestro de ques de Vaucanson construyó un telar do, Charles Babbage, quien concibió muchos de los aparatos digitales que que incorporaba las ideas de Bouchon el primer ordenador digital en el sise utilizan hoy en día. Aunque más y de De Falcon. glo XIX , llegó a la conclusión de que reciente, la pianola representaría En 1801 este telar se encontraba el método óptimo para introducir otro antepasado de la misma familia. averiado. Jacquard, tras promocionar datos en su máquina consistía en usar Sin embargo, ninguno de estos arti- su maquinaria textil en una exposición, tarjetas perforadas, inspiradas en las lugios puede considerarse, estricta- gozaba de una reputación de experto. de Jacquard. Ello suponía una aplimente, un prototipo de los equipos Así que Napoleón le convocó a París cación genuina de la codificación binamodernos: sus mecanismos son bina- para que trabajara en la máquina de ria. Por otro lado, muchas de las subrios por naturaleza, mientras que las De Vaucanson. Su contribución consis- rutinas y los sistemas de corrección máquinas actuales requieren pro- tió en reemplazar el cilindro que por- usados en los ordenadores modernos cesos más complejos. En un telar, taba las tarjetas perforadas por un se concibieron en el siglo XIX con el cada hilo de la urdimbre concreto se montaje prismático. Ello permitía co- objetivo de diseñar tarjetas perforalevanta, o no, al pasar la lanzadera; locar, en el orden adecuado, muchas das para tejer motivos en la ropa. en una pianola, se hace sonar, o no, más tarjetas en un mismo telar. Esta Transformar un dibujo en una secuenuna nota en un momento determi- modificación estuvo respaldada por cia binaria para tejerlo equivale a nado. Con todo, el telar Jacquard fue una ingeniería de alta precisión, lo que traducir un programa escrito en un la primera máquina de control bina- resultaba de vital importancia para lenguaje de alto nivel (Fortran, C++, rio que se utilizó extensamente. un mecanismo que requiere toleran- etc.) a su código binario corresponEl desarrollo del telar puede resu- cias mecánicas estrictas (un concepto diente, expresado en lenguaje máquimirse como sigue. Cuando la indus- original en aquellos tiempos). na (apto para el ordenador). En efecto, tria textil empezó a interesarse por El telar perfeccionado se construyó la conexión entre tejer una tela y disela fabricación de telas con motivos en 1804. Hacia 1812 funcionaban en ñar un sistema de cómputo es muy tejidos (no estampados), recurrió en Francia unos 11.000 telares Jacquard. estrecha. Vean sino el parecido que primera instancia a un sistema ma- A pesar de las tensas relaciones entre muestran el cableado de un ordenanual: un aprendiz se encargaba de ir ambos países, la innovación se pro- dor o la imagen ampliada de un cirlevantando hilos de la urdimbre para pagó hasta Inglaterra. En 1834 ha- cuito integrado complejo con los dibuque se pasasen entre ellos los de la bía ya en Coventry 600 telares Jac- jos tejidos en la ropa. trama (en un telar, los hilos de urdim- quard. Muchos de ellos se instalaron El problema que resolvieron Jacbre se colocan en sentido longitudi- en viviendas de los propios obreros. quard y sus predecesores afecta hoy nal; los de trama, en el transversal). Funcionaban mediante ejes y correas a otros sectores industriales. ConsiDurante el siglo XVII , se inventaron accionados por máquinas de vapor. guieron tejer motivos muy diferentes en Italia y en Francia mecanismos que Se ha dicho a veces que Jacquard, en un mismo telar, el cual podía camsubían y bajaban los lizos. Estos dis- en realidad, no inventó nada. Tal acu- biar rápidamente de un patrón a otro. positivos reducían la mano de obra sación parece injusta. La modifica- Los fabricantes de aparatos electrópero el telar seguía exigiendo un ope- ción que introdujo, utilizar superfi- nicos, por ejemplo, requieren proce-
D
2. LOS TEJIDOS Y LOS CIRCUITOS, vistos muy de cerca, presentan gran semejanza a causa de la conexión con los sistemas binarios. En un tejido, el elemento binario es el punto, que puede consistir en 6
un hilo horizontal sobre uno vertical o viceversa. En el circuito integrado, determina el carácter binario la conductividad eléctrica de cada región, que será metálica o aislante. TEMAS 36
sos lo bastante automáticos como para conseguir una producción rápida de artículos idénticos, y a la vez, lo bastante flexibles como para cambiar ágilmente de un producto a otro. No sorprende, pues, que las máquinas que conectan el cableado de los ordenadores o crean las plantillas para circuitos integrados se inspirasen en su momento en el telar de Jacquard, en el sentido de que empleaban cinta digital binaria o tarjetas perforadas para controlar la producción. La lógica booleana
P
A
B
C
D
E
F
H
I
K
L
M
N
O
P
Q
R
S
T
V
W
X
Y
Z
Aaaa
G
aabba
T T A W T O I R E H D A D I S R E V I N U , H T A E H . G . F
aaaab aaaba. aaabb. aabaa. aabab. aabbb abaaa. abaab. ababa. ababb.
abbaa. abbab. abbba. abbbb. baaaa. baaab. baaba. baabb. babaa. babab. babba. babbb.
ara encontrar los precursores del álgebra lógica de Boole debemos remontarnos hasta los antiguos griegos. Estos se dedicaron intensamente a la lógica (así como a la geometría) a b a b a b a b a b a b a b a b a b a b a b a b y establecieron los fundamentos del A A a a B B b b C C c c D Dd d E E e e F F f f pensamiento europeo en lo que se refiere a esta disciplina. a b a b a b a b a b a b a b a b a b a b a b a b Entre los matemáticos clásicos, fue Gottfried Wilhelm von Leibniz quien G G g g H H h h I I i i K K k k L L l l M M mm más cerca estuvo de descubrir el álgebra de Boole. De hecho, identificó a b a b a b a b a b a b a b a b a b a b a b a b todos los procesos en los cuales el ál N N n n O O o o P P p p Q Q q q R R r r S S s s gebra booleana no discurre paralelamente al álgebra ordinaria. Por a b a b a b a b a b a b a b a b a b a b a b a b ejemplo, en el álgebra de Boole la multiplicación no consiste realmente T T t t V V v v W W ww X X x x Y Y y y Z Z z z en un producto, sino meramente en una reconsideración de la misma cosa: si con el símbolo M se describen man- 3. CODIGO BINARIO ideado por Francis Bacon en el siglo XVII. Se valía de las letras a y b zanas, el enunciado M × M = M no (equivalentes al 0 y al 1 de los códigos modernos) para representar el alfabeto de entonces, representa una mayor cantidad de que tenía esas 24 letras, mediante grupos de cinco letras (arriba ). La segunda parte del cómanzanas sino una ulterior consi- digo consistía en un “alfabeto biforme” (abajo ). Utilizaba dos tipos de letra ligeramente disderación de las manzanas. Con todo, tintos, uno de los cuales representaba laa y el otro la b para imprimir un mensaje aparenla incursión de Leibniz en el terreno temente inocente. El destinatario debía transformar el mensaje en una ristra dea y b , dividir del álgebra lógica no pareció intere- esta serie en grupos de cinco y, por fin, recuperar el mensaje secreto original. sar a ninguno de sus contemporáneos. Hasta principios del siglo XIX , la comunidad de matemáticos no volvería sobre la cuestión. Le estaba reserva- hizo en muchos campos de las mate- compilador que puede ocupar miles do a Boole llevar a cabo el trabajo de- máticas. Boole no desarrolló su álge- de palabras de 16, 32 o 64 bits cada finitivo. bra en la forma elemental que halla- una. Es posible que nuestra interBoole aplicó símbolos algebraicos mos en los manuales de informática, pretación de la lógica booleana no sea a argumentos lógicos típicos, del jaez sino a partir de un estudio profundo la mejor ni la única vía para procede “El mal absoluto es, o bien mal mo- y minucioso de los procesos del pen- sar enunciados del lenguaje. ral, o bien consecuencia del mal moral”. samiento y el lenguaje humano. También analizó demostraciones teo- “Existen, en efecto, ciertos principios El código cíclico de Baudot lógicas más positivas, como “El Ser generales fundados en la naturaleza legamos ahora a los avances en la inmutable e independiente tiene que misma del lenguaje en virtud de los impresión telegráfica. Baudot soexistir por sí mismo”. El método sim- cuales se establece el uso de símbo- bresalió en este campo desde todos bólico logró extraer muchas más los, que no son sino los elementos del los puntos de vista: descubrió nuevos deducciones de las que ofrecía el razo- lenguaje científico”, escribió. códigos, aplicó métodos de control por namiento verbal. Descubrió también La evolución del álgebra lógica realimentación y diseñó su sistema su principal punto débil, a saber, que desde los tiempos de Boole ha pro- íntegramente. Empero, antes de deslas hipótesis subyacentes a un deter- ducido un contraste desconcertante. cribir su trabajo, veamos en qué c onminado aserto podían depender del Boole desarrolló las pocas conectivas sisten el código de permutación cíclica, contexto. de su álgebra partiendo del estudio o código cíclico (código Gray), y el cóLa sencillez del álgebra booleana riguroso del uso del lenguaje. En nues- digo en cadena. —que aplicaba las funciones “y”, “o” tros días, sin embargo, si se quiere Baudot afrontaba el siguiente reto: y “no” a variables binarias— tal vez implementar un lenguaje preciso en lograr que en un lugar se imprimiese haya vuelto en contra de su propio un ordenador, éste ha de contener ran las letras y cifras transmitidas autor, pues parece haber ensombre- varios millares de conectivas boolea- eléctricamente desde una localidad cido las grandes contribuciones que nas, juntamente con un programa distante. En el control de mecanis-
{ { { {
L
LA INFORMACIÓN
7
L E B R A L I L I
CODIGO BINARIO SIMPLE
CODIGO CICLICO (CODIGO GRAY)
CODIGO EN CADENA
0000
0000
0000
0001
0001
0001
0010
0011
0011
0011
0010
0111
0100
0110
1111
0101
0111
1110
0110
0101
1101
0111
0100
1010
1000
1100
0101
1001
1101
1011
1010
1111
0110
1011
1110
1100
1100
1010
1001
1101
1011
0010
1110
1001
0100
1111
1000
1000
4. TRES CODIGOS BINARIOS mostrados en un esquema que utiliza espacios en blanco para representar los 0 y espacios negros para los 1. A la izquierda, un código binario simple para los números del 0 al 15 (la misma disposición podría servir, como en telegrafía, para las letras de a hasta q ). El código cíclico, o código Gray, y el código en cadena tienen organizaciones distin-
tas. El código Gray (centro ) reduce las ambigüedades en la lectura mientras que el código en cadena simplifica la descodificación, dado que una sola pista o columna genera el código entero si se reproduce tras un desfase de un paso. El ingeniero francés Emile Baudot introdujo el código cíclico en la telegrafía hace más de 125 años.
A
A
A
A
L E B R A L I L I
5. DISPOSITIVOS DE LECTURA representados en discos. Un material aislante (blanco ) se utiliza para representar los 0 y un metal (negro ) representa los 1. Los datos entrantes se leen mediante escobillas conductoras. Con un código binario simple (izquierda ) se producirán errores de lectura en algunas de las
8
fronteras, tal como en la línea A-A, donde la escobilla podría leer 0000, 0001, 0010 o 0011. Un código cíclico (derecha ) cambia sólo un dígito en cada divisoria. En una frontera como laA-A, la escobilla únicamente puede leer una de las dos configuraciones adyacentes a la recta.
TEMAS 36
2 8 8 1 , 6 . L O V , E U Q I R T C E L E E R E I M U L A L / R E L L E W L U A P
6. TECLADO Y RUEDA DE RECEPCION del telégrafo de Baudot. En el teclado, un cuadro en blanco correspondía a un 0 y un cuadro con un círculo a un 1. Para transmitir la F , sea por caso, el código era 01 para la mano izquierda (gauche ) y 110 para la derecha (droite ). En el receptor, se almacenaban los cinco dígitos binarios y se hacía girar la rueda hasta alcanzar un ángulo en el cual la configuración situada bajo la cabeza de lectura coincidía con la configuración transmitida. Entonces, el disco de impresión, conectado a la rueda, se accionaba y, por fin, se imprimía la letra, el número o el símbolo enviado por el remitente.
mos se presenta un problema parecido: se requieren dispositivos capaces de convertir en señales digitales una magnitud física, como el ángulo de un eje. Una solución consistiría en un disco en el cual una pieza de metal (conductora) representase un 1 y una de material aislante representase un 0. Pero este código binario simple puede acarrear problemas: errores de lectura. Los datos se leen mediante escobillas conductoras y, por grande que sea la precisión con que el disco se construye y se alinea con los lectores, el paso de las escobillas por ciertas divisorias provocará interpretaciones erróneas. Por ejemplo, una escobilla situada en la línea que separa la posición 0001 y la 0010 podría leer 0000, 0001, 0010 o 0011. Una solución mejorada consiste en un código que en cada divisoria solamente cambie una de sus cifras significativas. Se trata del código cíclico o código Gray. El dispositivo de lectura no puede leer sino las configuraciones adyacentes a una transición, eliminando así la ambigüedad del disco binario simple. Esta propiedad ofrece muchas aplicaciones para las máquinas automáticas modernas. El código en cadena es harina de otro costal. No conserva una relación con el binario, como el Gray, sino que cada código en cadena constituye su propio sistema de numeración y sólo puede hallarse la correlación con el binario por recuento a lo largo del código. Posee varias propiedades valiosas en electrónica y en informática. En las configuraciones de cuatro dígitos, los tres de la derecha de una serie coinciden con los tres del lado izquierdo de la serie inmediatamente inferior. Por consiguiente, los códigos pueden generarse mediante un simple registro de desplazamiento. Ad em ás, ca da co lumna, tr as una demora de un paso, contiene la misma LA INFORMACIÓN
secuencia de dígitos que la situada a su derecha, por lo que el código entero se sintetiza en una sola columna o pista. Al int roducir más dígit os en un código en cadena, éste adquiere la propiedad de detectar y corregir errores. Un ejemplo sencillo puede aclararlo. Supongamos un código simple de cuatro bits y 14 configuraciones como el que se sintetiza en la columna 11110010000110 (fijémonos en que la segunda mitad de la secuencia es inversión de la primera mitad, es decir, la primera mitad consiste en cuatro 1, dos 0 y un 1, y la segunda en cuatro 0, dos 1 y un 0). En este caso, la alteración de uno de los cuatro bits
que designan una posición se traduce en un resultado erróneo. Veamos por qué. La configuración 1100, por ejemplo, podría trocarse en 0100, 1000, 1110, o en 1101; dado que todas estas combinaciones corresponden a configuraciones válidas en el código, el error pasa inadvertido. Sin embargo, si se introducen más dígitos, los fallos salen a la luz. Imaginemos que el código anterior se amplía a seis bits por cada posición. La configuración 110010, por ejemplo, podría trocarse en 010010, 100010, 111010, 110110, 110000 o 110011. En este caso, ninguna de las combinaciones “falsas” aparece en la secuencia original del código; por tanto, el error se detecta. 9
Información cuántica. Estado de la cuestión
L
a información cuántica es un área de investigación en rápido desarrollo que comprende distintas disciplinas científicas, entre las que se incluyen la física, las ci encias de la computación y la matemática aplicada. En sentido amplio podríamos decir que es el resultado de la confluencia de cuatro campos diferentes del saber: la teoría cuántica (física), la teoría (clásica) de la información, la teoría de la computación y la criptografía. En la teoría cuántica, desarrollada en el primer tercio del siglo pasado para entender la estructura atómica, se cimientan los desarrollos tecnológicos de mayor éxito de la segunda mitad del siglo XX . Es la base y el futuro de la química moderna, porque fundamenta con rigor el enlace químico; de los sólidos, puesto que, al explicar la interacción entre los electrones y los iones de la red cristalina, la teoría de bandas permite entender el comportamiento de los conductores, aislantes y semiconductores, pre-
A N E I V E D D A D I S R E V I N U , L A T N E M I R E P X E A C I S I F E D O T U T I T S N I
Pero el código todavía puede ser más robusto: si se aumenta a siete dígitos, los errores individuales no sólo se detectan sino que, además, se pueden corregir. La razón es que un único cambio en una ristra de siete bits produce una versión corrupta más cercana en estructura a la ristra primitiva que cualquiera de las variantes realmente presentes en el conjunto original de ristras. El primer telégrafo de Baudot disponía de un teclado que empleaba cinco dígitos binarios para transmitir cada letra, cada número y cada símbolo. Admitía dos posiciones: una para letras y otra para cifras y símbolos 10
sentes en toda la tecnología electrónica actual; de los láseres; de las microscopías electrónica y de efecto túnel; de la superfluidez; de la superconductividad, etc. Es difícil encontrar un producto cotidiano que utilice técnicas actuales y no tenga de un modo u otro su fundamento en la teoría cuántica, hasta el punto de que se estima que el 25 % del PIB mundial depende de un modo u otro de ella. La necesidad de abordar los problemas de la información, la computación y la criptografía, aspectos básicos de las sociedades modernas, desde un punto de vista cuántico tiene una doble motivación. Por un lado es bien conocido que el número de transistores por unidad de superfic ie en un microchip se dobla, a costo constante, cada 18 meses, aproximadamente (ley de Moore), por lo que nuestros ordenadores parecen lentos o quizás inútiles a los tres o cuatro años de haberlos comprado. Esta reducción del tamaño tiene su límite en el mundo microscópico, e incluso antes, en el mesoscópico. El horizonte temporal de ese límite se sitúa hoy día en unos 30 años. Cuando se llegue a ese dominio, las leyes de la física que rigen el comportamien to de los componentes de los ordenadores cambiarán, pasando de la física clásica a la cuántica. Desarrollar las bases teóricas del computador cuántico, que utilizaría las propiedades cuánticas genuinas para funcionar, es casi una necesidad de nuestra sociedad hoy. Pero no es ésta la única motivación. Por otro lado, la mecánica cuántica permite hacer tareas y resolver problemas que no tienen solución, que son imposibles, en las teorías (clásicas) de la información, la computación y la criptografía, y que serán esenciales para el desarrollo futuro de nuestras complejas sociedades: así, la posibilidad de computar con muchísima más rapidez o la de transmitir de modo absolutamente secreto flujos de información. La información cuántica le debe el ser mucho más poderosa que la información clásica a la existencia de estados entrelazados, o que exhiben correlaciones estadísticas aun cuando no hay un
El entrelazamiento, o correlación no local, es esencial en la información cuántica. Se pueden producir fotones entrelazados cuando un haz láser ultravioleta incide sobre un cristal no lineal dando lugar a un proceso denominado “conversión paramétrica a la baja”. Existe una pequeña probabilidad de que uno de los fotones incidentes dé lugar a un par de ellos de mayor longitud de onda (el conjunto de anillos concéntricos de las figuras). Bajo determinadas condiciones uno de los fotones tendrá polarización horizontal y el otro vertical. Si se superponen los haces se forma un estado entrelazado, como los que se utilizan en información cuántica
(en lugar de una para las minúsculas y otra para las mayúsculas, como en los teclados modernos). El código era cíclico. En el receptor, los cinco dígitos binarios se almacenaban en una rueda codificadora. Esta se conectaba directamente al disco impresor que, al girar, acababa por alcanzar un ángulo en el que la configuración situada bajo la cabeza de lectura coincidía con la configuración recibida. Entonces, se accionaba la cabeza impresora y se imprimía la letra, el número o el símbolo transmitido. Hay quien afirma que Baudot ideó el código por su propiedad de conmu-
tación mínima. De ser así, indicaría que el ingeniero francés comprendía la forma de hallar códigos específicos a partir de propiedades deseables. Su talento se reconoció inmediatamente tras la exhibición de su equipo en la Exposición Universal de París, en 1878. Le concedieron una medalla de oro (otras dos fueron para Thomas A. Edison y para Alexander Graham Bell) y el título de caballero de la Legión de Honor. El telégrafo impresor de Baudot llegó a convertirse en un artefacto estándar. Hacia 1882 lo rediseñó: cambió el código cíclico por un código en cadena. Una vez más, fue capaz TEMAS 36
nexo causal, o transferencia de información, entre ellos (principio de superposición y composición tensori al de estados de varias partículas). Algunos momentos esenciales en la constitución de la información cuántica fueron, primero, los experimentos que contrastaron las desigualdades de Bell, relaciones numéricas ligadas al entrelazamiento, que establecieron de modo inequívoco la existencia de éste; luego, la construcción del protocolo de teleportación y su posterior verificación experimental, y la introducción, por Peter Shor, de un algoritmo cuántico que permitiría resolver problemas imposibles de superar con los ordenadores convencionales. Como ya se ha indicado, las tres aplicaciones más importantes en esta área son la teleportación, la criptografía y la computación cuánticas. Una línea resumiría qué se está haciendo hoy en el campo de la información cuántica: los teóricos estudian situaciones donde intervienen estados cuánticos coherentes (es decir, con entrelazamiento), y los experimentadores tratan de manejarlas, de momento con un número reducido de elementos. He aquí algunos de los problemas abiertos que se están estudiando. Por el lado teórico: i) La búsqueda de criterios generales que determinen cuándo un estado es separable en componentes no entrelazados y cuándo no. ii) La cuantificación del entrelazamiento para estados de varias partículas y determinación de la equivalencia entre sus distintas medidas. iii) La “destilación” del entrelazamiento en estados mezcla (mezclas estadísticas ordinarias de estados cuánticos). Estudio de los estados entrelazados no destilables. iv) El desarrollo de nuevos algoritmos cuánticos. v) Las capacidades de los canales y los problemas de superaditividad (magnitudes de un estado mayores o iguales que la suma de esas mismas magnitudes para los componentes del estado). Desde el punto de vista experimental, el grupo de Nicolas Gisin, en Ginebra, y el de Richard Hughes, en Los Alamos, están realizando progresos muy notables en criptografía cuántica. Están enviando mensajes que no pueden ser descifrados, o que, si son descifrados, quienes los intercambian pueden saber con total seguridad si alguien los ha interceptado o no, el primero mediante la fibra óptica, con un alcance de 67 kilómetros, y el segundo a
de identificar una propiedad deseable (una sola pista en lugar de cinco) y hallar el código que la incorporaba. Así lo muestra su descripción del aparato: “Desde el punto de vista de la construcción, resulta interesante encontrar, entre los millares de disposiciones posibles, aquellas que podrían ordenar 31 configuraciones de forma que permita disponer las pestañas y los espacios de la misma forma en cada una de las pistas de una rueda codificadora. En estas investigaciones y en muchas otras, he contado con la eficaz ayuda de Monsieur Cartier, ingeniero jefe de investigación de los talleres Carpentier, cuyo ingenio y modestia son perfectamente conociLA INFORMACIÓN
través de la atmósfera, incluso cuan do el emisor se halla a 10 kilómetros del receptor del mensaje. Se están también explorando los sistemas físicos que, con la deseada propiedad de la escalabilidad (capacidad de adaptarse a tareas de distinta magnitud), puedan resultar más adecuados para procesar la información cuántica. Citemos entre ellos los sistemas ópticos cuánticos (cavidades resonantes de alta calidad y iones confinados en trampas electromagnéticas) y la creciente activi dad en el campo del estado sólido, donde se están realizando puertas lógicas por medio de puntos cuánticos y de uniones Josephson superconductoras (realizadas ya para un qubit —la unidad cuántica de información—, en ensayo para dos). Otros desarrollos experimentales recientes con incidencia en este campo son la generación de impulsos individuales de fotones (en el Instituto Max Planck); el desarrollo de detectores de fotones con una eficiencia de casi el 100 % (propuestos por Kwiat y por Imamoglu); la sincronización de relo jes y sistemas de posicionamient o valiéndose del entrelaz amiento (en el Instituto de Tecnología de Massachusetts); demostraciones experimentales de la corrección de errores (en el Instituto Nacional de Patrones y Tecnología de Estados Unidos); la clonación con alta fidelidad de sistemas cuánticos individuales (Oxford); etc. Además de todas estas excitantes perspectivas, hay otros dos aspectos en la información cuántica que se deben mencionar, a saber: el valor añadido que tendría el desarrollo de nuevas áreas técnicas en una futura sociedad de la información, hacia la que caminamos, y su contribución, en nuestro caso, a los objetivos sociales de Europa. Más que desplazar a la actual tecnología de la información, la nueva información cuántica se haría un lugar a su lado, en la ejecución de tareas imposibles con la técnica actual. A nadie se le oculta la trascendencia económica de, por ejemplo, transmitir de modo absolutamente seguro flujos de información (piénsese en Internet o en la necesaria codificación de un mensaje cuando se efectúa una transacción económica con la tarjeta de crédito), y así lo han entendido algunas de las empresas más importantes del mundo, como IBM, Hewlett Packard, Laboratorios Bell, Microsoft, etc., e instituciones y agencias gubernamentales de los países mas desarrollados, fundamentalmente en EE.UU. (la Universidad de Harvard, el Caltech, el MIT, la NASA, el Ministerio de Defensa, etc.), en la Unión Europea, a través de la Fundación Europea de la Ciencia, y en distintos países europeos, en particular el Reino Unido, Austria y Alemania. M IGUEL FERRERO Departamento de Física Universidad de Oviedo
dos por todos los inventores que han trabajado con él.” La modestia de Cartier no place tanto al historiador de la ciencia. Hubiera sido interesante poder saber qué enfoque le dio al problema en aquellos días, anteriores a los registros de desplazamiento y al álgebra booleana aplicada. No cabe duda, sin embargo, de que la figura dominante fue Baudot. De hecho, puede considerarse inventor del código cíclico así como del código en cadena. Los códigos binarios han proliferado desde el diseño y la construcción de los primeros ordenadores binarios, allá por 1949. Sin embargo, el curso de los descubrimientos muestra que,
en general, las aplicaciones que han surgido desde entonces consisten solamente en refinamientos de propiedades que se encontraban ya en los antiguos códigos aquí descritos.
BIBLIOGRAFIA COMPLEMENTARIA T ÉLÉGRAPHE M ULTIPLE I M PR I ME UR D E M. BAUDOT en Annales Télégraphiques, serie 3, vol. 6, págs. 354-389; 1879. L A TÉLÉGRAPHIE M ULTIPLE en Anna les Télégraphiques, serie 3, vol. 22, págs. 2871, 152-177; 1895. THE LAWS OF THOUGHT. George Boole. Dover Publications, Inc., 1953.
11
El geómetra de la información Claude Shannon dio al vago concepto de información una expresión matemática, una magnitud mensurable que puede aplicarse a una lengua, una música o al patrimonio genético de un organismo Jérôme Segal
¿S
abe alguien quién inventó pendencia del soporte, la informa- trabajo en el verano de 1937. Inmediauna máquina para resolver ción ha alcanzado un estatus pri- tamente, se publicó y alcanzó una el cubo de Rubick, un mono- mordial. gran difusión. En 1940 fue galardociclo biplaza, un ratón mecánico capaz nado con el premio Alfred Noble de de orientarse en un laberinto, una Matemático e ingeniero la Sociedad de ingenieros americanos. computadora que calculaba con núijo de un juez y una profesora de En su Historia del ordenador desde meros romanos o un “frisbee” a prolengua, Claude Elwood Shannon Pascal a von Neumann , H. Goldstine, pulsión? Daremos una pista: se tra- nació en Michigan, EE.UU., en 1916. uno de los participantes en la consta del mismo personaje que en 1945 Su abuelo, inventor de una máquina trucción del primer ordenador civil, concibió una teoría matemática de la lavadora y titular de varias patentes, el ENIAC, resaltaba la importancia criptografía y al que sus colegas de probablemente influyó en los intere- del proyecto de Shannon, pues conlos Laboratorios Bell recuerdan re- ses científicos y técnicos del joven tribuyó a que el arte del diseño de circorriendo los pasillos montado en Shannon. En 1932 entró en la Uni- cuitos digitales se convirtiera en una monociclo al tiempo que hacía juegos versidad de Michigan. Cuatro años ciencia. malabares con tres bolas. después salía con dos títulos bajo el Vannevar Bush, padre del analiClaude Shannon, ingeniero y mate- brazo: matemático e ingeniero. Muy zador diferencial y vicepresidente del mático fallecido en 2001, marcó hitos habilidoso, construyó un barco radio- MIT, era entonces decano de la Uniesenciales para la ciencia y la técnica dirigido y un sistema telegráfico que versidad de Michigan. En su papel de de la segunda mitad del siglo XX . Tres le permitía comunicarse con un amigo mentor del joven Shannon, le propude sus hallazgos han sido importantí- que vivía a un kilómetro de distan- so centrar su tesis doctora l en las masimos: su tesis de licenciatura, que cia mediante los alambres que sepa- temáticas aplicadas a la genética. En permitió aplicar el cálculo binario a raban las fincas. Admirador de Edi- 1939, Bush fue nombrado presidente los circuitos formados por relés y con- son, le apasionaba la electricidad y del Instituto Carnegie, en Washingmutadores; sus investigaciones sobre a ratos trabajaba reparando radios ton. Este instituto trabajaba en una máquinas jugadoras de ajedrez, que y otros dispositivos eléctricos. teoría orientada al perfeccionamiento contribuyeron al desarrollo de la inTras finalizar sus estudios, Shan- genético de la especie humana. En una teligencia artificial; y, sobre todo, el non consiguió entrar en el Instituto palabra: la eugenesia. Cuando Bush artículo Una teoría matemática de la de Tecnología de Massachusetts, el se enteró de que los nazis utilizaban MIT. Por un pequeño anuncio, se la eugenesia para justificar su polícomunicación, que publicó en 1948. Este artículo, convertido más tarde había enterado de que necesitaban a tica racista, ordenó cerrar el Laboraen el libro La teoría matemát ica de alguien para encargarse del mante- torio de Cold Spring Harbor. En este contexto, Shannon aceptó la comunicación , versaba sobre la nimiento del analizador diferencial, transmisión de la información y las un ordenador analógico concebido la proposición de Bush y comenzó su mejoras de la codificación. Shannon para resolver ecuaciones. Al propio tesis Un álgebra para la genética teóproponía una cuantificación unívoca tiempo, redactó una tesis de licen- rica. Allí examinaba la dinámica de de la información a condición de no ciatura sobre la aplicación del álge- las poblaciones mendelianas. A partener en cuenta el significado de los bra de Boole, la teoría matemática que tir de los trabajos de Mendel, sabemensajes transmitidos. Sus trabajos rige los cálculos con números bina- mos que el cruce de guisantes lisos han sobrepasado el campo de las tele- rios (formado con ceros y unos), a los con guisantes rugosos engendra ejemcomunicaciones y se han aplicado a circuitos constituidos por relés y con- plares lisos y rugosos en proporciotodas las formas posibles de comu- mutadores. En ella demostraba que nes determinadas. Estas resultan nicación. Desde entonces, la infor- cualquier circuito puede represen- difíciles de calcular al cabo de varias mación ha perdido su carácter sub- tarse por un conjunto de ecuaciones. generaciones; también cuando las ca jetivo y se ha tornado mensurable, Manipulando estas ecuaciones esta- racterísticas morfológicas dependen cualquiera que sea su origen: se ha bleció reglas de equivalencia entre de varios genes. Merced a su álgebra, podido cuantificar la información que grupos de componentes, merced a las que asociaba elementos matemáticontiene una lengua, una melodía, cuales logró simplificar notablemente cos a las poblaciones y establecía una secuencia de ADN... Con inde- los circuitos electrónicos. Presentó el entre ellos un conjunto de operacio-
H
12
TEMAS 36
L L E B S O I R O T A R O B A L
1. SHANNON concibió un ratón electromecánico capaz de salir de un laberinto. Este invento demuestra su interés por la inteligencia artificial, disciplina en cuya fundación participó al organizar el primer congreso en 1956.
nes, consiguió reformular y generalizar teoremas de la genética teórica. En numerosos casos, su notación condensada le permitía expresar con sencillez fenómenos complejos. Shannon sólo se refirió a la eugenesia de una forma implícita, al final de su tesis, donde abordaba la existencia de selecciones que favorezcan a los individuos de una cierta constitución genética. En resumen, si bien la eugenesia constituye el contexto en que se inscriben los trabajos de Shannon, no se inspiraron directamente en ella.
Cuando Shannon defendió su tesis, en 1940, los EE.UU. todavía no habían entrado en guerra. Sin embargo, la investigación científica ya se había reorganizado para sostener el esfuerzo bélico. Así, la rapidez de los aviones exigía radares que dirigiesen los proyectiles. Shannon participó en el diseño de una pieza de artillería acoplada a un radar que se utilizó en Gran Bretaña durante la segunda batalla de Inglaterra. Permitió destruir más de las tres cuartas partes de los misiles V1 alemanes. La guerra ofreció a Shannon otra ocasión para trabajar con el ejército: en 1945 redactó un informe —confidencial hasta 1957— sobre la criptología, la ciencia del cifrado. Las in vestigaciones que emprendió Shannon para este fin serían decisivas en su carrera; la Teoría matemática de la comunicación que publicaría tres años después no constituye sino una prolongación de esos trabajos. Shannon intentaba ligar en ese informe la forma en que se codifica un mensaje a la dificultad que debe vencer quien lo intercepta y pretende descifrarlo. Imaginemos que un espía desea
enviar el mensaje “La fórmula química del X-tran es...” y lo codifica cambiando cada letra del alfabeto por otra letra, por ejemplo la a por la l, la f por la k , etcétera. La versión cifrada del mensaje sería “Hl kfdzphl opwzwsl rch v-gdla cn...”. Si el enemigo intercepta este mensaje, ¿tiene alguna probabilidad de descifrarlo?
Si el mensaje es suficientemente largo, la respuesta es afirmativa, pues en una lengua las letras no aparecen al azar. Sólo hace falta contar las veces que aparece cada uno de los símbolos de la versión codificada y hacerlos corresponder con las letras de idéntica frecuencia de aparición en la lengua empleada.
2. EL ANALIZADOR DIFERENCIAL era un ordenador analógico diseñado para resolver ecuaciones diferenciales. Funcionaba mediante engranajes. Para cambiar de programa debía modificarse el emplazamiento de unas varillas. Siendo aún estudiante, Shannon fue contratado para enseñar a los investigadores cómo programarlo.
LA INFORMACIÓN
T I M
13
una lengua, que él denominaba H , se define como el sumatorio con respecto a i de ( —p i log pi), siendo pi la probabilidad de selección de una letra. As í de finida, la cantid ad H será máxima cuando todas las letras de esa lengua tengan la misma probabilidad de ser escogidas (todas las pi sean iguales). Por el contrario, la información que poseen los que intercepten el mensaje será mínima. Shannon escogió la letra H para designar la información, en alusión al teorema H de Boltzmann sobre la entropía. En 3. DURANTE LA SEGUNDA GUERRA MUN- la misma línea, más tarde llamó DIAL, Shannon trabajó en la primera artille- “entropía” a la información. A A B M
ría antiaérea automática. Conectada a un radar, seguía los misiles V1 alemanes y los destruía.
Este método de descifrado sólo resulta válido si en el idioma utilizado cada letra aparece con una frecuencia distinta. Así, cuanto más difieran entre sí las frecuencias de aparición de las letras, más fácil será identificarlas con símbolos y mejor se descifrará el mensaje. En términos más exactos, diremos que se tendrá más información a priori sobre un mensaje cuanto mayores sean las diferencias entre las probabilidades de aparición de las distintas letras en una determinada lengua. En su informe sobre la criptología, Shannon lo expresaba matemáticamente: la cantidad de información que posee
De la criptología a las comunicaciones
L
a investigación en criptología ha mantenido una continua relación con las telecomunicaciones, dado que toda transmisión viene a ser una codificación de la información. El código Morse, por ejemplo, hace corresponder cada letra del alfabeto con un símbolo, combinación de puntos y rayas, que se transmite mediante impulsos eléctricos de distinta duración. Cuando Shannon escribió su informe para las fuerzas armadas, ya mostró interés por la teoría de la comunicación y la transmisión de información, fuese por telefonía, telegrafía, radio o televisión. Ante el auge del telégrafo transatlántico y con miras a economizar el tiempo de ocupación de las líneas, ingenieros como
La entropía y la lingüística
L
a entropía de una lengua permite cuantificar en qué medida es predecible y, en consecuencia, su redundancia. Esta entropía puede definirse de dos maneras diferentes. La primera consiste en efectuar un cálculo a partir de las frecuencias de las letras y de grupos de letras, y aplicar la fórmula de Shannon para la cantidad de información. Una lengua que utilizara con la misma frecuencia cada una de las 27 letras (26 más el espacio) del alfabeto internacional tendría una entropía de H = 4,75 bits (log 2 27). Si se considera que la w se utiliza menos que la e , la entropía disminuye al no ser iguales todas las probabilidades (su valor se reduce a unos cuatro bits). Además, dado que la elección de un carácter condiciona la elección del siguiente, la entropía aún resulta menor. En español, así como en francés o inglés, se sabe que después de la q viene la u . Así pues, se deben tener en cuenta las frecuencias de aparición de grupos de dos letras. De esta forma, se puede afinar el cálculo de H atendiendo a las diferentes restricciones idiomáticas. En una palabra, H está comprendida entre uno y dos bits por letra. El segundo método, más lúdico, consiste en hacer adivinar cada una de las letras de un texto a alguien capaz de leer en la lengua en cuestión. El número medio de preguntas de respuesta binaria (sí o no) que él plantee para adivinar una letra corresponde a la entropía de la lengua. Como ejemplo: “n lctr lr fclmnt n txt sn vcls” (un lector leerá fácilmente un texto sin vocales). Este tipo de cálculo, iniciado por Shannon al principi o del decenio de 1950, todavía se utiliza a menudo en criptoanálisis (la ciencia que intenta “revelar” los algoritmos criptográficos) o en el diseño de programas para el reconocimiento del habla.
14
Karl Küpfmüller de los Laboratorios Siemens & Halske, de Alemania, o Ralph Hartley y Harry Nyquist, de los Laboratorios Bell, en EE.UU., ya habían definido la cantidad de información contenida en un mensaje, si bien en contextos más restringidos. En 1948, Shannon se decidió a publicar una síntesis de sus investigaciones sobre la teoría de la comunicación en la revista de los Laboratorios Bell —a los que pertenecía desde 1941—. Volvió allí a emplear la definición de información utilizada en su informe sobre criptología. Asimismo, siguiendo la idea que su colega ingeniero John Tukey propuso en 1947, introdujo el “bit”, contracción de “binary digit” (número binario, en inglés) como unidad de la cantidad. La definición de H constituía, sin duda, una extensión de la que había dado Hartley, pero los teoremas de Shannon abrían campos de investigación mucho más vastos. Tomemos como ejemplo el teorema fundamental de la vía de transmisión sin ruido. Toda señal se deforma al ser transmitida. Por ejemplo, una señal eléctrica de onda cuadrada se ensancha y atenúa a medida que recorre un cable. La razón no estriba solamente en el ruido que pueda añadirse a la señal (la agitación térmica de los electrones en los hilos conductores, por ejemplo), sino también en la alteración introducida por el medio de transmisión. Para evitar que se superpongan dos señales consecutivas, no se deben enviar demasiado seguidas. Con ejemplo se comprende que toda vía de comunicación (no sólo los hilos conductores sino también el aire para las ondas electromagnéticas o el agua para las ondas acústicas del sónar) posee una capacidad máxima de transmisión fiable de información. El teorema de la vía sin ruido estipula que es posible codificar los datos de tal forma que se aproximen a ese va lor límite todo lo que se de see. Análogamente, en el caso de una vía perturbada por ruido, Shannon demostró que es posible codificar los mensajes de manera que se reduzca el número de errores de transmisión a un valor tan pequeño como se quiera.
Dado que no toma en cuenta el significado de los mensajes, la definición de Shannon de la información se puede aplicar a cualquier tipo de transmisión. Así, el término “código” se extendió a todas las disciplinas. Al principio de la década de 1950, los biólogos se lanzaron a calcular la canTEMAS 36
Información, entropía y desorden
L
a entropía de un sistema aislado acepta dos definiciones distintas, según pertenezca al mundo microscópico o al macroscópico. En este último caso, la entropía permite diferenciar la parte de energía que puede convertirse en trabajo de aquella otra que se traduce, por ejemplo, en calentamiento. Este concepto, introducido de forma intuitiva en 1824 por Sadi Carnot en sus Reflexiones acerca de la fuerza motriz del fuego y formalizado en 1865 por Rudolf Clausius, desarrolló un importante papel en la mejora del rendimiento de las primeras máquinas de vapor. A escala microscópica, la entropía representa la capacidad de un sistema de adquirir un gran número de estados, caracterizados por la energía cinética, potencial y electromagnética de sus componentes. Max Planck llegó, a partir de los trabajos de Ludwig Boltzmann, a la expresión S = k log W , en la que W representa el número de
Shannon bautizó la cantidad de información con el nombre de “entropía” por existir una analogía formal entre ésta y la entropía física (S = k log W ), grabada en la tumba de Boltzmann en Viena.
tidad de información que contiene un ácido le correspondan varios tripleser humano. En 1953, tras descubrir tes de bases de ADN (¿cómo se puede la estructura de la doble hélice del hablar de código cuando no existe ADN, físicos seguidores del desar ro- relación unívoca entre el mensaje y llo de la teoría de la información se su versión codificada?). pusieron a estudiar las corresponDiversos lingüistas calcularon la dencias entre los tripletes de nucleó- entropía de una lengua a la manera tidos y los aminoácidos (tres bases de Shannon, considerando cada lennitrogenadas del ADN corresponden gua como un código. Uno de ellos, a un aminoácido). Enseguida adop- Roman Jakobson, estudió el concepto taron las metáforas propias de la in- de redundancia y sus interacciones formación, si bien no siempre estaban con la teoría de la información en justificadas. Hoy se habla de “código” Ling üística y teoría de la co muni cagenético, aunque a un mismo amino- ción , uno de los capítulos de sus Ensayos de lingüí stica general . Luego vinieron matemáticos que unificaron las definiciones propuesA tas por Shannon en el marco de un formalismo más general. En 1970, el X Y soviético Andrei Kolmogorov, que haY C V W cia 1930 había propuesto una axiomaB S Z tización de la teoría de las probabiliB dades, afirmó que convenía reelaborar Z X ésta partiendo de la teoría algorítmiZ ca de la información. W Y X En paralelo con el desarrollo de la A teoría de la información, Shannon se V interesó por el cerebro desde los años 4. MERCED A LA LOGICA DE BOOLE, Shan- cincuenta. Participó activamente en non logró simplificar los circuitos eléctri- el auge de la inteligencia artificial. cos. Los dos circuitos aquí mostrados son En 1950 publicó el artículo La proequivalentes, pero el de abajo es más sen- gram ació n del ordenad or para juga r cillo y por tanto más barato de fabricar y más al ajedrez. En 1956 organizó con Marfiable. Las letras indican interruptores. Esta vin Minsky y John McCarthy la essimplificación resulta válida para cualquier cuela de verano “Inteligencia artificircuito eléctrico, como por ejemplo un am- cial”; patrocinada por la fundación Rockefeller, se inscribía en el conplificador de válvulas.
LA INFORMACIÓN
estados. En el caso de un gas perfecto, en el que las moléculas se consideran esferas, la distribución de éstas en el espacio basta para determinar la entropía. Así se ha difundid o la analogía, a menudo engañosa, que asimila la entropía al desorden, pese a ser orden y desorden conceptos sub jetivos. En ciertos casos, la entropía se expresa como una suma de logaritmos: un sumatorio de x i log (x ) i , siendo x i el número de estados individuales en los que puede encontrarse una partícula dada. Por analogía formal entre esta expresión y la propuesta por Shannon para la cantidad de información H (el sumatorio con signo negativo de p i log p i siendo p i la probabilidad de selección de una letra), en ocasiones se llama entropía a la cantidad de información. Fue el matemático John von Neumann quien sugirió a Shannon dar este nuevo nombre a la cantidad de información.
texto del desarrollo de la teoría de la información. Ya en 1956, en el editorial de una revista técnica, Shannon se distanció de la que solía llamarse “teoría de la información”: en su opinión, debía ceñirse estrictamente al campo de las comunicaciones. Es en el plano técnico donde su teoría ha tenido más aplicaciones. Ha permitido elaborar códigos correctores de errores como los que se utilizan en los discos compactos o las telecomunicaciones espaciales. El proyecto de los “ordenadores cuánticos” también puede considerarse una continuación directa de los trabajos de este gran matemático ingeniero. Hoy día, además, transcurridos más de 40 años, la teoría de la información ha aportado un lenguaje común a numerosas investigaciones interdisciplinarias.
BIBLIOGRAFIA COMPLEMENTARIA E L EM EN TS O F I NFORMATION T HEORY . T. M. Cover y J. A. Thomas. Wiley, Nueva York, 1991. CLAUDE ELWOOD SHANNON : COLLECTED PAPERS. Dirigido por N. J. A. Sloane y A. D. Wyner, IEEE Press, Nueva York, 1993. I NFORMATION , COMPLEXITÉ , H ASARD. J.-P. Delahaye. Hermès, París, 1994.
15
La información en el universo holográfico Los resultados teóricos relativos a la entropía de los agujeros negros llevan a concluir que el universo podría ser un inmenso holograma Jacob D. Bekenstein
S
i preguntamos de qué se compone el mundo físico, se nos responderá que de “materia y energía”. Pero quien sepa algo de ingeniería, biología y física nos citará también la información como elemento no menos importante. El robot de una fábrica de automóviles es de metal y plástico, pero no hará nada útil sin abundantes instrucciones que le digan qué pieza ha de soldar a otra. Un ribosoma de una célula se construye con aminoácidos y alimenta con la energía generada por la conversión del ATP en ADP, pero no podría sintetizar proteínas sin la información suministrada por el ADN del núcleo celular. Un siglo de investigaciones nos ha enseñado que la información desempeña una función esencial en los sistemas y procesos físicos. Hoy, una línea de pensamiento iniciada por John A. Wheeler, de la Universidad de Princeton, considera que el mundo físico está hecho de información; la energía y la materia serían accesorios. Este punto de vista invita a reconsiderar cuestiones fundamentales. La capacidad de almacenamiento de la información de los discos duros y demás dispositivos de memoria ha ido creciendo a toda velocidad. ¿Cuándo se parará este progreso? ¿Cuál es la capacidad de información última de un dispositivo que pese, digamos, menos de un gramo y ocupe un centímetro cúbico (ése viene a ser el tamaño del chip de un ordenador)? ¿Cuánta información se necesita para describir todo un universo? ¿Podría tal descripción caber en la memoria de un ordenador? ¿Podríamos, tal como escribió William Blake, “ver el mundo en un grano de arena”, o esas 16
palabras sólo han de tomarse como una licencia poética? Desarrollos recientes de la física teórica contestan algunas de estas preguntas; las respuestas podrían ser hitos importantes hacia la teoría definitiva de la realidad. Del estudio de las misteriosas propiedades de los agujeros negros se han deducido límites absolutos que acotan la información que cabe en una región del espacio o en una cantidad de materia y energía. Resultados ligados a ésos sugieren que nuestro universo, al que le percibimos tres dimensiones espaciales, podría en realidad estar “escrito” en una superficie bidimensional, como un holograma. Nuestra percepción ordinaria de un mundo tridimensional resultaría en tal caso una profunda ilusión o sólo una de dos maneras alternativas de ver la realidad. Quizás un grano de arena no abarque el mundo, pero sí lo haga una pantalla plana. Las dos entropías
L
a teoría formal de la información nació de los artículos publicados en 1948 por el matemático estadounidense Claude E. Shannon. En ellos enunció la medida de la información más ampliamente usada hoy en día: la entropía. La entropía había venido siendo un concepto central de la termodinámica, la rama de la física que trata del calor. Suele decirse que la entropía termodinámica expresa el desorden de un sistema físico. En 1877 el físico austríaco Ludwig Boltzmann la caracterizó más precisamente como el número de estados microscópicos distintos en los que pueden hallarse las partículas que componen un trozo de materia de forma que siga pare-
N A I J A M A K . T D E R F L A
ciendo el mismo trozo desde un punto de vista macroscópico. En el caso del aire de una habitación, se contarían las maneras en que podrían distribuirse y moverse las moléculas de gas por la habitación. Cuando Shannon buscó una manera de cuantificar la información contenida en un mensaje, la lógica le condujo a una fórmula que tenía el mismo aspecto que la de Boltzmann. La entropía de Shannon de un mensaje es el número de dígitos binarios, o bits, necesarios para codificarlo. No nos ilustra acerca del valor de la información, que depende mucho del contexto; pero en cuanto medida objetiva de la cantidad de información, la entropía de Shannon ha sido enormemente útil en ciencia y técnica. El diseño de todos los aparatos modernos de comunicación —desde los teléfonos portátiles hasta los módems y los reproductores de discos compactos— se basa en la entropía de Shannon. La entropía termodinámica y la de Shannon son conceptualmente equi valentes: el número de configuraciones que se cuentan en la entropía de Boltzmann refleja la cantidad de información de Shannon que se necesitaría para realizar cualquier configuración determinada. Tales entropías presentan, sin embargo, dos diferencias principales. En primer lugar, la entropía termodinámica que emplean un químico o un experto en refrigeración se expresa en unidades de energía dividida por temperatura, mientras que la entropía de Shannon aplicada por un ingeniero de telecomunicaciones se da en bits, magnitud que carece de dimensiones. Esta diferencia no es más que una cuestión de convenciones.
Incluso cuando se las ha reducido a las vicisitudes de un siglo de revelaunidades comunes, los valores típicos ciones en la física nos han curado co nde las dos entropías difieren mucho en tra el dogmatismo. Podría haber más magnitud. Un microchip de silicio que niveles de estructura en nuestro unicontenga un gigabyte de datos, por ve rso que lo s que sueñ a la física ejemplo, posee una entropía de Shan- actual. non de unos 1010 bits (un byte son ocho No se puede calcular la capacidad bits), muchísimo menor que la en- máxima de información de un pedazo tropía termodinámica del chip, unos de materia, o, de manera equivalente, 10 23 bits a temperatura ambiente. su verdadera entropía termodinámica, Esta discrepancia se debe a que esas sin saber la naturaleza de los últimos entropías se calculan para grados de constituyentes de la materia, de su libertad diferentes. Un grado de li- nivel de estructura más profundo, al bertad es cualquier cantidad que pue- que llamaré “nivel X”. (Esta ambida cambiar, así una coordenada que güedad no le causa problemas a la especifica la localización de una par- termodinámica práctica, la de un tícula o una componente de su velo- motor de coche, por ejemplo, ya que cidad. La entropía de Shannon del puede ignorar los quarks del interior chip sólo atiende al estado global de del átomo; no cambian de estado en cada pequeño transistor impreso en las moderadas condiciones del motor.) el cristal de silicio: está on u off ; re- Dado el vertiginoso progreso de la mipresenta un 0 o un 1 —un único grado niaturización, juguemos a imaginar de libertad binario—. La entropía ter- un día en que los quarks sirviesen modinámica, por el contrario, depende para almacenar información, quizás de los estados de todos y cada uno de un bit cada uno. ¿Cuánta información los miles de millones de átomos (con cabría entonces en nuestro cubo de sus electrones en órbita) que forman un centímetro de lado? ¿Y cuánta si cada transistor. A medida que la minia- lográsemos controlar las supercuerturización nos acerque más al día en das, o niveles más profundos aún ni que cada átomo nos almacenará un soñados? Sorprendentemente, los bit de información, la entropía útil de desarrollos en la física de la gravitaShannon del mejor microchip del mo- ción en los treinta últimos años han mento se irá acercando a la entropía proporcionado algunas respuestas termodinámica de su material. Cuando claras a preguntas que parecían tan las dos entropías se calculan para los inabordables. mismos grados de libertad, resultan Termodinámica iguales. ¿Cuáles son los grados de libertad del agujero negro fundamentales? Al fin y al cabo, los rotagonista de estos avances es átomos se componen de electrones y el agujero negro. Los agujeros núcleos, los núcleos de protones y negros son una consecuencia de la neutrones, y éstos de quarks. Muchos relatividad general, la teoría geoconsideran hoy en día que los elec- métrica de la gravitación establecida trones y los quarks son excitaciones por Albert Einstein en 1915. Según de supercuerdas, de las que piensan esta teoría, la gravitación surge de que son los entes fundamentales. Pero la curvatura del espacio-tiempo, que hace que los objetos se muevan como si estuviesen atraídos por una fuerza. A la inversa, la causa de la curvatura es la presencia de materia y energía. El mundo como holograma Según las ecuaciones de Einstein, una concentración suficientemente densa de materia o energía curva • Una hipótesis asombrosa, el principio holográfico, mantiene que el universo tanto el espacio-tiempo, que lo rasga es como un holograma: igual que jugando con luces se registra una imagen y nace un agujero negro. Las leyes de tridimensional en un pedazo de película plana, este universo que nos parece la relatividad prohíben a todo lo que tridimensional podría equivaler por completo a otro conjunto de campos cuáncaiga en un agujero negro volver a ticos y leyes físicas “pintado” en una superficie vasta y lejana. salir; por lo menos, dentro de la formulación clásica (es decir, no cuán• La física de los agujeros negros —concentraciones de masa con una densitica) de la física. El punto de no dad inmensa— da a entender la veracidad del principio. El estudio de los aguretorno, el horizonte de sucesos del jeros negros enseña, por mucho que desafíe al sentido común, que el máximo agujero negro, es de crucial imporcontenido de información de cualquier región del espacio viene dado, no por tancia. En el caso más simple, se trasu volumen, sino por el área de la superficie que la delimita. ta de una esfera; tanta más área tendrá cuanto mayor sea la masa del • Los físicos esperan que este sorprendente hallazgo sea una clave en la búsagujero. queda de la definitiva teoría de la realidad. Es imposible determinar lo que hay dentro de un agujero negro. Ninguna
18
P
TEMAS 36
Horizonte de sucesos del agujero negro
Un área de Planck
N A I J A M A K . T D E R F L A
Una unidad de entropía
1. LA ENTROPIA DE UN AGUJERO NEGRO es proporcional al área de su horizonte de sucesos (superficie de cuyo interior no puede escapar, a causa de la gravedad del agujero, ni siquiera la luz). En concreto, un agujero con un horizonte que abarque A áreas de Planck tendrá A/4 unidades de entropía. (El área de Planck, unos 10–66 centímetros cuadrados, es la unidad cuántica de área fundamental, determinada por la intensidad de la gravedad, la velocidad de la luz y el tamaño de los cuantos.) Como si la entropía, en cuanto medida de la información, estuviese escrita sobre el horizonte de sucesos, de suerte tal que cada bit (cada 0 o 1 de la codificación digital) correspondiera a 4 áreas de Planck.
información detallada puede emer- rales son irreversibles. Una taza de ger del horizonte y escapar al mundo té cae de la mesa y se rompe; nadie exterior. Con todo, un pedazo de ma- ha visto jamás que los trozos salten teria deja algunos rastros cuando de- del suelo y recompongan la taza. La saparece para siempre en un agujero segunda ley de la termodinámica pronegro. Su energía (contamos cual- híbe la inversión del proceso. Estaquier masa como energía, de acuerdo blece que la entropía de un sistema con la fórmula de Einstein E = mc 2) físico aislado nunca decrece; en el queda permanentemente reflejada en mejor de los casos, permanecerá consun incremento de la masa del agujero tante; por lo normal, aumentará. Esta negro. Si la materia que absorbe orbi- ley es esencial para la físico-química taba a su alrededor, el momento angu- y la ingeniería; cabe sostener que es lar correspondiente se añadirá al la ley física que más se tiene en cuenta momento angular del agujero negro. fuera de la propia física. Tanto la masa como el momento anguTal y como explicó Wheeler, con la lar del agujero negro son mensurables materia que cae en un agujero negro gracias a sus efectos en el espacio- desaparece también su entropía; ditiempo de los alrededores del agujero; ríase que así se supera y arrumba la así, los agujeros negros respetan las segunda ley. Una idea de cómo podía leyes de conservación de la energía y resolverse este problema llegó en del momento angular. En cambio, 1970. Demetrious Christodoulou, parece como si otra ley fundamental, entonces estudiante de doctorado de la segunda ley de la termodinámica, Wheeler en Princeton, y por otra parse violase. te Stephen W. Hawking, de la UniLa segunda ley de la termodinámica ver sidad de Cam bridge, demostracompendia algo conocido por todos: ron que en varios procesos, entre ellos que la mayoría de los procesos natu- la fusión de dos agujeros negros, LA INFORMACIÓN
nunca decrecía el área total de los horizontes de sucesos. La analogía con la tendencia de la entropía a aumentar me llevó a proponer en 1972 que un agujero negro tiene una entropía proporcional al área de su horizonte ( véase la figura 1 ). Conjeturé que, cuando la materia cae e n un agu jero negro, el aumento de la entropía de éste siempre compensa, con creces incluso, la entropía “perdida” por la materia. Con más generalidad: la suma de la entropía del agujero negro y de la entropía ordinaria fuera del mismo no puede decrecer. Esta es la generalización de la segunda ley (o GSL). La GSL ha superado un gran número de estrictas pruebas, si bien puramente teóricas. Cuando una estrella se desploma sobre sí misma y crea un agujero negro, la entropía de éste supera en mucho la de la estrella. En 1974 Hawking demostró que un agujero negro emite espontáneamente radiación térmica —hoy denominada “radiación de Hawking”— mediante un proceso cuántico. El teorema de Christodoulou-Hawking falla ante ese fenómeno (la masa del agujero negro y, por tanto, el área de su horizonte decrecen), pero la GSL ataja el problema: la entropía de la radiación emergente compensa la merma de la entropía del agujero negro, de manera que se conserva la GSL. En 1986 Rafael D. Sorkin, de la Universidad de Syracuse, se apoyó en que el horizonte bloquee la información interna del agujero e impida que influya en el exterior para demostrar que la GSL (o algo muy parecido a ella) tiene que ser válida en cualquier proceso concebible que sufran los agujeros negros. Su profundo argumento dejaba claro que la entropía a que se refiere la GSL coincide con la calculada en el nivel X, sea cual sea ese nivel. Con su proceso de radiación Hawking determinó la constante de proporcionalidad entre la entropía de un agujero negro y el área del horizonte: la entropía del agujero negro es exactamente una cuarta parte del área del horizonte de sucesos medida en áreas de Planck. (La longitud de Planck, unos 10 –33 centímetros, es la escala de longitud fundamental relacionada con la gravedad y la mecánica cuántica. Su cuadrado es el área de Planck.) Incluso desde un punto de vista termodinámico, se trata de una enorme cantidad de entropía. La entropía de un agujero negro de un centímetro de diámetro sería de unos 10 66 bits, aproximadamente igual a la entropía termodinámica de un cubo 19
de agua de 10.000 millones de kilómetros de lado. El mundo, un holograma
L
a GSL nos permite establecer cotas de la capacidad de información de cualquier sistema físico aislado, límites que se refieren a la información en todos los niveles de estructura, hasta el X. En 1980 empecé a estudiar la primera de tales cotas; la “cota de entropía universal”, así se llama, limita la entropía que puede contener una determinada masa de un tamaño concreto. Una idea afín, la cota holográfica, fue apuntada en 1995 por Leonard Susskind, de la Universidad de Stanford. Limita cuánta entropía pueden contener la materia y la energía que ocupen un determinado volumen de espacio. En su trabajo sobre la cota holográfica, Susskind consideró cualquier
masa aislada, aproximadamente esférica, que no fuese un agujero negro y que cupiera dentro de una superficie cerrada de área A . Si la masa puede contraerse hasta convertirse en un agujero negro, éste acabará con un horizonte de área menor que A; su entropía será, por tanto, menor que A/4. Según la GSL, la entropía del sistema no puede decrecer; por tanto, la entropía de la masa original no pudo haber sido mayor que A/4. En consecuenc ia, la entropía de un sistema físico aislado limitado por un área A es necesariamente menor que A/4. ¿Qué sucede si la masa no sufre un colapso gravitatorio espontáneo que la convierta en un agujero negro? En el año 2000 demostré que con un pequeño agujero negro podía convertirse el sistema en un agujero negro no muy diferente del considerado en el argumento de Susskind.
La cota es, por tanto, independiente de la constitución del sistema o de la naturaleza del nivel X. Sólo depende de la GSL. Podemos ahora responder alguna de las cuestiones espinosas sobre los últimos límites del almacenamiento de información. Un dispositivo que mida un centímetro de diámetro podría, en principio, contener hasta 10 66 bits. El universo visible contiene por lo menos 10100 bits de entropía, que cabría en principio almacenar dentro de una esfera de una décima de año luz de diámetro. Estimar la entropía del universo es un problema difícil, sin embargo; parecen verosímiles números mucho mayores, que requerirían una esfera casi tan grande como el propio universo. Pero hay otro aspecto de la cota holográfica que sorprende: la máxima entropía posible depende del área de
Límites de la densidad de información Area de la superficie A Agujero negro
a
b Diámetro d
Masa m engullida por un agujero negro
Masa M
c
Masa M + m
10 70 ) s t i b ( n ó i c a m r o f n i e d d a d i c a p a C
10 60
Cota holográfica
10 50 Cota de entropía universal (de un objeto de la densidad del agua)
10 40
) a c i f á r g ( E C A R G E I R U A L / N A I J A M A K . T D E R F L A
20
10 30 Litro de agua (entropía termodinámica)
10 20 10 10 1
Internet Biblioteca CD del Congreso de música
Cromosoma humano
10 – 4 0,01
1
100
104
10 6
10 8
L
a termodinámica de los agujeros negros permite deducir cotas de la densidad de entropía o información en diversas circunstancias. La cota holográfica define cuánta información puede albergar una determinada región del espacio. Para averiguarlo, se considera una distribución de materia aproximadamente esférica incluida en el interior de una superficie de área A. Se provoca que esa materia colapse y forme un agujero negro (a ). El área del agujero negro será menor que A; su entropía no deberá, pues, llegar a A/4. Debido a que la entropía no puede menguar, se infiere que la distribución original de materia también deberá tener menos de A/4 unidades de entropía o información. Este resultado —que el máximo contenido de información de una cierta región del espacio viene determinado por su área— desafía la expectativa del sentido común, a tenor del cual la capacidad de una región debería depender de su volumen. La cota universal de la entropía define cuánta información puede contener una masa m de diámetro d . Para deducirla, hay que imaginar que una cápsula de materia es engullida por un agujero negro no mucho mayor que ella ( b ). El aumento del tamaño del agujero negro establece un límite a cuánta entropía pudo haber contenido la cápsula. Este límite es más estricto que la cota holográfica, salvo cuando la densidad de la cápsula se aproxima a la del agujero negro, en cuyo caso las dos cotas coinciden. La capacidad de almacenamiento de datos de cualquier técnica existente se halla muy lejos de ambas cotas, que superan también en mucho a la densidad de información de los cromosomas y la entropía termodinámica del agua (c ).
Tamaño ( centímetros)
TEMAS 36
2. EL CONTENIDO DE INFORMACION de un montón de chips de ordenador aumenta en proporción al número de chips; dicho de otro modo: aumenta con el volumen que ocupe. Esta simple regla fallará para un montón de cierto tamaño: en cierto momento, la información superará la cota holográfica, que la liga al área del montón, no al volumen. El “fallo” se producirá cuando el montón de chips, inmenso, se derrumbe sobre sí mismo y forme un agujero negro.
la superficie que delimita el volumen ras impreso en un pedazo de película y no de éste. Imaginemos que apila- bidimensional, lista para que se la mos chips de memoria de ordenador. regenere. El principio holográfico El número de transistores —la capa- afirma que un análogo de esta maracidad total de almacenamiento de villa visual es aplicable a la plena desdatos— aumenta con el volumen del cripción física de cualquier sistema montón. Con éste, aumentará tam- que ocupe una región tridimensiobién la entropía termodinámica total nal: otra teoría física, definida sólo de los chips. Pero es bien notable que en el límite bidimensional de la rela teórica capacidad final de infor- gión, describirá por completo la física mación del espacio ocupado por el tridimensional. Si un sistema tridimontón sólo aumente con el área mensional completo puede ser plesuperficial. Como el volumen aumen- namente descrito por una teoría física ta más deprisa que el área, llegará definida sólo en su contorno bidiun momento en que la entropía de los mensional, se esperará que el contechips sobrepasará la cota holográfica. Parecería entonces que, o bien la GSL, o bien nuestras ideas corrientes de entropía y de capacidad de información, fundadas en el sentido común, tendrían que fallar. Pero lo que fallaría sería el propio montón: se derrumbaría bajo su propia gra vedad y formaría un aguj ero negro antes de que se alcanzara el callejón sin salida. Cada chip adicional de memoria aumentaría la masa y el área superficial del agujero negro de manera que se respetase la GSL. Este sorprendente resultado —que la capacidad de información depende del área superficial— tiene una explicación natural si es cierto el prin ci pio holográfico (propuesto en 1993 por el Nobel Gerard ‘t Hooft, de la Uni versidad de Utrecht, y elaborado por Susskind). En el mundo ordinario, un holograma es una clase especial de fotografía que genera una auténtica imagen tridimensional cuando se la ilumina de la manera adecuada. Toda la información que describe la imagen tridimensional va codificada en un diagrama de luz y zonas oscu-
N A I J A M A K . T D E R F L A
nido de información del sistema no exceda del contenido de la descripción limitada al contorno. Un universo pintado sobre su contorno
¿P
odemos aplicar el principio holográfico a todo el universo? El universo real es un sistema tetradimensional: tiene volumen y se extiende en el tiempo. Si la física de nuestro universo fuese holográfica, habría otro conjunto de leyes físicas, que se aplicaría en algún contorno tridimensional del espacio-tiempo,
3. NUESTRA PERCEPCION INNATA de que el mundo es tridimensional podría resultar una extraordinaria ilusión.
N A I J A M A K . T D E R F L A
LA INFORMACIÓN
21
Un espacio-tiempo holográfico
E
l principio holográfico convierte en equivalentes a dos universos de distinta dimensión que obedecen leyes físicas dispares. Se ha encontrado matemáticamente un ejemplo de esta situación en cierto tipo de espacio-tiempo (el antiDe Sitter) de cinco dimensiones y su contorno de cuatro dimensiones. El universo pentadimensional queda registrado como un holograma en su superficie periférica tetradimensional. La teoría de supercuerdas rige el espacio-tiempo pentadimensional y una “teoría de campos conformes con partículas puntuales”, el holograma tetradimensional. Un agujero negro del espacio-tiempo pentadimensional equivale a radiación caliente en el holograma; de ese modo, el agujero y la radiación tienen la misma entropía a pesar de que el origen físico de ésta difiere por completo en cada caso. Aunque estas dos descripciones del universo parecen distintas, ningún experimento podría diferenciarlas, ni siquiera en principio.
Espacio-tiempo anti-De Sitter de 5 dimensiones
Espacio-tiempo plano de 4 dimensiones (holograma)
Supercuerdas
Agujero negro
Campos conformes
N A I J A M A K . T D E R F L A
Radiación caliente
equivalente a nuestra conocida física ter, los teóricos han encontrado una sistible prejuicio de “sentido común” tetradimensional. Aún no sabemos de realización concreta del principio holo- a favor de una u otra descripción, de ninguna tal teoría tridimensional que gráfico: un universo descrito por la la misma manera que nuestros cereactúe de esta manera. Y ¿qué super- aplicación de la teoría de supercuer- bros construyen una innata percepficie deberíamos usar como contorno das a un espacio-tiempo anti-De Sitter ción de que nuestro universo tiene del universo? Estudiar modelos más equivale a una teoría cuántica de cam- tres dimensiones espaciales.) sencillos que nuestro universo real es pos que opera en la frontera de dic ho Gracias a la equivalencia holográun paso hacia la realización de estas espacio-tiempo. Así, toda la majestad fica, en vez de un difícil cálculo en el ideas. de la teoría de supercuerdas en un espacio-tiempo frontera tetradimenUna clase de ejemplos concretos universo anti-De Sitter está pintada sional, como los relativos a quarks y del principio holográfico en acción la sobre el contorno del universo. Juan gluones, puede efectuarse otro más constituyen los espacio-tiempos anti- Maldacena, ahora en la Universidad sencillo en el muy simétrico espacioDe Sitter. El espacio-tiempo de De de Harvard, conjeturó tal relación en tiempo anti-De Sitter de cinco dimenSitter original consiste en un modelo 1997 para un anti-De Sitter pentadi- siones. La correspondencia funciona de universo obtenido por Willem de mensional; luego lo confirmaron para también en el otro sentido. Witten Sitter en 1917, una solución de las muchas otras situaciones Edward ha demostrado que un agujero negro ecuaciones de Einstein que incluye Witten, del Instituto de Estudios en un espacio-tiempo anti-De Sitter una fuerza repulsiva, la “constante Avanzados de Princeton, y Steven S. corresponde a una radiación caliente cosmológica”. El espacio-tiempo de Gubser, Igor R. Klebanov y Alexander en la física alternativa que opera en De Sitter está vacío, se expande a un M. Polyakov, de la Universidad de el espacio-tiempo frontera. La entroritmo acelerado y es muy simétrico. Princeton. Ahora se conocen ejemplos pía del agujero, un concepto profunEn 1997, de la observación de explo- de esta correspondencia holográfica damente misterioso, es igual a la siones de supernova distantes se para espacio-tiempos de diversas entropía de la radiación, que es muy dedujo que nuestro universo se dimensiones. corriente. expande aceleradamente; es probaSe establece así la equivalencia de ble que en el futuro se vaya pare- dos teorías, en apariencia muy dife- El universo en expansión ciendo cada vez más a un espacio- rentes, que ni siquiera actúan en ltamente simétrico y vacío, el unitiempo de De Sitter. Pero si en las espacios de la misma dimensión. Las verso anti-De Sitter pentadimenecuaciones de Einstein la repulsión criaturas que vivieran en uno de estos sional es muy distinto de nuestro unise convierte en atracción, de la solu- universos serían incapaces de deter- verso tetradimensional, lleno de mateción de De Sitter se pasa a un espa- minar si habitaban en un universo ria y radiación, escenario de sucesos cio-tiempo anti-De Sitter, no menos pentadimensional descrito por una violentos. Incluso cuando describimos simétrico y que cuenta con un con- teoría de cuerdas o en uno tetradi- de manera sólo aproximada nuestro torno localizado en “el infinito” que mensional descrito por una teoría universo real como uno dotado de se parece mucho a nuestro espacio- cuántica de campos con partículas materia y radiación distribuida s unitiempo habitual. puntuales. (Las estructuras de sus formemente, no obtenemos un uniCon el espacio-tiempo anti-De Sit- cerebros les podrían inducir un irre- verso anti-De Sitter, sino un univer-
A
22
TEMAS 36
so de Friedmann-Robertson-Walker tiene. Bousso también ha demostrado (FRW). Hoy en día, la mayoría de los que su estrategia sirve para enconcosmólogos coinciden en que nuestro trar superficies bidimensionales en universo se parece a un FRW, mundo las que se puedan inscribir los holoinfinito, sin frontera, que se irá expan- gramas del mundo. diendo por siempre jamás. ¿Concuerda un tal universo con el Augurios principio holográfico o con la cota ho- de una revolución lográfica? El argumento de Susskind, e han propuesto muchas otras cobasado en un colapso creador de un tas de la entropía. La proliferaagujero negro, no nos ayuda aquí. La ción de variaciones de la idea holocota holográfica deducida de los agu- gráfica deja claro que no ha alcanzado jeros negros debe fallar en un univer- aún la categoría de ley física. Pero so uniforme en expansión. La entro- aunque no se entienda todavía del pía de una región uniformemente todo el planteamiento holográfico, llena de materia y radiación es, sin parece que arraigará. Y de su mano duda, proporcional a su volumen. Una viene la convicción de que deberá región lo bastante grande violaría abandonarse la creencia fundamenpor tanto la cota holográfica. tal, imperante durante medio siglo, En 1999 Raphael Bousso, enton- en que la teoría de campos es el lences en Stanford, propuso una cota guaje final de la física. Los campos, el holográfica modificada; se ha ido com- electromagnético por ejemplo, varían probando su validez incluso en situa- continuamente de un punto a otro; ciones en las que no pueden aplicarse comprenden por tanto una infinidad las cotas de las que hemos hablado de grados de libertad. La teoría de antes. La formulación de Bousso parte supercuerdas también abarca un de cualquier superficie bidimensio- número infinito de grados de libernal adecuada, cerrada como una es- tad. La holografía restringe los grafera o abierta como una hoja de pa- dos de libertad del interior de una pel. Hay que imaginar a continuación superficie delimitadora a un númebreves destellos de luz que salgan ro finito; la teoría de campos, con su simultánea y perpendicularmente de infinitud, no puede ser la última palatoda una cara de la superficie. La bra. Aun cuando se controlase la infiúnica condición es que esos imagi- nitud, habría que encajar la mistenarios rayos de luz converjan. La luz riosa ligazón entre la información y emitida por la superficie interior de el área. una capa esférica, por ejemplo, satisLa holografía puede ser una guía face este requisito. Se considera en- hacia una teoría mejor. ¿De qué tipo tonces la entropía de la materia y la será la teoría fundamental? La cadena radiación que atraviesan estos ima- de razonamientos relativa a la hologinarios rayos hasta llegar a los pun- grafía sugiere a algunos, especialtos donde se cruzan. Bousso conjeturó mente a Lee Smolin, del Instituto que no puede superar la represen- Perímetro de Física Teórica, en Watada por la superficie inicial: un cuarto terloo, que no deberá referirse a camde su área, medida en áreas de Planck. pos, ni tampoco al espacio-tiempo, Esta forma de medir la entropía di- sino al intercambio de información fiere de la usada en la cota holográfica entre procesos físicos. Si es así, la original. La cota de Bousso no se idea de que el mundo está hecho de refiere a la entropía de una región en información habrá encontrado un un tiempo, sino a la suma de entro- digno vehículo. pías de lugares en una diversidad de tiempos: los que son “iluminados” por los destellos de luz que salen de la BIBLIOGRAFIA COMPLEMENTARIA superficie. La cota de Bousso subsume otras BLACK HOLE THERMODYNAMICS. Jacob D. cotas de entropía, a la vez que evita Bekenstein en Physics Today, vol. 33, núsus limitaciones. Tanto la cota de mero 1, pág. 24-31; enero 1980. entropía universal como la forma de B LACK HO LE S A ND T IM E WARPS: EIN ‘t Hooft-Susskind de la cota holográSTEIN’S OUTRAGEOUS LEGACY . Kip S. fica se pueden deducir de la de Bousso Thorne. W. W. Norton, 1995. para cualquier sistema aislado que LOS AGUJEROS NEGROS Y LA PARADOJA DE LA INFORMACIÓN. Leonard Susskind, en no evolucione rápidamente y cuyo Inve sti gaci ón y Cien cia , págs. 12-18; campo gravitacional no sea intenso. junio 1997. Cuando estas condiciones se superan HE UN IV ER SE I N A NUTSHELL . Stephen T —como en el caso de una esfera de Hawking. Bantam Books, 2001. materia que colapsa ya dentro de un THREE ROADS TO QUANTUM GRAVITY. Lee agujero negro—, aquellas cotas fallan, Smolin. Basic Books, 2002. mientras que la de Bousso se man-
S
LA INFORMACIÓN
23
Un Alan Turing desconocido Este británico genial, célebre por la máquina, el test y la tesis que llevan su nombre, fue también precursor de las redes neuronales y de la “hipercomputación” B. Jack Copeland y Diane Proudfoot
A
lan Mathison Turing concibió la máquina computadora moderna en 1935. Todos los ordenadores hoy en servicio son, a la postre, “máquinas de Turing”. Matemático, precursor y pionero de la inteligencia artificial, propuso el criterio o test de Turing, como medio para determinar si un ordenador, adecuadamente programado, es capaz de pensar. Durante la Segunda Guerra Mundial, intervino en la desencriptación del código alemán Enigma, integrado en una operación británica ultrasecreta que, según los historiadores, adelantó dos años el final de la guerra. A su muerte, a los 41, Turing estaba emprendiendo los primeros trabajos sobre lo que ahora se llamaría “vida artificial”, simulando los procesos químicos del desarrollo biológico. Pese a su sobresaliente carrera, nunca mostró especial interés en dar difusión a sus ideas. Y así, aspectos importantes de su trabajo no han recibido la atención debida o han sido olvidados con el paso de los años. En concreto, son pocos, incluso en las ciencias de cómputo, los familiarizados con las fascinantes previsiones de Turing en el conexionismo, es decir, en la computación mediante redes neuronales. También han sido despreciadas sus nociones teoréticas en el apasionante campo de la “hipercomputación”, en el que abrieron tierras vírgenes. A decir de algunos, las hipercomputadoras podrían algún día resolver problemas hasta ahora tenidos por inabordables.
L
os ordenadores digitales son excelentes trituradores de números. Pidámosles que pronostiquen la trayectoria de un cohete o que calculen los parámetros financieros de una firma multinacional y nos facilitarán la respuesta en segundos. En cambio, acciones en apariencia sencillas, que 24
todos realizamos sin esfuerzo, como reconocer rostros o leer textos escritos a mano, han resultado diabólicamente difíciles de programar. Tal vez las redes de neuronas que constituyen nuestro cerebro posean una facilidad natural para realizar estas tareas, facultad de la que carecen los ordenadores normales. De ahí el interés por las computadoras inspiradas en el cerebro humano. El conexionismo estudia la computación mediante redes de neuronas artificiales. Los investigadores suelen remedar las neuronas y sus interconexiones programándolas en ordenadores digitales ordinarios (al igual que los ingenieros crean modelos virtuales de rascacielos o de alas d e aviones). Un algoritmo de entrenamiento, instalado en el ordenador, ajusta las conexiones entre las neuronas, afinando la red hasta convertirla en una máquina específica y dedicada a una función determinada, como la predicción de los mercados internacionales de divisas. Para los conexionistas modernos, el fundador de su metodología es Frank Rosenblatt, quien publicó en 1957 el primero de muchos artículos sobre este tema. Pocos saben, sin embargo, que Turing había investigado ya las redes conexionistas en 1948, en un artículo titulado “Intelligent Machinery”, apenas conocido. El manuscrito, preparado mientras trabajaba para el Laboratorio Nacional de Física de Londres, no obtuvo el beneplácito de esta institución. Sir Charles Darwin, nieto del naturalista, que dirigía el laboratorio como si fuera un colegio, desdeñó el trabajo, calificándolo de “ensayo de escolar”. En realidad, este artículo, de largas miras, constituía el primer manifiesto en el campo de la inteligencia artificial. En ese trabajo, inédito hasta 1968, pasados catorce años
de la muerte de Turing, no sólo establecía los fundamentos del conexionismo, sino que introducía también muchos conceptos que más adelante constituirían nociones principales en inteligencia artificial, en algunos casos, tras reinvención por otros. En el artículo, Turing ideaba una suerte de red neuronal a la que dio el nombre de “máquina inorganizada de tipo B”. Consistía en neuronas artificiales y dispositivos que modificaban las conexiones entre ellas. Las máquinas de tipo B pueden contener neuronas conectadas atendiendo a una configuración cualquiera, con la condición de que cada conexión entre neuronas haya de pasar por un dispositivo modificador.
T
odos los modificadores de conexión tienen dos fibras de entrenamiento. La aplicación de un impulso a una de ellas sitúa al modificador en el “modo de paso”, en el cual una entrada —sea un 0 o un 1— atraviesa el modificador sin sufrir perturbación y se convierte en la salida. En cambio, la aplicación de un impulso a la otra fibra hace entrar al modificador en “modo de interrupción”, en el cual la salida es siempre 1, con independencia de la entrada. En este estado, el modificador destruye toda la información que trate de pasar por la conducción a la que está ligado. Definido su estado, cada modificador mantendrá su función (sea la de paso, sea la de interrupción) hasta que reciba un impulso por la otra fibra de entrenamiento. La presencia de estos ingeniosos modificadores de conexión hace posible el entrenamiento de una máquina inorgánica de tipo B ALAN TURING a los 35 años, en la época en que escribió “Intelligent Machinery”.
TEMAS 36
A R R E T A L G N I , E G D I R B
M A C / . D T L S N O S N A R E F F E H . W
COLABORADORES DE ESTE NUMERO Asesoramiento y traducción:
Luis Bou: Los orígenes del código binario, Un Alan Turing desconocido , DVD, ¿Son perdurables los documentos digitales? , La crisis de las memorias masivas y Criptografía para Internet ; Ramón Pascual: La información en el universo holográfico; Juan Pedro Adrados: Nanounidades de memoria ; Xavier Roqué: El primer siglo de las memorias magnéticas Portada:
Jeff Brice
INVESTIGACION Y CIENCIA DIIRECTOR GENERAL José M.ª Valderas Gallardo DIRECTORA FINANCIERA Pilar Bronchal Garfella EDICIONES Juan Pedro Campos Gómez
Laia Torres Casas M.a Cruz Iglesias Capón Bernat Peso Infante SECRETARÍA Purificación Mayoral Martínez ADMINISTRACIÓN Victoria Andrés Laiglesia SUSCRIPCIONES Concepción Orenes Delgado Olga Blanco Romero EDITA Prensa Científica, S. A. Muntaner, 339 pral. 1. a 08021 Barcelona (España) Teléfono 934 143 344 Telefax 934 145 413 www.investigacionyciencia.es PRODUCCIÓN
SCIENTIFIC AMERICAN EDITOR IN CHIEF John Rennie EXECUTIVE EDITOR Mariette DiChristina MANAGING EDITOR Ricki L. Rusting SENIOR EDITOR Michelle Press NEWS EDITOR Philip M. Yam SPECIAL PROJECTS EDITOR Gary Stix SENIOR WRITER W. Wayt Gibbs EDITORS Mark Alpert, Steven Ashley,
E
Graham P. Collins, Carol Ezzell, Steve Mirsky y George Musser PRODUCTION EDITOR Richard Hunt GENERAL MANAGER Michael Florek
VICE PRESIDENT AND MANAGING DIRECTOR, INTERNACIONAL
Dean Sanderson
PRESIDENT AND CHIEF EXECUTIVE OFFICER
Gretchen G. Teichgraeber John Sargent
CHAIRMAN
DISTRIBUCION
PUBLICIDAD
para España:
GM Publicidad Edificio Eurobuilding Juan Ramón Jiménez, 8, 1.a planta 28036 Madrid Tel. 912 776 400 - Fax 914 097 046
LOGISTA, S. A.
Aragoneses, 18 (Pol. Ind. Alcobendas) 28108 Alcobendas (Madrid) Tel. 914 843 900
Cataluña: QUERALTO COMUNICACION
para los restantes países: Prensa Científica, S. A.
Julián Queraltó Sant Antoni M.ª Claret, 281 4.º 3.a 08041 Barcelona Tel. y fax 933 524 532 Móvil 629 555 703
Muntaner, 339 pral. 1.a 08021 Barcelona Teléfono 934 143 344
Copyright © 2004 Scientific American Inc., 415 Madison Av., New York N. Y. 10017. Copyright © 2004 Prensa Científica S.A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor de la revista. El nombre y la marca comercial SCIENTIFIC AMERICAN, así como el logotipo correspondiente, son propiedad exclusiva de Scientific American, Inc., con cuya licencia se utilizan aquí.
ISSN: 1135-5662
mediante lo que Turing denominaba “interferencia adecuada, que remede la educación”. Para Turing, “la corteza cerebral infantil constituye una máquina inorgánica, susceptible de organización mediante un entrenamiento interfirente adecuado”. Cada una de las neuronas del modelo de Turing cuenta con dos fibras de entrada, y la salida de la neurona es una función lógica sencilla de sus dos entradas. Cada neurona de la red ejecuta una misma operación lógica, la negación de la conjunción; es decir, “no-y” o NAND en la jerga. En ella, la salida es 1 si al menos una de las entradas es 0. Si ambas entradas son 1, entonces la salida es 0. Turing optó por la operación NAND porque cualquier otra operación lógica (o booleana) puede realizarse por grupos de neuronas NAND. Demostró, además, que los propios modificadores de conexión pueden construirse a partir de neuronas NAND. Especificó, pues, una red constituida exclusivamente por neuronas NAND y sus fibras
n un artículo que permaneció inédito hasta 14 años después de su muerte (arriba ) Alan Turing describía una red de neuronas artificiales conectadas al azar. En esta “máquina inorgánica de tipo B” ( aba- jo, iz qui erd a ) , cada conexión pasa por un modificador ajustado, sea para dejar que los datos fluyan inalterados (fibra verde ) , sea para destruir la información transmitida (fi - bra roja ) . Cambiando los estados de los modificadores, por conmutación de sus modos, se puede adiestrar a la red. Observemos que cada neurona tiene dos entradas (recuadro inferior ) y ejecuta una operación lógica sencilla, la negación de la conjunción (“no-y”, o NAND): si ambas entradas son 1, la salida es 0; si no, la salida es 1. En la red de Turing las neuronas se interconectan libremente. En las redes modernas (abajo, centro ) se restringe el flujo de información de una capa de neuronas a la siguiente. Los conexionistas ambicionan simular las redes nerviosas del cerebro (abajo, derecha ).
Dep. legal: B. 32.350 – 1995
Imprime Rotocayfo-Quebecor, S.A. Ctra. de Caldes, km 3 - 08130 Santa Perpètua de Mogoda (Barcelona) Printed in Spain - Impreso en España
26
TEMAS 36
de conexión, el modelo más sencillo posible quizá de la corteza cerebral.
R
osenblatt, en 1958, definió la base teórica del conexionismo en un sencillo enunciado: “La información almacenada adopta la forma de nue vas conexiones, o canales de transmisión en el sistema nervioso (o la creación de condiciones que son funcionalmente equivalentes a nuevas conexiones)”. Dado que la destrucción de conexiones existentes puede ser funcionalmente equivalente a la creación de otras nuevas, podemos construir una red destinada a realizar determinada tarea partiendo de otra que tenga un exceso de conexiones y destruyendo selectivamente algunas de ellas. Estas dos acciones —destrucción y creación— se emplean en el entrenamiento de los tipos B de Turing. En el instante inicial, los tipos B contienen conexiones interneuronales aleatorias, cuyos modificadores se han ajustado al azar ora en modo
de paso, ora de interrupción. Durante el entrenamiento, se destruyen las conexiones indeseadas, haciendo pasar sus correspondientes modificadores al modo de interrupción. Recíprocamente, se crea una conexión con el cambio de estado de un modificador, llevándolo de interrupción a paso. Mediante esta entresaca selectiva de conexiones, la red, inicialmente aleatoria, se adapta y con vierte en una red organizada para una tarea dada. Turing deseaba investigar máquinas inorgánicas de otros tipos. Anhelaba simular una red neuronal y su régimen de entrenamiento valiéndose de un ordenador digital ordinario. Se proponía dejar “que el sistema completo funcionase durante un período apreciable, y después entrar en él, a la manera de un ‘inspector de enseñanza’, y ver qué progresos se habían realizado”. Pero acometió su trabajo sobre redes neuronales antes de la introducción de los primeros ordenadores electrónicos de uso gene-
ral. (Hasta 1954, año de la muerte de Turing, no consiguieron Belmont J. Farley y Wesley A. Clark hacer funcionar la primera simulación computarizada de una pequeña red neuronal, en el MIT.) A Tur ing, sin e mba rgo, le basta ron lápiz y papel para demostrar que una red neuronal de tipo B, de cierto tamaño, puede ser configurada (merced a sus modificadores de conexión) para así constituir un ordenador de usos generales. Este descubrimiento ilumina uno de los problemas fundamen tales de la cognición humana. En la cognición, vista en superestructura, participan procesos secuenciales complejos, muchas veces, con el concurso del lenguaje o de otras formas de representación simbólica, como en los cálculos matemáticos. Mas, considerada de abajo arriba, la cognición es un disparo de neuronas. La ciencia de la cognición se enfrenta al problema de reconciliar estas dos perspectivas, tan diferentes.
Turing, precursor del conexionismo
) a h c e r e d , o j a b a ( . C
[... ser considerado por un hombre como organizada y por otro, como inorgánica. Un ejemplo típico de máquina inorgánica sería como sigue. La máquina está formada por N, un número bastante grande de unidades similares. Cada unidad tiene dos terminales de entrada; posee un terminal de salida que puede conectarse a los terminales de entrada de otras (0 o más) unidades. Podemos imaginar que, para cada entero r, 0 ≤ r ≤ N, se eligen al azar dos números i(r) y j(r)...]
LA INFORMACIÓN
N I D L O N R A R E T E P ; ) a b i r r a ( E G D I R B M A C E D D A D I S R E V I N U A L E D A C E T O I L B I B , S E V I H C R A N R E D O M E G E L L O C S ’ G N I K ; ) s o j u b i d ( E R O O M M O T
27
El cómputo de lo incomputable: el oráculo
A
lan Turing demostró que su máquina universal —y por extensión, los ordenadores más potentes de nuestros días— jamás podrían resolver ciertos problemas. Por ejemplo, una máquina universal de Turing no puede determinar en todos los casos si determinado programa informático dará fin o si continuará funcionando eternamente. En algunos casos, lo más que la máquina universal puede hacer es ejecutar el programa y esperar —eternamente, tal vez— a que concluya. Pero en su tesis doctoral (abajo ) , Turing sí imaginó que una máquina equipada con un “oráculo” especial podría llevar a cabo esta y otras tareas “no computables”. He aquí un ejemplo del modo en que, en principio, podría funci onar un oráculo. Imaginemos un máquina hipotética ideada para resolver el formidable problema del “programa concluyente” (arriba ). Un CITA TOMADA DE LA TESIS DE TURING
PROGRAMA DE ORDENADOR
100001...001111 REPRESENTACION BINARIA DEL PROGRAMA
programa de ordenador puede representarse mediante una secuencia finita de unos y ceros. Esta secuencia de dígitos puede considerarse también como la representación binaria de un número entero, al igual que 1011011 es el equivalente binario de 91. El trabajo del oráculo puede reformularse así: “Dado un entero que representa un programa (para cualquier ordenador que pueda ser simulado por una máquina universal de Turing), emitir un ‘1’ si el programa llega a término; emitir un ‘0’, en caso contrario”. El oráculo consiste en un dispositivo medidor perfecto más un almacén, o memoria, que contiene un valor preciso —llamémoslo τ, en honor de Turing— de cierta magnitud física. (La memoria podría parecerse a un condensador que
E
l descubrimiento de Turing ofrece nos se reducen a estas máquinas uni- un ejemplo de hipercomputadora que una posible solución: la corteza versales. se da en la naturaleza. cerebral, por ser una red neuronal En 1935 se proponía idear una Antes de la reciente oleada de inteque actúa como un ordenador de usos máquina —lo más sencilla posible— rés por la hipercomputación, toda generales, está capacitada para efec- capaz de realizar cualquier cómputo tarea de procesamiento de informatuar el procesamiento secuencial y que efectuara un matemático huma- ción que se supiera demasiado difísimbólico discernido en el examen no operando según un método algo- cil para las máquinas universales de superestructural. Esta hipótesis, muy rítmico, sin limitación de tiempo, Turing era descartada, considerada por delante de su tiempo cuando la energía, papel y lápiz, y con una con- “no computable.” En este sentido, una formuló en 1948, continúa siendo una centración perfecta. El calificativo hipermáquina computa lo no comde las mejores conjeturas de uno de “universal”, aplicado a una máquina putable. los problemas más difíciles de las de Turing, significa que la máquiPodemos hallar ejemplos de tareas ciencias de la cognición. na es capaz de efectuar todos esos tales en las parcelas más sencillas de Turing concibió en 1935 el dispo- cálculos. Como escribió el propio Tu- la matemática. Sean, por ejemplo, sitivo abstracto que denominamos ring, “las computadoras electrónicas enunciados aritméticos tomados al “máquina universal de Turing”. Cons- tienen la finalidad de llevar a cabo azar; una máquina universal de ta de una memoria ilimitada, donde cualquier proceso definido y rutina- Turing puede no ser capaz de deterse almacenan programa y datos, y de rio que pudiera ser realizado por un minar en todos los casos cuáles de un escáner, que avanza y retrocede operador humano que trabajase de ellos son teoremas (verbigracia, por la memoria, examinándola sím- forma disciplinada, pero sin [hacer “7 + 5 = 12”) y cuáles no lo son (por bolo a símbolo, leyendo la información uso de su] inteligencia”. ejemplo, “todo número par es suma y escribiendo símbolos adicionales. Tan poderosos dispositivos de cóm- de dos números pares”). Otro tipo de Cada una de las acciones fundamen- puto suscitan una cuestión sugestiva: problema no-computable proviene tales de la máquina es muy sencilla; ¿es posible idear máquinas capaces de la geometría. Se dice que un conson operaciones como “identificar el de lograr más todavía? La respuesta junto de losetas —cuadrados de diversímbolo situado bajo el escáner”, es que tales “hipermáquinas” admi- sos tamaños y bordes de distintos “escribir un ‘1’” o “desplazar el escá- ten descripción sobre el papel, pero colores— es “teselante” si es posible ner un lugar hacia la izquierda”. La hasta el momento nadie sabe si será recubrir perfecta y completamente el complejidad se consigue concatenando posible construir una. El campo de la plano euclídeo con reproducciones de estas acciones básicas . Pese a su sim- hipercomputación está atrayendo las losetas, sin traslaparlas ni dejar plicidad, una máquina universal de cada vez a mayor número de cientí- rendijas, y de modo que los lados Turing puede ejecutar cualquier tarea ficos. No faltan quienes especulen adyacentes sean siempre del mismo factible por el más potente de los orde- que el propio cerebro humano —el color. William Hanf y Dale Myers han nadores de nuestros días. En verdad, procesador de información más com- descubierto un conjunto de losetas todos los ordenadores digitales moder- plejo que se conoce— es en realidad que pavimenta el plano, pero sólo 28
TEMAS 36
MEMORIA DEL ORACULO. CONTIENE τ = 0.00000001101...
8.735.439
0
EQUIVALENTE DECIMAL DEL NUMERO BINARIO
EL PROGRAMA NO DARA FIN
ORACULO
almacenase una cantidad exacta de carga eléctrica.) El valor de τ es un número irracional; su representación escrita consiste en una secuencia infinita de números binarios, como 0,00000001101... La propiedad crucial de τ estriba en que sus dígitos individuales representan con precisión los programas que terminan y cuáles no. Así, por ejemplo, si el entero que designa un programa fuera 8.735.439, el oráculo podría obtener por medición el 8.735.439-ésimo dígito de τ (contando de izquierda a derecha desde la coma decimal). Si ese dígito fuera un 0, el oráculo concluiría que el programa proseguiría eternamente. A falta de τ el oráculo no serviría de nada, y es muy posible que resulte imposible hallar en la naturaleza alguna variable física que tome este valor exacto. Por ello se está buscando alguna forma practicable de materializar un oráculo. De ser hallada, el impacto sobre las ciencias de cómputo podría ser enorme.
según configuraciones demasiado complicadas para que una máquina universal de Turing pueda calcularlas. En el campo de las ciencias de cómputo, una máquina universal de Turing no es siempre capaz de pronosticar si un determinado programa dará fin o si continuará funcionando eternamente. Este hecho se enuncia a veces diciendo que ningún lenguaje de programación de uso general (Pascal, BASIC, Prolog, C y demás) puede tener un depurador de errores absolutamente infalible: no puede existir un útil informático capaz de detectar todos los fallos capaces de pro vocar el atasco de la máquina , sin olvidar los errores que conducen a bucles de procesamiento infinitos. El propio Turing fue el primero en explorar la idea de una máquina capaz de realizar tareas matemáticas excesivamente difíciles para las máquinas universales de Turing. En su tesis doctoral (1938), defendida en Princeton, describió “una máquina de nuevo tipo”, la “máquina-O”. Una máquina-O es el resultado de ampliar una máquina universal de Turing con una caja negra, un “oráculo”, que es un mecanismo para llevar a cabo tareas no computables. En los demás aspectos, las máquinas-O son similares a los ordenadores actuales. La máquina, alimentada con un proLA INFORMACIÓN
) a d r e i u q z i ( S E V I H C R A N O T E C N I R P ; ) s o j u b i d ( E R O O M M O T
grama codificado digitalmente, produce a partir de la entrada una salida digital sirviéndose de un procedimiento de aplicación paso a paso de las operaciones básicas de la máquina, una de las cuales consiste en trasladar datos al oráculo y registrar su respuesta.
T
uring no facilitó ninguna indicación sobre el posible funcionamiento de un oráculo. (Ni tampoco explicó de qué modo podrían tener lugar las operaciones básicas de una máquina universal de Turing; por ejemplo, “identificar el símbolo del escáner”.) Pero no resulta difícil imaginar mecanismos nocionales que cumplan las especificaciones de la caja negra de una máquina-O. En principio, incluso una red neuronal de tipo B adecuada es capaz de computar lo incomputable, siempre que la actividad de las neuronas no esté sincronizada. (Cuando un reloj central se encarga de marcar el paso de las neuronas, el funcionamiento de la red puede simularse con exactitud por una máquina universal de Turing.) En la exótica teoría matemática de la hipercomputación, tareas como la de distinguir los teoremas de los noteoremas dejan de ser incomputables. Cabe, en principio, un depurador capaz de determinar si un
programa cualquiera, escrito en C, por ejemplo, entrará en un bucle infinito. Si fuera posible construir hipercomputadoras —y el condicional tiene mucho de improbable— se abrirían enormes posibilidades de desventrar problemas lógicos y matemáticos hasta ahora considerados inabordables. De hecho, las ciencias de cómputo podrían estar acercándose a uno de sus avances principales desde que, hace decenios, se ensambló la primera concreción electrónica de una máquina universal de Turing. Por otra parte, el trabajo en hipercomputadoras puede irse al garete a falta de algún modo de materializar un oráculo. La búsqueda de fenómenos físicos, químicos o biológicos idóneos está en marcha. Quizá la solución se encuentre en moléculas complejas o en otras estructuras que se concatenen según configuraciones como las descubiertas por Hanf y Myers. O que, de acuerdo con lo sugerido por Jon Doyle, aparezcan de forma natural sistemas equilibrantes con espectros discretos de los que se pueda considerar que realizan, en principio, tareas incomputables, que produzcan una salida idónea (1 o 0, por ejemplo) tras ser bombardeados con entrada. Extramuros de la lógica matemática las máquinas-O de Turing han caído en el olvido, suplantadas por un mito. Según esta narración apócrifa, Turing demostró a mediados de los años treinta la imposibilidad de las hipermáquinas. A Turing y a Alonzo Church se les atribuye erróneamente la formulación de un principio al efecto de que una máquina universal de Turing pueda simular exactamente el comportamiento de cualquier otra máquina de procesamiento de información. Esta proposición, amplia pero incorrectamente conocida por tesis de Church-Turing, implica que ninguna máquina puede llevar a cabo un procesamiento de información situado más allá del alcance de una máquina universal de Turing. La verdad es que Church y Turing se limitaron a afirmar que una máquina universal de Turing puede igualar el comportamiento de cualquier matemático humano que trabaje con lápiz y papel según un método algorítmico —afirmación harto más débil, que ciertamente no excluye la posibilidad de las hipermáquinas. Las contribuciones teoréticas de Turing, a pesar de su carácter pionero, permanecen ignoradas hasta por quienes se afanan en la construcción de hipercomputadoras. Los 29
expertos hablan de llevar el procesamiento de información “más allá del límite de Turing” y dicen de sí mismos que están tratando de “romper la barrera de Turing”. Un examen de este campo en emersión, publicado en New Scientist hace pocos años, afirma que las nuevas máquinas “trascienden la concepción de Turing” y son “computadoras de un tipo jamás contemplado por Turing”, como si el genio británico no hubiera concebido ya tales artilugios hace más de medio siglo. Diríase que lo ocurrido respecto a las ideas de Turing sobre el conexionismo torna a repetirse.
A
principios de los años cincuenta, próximo al final de su vida, Turing se asomaba al estudio de la vida artificial. Se proponía simular un mecanismo químico merced al cual los genes de un óvulo fecundado determinaran la estructura anatómica del futuro animal o planta. Investigación que, a su entender, “no estaba enteramente desconectada” del estudio de las redes neuronales, porque “la estructura cerebral ha de ser... conseguida por el mecanismo embriológico genético, y esta teoría en la que estoy trabajando puede dejar más claro cuáles son las restricciones que esto entraña”. Era el primero que se internaba en la exploración asistida por ordenador de sistemas dinámicos no lineales. Su teoría se valía de ecuaciones diferenciales no lineales para expresar la química del crecimiento. Pero a mitad de estas investigaciones, que roturaban nuevos territorios, murió envenenado con cianuro; quizá se suicidó. El 8 de junio de 1954, poco antes del que hubiera sido su cuadragesimosegundo cumpleaños, Turing fue hallado muerto en su dormitorio. Había dejado una gran pila de notas manuscritas y algunos programas de ordenador. Transcurridos decenios, no se ha desentrañado toda vía ese valioso arsenal. BIBLIOGRAFIA COMPLEMENTARIA INTELLIGENT MACHINERY. Alan Turing en Collected Works of A. M. Turing: Mechanical Intelligence. Compilación de
D. D. Ince. Elsevier Science Publishers, 1992. ON ALAN TURING’S ANTICIPATION OF CONNECTIONISM. B. Jack Copeland y Diane Proudfoot en Synthese, vol. 108, n.o 3, páginas 361-377; marzo de 1996. TURING’S O-MACHINES, S EARLE, P ENROSE A ND T HE B RAIN . B. Jack Copeland en Analysis, vol. 58, n.o 2, páginas 128-138; 1998.
ALMACENAR LA INFORMACION
Nanounidades de memoria Inventar un dispositivo nanotecnológico que se produzca industrialmente y les resulte útil a los consumidores es más complicado de lo que parece Peter Vettiger y Gerd Binnig
M
uchos ingenieros conocen la tátil de MP3. No almacenará unas emoción de haber diseñado docenas de megabytes de vídeo o audio, un producto nuevo que luego como las típicas tarjetas de memose utiliza por doquiera. Esperamos ria “flash” (microcircuitos de memoria gozar dentro de dos años —creemos permanente), sino varios gigabytes tener más de la mitad de las bazas a —cantidad suficiente para guardar nuestro favor— un placer más raro: un buen número de CD musicales o sacar a la venta un tipo de máquina varias películas—. Se podrán borrar del todo nuevo. y reescribir datos en ella. Será basSe habla mucho de nanotecnología tante rápida y gastará una cantidad en estos tiempos, la nueva frontera moderada de energía. Un nombre donde los entresijos de las máquinas oportuno para el nuevo dispositivo es no miden más que unas milmillo- “nanounidad de memoria”. nésimas de metro. La investigación No es que esta primera aplicación en sistemas microelectromecánicos carezca de interés, pero tampoco cabe (SMEM) —dispositivos de piezas decir que vaya a cambiar el mundo. móviles microscópicas fabricadas con Ya hay en el mercado tarjetas de melas mismas técnicas con que se cons- moria “flash” con un gigabyte de capatruyen los chips informáticos— ha cidad. Si Milpiés impresiona, es por armado un gran revuelo , pese a que otra razón: porque guarda los datos no ofrece todavía muchos productos digitales de forma diferente del mécomerciales. Como podemos atesti- todo seguido por los discos duros magguar, ya que hemos invertido hasta néticos, los discos compactos ópticos ahora siete años en uno de los pri- y los chips de memoria que inscriben meros proyectos encaminados a crear los datos por medio de transistores. un dispositivo nanomecánico que Después de décadas de progreso espueda fabricarse en masa, a escalas pectacular, esas técnicas veteranas tan diminutas la ingeniería y la han enfilado su recta final; ante ellas investigaci ón científica se mezclan se alzan imponentes limitaciones fíde modo inextricable. Obstáculos sicas. inesperados aparecen en el camino Las primeras nanounidades, por que media entre los experimentos que el contrario, apenas rendirán una míindagan principios fundamentales, nima parte de lo que llegarán a dar los prototipos operativos y, en última un día sus sucesoras; les quedan por instancia, un producto que se venda delante décadas de mejora. Las futubien. ras generaciones de dispositivos de En IBM llamamos a nuestro pro- la familia de Milpiés, cabe esperar, yecto Milpiés. Si seguimos por el buen escribirán, leerán y borrarán bits que camino, alrededor de 2005 se podrá irán menguando hasta no ser más comprar una tarjeta de memoria del que moléculas sueltas, átomos intamaño de un sello de correos para cluso. Al reducirse, las partes móvila cámara digital o el reproductor por- les de las nanounidades trabajarán PISTAS DE GRABACION. Matrices de pestañas dotadas de puntas graban sobre una superficie de plástico millones de bits en un espacio sumamente pequeño.
32
S M L I F M I L S
con mayor rapidez y gastarán la ener- compañero de equipo, Heinrich Roh- gen que, en los mejores casos, descugía con mejor rendimiento. La téc- rer. Trabajaba en el laboratorio de Zú- bre cada átomo sobrevolado. nica Milpiés se aplicará en un prin- rich desde 1963, como uno de nosotros Mientras Binnig obtenía las pricipio, casi con toda seguridad, en (Vettiger); había colaborado con el otro meras imágenes de átomos individispositivos de almacenamiento de (Binnig) en la creación del microsco- duales de silicio a mitad de la década gran capacidad para cámaras, telé- pio de barrido de efecto túnel (MBT) de 1980, sin querer dejó en una ocafonos móviles y otros dispositivos en 1981, instrumento que satisfizo un sión que la punta siguiese golpeando portátiles. Las tarjetas de las nano- viejo deseo: ver y manipular átomos la superficie. Quedaron pequeñas unidades funcionarán de la misma sueltos. marcas en el silicio. Saltaba a la vista manera que las tarjetas de memoria En 1996 buscábamos un nuevo pro- que un MBT o un MFA valdrían para “flash” en los aparatos actuales, pero yecto en que embarcarnos. El am- guardar datos a escala atómica: una ofrecerán una capacidad de varios biente había cambiado mucho. El prin- marca sería un 1, su ausencia, un 0. gigabytes a un menor coste. Los mil- cipio de la década de 1990 fue difícil No obstante, las dificultades también piés quizá sean de gran utilidad para para IBM. Había liquidado su división estaban claras. La punta tiene que la ciencia de materiales o la biotec- de ciencia del láser, de la que Vettiger seguir el contorno del medio con pronología. era uno de los directores. Binnig había cedimientos mecánicos; ésa es la razón Ese largo futuro nos emocionó ha- cerrado su laboratorio satélite en de la lentitud del barrido en compace unos siete años. A lo largo del ca- Múnich y regresado a Zúrich. Junto ración con el veloz giro de un disco mino, aprendimos que a veces la única con Rohrer, hicimos por ver de qué duro o los nanosegundos en que conforma de rodear un obstáculo es un maneras cabría aplicar el MBT u otras mutan los transistores. descubrimiento afortunado. Por suer- técnicas de exploración por barrido, Pronto salieron a luz otros pros y te, además de obstáculos inesperados en concreto el microscopio de fuerza contras. Debido a la masa pequeñíhay también regalos inesperados. atómica (MFA), al mundo de puertas sima de las pestañas, el funcionaParecen a veces una recompensa de afuera de la ciencia. miento del MFA cuando la punta entra la naturaleza a quienes se atreven a El MFA, inventado por Binnig y de- en contacto directo con el medio es explorar nuevos terrenos. Pero en sarrollado con Christoph Gerber, del mucho más rápido que el de un MBT otras ocasiones la naturaleza no es tan laboratorio de Zúrich, y Calvin F. Qua- o un MFA sin contacto, aunque no gentil y para dar con la respuesta sólo te, de la Universidad de Stanford, es tanto como el almacenamiento magse cuenta con las propias luces. Hemos la técnica de barrido local más utiliza- nético. Por otro lado, las puntas de un tenido que trabajar para superar esos da. Como el MBT, el MFA se fundó en MFA de contacto se desgastan rápiproblemas, pero el esfuerzo no ha sido un método radicalmente nuevo en damente cuando barren superficies excesivo. Si en una etapa no teníamos microscopía. En lugar de magnificar metálicas; y lo más importante: una ni idea de cómo afrontar un problema, objetos por medio de lentes que guían vez la punta ha impreso una marca, quizás un año después encontrábamos haces de luz o de captar electrones que no hay forma obvia de “borrarla”. una respuesta. En esos casos en que rebotan en el blanco, un MFA arrasUn grupo encabezado por Dan Ruse espera que se pueda resolver el pro- tra despacio sobre la superficie del gar había probado en el centro de blema aunque aún no se sepa cómo, objeto observado una minúscula pes- Investigación de Almaden de IBM, una buena intuición es lo que hace taña, una especie de palanca, o la gol- en San José, California, a disparar falta. pea con ella. La pieza lleva en su ex- impulsos de láser sobre la punta, para tremo una afilada punta, de menos de calentarla; se ablandaba con eso el Una idea disparatada 20 nanómetros de ancho —unos cien- plástico y la punta podía marcarlo. n cierto modo, Milpiés nació en tos de átomos—. Cuando la pestaña Consiguieron así grabaciones, del esun campo de fútbol. Jugábamos pasa sobre los pozos y las crestas de tilo de las impresas en un disco comen el equipo del Laboratorio de In- la superficie (bien en contacto con pacto, que almacenaban datos con vestigación de IBM en Zúrich, nues- ella, bien rozándola casi), un orde- una densidad superior a la de los actro lugar de trabajo. Nos presentó otro nador convierte su flexión en una ima- tuales discos de vídeo digital (DVD). También realizaron exhaustivas pruebas de desgaste, con resultados muy prometedores. Pero el sistema era demasiado lento; además, ni borraba El proyecto Milpiés ni reescribía. Nuestro equipo esbozó un diseño que, creíamos, proporcionaría las ca• Los actuales dispositivos de almacenamie nto digital se aproximan a límiracterísticas que faltaban. En lugar tes físicos que impedirán que sus capacidades aumenten. La nanounide usar una sola pestaña, ¿por qué dad de memoria del proyecto Milpiés —un dispositivo micromecánico con no aprovechar la capacidad de los componentes nanoscópicos— podría imponerse donde los otros no llefabricantes de chips de construir migarán ya. les, millones de piezas microscópicas idénticas en una oblea de silicio del • Milpiés lee, escribe y borra datos en un medio polimérico con una matriz tamaño de una uña? Un ejército de de pestañas o palancas diminutas. Para inscribir un uno digital, las puntas lentas puntas de MFA que trabajade las palancas marcan una depresión; la ausencia de muesca es un cero sen en paralelo —como las patas de digital. un milpiés— podría leer o escribir datos con bastante rapidez. • Los primeros milpiés comerciales, con mucha probabilidad tarjetas de Ah í hizo falta más imaginación memoria del tamaño de un sello instaladas en aparatos electrónicos porpara prever una oportunidad de éxito tátiles, deberían salir a la venta de aquí a dos años. que para concebir la idea misma. No siempre resulta fácil arreglárselas
E
34
TEMAS 36
Así funciona la nanounidad de memoria EL PROTOTIPO de nanounidad de memoria del proyecto Milpiés funciona como un diminuto fonógrafo. Las agujas de las nanoscópicas pestañas de silicio leen los datos inscritos en un medio polimérico. Una matriz de 4096 pestañas dispuestas reticularmente, dotadas de puntas que miran hacia arriba, está conectada a microcircuitos de control que convierten en ristras de bits la información codificada en los pozos analógicos. El polímero va suspendido de una plataforma de barrido por unos muelles de hoja de silicio; así, unos minúsculos imanes (no mostrados) y unas bobinas electromagnéticas desplazan el medio de almacenamiento a lo ancho de un plano, mientras lo mantienen nivelado sobre las puntas. Las puntas entran en contacto con el plástico porque las pestañas se flexionan hacia arriba (menos de una micra). Pestaña de silicio muy dopada
Medio de polímero Muelles de hoja de silicio
Plataforma de barrido
Actuadores de bobina electromagnética
Matriz de pestañas
Calefactor
Microcircuitos de enfilado y detección de bits Nitruro de silicio pretensado
Sustrato Polímero Corriente de borrado
Pestaña Corriente de escritura Pozo: profundidad 25 nm, anchura 40 nm (dimensiones máximas) ESCRITURA DE UN BIT Por medio del calor y de la fuerza mecánica, las puntas crean pozos cónicos en pistas lineales que representan series de “unos” digitales. Para producir un pozo, la corriente eléctrica circula a través de la pestaña; de esa forma se calienta una región dopada de silicio a 400 grados centígrados, que permite a la estructura pretensada del brazo flexionarse hasta hundir la punta en el polímero. La ausencia de pozo es un “cero”.
BORRADO DE UN BIT El último prototipo del proyecto Milpiés borra un bit existente calentando la punta a 400 grados centígrados y abriendo otro pozo justo al lado del pozo previamente grabado, que entonces se rellena (según se muestra). Otro método de borrado inserta la punta caliente en el pozo; el plástico recupera entonces su forma plana original.
LECTURA DE UN BIT Para leer datos, las puntas se calientan primero hasta unos 300 grados centígrados. Cuando una punta de barrido encuentra un pozo y se introduce en él ( abajo ), transfiere calor al plástico. Así disminuyen su temperatura y su resistencia eléctrica, pero esta última sólo en una proporción mínima, alrededor de una parte en unos pocos miles. Un procesador digital de señal convierte esta señal de salida, o su ausencia, en una secuencia de datos ( derecha ).
Pozos grabados Corriente de exploración N G I S E D E I T S I R H C N A Y R B
Secuencia de datos 1
00111110 10001010 10010111 0
Señal de salida 0
LA INFORMACIÓN
35
ni siquiera con un solo MFA, y sin embargo confiábamos en que un dispositivo que recurría al paralelismo masivo, cargado de puntas, funcionaría fiablemente. Para empezar, necesitábamos al menos una forma de borrar, fuese o no elegante. Ya surgirían después, pensamos, otras soluciones. Desarrollamos un plan de borrado de grandes campos de bits. Los calentábamos por encima de la temperatura a la que el polímero comienza a fluir —como se alisa una superficie de cera cuando se la calienta con un soplador de aire caliente—. Funcionaba bien, pero tenía sus complicaciones: antes de borrar un campo, no quedaba más remedio que transferir a otro campo todos los datos que habían de conservarse. (Después, como explicaremos, la naturaleza ofreció un método mucho mejor.) Con estas crudas ideas en mente, emprendimos nuestro proyecto multidisciplinar. Al trabajar los dos en un mismo equipo acoplamos dos departamentos de IBM, el de física y el de dispositivos (luego se fusiona-
ese momento, descabellado nuestro proyecto. Aunque otros, por ejemplo el grupo de Quate en Stanford, estudiaban en esa época el almacenamiento de datos mediante MBT o MFA, nuestro proyecto era el único que pretendía integrar a gran escala multitud de sondas. Esperábamos que, si presentábamos un prototipo operativo en la undécima Reunión Internacional del IEEE (el Instituto de Ingenieros Eléctricos y Electrónicos) sobre Sistemas Microelectromecánicos, que se iba a celebrar en enero de 1998 en Heidelberg, se nos devolvería el honor. Nos tuvimos que conformar con un prototipo casi operativo, una matriz de puntas de cinco-por-cinco inserta en un área de 25 milímetros cuadrados. Esta estructura de funcionamiento en paralelo atinó a tomar imágenes, pero no a escribir. Habíamos ignorado un detalle técnico, insignificante pero fundamental: los hilos que conducían hasta los calefactores eran metálicos, demasiado finos para soportar la corriente que pasaba por ellos. Se fundieron inmediatamente,
área grande. Nos dio tanta confianza, que adoptamos una matriz mayor sin más dilación. Vettiger advirtió un grave problema en mayo de 1998, mientras daba una charla en el Laboratorio de Almaden de IBM. Exponía cómo se dispondrían las pestañas en filas y columnas regulares, conectada cada una a una rejilla de hilos eléctricos. Pero cuando quiso explicar cómo funcionaría este sistema, de pronto se dio cuenta de que de ninguna manera lo haría. Nada detendría la inmediata circulación de corriente eléctrica hacia todas partes; no habría forma, pues, de enviar una señal a una palanca concreta. El flujo incontrolado de corriente no es un fenómeno desconocido cuando las unidades de una matriz se tienen que direccionar por filas y columnas. Una solución habitual consiste en conectar un conmutador transistor a cada unidad. Pero no nos era posible colocar los transistores en el mismo chip que las puntas; las puntas se afilan bajo un intenso calor, que destruiría los diminutos transistores. De nuevo en el laboratorio, proba-
Ultimo prototipo de Milpiés
rían en un único departamento de ciencia y tecnología). También se nos unieron Evangelos Eleftheriou y su equipo del departamento de sistemas de comunicaciones de nuestro laboratorio. Hoy colaboran con nosotros más grupos del departamento de in vestigación de IBM y de distintas uni versidades. Cuando se produce el encuentro de diferentes costumbres no se pueden evitar los malentendidos, al menos no al principio. Nos hemos beneficiado muchísimo, no obstante, de la mezcla de puntos de vista dispares. La brega
N
o éramos expertos en SMEM. Quienes se dedicaban a los SMEM o trabajaban en la exploración por barrido habían considerado, hasta 36
M B I
como fusibles sobrecargados, debido mos toda clase de trucos para mejoa la electromigración en películas rar el control del flujo de corriente, metálicas. Sobre electromigración ninguno de los cuales satisfizo a había escritos suficientes; debíamos Vettiger. Cuanto mayor era la matriz, haber conocido su existencia. Este no más importante se volvía este defecto. fue nuestro único error, pero en nues- Un rápido cálculo y simulación por tro grupo se admiten y corrigen rápi- parte de Urs Dürig, integrante de damente los fallos. nuestro equipo, mostró que para una A pesar de los contratiempos, los matriz de 1000 unidades aún sería directores de nuestro laboratorio posible direccionar palancas individetectaron un progreso real. Nos per- duales para la escritura; la lectura mitieron doblar el tamaño del equipo; de las pequeñas señales de cada pesahora comprendía ocho personas. El taña, sin embargo, fracasaría. dispositivo de las 25 puntas nos ha Vettiger apenas durmió esa noche. bía enseñado que teníamos que sus- El equipo estaba a punto de termitituir las conexiones de aluminio; en nar el diseño del chip de una matriz su lugar pusimos pestañas de silicio de 1024 puntas. Vettiger les dijo que muy dopado. También descubrimos esperasen. Durante días el equipo que era posible estabilizar la matriz peleó con el problema, hasta que por de puntas bajo el medio de almace- fin Vettiger y Michel Despont dieron namiento con gran precisión en un con una respuesta práctica: instalar TEMAS 36
Más puntas en menos espacio EVOL VOLUCI UCIÓN ÓN DEL PRO PROTOT TOTIPO IPO: El chip milpiés de primera generación contenía una matriz de 25 palancas en un cuadrado de cinco milímetros de lado (abajo ).). El siguiente prototipo (derecha ) incorporaba 1024 palancas en un cuadrado de tres milímetros.
un diodo Schottky (una vía eléctrica de un solo sentido) al lado de cada palanca. Este dispositivo, con su fuerte no linealidad, impediría que la corriente no deseada circulase hacia las demás pestañas. Reformamos el diseño y pronto dispusimos de nuestro segundo prototipo, una matriz de 32 por 32 puntas. Este prototipo demostró la validez de nuestro empeño. La totalidad de las 1024 palancas salieron indemnes de la prueba. Se doblaban justo en la medida en que debían, de manera que aplicaban la fuerza correcta cuando se acoplaban a un medio de polímero blando llamado PMMA, que iba montado sobre un chip aparte, la plataforma de barrido. Unas bobinas electromagnéticas de cobre colocadas detrás de la plataforma de barrido lograron que la superficie de PMMA no se ladease demasiado cuando se desplazaba hacia la izquierda y hacia la derecha, hacia delante y hacia atrás sobre las puntas de las palancas. (Un nuevo explorador de barrido diseñado por Mark Lantz y Hugo Rothuizen ha reducido desde entonces la sensibilidad a la vibración, que constituía un problema.) Cada palanca de 50 micras de longitud tenía una pequeña resistencia en su extremo. Un impulso eléctrico enviado a tra vés de la punta pun ta calentab cale ntabaa ésta hasta has ta alrededor de 400 grados centígrados durante unos pocos microsegundos. Los resultados iniciales de nuestro segundo prototipo fueron prometedores. Más del 80 por ciento de las LA INFORMACIÓN
1024 pestañas funcionaron correctamente en el primer pase, y sólo hubo una estrecha zona “oscura” a lo largo del centro del campo de almacenamiento, que se produjo porque el chip se deformó al montarlo. Ni en sueños esperábamos tal éxito en tan temprana etapa del proyecto. De la Investigació Investigación n al Desarrollo
E
n el dispositivo de cinco por cinco, cada pestaña tenía en su base un sensor piezorresistivo que con vertía la tensión mecánica en un cambio de resistencia; de esa forma el sistema detectaba detectaba cuándo había caído la punta en un pozo —un 1 digital—. Investigamos métodos que encontraran pozos de una forma más concluyente. Probamos con diodos Schottky integrados en las pestañas, con la esperanza de que la tensión mecánica modificase su resistencia. Los diodos no exhibieron las propiedades esperadas; no sabíamos por qué. No obstante, cuando se detectaba un bit observábamos una fuerte señal. Por fin hallamos la razón: un fenómeno térmico. Si la pestaña se calienta pre viamen via mente te a 300 gra grados dos cen centígr tígr ado adoss —menos de lo necesario para que se inscriba una muesca—, su resistencia eléctrica disminuirá mucho en cuanto la punta caiga en el pozo. Nunca se nos habría ocurrido usar un efecto térmico para medir un desplazamiento, una flexión o una posición. A escala macroscópica sería demasiado lento y poco fiable debido
M B I
a la convección —movimiento circulatorio en un medio fluido, en este caso el aire, cuando el calor se transfiere entre dos objetos de diferente temperatura—. A escala microscópica, sin embargo, no existe la turbulencia; los objetos más fríos o más calientes alcanzan el equilibrio en unos microsegundos. Este resultado, inesperado, resultó muy útil. Ahora podíamos valernos del mismo calefactor en cada palanca tanto para leer bits como para escribirlos. En lugar de tres o cuatro hilos por palanca, bastaban dos. Presentamos este segundo prototipo en el congreso del IEEE sobre SMEM de 1999. Esta vez, los asistentes quedaron más impresionados impresionados.. Pero lo que realmente llamó la atención de los directivos de IBM fueron las imágenes de filas regulares de pozos que el milpiés había escrito en el polímero. Los pozos estaban separados sólo 40 nanómetros: unas 30 veces la densidad de las mejores unidades de disco duro del mercado. Poco después, a principios de 2000, el proyecto Milpiés cambió de carácter. Nos centramos en crear el prototipo de un sistema de almacenamiento. El equipo creció hasta contar con una docena de investigadores. De nuevo fusionamos dos departamentos. Ahora se nos unían Eleftheriou y su equipo. Contribuían con su excepcional experiencia rienc ia en la técnic técnicaa de grabación de canales,, que habían estado aplicando canales con gran éxito a la grabación magnética. Desarrollaron la parte electró37
nica del prototipo de un sistema totalmente operativo, desde el tratamiento básico de señales y la codificación de la corrección de errores hasta la arquitectura y el control completos del sistema. Ac ab áb ábam am os de de sc ub ubri rirr un unaa forma de borrar un área pequeña; en cooperación con Eleftheriou, pudimos incluso convertirla en un sistema que antes de reescribir no tenía que borrar. En el nuevo método de borrado local, cuando la temperatura de la punta ablanda el material, el pedazo de medio hundido, el pozo, salta hacia arriba de nuevo a causa de la tensión superficial y la elasticidad del material. En vez de recocer un campo mayor mediante un calefactor integrado en el sustrato de almacenamiento —como en el método de borrado en bloque descrito antes—, la punta calienta localmente el medio. No se puede evitar que la punta ejerza cierta fuerza de origen electrostático. Así, cuando la punta se calienta hasta una temperatura suficientementee alta y se produce una suficientement nueva muesca, se borran los viejos bits
nanounidad, para la que también teníamos que escoger tamaño y forma. El “factor forma” puede ser de máxima importancia en el mercado de la electrónica de consumo, específicamente en el área de dispositivos móviles que habíamos escogido como primer objetivo. El camino por delante
E
n los últimos meses de 2002 nuestro grupo dio los toques finales al prototipo de tercera generación, dotado de 4096 palancas dispuestas en una matriz de 64 por 64 y 6,4 milímetros de lado. Embutir más pestañas en un chip es factible. Hoy podríamos fabricar chips con un millón de pestañas; de una oblea ord inaria de silicio, de 200 milímetros, saldrían 250 de estas matrices. Ahora la principal tarea es conseguir el equilibrio correcto entre dos objetivos. En primer lugar, nuestro diseño para un sistema de nanounidad de memoria completo —no sólo la matriz y la plataforma de barrido, sino también la microelectrónica integrada que los controla— debería resultar tan bara-
modificar los polímeros existentes o crear otros nuevos que cumplan los requisitos de nuestro sistema de almacenamiento. Aunque el ojo humano recon reconoce oce con facilidad cuando barre una imagen del medio de un milpiés qué bloques de la rejilla contienen pozos y cuáles no, dista de ser trivial el diseño de circuitos electrónicos sencillos que ejecuten esa misma tarea con una precisión casi perfecta. Dar con los bits que representan ceros y los que representan unos es mucho más fácil, si todos los pozos tienen la misma profundidad y se hallan igualmente espaciados a lo largo de pistas rectas. Para ello debe construirse plana la plataforma de barrido, debe mantenérsela paralela a las puntas y debe desplazársela con velocidad constante y movimiento lineal —dentro de una tolerancia de sólo unos nanómetros— . Hemos descubierto que al suspender la plataforma de barrido de finos muelles de hoja de silicio obtenemos un control mucho mejor del movimiento. Aun así, añadiremos un sistema de realimentación activa, muy
Prototipo de tercera generación M B I
de las proximidades. Si se escribe una to, que fuese inmediatamente compedensa fila de pozos, cada bit creado titivo, en especial para los dispositirecientemente eliminará a su prede- vos de mano, man o, que func iona ionan n con poco cesor; sólo permanecerá el último bit consumo. Pero es fundamental tamde la fila. Este mecanismo vale inclu- bién que el sistema opere fiablemente so para sobreescribir datos antiguos a pesar de los daños que sufra tras con un nuevo código sin conocer cuál años de utilización. era el antiguo. Al unir nuestra exHemos encontrado polímeros que periencia en física con la destreza de se portan incluso mejor que el PMMA. Eleftheriou en canales de grabación, En estos plásticos parece que los elaboramos una forma especial de pozos son estables durante al menos codificación restringida para esta tres años; un punto en la matriz se sobreescritura directa. puede escribir y borrar 100.000 veces En ese punto estaba claro que el o más. Pero no estamos tan seguros equipo necesitaba trabajar en la velo- del estado de las puntas después de cidad y el rendimiento energético de hacer quizá cien mil millones de los milpiés. Teníamos que comenzar muescas durante varios años de funa medir relaciones señal-ruido, co- cionamiento. Dürig y Bernd Gotscientes de error de bits y otros indi- mann, de nuestro equipo, se propocadores que informasen sobre lo bien nen, en colaboración con compañeros que podría grabar datos digitales la del Laboratorio de Almaden de IBM, 38
sensible a la posición relativa de las dos partes; satisfará esas tolerancias nanoscópicas mientras el dispositivo se balancea en la cintura de alguien que ha salido a correr. Cualquier sistema mecánico que, como el milpiés, genere calor tendrá que vérselas con la dilatación térmica. Bastará una diferencia de temperatura de algo más de un grado entre el polímero y las palancas de silicio, para que el alineamiento de los bits no se corresponda con el de las puntas. Un sistema de realimentación que compensara la desalineación añadiría complejidad y, con ella, costes. ¿Cuál es la mejor solución a este problema? Por fortuna, la naturaleza nos ha ayudado de nuevo. Tanto el milpiés como el sustrato de almacenamiento TEMAS 36
Proyectos de memorias de alta densidad EL PROYECTO MILPIES MILPIES DE IBM es sólo uno más entre otros encaminados encaminados a sacar a la venta memorias de ordenador de tamaño muy reducido y alta capacidad. TECNICA DEL DISPOSITIVO
CAPACIDAD DE MEMORIA
Hewlett-Packard Palo Pa lo Al Alto to,, EE EE.U .UU. U.
Dispositivo de de mi microscopio de de fuerzaa ató fuerz atómi mica ca (M (MFA FA)) del del ta tama maño ño de una uña que se vale de haces de electrones para leer y escribir datos sobre la zona de grabación
Al me menos un un gi gigabyte (GB) de pa (GB) part rtid idaa
Fin de de la la dé década
Hitachi Tokio, Ja Japón
Dispositivo basado en un MFA; no se se ha han re revelado de detalles
No se ha revelado
No se ha revelado
Nanochip Frem Fr emon ont, t, EE. E.U UU.
Matrices de palancas con puntas de MFA qu quee almac m acen enan an dat atos os en un chip de silicio
En principio medio GB; potenc pote ncia iall pa para ra 50 GB
Previsto para 2004
Royal Ph Philips Electronics Eindhoven, Holanda
Sistema óp óptico si similar a los CD regrabables que utiliza un un lá láser azul para grabar y leer datos en un disco de tres centímetros de diámetro
Hasta un un GB GB por ca cada cara, quizá cu cuatro GB GB en total
Previsto para 20 2005
Hasta 10 10 GB en un chip para portátiles
Previsto para 20 2006 o después
FIRMA
K I L A M Q I R A T R O P O D A L I P O C E R
Seagate Te Technology Sistema re reescribible que us usa Scotts Valley, un MFA u otro método en un chip EE.UU. de un centímetro
COMERCIALIZACION
portador de la película de polímero todavía nos regocijamos cuando un son de silicio; por lo tanto, se dilata- prototipo nuevo funciona. Si tenemos rán por igual si ambos se encuentran suerte, nuestros más recientes proa la misma temperatura. Además, la totipos revelarán problemas que nuesseparación entre la matriz de puntas tro equipo sabe cómo resolver. y el sustrato es tan pequeña, que el En cualquier caso, nos emociona aire atrapado entre ambos compo- que, al menos, gracias a esta técnica nentes actuará como un excelente nanomecánica los investigadores pueconductor de calor y a duras penas dan barrer un centímetro cuadrado llegará a haber diferencias de tem- con una resolución casi atómica. peratura entre ambos. Hasta ahora el proyecto ha generado Debido a que el proyecto ha ma- cerca de 30 patentes hasta cierto durado ahora hasta el punto de que punto de fundamentos. ¡Quién sabe podemos dar ya los primeros pasos si las nanounidades llegarán a cohacia el desarrollo del producto, nues- mercializarse! En cualquier caso, se tro equipo ha incorporado a Thomas tratará de un nuevo tipo de máquiR. Albrecht, del Laboratorio de Alma- na que valdrá para algo. Eso sólo ya den; participó en que el Microdrive valdrí val drí a la pen pena. a. de IBM llegase al mercado. Llevar Microdrive desde el laboratorio hasta el consumidor fue una singladura similar a la que tendrá que afrontar quizá Milpiés en los próximos años. BIBLIOGRAFIA COMPLEMENTARIA Para los miembros de nuestro grupo, esta transición hacia el desarrollo del IN TOUCH WITH ATOMS. Gerd Binnig y producto significa que tendremos que Heinrich Rohrer en Reviews of Modern ir dejando Milpiés cada vez más en Physics , vol. 71, n.o 2, páginas S324manos de otros. Los pasos atrás son S330; marzo, 1999. la parte más difícil y, al mismo tiempo, T HE “M ILLIPEDE”—N ANOTECHNOLOGY ENTERING DATA STORAGE. P. Vettiger, de la que más depende el éxito de un G. Cross, M. Despont, U. Drechsler, proyecto. U. Dürig, B. Gotsmann, W. Häberle, Aún no pod podemo emoss esta r rea realme lmente nte M. A. Lantz, H. E. Rothuizen, R. Stutz y seguros de que los milpiés lleguen un G. Binnig en IEEE Transacti ons on Nadía a ser dispositivos comerciales. notechnology, vol. 1, n.o 1, págs. 39-55; Como científicos ya no los considemarzo, 2002. ramos un proyecto de alto riesgo, pero
LA INFORMACIÓN
39
DVD Un acuerdo entre empresas competidoras dio como resultado la creación en 1996 del disco digital versátil (DVD), tan difundido hoy en día Alan D. Bell
L
os formatos DVD (o “disco digi- de la muesca están calculadas para longitud de onda está entre 635 y 650 tal versátil” y CD comparten que se produzca una interferencia nanómetros. Los reproductores de la misma tecnología básica de destructiva con la luz que ha inci- discos compactos se valen de láseres almacenamiento óptico: la informa- dido en terreno plano contiguo. Un infrarrojos de mayor longitud de onda, ción está representada mediante fotodetector y otros dispositivos elec- 780 nanómetros. Además los repromuescas microscópicas que se for- trónicos del equipo traducen estas ductores de DVD utilizan una lente man sobre la superficie de un disco var iac iones en los ceros y unos del de enfoque de mayor potencia, que de plástico cuando se inyecta el ma- código digital que represe ntan la in- tiene una apertura numérica más terial en un molde. La cara del disco formación almacenada. grande. Estas diferencias, sumadas donde están grabadas las muescas Dos son las diferencias físicas esen- a otras eficiencias adicional del for—la superior— se recubre después ciales entre los discos compactos y mato DVD que se describen a conticon una fina capa de aluminio, se- los DVD. En primer lugar las mues- nuación, explican la enorme capaciguida, en el caso de un disco com- cas de los DVD son más pequeñas, con dad de 4,7 gigabytes (GB) de cada pacto, por una capa de laca protec- un diámetro de sólo 0,4 micras; las capa de información de los DVD. tora y una etiqueta. Para leer los de un compacto son más del doble de La capacidad de un DVD puede datos el equipo reproductor proyecta grandes: 0,83 micras de diámetro. duplicarse, llevándola a 9,4 GB, y un haz puntual de luz láser sobre la Y las pistas de datos de los DVD dis- volverla a duplicar otra vez, alcancapa de datos a través del sustrato tan nada más que 0,74 micras, mien- zando unos 17 GB, merced a otras dos del disco, al tiempo que lo mantiene tras que las de los discos compactos innovaciones. Aunque los DVD y los en rotación. La intensidad de la luz están separadas 1,6 micras. Estas compactos tengan el mismo espesor reflejada por la superficie varía en son las razones de que, aunque los DVD global, de 1,2 milímetros, los DVD función de la presencia (o ausencia) tengan igual tamaño que los com- poseen dos sustratos capaces de porde muescas a lo largo de la pista de pactos, su espiral de datos tenga una tar información, mientras que los información. Cuando el haz de lec- longitud de más de once kilómetros, discos compactos sólo poseen uno. tura incide directamente (que el haz, más del doble que la del compacto. Los sustratos de un DVD están ligaque viene desde abajo, percibe como Para poder leer estas muescas más dos entre sí, quedando sus superfiun abultamiento), la luz reflejada pequeñas, el haz de lectura del repro- cies grabadas enfrentadas en la mitad por el disco es mucho menor que si ductor de DVD tiene que lograr un del grosor del disco, lo que las proel haz incide sobre una porción plana enfoque más fino, lo que consigue gra- tege de los efectos dañinos de las parde la pista, ya que las dimensiones cias a un láser semiconductor cuya tículas de polvo y de las rayaduras.
LOS DVD, a diferencia de los discos compactos, pueden contener dos estratos de muescas de datos (izquierda ). Conforme gira el disco, estas marcas diminutas van pasando bajo un haz de luz láser (rojo ), provocando variaciones en la cantidad de luz reflejada. Un fotodetector y otros elementos electrónicos traducen estas variaciones en los ceros y unos que constituyen los datos digitales. Por ajuste de la posición de la lente se puede hacer que el reproductor lea información ora de la capa superior, ora de la inferior de un DVD. La luz que atraviesa el holograma del centro de la lente se enfoca en un segundo punto, idóneo para la lectura de los discos compactos actuales.
40
N A M D O O G L E A H C I M
MUESCAS DE DATOS
TEMAS 36
FOTODETECTOR
ESPEJO LASER
LENTE
N A M D O O G L E A H C I M
LA INFORMACIÓN
41
Comparación de los discos DVD y CD Característica
DVD
CD
Diámetro del disco
120 milímetros
120 milímetros
Estructura del disco
Dos sustratos, de 0,6 milímetros de espesor cada uno
Un sustrato de 1,2 milímetros de espesor
Longitud mínima de la muesca
0,4 micras
0,83 micras
Longitud de onda del láser
de 635 a 650 nanómetros
780 nanómetros
Capacidad
Una capa en una cara, 4,7 GB en total Dos capas, una por cara, 9,4 GB en total Dos capas en una misma cara, 8,5 GB en total Cuatro capas, dos por cada cara,17 GB en total
Una capa en una cara, 0,68 GB en total
Apertura numérica
0,60
0,45
D ensidad de las pistas
3 4. 00 0 p is ta s p or pu lg ad a (13.400 pistas por cm)
1 6. 00 0 p is ta s p or pu lg ad a (6300 pistas por cm)
Densidad de bits
96.000 bits por pulgada (37.795 bits por cm)
43.000 bits por pulgada (16.930 bits por cm)
Velocidad de transferencia
11 megabits por segundo
de 1,2 a 4,8 megabits por segundo
Densidad de datos
3,28 gigabits por pulgada cuadrada (0,51 gigabits por cm 2)
0,68 gigabits por pulgada cuadrada (0,11 gigabits por cm 2)
de una cara tienden a compensar a las de la otra, reduciendo los efectos de los cambios ambientales y minimizando la deformación resultante. Se consideró que uno de los requisitos de diseño prioritarios tenía que ser que los reproductores de DVD pudieran leer los CD existentes y no sólo los nuevos. La construcción de este tipo de reproductores imponía características específicas al diseño óptico. El sistema más sencillo consiste en montar dos lentes sobre un mismo cabezal óptico, optimizadas, una de ellas, para sustratos de 1,2 mm y, la otra, para los de 0,6 mm. Las lentes se intercambiarían por medios mecánicos cuando conviniera. Se acertó con una solución más elegante, que consiste en utilizar una sola lente moldeada, provista en su centro de un elemento holográfico. La luz que pasa a través de la corona exterior de la lente no es afectada por el holograma y queda enfocada sobre el plano en un punto de mínimo tamaño, tan pequeño que es apto para la lectura de DVD. Alrededor de la tercera parte del haz de lectura incidente sobre la porción central es enfocada por ambos, la lente y el holograma, creando un punto idóneo para la lectura de las hendiduras de un disco compacto, que es más grueso. Mayor número de bits
Los discos de diseño más sencillo, los de dos caras, requieren que, para acceder a la segunda superficie de datos del DVD, se retire el disco, se le dé la vuelta y se vuelva a insertar. Pero hay otra variante, la de la doble capa, que permite que las dos superficies con información grabada se lean sin dar la vuelta al disco. El sustrato inferior de un disco de doble capa está recubierto con una capa semirreflectante, que refleja la luz suficiente para permitir que el haz de láser lea las indentaciones en él situadas, pero transmite también la suficiente para que, si se enfoca el haz sobre el estrato superior, pueda leerse su información, circunstancia en la que las marcas de la capa inferior quedan desenfocadas y no pro vocan interferencia. (Para corregir la pequeña, pero inevitable, pérdida de calidad reproductora que conlleva este método es necesario reducir algo la capacidad de almacenamiento, que se queda en 8,5 GB; por eso un DVD de doble capa y de doble cara alberga alrededor de 17 GB.) Para unir los dos sustratos es imperativo utilizar un adhesivo de gran calidad óptica; el espesor de la unión ha de mante42
nerse dentro de límites precisos para evitar aberraciones excesivas del punto enfocado. El diseño de los DVD de doble capa ofrece, además de mayor capacidad, otras ventajas: reduce los errores causados por los desequilibrios y el alabeo del disco. Todos los discos compactos son propensos a experimentar pandeos. Cuando su superficie se inclina y deja de ser perpendicula r al haz de láser, pueden producirse errores de lectura. La medida en que el punto de lectura resulta degradado por la inclinación del disco es proporcional al espesor del sustrato. Cada sustrato del DVD tiene un espesor de sólo 0,6 mm, lo cual beneficia al diseño global. Esta delgadez hace que el DVD sea menos sensible a las torceduras que el disco compacto, cuyo sustrato tiene un espesor de 1,2 mm. Hay razones adicionales para que el DVD sea más insensible a ciertos tipos de inclinaciones y pandeos. Un ejemplo lo tenemos en los cambios bruscos de temperatura o de humedad, que pueden provocar la hinchazón o el encogimiento de los sustratos plásticos. Como la construcción del DVD es simétrica, las perturbaciones
A
demás de contener más muescas que los discos compactos, los DVD también albergan más información en cada una de ellas, merced a perfeccionamientos conseguidos en dos aspectos del rendimiento del formato de codificación. Con independencia del tipo que tenga la información original —datos, textos, imágenes, sonido o vídeo— es preciso proteger a los ceros y unos digitales que la representan —los llamados “bits de usuario”— de los efectos de errores introducidos durante la reproducción, provocados por el polvo, las rayaduras o la corrosión. Las técnicas de corrección y control de errores (ECC) reducen al mínimo tales problemas merced a algoritmos especiales que computan bits de datos adicionales, que se almacenan junto con los del usuario. Estos bits adicionales, aunque esenciales, reducen la capacidad del disco disponible para el contenido real. La corrección y el control de errores de los DVD son de una potencia extraordinaria. Pueden, por ejemplo, corregir una salva de errores de hasta 2000 bytes de longitud, lo que equi vale a unos cuatro milímetros de pista. La corrección de datos ocupa alrededor del 13 por ciento de la capacidad TEMAS 36
Un formato universal
A
principios de 1995 parecía inverosímil que pudiera surgir en un plazo breve una técnica unificada de discos compactos de segunda generación. Dos grupos de compañías de electrónica de consumo —encabezado uno por Sony Corporation y Philips Electronics (coinventores del disco compacto original) y el otro por Toshiba Corporation, Matushita Electric Industrial Corporation y Time Warner— habían creado diseños propios, cada uno por su parte. Sony y Philips proponían el disco compacto multimedios (MMCD), que podría almacenar 3,7 GB en un disco de una sola cara, parecido al disco compacto habitual. Pero el grupo encabezado por Toshiba proyectaba un formato radicalmente nuevo, al que denominaron SD, abreviatura de “superdensidad”, capaz de alojar cinco gigabytes por cada lado de un disco grabado por dos caras. Toshiba empezó ganándose el apoyo de buena parte de la industria cinematográfica, que consideraba que el formato SD era el único capaz de dar cabida digital a películas completas con bandas sonoras de calidad de disco compacto. Por otra parte, muchos fabricantes se encontraban más cómodos con el MMCD, que era una prolongación poco innovadora del formato CD, perfectamente probado. Sin embargo, ni los estudios ni las compañías informáticas estaban dispuestos a aceptar dos formatos incompatibles y tampoco lo estaban a una posible repetición del barullo que se produjo entre los sistemas VHS y Betamax para videocasete, pues ello frenaría la introducción de cualquiera de los formatos hasta que uno de los dos predominase. Quienes sufrirían serían entonces los infelices consumidores que hubieran invertido en el sistema desechado, ya que los
proveedores de contenidos se pasarían en bloque al formato dominante. Un grupo especializado de expertos en almacenamiento informático de datos, inicialmente convocado por Sony y Philips para que revisaran críticamente su propuesta, amplió el alcance de su examen y estudió también la de Toshiba. El autor de este artículo presidió ese grupo y participó activamente en esas revisiones conforme evolucionaron a lo largo de año y medio. Este autodenominado Grupo Técnico de Trabajo (TWG) formuló claramente desde el primer momento su recomendación y su objetivo más importante: conseguir un formato de gran compatibilid ad que fuese apto para toda una familia de tipos de disco, tanto grabables como sólo de lectura. En agosto de 1995 el TWG estimó que ambos formatos eran aceptables para aplicaciones informáticas, pero encontró inadmisible que no se hubieran unificado. Como algunas empresas informáticas habían manifestado sus preferencias por uno de ellos, se iniciaron rápidamente conversaciones formales encaminadas a conjugar los mejores el ementos de cada diseño. Los patrocinadores de los sistemas acabaron por aceptar la oferta de IBM de arbitrar las posibles diferencias técnicas y el 15 de septiembre se pusieron de acuerdo en aceptar el sustrato delgado y el código de corrección de errores de la propuesta Toshiba/Time Warner y el código de modulación de señal tomado del formato Sony/Philips. El 8 de diciembre se confirmaron los detalles que faltaban del sistema unificado, que se hizo público, por entonces nada más que para discos sólo de lectura, con la denominación de DVD, siglas de “disco versátil digital”.
del disco en el formato DVD. Los datos tiempo los beneficios inherentes al flujo de bits comprimidos varía comparables de los discos compactos método original de los compactos. Al durante la reproducción. Este método ocupan nada menos que un tercio de ser menos los bits de código modula- optimiza la calidad global de la pelísu capacidad total. Este mayor ren- dor utilizados para representar los cula incluso en casos de limitación de dimiento de la corrección en los DVD, bits de datos de usuario, el DVD puede capacidad total. que no se hace a costa d e su funcio- contener mayor número de éstos. Tal El formato para películas en DVD nalidad, se debe en buena medida a característica hace que su eficacia especifica que los métodos de codifila mayor potencia de cómputo de los sea como un seis por ciento mayor cación sonora utilizados sean o el microcircuitos, de la que no se dis- que la del formato CD. AC-3 de compresión de aud io multiponía cuando se diseñó el formato del canal (5.1), de Dolby Laboratories, o Mayores posibilidades disco compacto. el sistema de modulación por codifiDurante la grabación, los datos del a capacidad y el rendimiento del cación de impulsos (PCM), con el usuario y los de corrección y control DVD se eligieron pensando en método MPEG como tercera opción. de errores se convierten en los deno- que la visión de películas fuese una El sistema Dolby utiliza una velociminados bits de código modulador, de sus aplicaciones principales. A pe- dad de transferencia de hasta 448.000 que constituyen las ristras reales de sar de los 4,7 gigabytes de cada su- bits por segundo para los bits de bits binarios representados por las perficie DVD, para que una película sonido ya comprimidos, al objeto de muescas de la superficie del disco. cinematográfica digitalizada quepa crear cinco canales independientes Este paso es necesario para regular en el disco es necesario almacenarla de audiofrecuencia con calidad de la gama de tamaños de muesca nece- en forma comprimida. El método de disco compacto, así como un sexto sarios para la representación de los compresión utilizado, el estándar canal dedicado a los efectos sonoros datos, un aspecto importante a la MPEG2, es un método de compresión de baja frecuencia, fragmentación hora de garantizar la detección fia- variable de los datos, en el cual el que explica la designación del sisble de datos y pistas durante la repro- grado de compresión se va adaptando tema como 5.1. ducción. El método de codificación de forma óptima a la complejidad insutilizado en los discos compactos tantánea de la escena: las escenas BIBLIOGRAFIA COMPLEMENTARIA transforma ocho bits de datos de usua- visualmente detalladas o llenas de rio en 17 bits de código modulador. acción propenden a ser más difíciles THE COMPACT DISC HANDBOOK . Ken C. El DVD utiliza un método perfeccio- de comprimir —y por consiguiente, Pohlmann. The Computer Music and Dinado que transforma ocho bits de se les asigna mayor número de bits— gital Audio Series, volumen 5. A-R Ediusuario en solamente 16 bits de código que las partes menos complejas de la tions, Madison, Wisc., 1992. modulador, preservando al mismo película. En consecuencia la tasa del
L
LA INFORMACIÓN
43
Discos grabables y regrabables, láseres azules y el fin del consenso
S
i en 1996 se llegó a un acuerdo entre los distintos fabricantes por el que todos se atuvieron a unas mismas especificaciones en sus discos compactos pregrabados de segunda generación, los DVD, no ocurrió lo mismo con las versiones grabable una vez y regrabable. El consorcio DVDForum, donde se agrupan casi todas las grandes empresas de sonido, imagen, cine e informática, con la notable excepción de Philips, aprobaba en 1997 un formato regrabable, pero en vez de mantener la continuidad con el del sólo lectura, tal y como sucedía con los CD, CD-R y CD-RW, avalaba un disco incompatible con las lectoras de DVD de vídeo y DVD-ROM, el DVD-RAM, con una capacidad de 2,6 GB, ampliada a 4,7 GB por cara en octubre de 1999. Ese mismo año, Pioneer sacaba el formato grabable DVD-R, que también adoptaría el Fórum, que sí conservaba la compatibilidad con los dispositivos de discos pregrabados. Un consorcio más restringido, DVD+RW Alliance —Philips, Sony, Thomson, Mitsubishi (Verbatim), Dell, Ricoh, HewlettPackard y Yamaha, y desde 2003 Microsoft—, aunque formado en buena medida por empresas que también están en el Fórum, presentaba, a finales de 1997, un formato regrabable pensado para que fuese compatible con los reproductores ya existentes de DVD de vídeo y DVD-ROM, el DVD+RW, con una capacidad de 2,7 GB, pero lo abandonarían hasta 2001, en que reaparecía con una capacidad de 4,7 GB. En 2002 la Alianza sacaba la correspondiente versión grabable una vez, el DVD+R. Mientras, Pioneer introducía un formato regrabable de continuidad con el DVD-R, el DVD-RW, en noviembre de 1999, con esa misma capacidad de 4,7 GB. Los DVD grabables escriben, como los CD grabables (CD-R), sobre un tinte (azo metalizado, ftalocianina, formazán) en el que un láser inscribe la informac ión marcando (“quemando”) pequeñas muescas. Hasta la aparición en 1997 de los CD regrabables (CD-RW), el almacenamiento óptico de datos reescribibles se basaba en métodos magnetoópticos (un láser calienta primero la superficie de grabación, que es de un material magnético cuyas propiedades cambian cuando alcanza una determinada temperatura, y a continuación un imán escribe la información, que se lee con un láser, ya que el estado magnético del material afecta a la reflectividad de la luz). Las versiones reescribibles de DVD, como el CDRW, recurren en cambio a los materiales de cambio de fase, aleaciones metálicas que modifican su estado de cristalización con el calor. Una película delgada de una sustancia de esa naturaleza, situada entre una capa dieléctrica fina y otra que lleva apiladas una capa reflectora y una resina, va emparedada entre sustratos de policarbonato (un plástico transparente) de 0,6 milímetros. Para grabar datos, un impulso láser funde en esa película una zona de un fragmento de micra de diámetro, que se enfría muy deprisa; no tiene tiempo de recristalizars e y queda en un estado amorfo menos reflectante que la fase cristalina. La lectura de los datos se basa en el efecto de esa menor reflectividad en un haz láser de intensidad lo suficientemente baja para que no funda de nuevo el material. Para borrar lo ya escrito en el disco, el láser calienta el material hasta una temperatura un poco inferior a la de fusión (entre 500 y 700 grados), pero superior a la de cristalización (unos 200 grados), durante un tiempo suficiente, mayor que el tiempo mínimo de cristalización. Se produce así una recristalización. El DVD+RW y el DVD-RW graban los datos de la misma manera: en el recubrimiento de cambio de fase de un surco espiral ondulado inscrito de fábrica en el sustrato inferior del disco virgen. El material de cambio de fase es también el
44
mismo: una aleación AgInSbTe. El surco en el DVD+RW ondula a mayor frecuencia; además, este formato actúa de manera que permanezcan constantes o la velocidad de giro del disco o la velocidad lineal a medida que el tramo leído pasa por la cabeza lectora, mientras que en un DVD-RW sólo existe la segunda opción (en la que la velocidad de giro ha de ir cambiando). El DVD-RAM graba, en cambio, tanto en el surco como en el terreno entre surcos contiguos, de manera que se forma sobre el disco una doble espiral de datos. La ondulación del surco es constante con respecto a la velocidad lineal, zona a zona; en cada zona es constante la velocidad angul ar. Por su organización, el DVD-RAM se asemeja más a un disco duro o a un disquete que a un DVD ordinario, ya que en él se lee y graba siempre mediante acceso aleatorio en vez de secuencial (el DVD+RW puede utilizar también el acceso aleatorio, que se acelera en el modo de velocidad angular constante al prescindir de los cambios de velocidad del disco, que no pueden ser instantáneos). Las cabeceras de los sectores van preimpresas en el disco; la ondulación refina la precisión de ese direccionamiento. El medio de grabación es GeSbTe. En un principio, el DVDRAM venía protegido por un cartucho; ahora también es utilizable como disco desnudo. Las lectoras-grabadoras DVD Multi admiten los distintos formatos reconocidos por el Fórum, incluido el RAM. Aunque el DVD Fórum se atribuye una especie de autoridad oficial en la definición de los formatos DVD e insiste en que DVD+R/RW no es un formato autorizado, ahora se tiende a construir lectoras-grabadoras duales, compatibles en ambas funciones, o al menos en la de lectura, con los formatos + y –, ya que el uno y el otro se han repartido más o menos por igual el mercado. En 2004, Philips y Sony sacaban a la venta DVD+R y DVD+RW de doble capa, es decir, con dos estratos de aleación de cambio de fase donde escribir datos por una misma cara. Así casi se duplica la capacidad del disco —8,5 GB— sin necesidad de darle la vuelta, como ha de hacerse en las versiones de doble cara de los distintos formatos de DVD. En 2003 se anunciaba la aparición de los discos ópticos de láser azul. La división entre el Fórum y la Alianza se refleja también en esta nueva generación de sistemas de almacenamiento, aunque ahora con nuevos alineamientos. Toshiba y NEC son los principales promotores del formato denominado “disco óptico avanzado” (AOD, AO significa además “azul” en japonés) o HD-DVD (HD, alta definición, alude al que se supone será el uso preferente de esta generación de discos: la televisión de al ta definición). En noviembre de 2003, DVD Fórum escogía el AOD, en una votación reñida, como sucesor del DVD, aunque de momento nada más que en la versión de sólo lectura; la versión grabable obtuvo más votos negativos que positivos en la correspondiente votación. (En febrero de 2004 el Fórum elegía a Toshiba como su empresa presidente, con Time Warner, Sony e Intel como vicepresidentes.) Un nuevo consorcio, que engloba empresas del Fórum y de la Alianza, Fundadores del Disco Blu-Ray, avala un segundo formato, que da nombre al consorcio. (Blu-Ray y no Blue-Ray, o Rayo Azul, porque una palabra de uso común no puede registrarse como marca.) Lo forman Hitachi (Maxell), LG Electronics, Matsushita (Panasonic), Mitsubishi, Pioneer, Philips, Samsung, Sharp, Sony, TDK y Thomson. En enero de 2004 se incorporaban Hewlett-Packard y Dell. Sony sacaba a la venta en Japón, en marzo de 2003, las primeras grabadoras de BD, con discos de una capacidad de 23 GB, a un precio todavía muy alto. Panasonic ha anunciado en abril de 2004 que pondrá a la venta en julio una grabadora para discos de dobla capa, con una capacidad
TEMAS 36
los problemas de una capa de incidencia de la luz demasiado gruesa — la birrefringencia y el pandeo—, crecientes con la frecuencia del láser. La mayor apertura numérica, con esa capa reducida, les permite una mayor densidad de información: sus muescas tienen una longitud mínima de 0,14-0,16 micras y la distancia entre pistas es de 0,32 micras; BD admite hasta 27 GB en una capa de grabación, o más de dos horas de televisión de alta definición y unas 13 de televisión corriente, por 15 (en las versiones pregrabada y grabable una vez) o 20 (en la regrabable, 32 con doble capa) de un HD-DVD. Ahora bien, el nuevo sistema de compresión H.264 (o MPEG4-10) del HD-DVD es más potente que el tradicional MPEG2 del BD. Por otra parte, el BD usa los mismos medios de grabación de los DVD reescribibles, mientras que el HD-DVD recurre a una aleación GeTeSbBi enriquecida en germanioteluro. Ambos formatos graban en surco ondulado. La velocidad de transferencia de datos del BD es de 36 megabits por segundo (la televisión de alta definición requiere al menos 25 megabits por segundo). Toshiba escogió una estructura similar a la de los DVD para sus AOD porque así se disminuyen los costes de producción. Además, los discos maestros de los HD-DVD pregrabados pueden escribirse con los mismos láseres que los DVD; en cambio, se sabe que Pioneer ni siquiera utilizará láseres del ultravioleta profundo para los masters de los BD de 50 GB, sino haces de electrones. Sin embargo, los Fundadores del disco Blu-Ray sostienen que los costes de fabricación y el precio de un BD serán iguales a los de un DVD en cuanto la prototal de 50 GB, o cuatro horas y media de vídeo de alta definición, para el mercado japonés también. Para finales de año, se supone que Sony pondrá la venta sus grabadoras de discos de doble capa de 50 GB, que también leerán discos de BD-ROM. Tanto el BD como el AOD tienen las mismas dimensiones de un CD o un DVD. Ambos utilizan un láser azul de 405 nanómetros de longitud de onda, de nitruro de galio. El HDDVD es más conservador estructuralmente. Mantiene la capa de escritura emparedada entre estratos de 0,6 milímetros; la apertura numérica de su lente —una medida de la estrechez de la punta del haz cónico de láser creado por la lente del dispositivo y, por tanto, de la capacidad de resolución del sistema lector— es muy parecida en este sistema y en los DVD (0,6). La estructura física de un BD, en cambio, es distinta a la de un DVD reescribible: la capa de grabación se monta sobre un sustrato de policarbonato de 1,1 milímetros de grosor y va cubierto por una capa transparente de 0,1 milímetros, la que la luz va a atravesar. Esto aminora
LA INFORMACIÓN
ducción sea masiva. En abril de 2004, Sony y Toppan Printing anunciaban un disco Blu-Ray “de papel”; en él, el sustrato de 1,1 milímetros, en vez de ser de policarbonato, es de papel en un 51 por ciento. El disco puede cortarse con unas tijeras. Esta nueva generación de discos ópticos será la última con láseres de luz visible. En 2001 se comunicaba la obtención de láseres ultravioletas —aún sólo como experimentos de laboratorio— de nanocristales de óxido de zinc (una emisión de 385 nanómetros de longitud de onda) y de diamante (235 nanómetros). Por su tamaño podrían valer para su empleo en unidades de discos ópticos. A finales de 2003 se conocía una variante de los DVD, los EVD (extended video disc) , promovida por el gobierno chino, con compresión VP5 y VP6 de la empresa estadounidense On2, capaces de almacenar vídeo de alta definición. Taiwan, a su vez, anunciaba su FVD ( finalized versatile disc), que utiliza Windows Media Video 9. — La redacción
45
El primer siglo de las memorias magnéticas Los inicios de la grabación en medios magnéticos, hoy tan extendida, no fueron muy prometedores. Sus bases científicas no estaban muy claras, las utilizaciones prácticas se hicieron esperar y empresarios y políticos contribuyeron a dificultar los avances James D. Livingston
G
ran parte de nuestra informa- Richard Nixon, presidente de los Esción se almacena en imanes: tados Unidos en los años setenta, y disquetes, cintas de audio y otras grabaciones parecidas mantu vídeo, grabaciones de contestadores vier on en la cuerda floja al ex presiautomáticos, tarjetas de crédito... dente Bill Clinton. Todos estos sistemas retienen palaLas memorias magnéticas de los bras, números, imágenes y sonidos ordenadores gestionan discretamente como combinaciones de polos norte y desde hace tiempo los movimientos sur, para lo que utilizan las técnicas de personas, bienes y capitales. Son de grabación magnética, que ya cuen- los auténticos almacenes electrónitan con más de cien años. cos de la era de la información, repleLas memorias magnéticas han te- tos de datos científicos, médicos, innido una gran repercusión social en dustriales y financieros. Aunque los últimos tiempos. Las cintas del también se usen otras bases, como son caso Watergate obligaron a dimitir a las películas fotográficas, el papel o
1898
K R A M N A D E L E T T E K E T O I L B I B E L E T
VALDEMAR POULSEN, un ingeniero danés, inventa el telegráfono (arriba ), un aparato que registra magnéticamente la voz humana sobre cables o cintas de acero.
los medios ópticos, el soporte magnético tiene sobre todos ellos la ventaja de que permite borrar y grabar la información fácilmente. La grabación magnética, descubierta hace poco más de un siglo, languideció, empero, durante buena parte de él. Se ignoraban muchas cosas sobre los principios físicos subyacentes, no tenía aplicaciones viables y encontró todo tipo de obstáculos políticos y empresariales, a pesar de lo cual se ha vuelto socialmente imprescindible en los últimos cincuenta años.
1915
N N A M T T E B S I B R O C
EL LUSITANIA es hundido por un submarino alemán, lo que refuerza las sospechas de que los alemanes usan telegráfonos para grabar mensajes transmitidos a frecuencias inaudibles.
1900
N N A M T T E B S I B R O C / I P U
46
FRANCISCO JOSE, emperador de Austria, graba su voz durante su visita a la Exposición Universal de París, donde el telegráfono causa sensación.
S C I T E N G A M C E T M E
1928 FRITZ PFLEUMER, químico austríaco, inventa un aparato que registra el sonido sobre una cinta ligera cubierta de partículas magnéticas.
TEMAS 36
N A C I R E M A C I F I T N E I C S
Las primeras memorias magnéticas
H
ace muchísimo tiempo que se sabe que ciertos materiales “recuerdan” la dirección en que fueron imantados. Los magos de la corte del emperador de China ya hacían brú julas con imanes naturales en el siglo II a.C. Al descubrirse en el XIX la relación entre electricidad y magnetismo fue cuando los imanes pasaron a tener un papel destacado en inventos como el telégrafo y el teléfono, los generadores eléctricos, los transformadores y los motores. Y a finales de
S E V I H C R A X E P M A
ese mismo siglo se grabó la voz hu- ta fue invariablemente negativa. Un mana sobre un material magnético examinador de patentes norteamemediante un aparato llamado telegrá- ricano escribió que el telegráfono no fono, patentado en 1898 por el inge- funcionaría porque contradecía “todas niero danés Valdemar Poulsen. las leyes conocidas del magnetismo”. Poulsen trabajaba para la Com- Está claro que no todas las leyes del pañía Telefónica danesa y pensó que magnetismo se conocían por aquella a la gente le gustaría grabar mensa- época, pues el invento de Poulsen sí jes telefónicos. Mostró a sus amigos funcionaba. El aparato se exhibió con los rudimentos de su invento median- éxito por toda Europa, causando sente un cable de acero tenso que atra- sación en la Exposición Universal vesaba su laborato rio . Dis puso un celebrada en París en 1900. Entre los micrófono telefónico conectado a un que lo probaron se hallaba el emelectroimán y deslizó el electroimán perador Francisco José de Austria, a por el cable mientras hablaba ante quien se debe la grabación magnética el micrófono. El micrófono convertía más antigua que se conoce. la voz en una señal eléctrica, que el Poulsen no fue indudablemente el electroimán transformaba en un cam- primero que grabó y reprodujo la voz po magnético que variaba con el tim- humana. Hacía más de veinte años bre y el tono de la voz. Este campo que Thomas Edison había patentado magnético variable quedaba grabado el fonógrafo, que grababa los sonidos sobre el acero. en forma de surcos sobre una lámina Una vez finalizado el cable, Poulsen de estaño enrollada en un cilindro; volvía a su inicio y sustituía el micró- luego se usarían cilindros de cera y fono por un auricular. Una nueva pa- más tarde discos de plástico. El fonósada del electroimán por el cable per- grafo era ya un producto consolidado mitía que el aparato funcionase a la cuando Poulsen presentó en público inversa. La inducción electromagnéti- su invento, pero éste tenía ciertas ca hacía que el campo magnético gra- ventajas técnicas sobre aquél. En un bado en el cable fuese convertido por artículo aparecido en Scientific Ameel electroimán en una señal eléctrica, rican en 1900 se afirmaba que el teque el auricular transformaba en so- legráfono producía un sonido “muy nido, permitiendo que la voz del inven- claro y completamente libre de los tor volviese a oírse débilmente. desagradables ruidos que se suelen Poulsen perfeccionó su invento oír en el fonógrafo”. Pero habría de (enrollando el cable en torno a un ci- pasar medio siglo antes de que la gr alindro, entre otras cosas) y solicitó pa- bación magnética se volviese de aplitentes en varios países. La respues- cación general.
1933
N N A M T T E B S I B R O C / I P U
ADOLF HITLER se convierte en canciller de Alemania. La Gestapo adquiere muchas grabadoras magnéticas para su uso en interrogatorios.
AÑOS TREINTA EL BLATTNERPHONE es el sistema de grabación magnética que utiliza la BBC para retransmitir programas grabados. Se necesitan dos personas para cambiar un rollo de cinta de acero.
LA INFORMACIÓN
1936 LA ORQUESTA FILARMONICA DE LONDRES graba un concierto en Ludwigshafen (Alemania). La grabación, que todavía se conserva, se hace con un magnetofón equipado con una cinta de plástico recubierta de óxido de hierro.
S C I T E N G A M C E T M E
47
sonido en electricidad y luego en un constaba en realidad de una rápida ué fue lo que impidió el desarro- campo magnético no presentaba gran- sucesión de caracteres en código llo de un invento tan prome- des secretos, gracias a la experien- Morse cuando se reproducía a menor tedor? Los historiadores le echan la cia que se tenía del teléfono, pero no velocidad. culpa a una combinación de factores se podía decir lo mismo del mecaEl gobierno norteamericano conempresariales y técnicos. La Ame- nismo que permitiese registrar la his- fiscó la estación de Tuckerton en 1914 rican Telephone & Telegraph Com- toria de tal campo magnético en un y la de Sayville poco después, tras el pany (AT&T) se opuso inicialmente medio estable, como lo es un cable d e hundimiento del transatlántico brial telegráfono, al estimar que el volu- acero. Otro problema que había era tánico Lu sita ni a en las costas de men de negocio disminuiría en un el bajo volumen con el que se repro- Irlanda por un submarino. La Armada tercio si los clientes pensaban que se ducía el sonido grabado. estadounidense había adquirido 14 tepodían grabar sus conversaciones. Pero el mayor problema de Ameri- legráfonos, que no acabaron de funcioLa revista Technical World publicó can Telegraphone no era de carácter nar. Se formularon cargos de traición en 1906 un artículo titulado “El tes- técnico. Algunos de los escasos tele- contra American Telegraphone, que timonio de un cable de acero”, en el gráfonos vendidos se instalaron en las además padecía una pésima gestión que dos hombres de negocios de fic- estaciones de radio de Tuckerton (Nue- y no había conseguido vender más ción, Jones y Brown, discutían sobre va Jersey) y Sayville (Nueva York), que unas cien máquinas de dictado. el contenido de una conversación tele- operadas por la empresa alemana Te- La empresa se declaró en quiebra y fónica que habían mantenido. En lefunken y por una compañía esta- el desarrollo comercial de la grabación medio de la discusión, Jones sacaba dounidense con participación ale- magnética se estancó durante dos deun carrete de hilo de acero que inser- mana, respectivamente. La Armada cenios en los Estados Unidos. taba en el telegráfono y demostraba alemana había dotado también a sus La situación en Europa que Brown no tenía razón. submarinos de telegráfonos. Debido al temor a la pérdida de Al estallar la Primera Guerra Muna grabación magnética tuvo meintimidad, la primera patente de gra- dial cundió la sospecha de que estas jor suerte en Europa. En los años bación magnética concedida en los emisoras transmitían información veinte se solucionó el problema del Estados Unidos concierne a las má- militar a los submarinos alemanes volumen de reproducción mediante el quinas de dictado que fabricaba la que operaban en el Atlántico. Una de uso de amplificadores electrónicos. Ame ric an Telegr aphone Company, las acusaciones era que se usaban El inventor alemán Kurt Stille confundada en 1903. Pero los sistemas telegráfonos para grabar mensajes siguió alargar el tiempo de grabación fonográficos de la competencia, co- secretos, que luego se transmitían modificando los telegráfonos. Stille mo el edífono y el dictáfono, les lle- por radio a una velocidad que los (que en alemán significa, irónicamen vaban veinte años de ventaja y eran hacía inaudibles. La señal de radio te, “silencio”) solía acabar sus conmás baratos, más fiables y de uso más era grabada por el telegráfono del ferencias sacando del bolsillo un cisencillo. submarino y reproducida a la velo- lindro de acero de 20 centímetros de El desarrollo del telegráfono tro- cidad de audición. Las sospechas largo y afirmando que podía grabar pezó también con la deficiente com- aumentaron cuando un radioaficio- en él una sinfonía entera. prensión de los principios físicos en nado de Nueva Jersey descubrió que Una de las compañías que trabajaque se basaba. La conversión del el zumbido que captaba por las noches ron con licencia de Stille fue la Ludwig Inicios titubeantes
¿Q
L
1947 BING CROSBY emite el primer programa de radio grabado que alcanza grandes audiencias en los Estados Unidos.
1952 MEMORIA DE NUCLEOS del ordenador Whirlwind I, capaz de almacenar 256 bits de información.
N O I T A R O P R O C M B I
AÑOS CINCUENTA
N N A M T T E B S I B R O C / I P U
48
S E V I H C R A N O I T A R O P R O C E R T I M
EL DISCO DURO es comercializado por IBM en 1957 para almacenar magnéticamente la información de los ordenadores. La imagen abarca un conjunto de 50 discos que tenía una capacidad total de 56 megabytes.
TEMAS 36
Blattner Picture Company de Gran grabadoras magnéticas a las líneas. Bretaña, que fabricó una grabadora Pero el mercado de las máquinas de magnética llamada Blattnerphone. dictado era muy limitado en AlePensado para el cine sonoro, el apa- mania, donde la crisis económica favorato tuvo en las cada vez más nume- recía la contratación de taquígrafos rosas emisoras de radio su cliente con salarios muy bajos. principal. La BBC (British BroadcasLa empresa Lorenz lanzó al merting Company) lo adoptó en 1931 para cado su propia versión del aparato de reemitir programas, utilizarlo en los Stille en 1933. Fue el año en que Hitensayos y conservar las retransmi- ler se hizo con el poder y la Gestapo siones más importantes. adquirió gran cantidad de tales apaEl Blattnerphone era una máquina ratos para grabar interrogatorios y imponente por sus dimensiones (me- conversaciones telefónicas. Lorenz tro y medio de alto, otro tanto de an- desarrolló también una grabadora de cho y más de medio metro de fondo) cinta de acero para la Radio Nacional y por su peso, cercano a la tonelada. Alemana, que, como la BBC, empezaGrababa sobre una cinta de acero de ba a retransmitir programas grabatres milímetros de ancho, que cru- dos magnéticamente. Al otro lado del zaba los cabezales a una velocidad de Atlántic o, las emi sor as estadoun iun metro por segundo. Una grabación denses seguían emitiendo tan sólo de media hora requería un kilómetro programas en directo. y medio de cinta. Las primeras grabadoras magnéPero la máquina tenía sus venta- ticas se impusieron en Europa a pesar jas. Mientras que la modificación de de que presentaban un serio inconlos registros fonográficos exigía una veniente: precisaban larguísimas cinnueva grabación, aquí se podía cor- tas de pesado acero. Hoy sabemos que tar y soldar la cinta con cierta facili- el acero no es el mejor medio para gradad. Pese a que las soldaduras se bar. La técnica de grabación magrompían con frecuencia creando situa- nética dio un paso decisivo en 1927 ciones de peligro, la máquina fun- gracias al químico austríaco Fritz cionaba satisfactoriamente y se siguió Pfleumer, quien puso a punto una usando en varios países hasta 1945. cinta de papel cubierta de una capa Stille y sus colaboradores habían de partículas magnéticas. Tal posidiseñado y comercializado en Alema- bilidad ya la había indicado el ingenia en 1925 un aparato que combi- niero americano Oberlin Smith, en un naba una máquina de dictado y una artículo aparecido en 1888, artículo grabadora telefónica. A diferencia de en el que se proponía también la gra AT&T, varias compañías de teléfono bación magnética. Pero sus ideas no europeas autorizaron la conexión de cuajaron, lo que convirtió a Poulsen
E I T S I R H C N A Y R B
ELECTROIMAN
BOBINA ATRAVESADA POR UNA SEÑAL AGNETICA
MEDIO AGNETI O
CAMPO MAGNETICO REGISTRAD
LA GRABACION MAGNETICA permite almacenar datos informáticos, de audio y de vídeo. La información se convierte primero en una señal eléctrica, que pasa a través de la bobina de un electroimán. El campo magnético variable resultante (en rojo ) es registrado sobre un medio magnético que se mueve respecto al electroimán. Si la señal eléctrica es una onda sinusoidal, la magnetización tendrá también cierto aspecto sinusoidal.
1959
S E V I H C R A X E L P M A
SURGE UNA DISCUSION inesperada entre Nikita Khruschev, primer ministro soviético, y Richard Nixon durante su visita a una exposición de electrodomésticos en Moscú. El incidente quedará grabado en vídeo y se hará famoso con el nombre de “debate de la cocina”.
)
1956 VR-1000, el prototipo del primer reproductor de vídeo comercial, en el momento de su presentación por Ampex. El aparato, grande y complejo, usaba una cinta de 5 cm de ancho.
LA INFORMACIÓN
N O I T A R T S I N I M D A S D R O C E R D N A S E V I H C R A L A N O I T A N
s a t n i c
( S O T O ; ) H e t P e s E V a I c H o i C d R u a ( A / S S O E T V I O H H C P R E A V I K H N C A R L A B
1963 LA CASETE COMPACTA es introducida por Philips. Le seguirán la cinta de ocho pistas y la microcasete.
49
en el inventor del primer sistema de grabación magnética. Pfleumer había desarrollado una técnica para fabricar papel dorado (utilizado en las boquillas de los cigarrillos) dispersando pequeñas partículas de bronce en pegamento y aplicando la mezcla sobre una hoja de papel. Al darse cuenta de que podía utilizar el mismo procedimiento para cubrir una tira de papel con partículas de acero, en 1928 fabricó una grabadora magnética que las utilizaba. El aparato tenía un mecanismo de arrastre simplificado que conducía la nueva cinta, mucho más ligera, a través de un nuevo tipo de cabezal magnético. El invento era tan prometedor que en 1932 la firma eléctrica AEG compró todas las patentes de Pfleumer. AEG colaboró con el consorcio químico I. G. Farben (hoy BASF) en la investigación de las distintas clases de partículas magnéticas con las que se podían cubrir varios tipos de cinta. Los mejores resultados se obtuvieron al aplicar una capa de óxido de hierro sobre una cinta de plástico. Estas investigaciones desembocaron en el “Magnetophon”, que fue presentado al público en 1935 con motivo de la Exposición de Radio de Berlín. En noviembre de 1936 se grabó en magnetofón un concierto de la Orquesta Filarmónica de Londres en
Ludwigshafen (Alemania), grabación tema alemán. Los aliados no descuque aún se conserva. Gracias a la po- brieron el magnetófono hasta los últilarización por corriente alterna, que mos meses de la guerra en Europa. mejora la calidad del sonido super- Cuando las tropas estadounidenses poniendo a la grabación una señal ocuparon los estudios de Radio eléctrica de alta frecuencia, el mag- Luxemburgo hallaron un magnetónetófono desplazó a todos sus riva- fono que contenía una de las últimas les. Este aparato es el antecesor arengas de Hitler, grabada sobre un directo de la moderna grabadora mag- versión mejorada de las cintas de nética. Pfleumer. Algunos de los aparatos Ante tales éxitos foráneos, AT&T confiscados fueron enviados a los se decidió a investigar la grabación Estados Unidos, donde contribuyemagnética. Aunque todavía tardaría ron al auge de la grabación magnéen lanzar un producto al mercado, tica durante la posguerra. estas investigaciones le permitieron Uno de los militares que se habían fabricar grabadoras magnéticas para hecho con un magnetófono era Jack el ejército norteamericano durante Mullin, quien se lo mostró a Bing la Segunda Guerra Mundial, con la Crosby en 1947. El popular c antante colaboración de empresas como la hacía un programa para la cadena Brush Development Corporation (que NBC, pero no le gustaban las limicontaba con Semi Begun, un inge- taciones del directo. Como la NBC no niero que había trabajado con Stille emitía programas grabados, Crosby antes de abandonar la Alemania nazi se pasó a la ABC, pero las grabacioen 1935), la Armour Research Foun- nes sobre discos fonográficos de 33 1 / 3 dation (con la participación del inge- r.p.m. dejaban mucho que desear. niero norteamericano Marvin Cam- Crosby quedó prendado del magneras) y General Electric, licenciataria tófono y su programa se convirtió en de Armour. Estas compañías fabri- el primero grabado que alcanzó grancaron miles de grabadoras magnéti- des audiencias en los Estados Unidos. cas para el ejército, con las que se registraron mensajes en barcos, avio- Los Estados Unidos recuperan terreno nes y campos de batalla. ullin utilizó los aparatos y las Los especialistas británicos y estadounidenses que espiaban las transcintas que había obtenido en misiones nazis se daban cuenta, sin Al emania dura nte mucho tiempo . embargo, de la superioridad del sis- Pero la compañía Ampex sacó al mer-
M
1974
N N A M T T E B S I B R O C / I P U
RICHARD NIXON dimite como presidente de los Estados Unidos cuando unas cintas grabadas en el Despacho Oval revelan su participación en el escándalo Watergate.
L A N O I T A N R E T N I G P F / Y B L I H P L A N O D
50
1971 EL DISCO FLEXIBLE de ocho pulgadas hace su aparición. Le seguirán los de 5,25 pulgadas (izquierda ) y 3,5 pulgadas.
1991 LA BRUTALIDAD POLICIAL norteamericana queda al descubierto con la difusión del vídeo que muestra el apaleamiento de Rodney King.
5 L E N N A H C A L T K
1998 MONICA LEWINSKY protagoniza un nuevo escándalo presidencial, del que se conocen muchos detalles gracias a la grabación de conversaciones telefónicas.
A P I S / O N E D E C N E K
TEMAS 36
cado una versión mejorada del magnetófono en 1948 y pronto hubo diversos competidores. Firmas como 3M desarrollaban entre tanto nuevas cintas. Las cintas tardaron pocos años en desplazar a los cables de acero como soporte de grabación y los programas de radio grabados se hicieron cada vez más habituales. La facilidad con que se podían montar las grabaciones hizo que se introdujeran innovaciones, como la combinación de varias tomas de la misma canción para obtener una versión aceptable, el acompañamiento con murmullos de la audiencia o la supresión de sonidos indeseables, como la tos de Crosby tras decir “Si le gusta fumar”, en un anuncio de cigarrillos. Camras fue uno de los promotores de la banda sonora magnética en las películas. Desde la aparición del cine sonoro se usaba un sistema óptico que convertía el sonido en una señal luminosa de intensidad variable, que se registraba en la película. La grabación magnética simplificaba enormemente el montaje de diálogos, música y efectos sonoros, por lo que la técnica se impuso rápidamente. El sonido de la mayoría de las producciones de Hollywood se grababa magnéticamente en 1951, aunque muchas de las copias distribuidas tuviesen bandas sonoras ópticas. También la televisión, que en 1949 ya consumía más película que Hollywood, adoptó rápidamente el sonido magnético en los años de posguerra. Es más, se vislumbraban técnicas gemelas ideales para la televisión, la grabación magnética de imágenes o vídeo. Pero antes tenía que superarse un gran obstáculo. Las grabaciones de audio requieren la reproducción de señales de frecuencia inferior a 20.000 ciclos por segundo, que es la máxima frecuencia perceptible por el oído humano. Las señales de vídeo, en cambio, tienen que transmitir muchos más datos. Para crear la ilusión de un movimiento continuo, la televisión norteamericana utiliza 30 imágenes por segundo (en la mayor parte de Europa y del resto del mundo se usan 25), cada una de las cuales contiene centenares de líneas horizontales que constan a su vez de centenares de puntos. En lugar de acelerar la velocidad de la cinta, los ingenieros de vídeo montaron ingeniosamente un cabezal rotatorio que permitía aumentar el movimiento relativo entre el cabezal y la cinta. Gracias a este mecanismo, Ampex presentó el primer vídeo comercial en 1956. Las emisi ones grabadas son tan comunes en la LA INFORMACIÓN
televisión actual que los pocos programas que se emiten en directo sacan el máximo partido de ello. Pero la influencia de la Segunda Guerra Mundial sobre la grabación magnética fue mucho más allá de sus usos en los espectáculos y las comunicaciones. El esfuerzo de guerra americano aceleró el desarrollo de los ordenadores electrónicos digitales. Una de estas máquinas, el Whirlwind I, creada en el Instituto de Tecnología de Massachusetts en los años cuarenta y cincuenta, tenía una “memoria de núcleos” formada por un enrejado de imanes de ferrita. Estos imanes, de forma toroidal, podían ser magnetizados en sentido horario o antihorario, representando un cero o un uno del sistema binario. Otras memorias magnéticas de ordenador han utilizado las cintas (como el UNI VAC 1, el primer ordenad or comercializado en los Estados Unidos, que las usaba en su memoria auxiliar), tambores (cilindros magnetizados con bandas alrededor de su circunferencia) y discos (tanto duros como blandos). Los circuitos integrados sustituyeron a las memorias de núcleos en los años setenta, pero los discos duros magnéticos continúan siendo la principal forma de almacenamiento de la información en un ordenador. Su capacidad ha aumentado considerablemente en los últimos años. Las capas superficiales de partículas de óxido de hierro han cedido el paso a finas películas de aleaciones ricas en cobalto, que son más magnéticas que los óxidos. Para leer los discos ya no se usa la inducción electromagnética, sino la magnetorresistencia, que detecta el campo magnético de un disco a través de la variación en la resistencia eléctrica de la cabeza lectora. Por todo ello, a pesar de la competencia creciente de sistemas ópticos basados en el láser, como el CD-ROM, la grabación magnética (que incluye un híbrido denominado grabación magnetoóptica) es aún la técnica más importante de almacenamiento de información electrónica. Desde los años cincuenta no han dejado de aparecer nuevos productos de consumo que utilizan la grabación magnética. En 1963 Philips presentó la casete de audio compacta, cuyas ventas superarían a las de los discos de vinilo en una veintena de años. El vídeo doméstico apareció en los años setenta y muchas películas han recaudado más a través del alquiler de vídeos que en las salas de proyección. Las ventas de cámaras de vídeo (un
producto de los ochenta) y el uso de la codificación magnética en tarjetas de crédito y de identificación han crecido espectacularmente. Son muchos los hogares que disponen actualmente de contestadores telefónicos automáticos, precisamente el propósito que motivó la invención de Poulsen hace cien años. Grabar o no grabar
L
a posibilidad de que se graben actuaciones y conversaciones sin que sus protagonistas se den cuenta plantea, sin embargo, problemas éticos. Para bien o para mal, la memoria de un conjunto de partículas magnéticas es mucho más objetiva y fiable que la del cerebro humano, que depende de un mecanismo electroquímico subjetivo y a veces errático. Desde el punto de vista ético, toda grabación debería equidistar entre la búsqueda de la verdad y el derecho a la intimidad. Si bien se ha cuestionado el uso de cámaras o de grabadoras ocultas, no es menos cierto que las imágenes de vídeo con el apaleamiento de Rodney King destaparon el tema de la brutalidad policial en los Estados Unidos. Las cámaras de vídeo han revelado también abusos realizados en hospitales. El equipamiento de vídeo de las instituciones bancarias y las grabaciones autorizadas por el juez han contribuido a la resolución de muchas causas, mientras que las grabaciones contenidas en las cajas negras han permitido esclarecer las causas de numerosos accidentes de aviación. Puede decirse que el invento de Poulsen ha hecho más bien que mal en términos generales. El uso de materiales magnéticos para almacenar datos, imágenes y sonido es una técnica imprescindible para nuestra sociedad. Poulsen no pudo imaginar hace un siglo las consecuencias que traería su invención. Hoy necesitaríamos una grabación magnética para recordarlas.
BIBLIOGRAFIA COMPLEMENTARIA MAGNETIC RECORDING . S. J. Begun. Murray Hill Books, 1949. MAGNETIC RECORDING HANDBOOK. Marvin Camras. Van Nostrand Reinhold, 1988. M AGNETIC RECORDING : THE FIRST 100 Y EARS . Dirigido por Eric D. Daniel, C. Denis Mee y Mark H. Clark. IEEE Press, 1999.
51
¿Son perdurables los documentos digitales? La sustitución del papel por el soporte digital ha creado una profunda revolución en el mundo del registro de documentos. Pero los archivos digitales pueden perderse, si no se actúa de inmediato Jeff Rothenberg
A
ño 2054. Mis nietos (que no han nacido aún) están explorando el desván de mi casa (que no he comprado todavía). Descubren una carta fechada en 2004 y un CDROM. La carta dice que el disco contiene un documento en el que se da la clave para heredar mi fortuna (que no he ganado aún). Mis nietos sienten viva curiosidad, pero jamás han visto un disco compacto, salvo en vie jas películas. Aun cuando localizaran un lector de discos adecuado, ¿cómo lograrían hacer funcionar los programas necesarios para la interpretación del contenido? ¿Cómo podrían leer mi anticuado documento digital? La fabulilla pone sobre la mesa ciertos problemas que entrañan los documentos digitales. De no ser por la carta explicativa, mis nietos no tendrían motivos para pensar que mereciera la pena descifrar el disco. La carta posee la envidiable propiedad de ser legible sin máquinas, instrumentos o conocimientos especiales, aparte del propio idioma. Debido a que la información digital puede copiarse y recopiarse a la perfección, se alaba a menudo su incuestionada longevidad. Pero la verdad es otra. Dado el carácter mudable de programas y circuitería, dentro de 50 años lo único directamente inteligible será la carta. El progreso de la técnica asociada a la información está revolucionando nuestra concepción sobre el archivo de documentos. Y lo hace de forma tan arrolladora como operó la introducción de la imprenta, por no decir la propia escritura. La presente generación de registros electrónicos posee una importancia histórica excepcional. Sin embargo, estos documentos son mucho más frágiles que el papel, quedando en peligro por ello toda la crónica de nuestro tiempo. 52
Mi preocupación no carece de fundamento. Han sido varias las veces que ha podido producirse una catástrofe. Un informe de 1990 de la Cámara de Representantes de los EE.UU. refiere cómo se salvó por los pelos el censo de 1960. Los datos científicos corren riesgos parecidos, al ir envejeciendo y perderse en el olvido los registros irreemplazables de numerosos experimentos realizados por la NASA y otras organizaciones. De aquí a la eternidad
L
a información digital, en teoría invulnerable a los embates del tiempo, se almacena en medios materiales que distan mucho de ser eternos. Si el CD de mi desván fuese magnético en lugar de óptico, probablemente resultaría vano el empeño en leerlo. Los campos magnéticos parásitos, la oxidación y la degradación de los materiales borran esos discos. El contenido de casi todos los soportes digitales se esfuma mucho antes que las palabras escritas en papel de calidad. Es frecuente que resulten inutilizables mucho antes, al sustituirlos por formatos nuevos e incompatibles. ¿Quién recuerda los discos flexibles de ocho pulgadas? Empero, ni la fragilidad física de los medios digitales, ni su suicida tendencia a quedar anticuados constituye el peor de los problemas de mis nietos. Mis descendientes no sólo tendrán que extraer el contenido del disco, sino interpretarlo correctamente. Para comprender la dificultad en que se encuentran resulta necesario examinar la naturaleza del almacenamiento digital de información, que puede realizarse sobre cualquier medio capaz de representar los dígitos binarios (“bits”) 0 y 1. Se denomina “corriente binaria” a cualquier
sucesión de bits deliberadamente construida, sin espacios intermedios, puntuación o formato. La recuperación de una corriente binaria requiere dispositivos físicos y circuitos especiales aptos para leer la representación física de los bits en el medio donde están registrados; por ejemplo, un lector de discos. Para acceder al dispositivo desde un determinado ordenador se necesita también un programa controlador (“dri ver”). Y después de recuperado el flujo binario, se requiere interpretarlo. Dicha tarea no es nada fácil, porque una corriente binaria puede representar casi lo que se quiera, desde una sucesión de números enteros hasta la disposición de los puntos en una imagen de estilo puntillista. Además, la inter pretación de una corriente binaria pasa por la comprensión de su estructura implícita, que no cabe representar explícitamente en la corriente. Una corriente binaria que represente una sucesión de caracteres alfabéticos puede consistir en tramos de longitud fija (“bytes”), cada uno de los cuales es representación codificada de un solo carácter. Por ejemplo, en uno de los sistemas en uso, los ocho bits 01110001 denotan la letra q. Para extraer bytes de la corriente binaria y descomponerla “morfológicamente” en sus constituyentes, hace falta conocer la longitud de byte. Para aportar esa longitud de byte podemos codificar una “clave” al principio de la corriente binaria. Pero también esta clave ha de estar representada por un byte de cierta longitud. Por consiguiente, un lector necesita otra clave para comprender la primera. La solución de este problema recursivo recibe en la jerga informática el nombre de “bootstrap” (que podríamos traducir aquí por “autoTEMAS 36
lanzamiento”). En este caso, el propio sistema de lanzamiento ha de suministrar cierto contexto, legible por las personas, que explique la forma de interpretar el medio de almacenamiento digital. En la fábula familiar, cumple ese papel la carta que acompaña al disco. Descompuesta correctamente la corriente binaria, hay que afrontar otro problema recursivo. En un código cualquiera, un byte puede representar, por ejemplo, un número o un carácter alfabético. Para interpretar tales bytes necesitamos conocer el sistema de codificación. Pero si tratamos de averiguar dicho sistema insertando un identificador de código en la propia serie binaria, necesita-
remos otro identificador de código para interpretar al primero. Lo mismo que antes, un contexto legible por personas tiene que servir para el lanzamiento. Hay otro aspecto más problemático: las corrientes binarias pueden contener información compleja, rica en referencias cruzadas. La corriente suele almacenarse en forma de un fichero o colección de bits que contienen elementos lógicamente relacionados, pero físicamente separados. Dichos elementos se concatenan mediante referencias internas, consistentes en señalizadores de otros elementos o en patrones de concordancia. (Los documentos impresos exhiben sistemas parecidos; en ellos,
la numeración de las páginas sirve de señalizador.) Interpretación de una corriente binaria
I
maginemos que mis nietos consiguen leer la corriente de bits del CD-ROM. Tendrán que afrontar entonces la verdadera dificultad: interpretar la información inmersa en la corriente binaria. En la mayoría de los archivos, la información que contienen tiene sólo significado para las aplicaciones con que se crearon. Los ficheros de tratamiento de textos incluyen instrucciones de formato, que describen la tipografía, organización del escrito y paginación (títulos, capítulos, etc.). Los archivos
G R E B N E H T O R F F E J
1. LOS MEDIOS DIGITALES se quedan anticuados rápidamente. Los de la fotografía no han logrado mantenerse legibles durante la centésima parte del tiempo que lo ha sido la Piedra Rosetta. El texto en griego clásico grabado en la piedra, descubierta en 1799 por una compañía de zapadores del ejército francés, permitió en-
LA INFORMACIÓN
tender las escrituras jeroglífica y demótica de los antiguos egipcios. Además de ser legible al cabo de 22 siglos, la Piedra Rosetta (la de la fotografía es una copia) debe su preservación al impacto visual de su contenido, atributo del que carecen los medios digitales.
53
correspondientes a hojas de cálculo llevan incorporadas las fórmulas con que se relacionan sus casillas. Los archivos de los “hipermedios” portan información que identifica y concatena textos, gráficos, sonido y datos temporales. Por conveniencia, denominaremos codificación del archivo de un documento a tal información subyacente, incluidos todos los restantes aspectos de la representación de una corriente binaria, entre ellos, longitud de byte, código de caracteres y estructura. Tales archivos son, esencialmente, programas: instrucciones y datos que sólo pueden interpretarlos soportes lógicos adecuados. Un archivo no constituye por derecho propio un documento: es, simplemente, la descripción de un documento, el cual adquiere existencia cuando el archivo interpreta el programa que lo produjo. Sin este programa (o un soporte lógico equivalente), el documento es críptico rehén de su propia codificación. La decodificación por tanteo no es imposible cuando el documento consiste en mera secuencia de caracteres. Pero si se trata de un documento complejo, resulta inverosímil que un ataque a lo bruto tenga é xito. El significado de un archivo no es algo inherente a los bits que lo componen, como el de esta frase no lo es a las palabras que la forman. Para compren-
der un documento cualquiera, hemos de entender qué significa su contexto en el lenguaje del lector al que está dirigido. Desdichadamente, el destinatario del archivo de un documento es un programa. Resulta imposible la lectura de documentos como las presentaciones multimediáticas sin disponer de los programas adecuados; a diferencia de las palabras impresas, no basta con “acercarlas a la luz.” ¿Es necesario utilizar el programa específico con el que fue creado un documento? En ciertos casos, soportes lógicos similares pueden lograr la decodificación, al menos parcial, de un archivo. Pero no hemos de caer en la ingenuidad de pensar que la codificación de un documento cualquiera —por natural que nos parezca— seguirá siendo legible durante mucho tiempo por otros programas. La técnica está creando sin cesar nuevos esquemas, que dejan abandonados a sus predecesores, en vez de subsumirlos. El tratamiento de textos nos ofrece un buen ejemplo de este fenómeno. La mayoría de los programas al efecto permiten al usuario guardar su trabajo en forma de texto simple, utilizando el actual código ASCII (“American Standard Code for Information Interchange”, código estándar americano para intercambio de información), que es un código d e siete bits. Tales textos serían relativamente
SOPORTE
OBSOLESCENCIA
5 AÑOS 1 AÑO
DURACION FISICA
CINTA MAGNETICA 5 AÑOS DE 1 A 2 AÑOS CINTA DE VIDEO 5 AÑOS DE 5 A 10 AÑOS DISCO MAGNETICO
G N I N N E R B A N A J
10 AÑOS 30 AÑOS DISCO OPTICO
0
4
8
12
16
20
24
28
2. ESPERANZA DE VIDA de diversos medios de almacenamiento digital de uso común, estimada por lo bajo, para garantizar que no se pierda ningún dato. (Las cintas analógicas, como las utilizadas para registros de audio, pueden reproducirse durante muchos años, porque las señales grabadas, mucho más robustas, tardan más en degradarse.) El tiempo estimado para el envejecimiento de cada medio se refiere a un formato de registro particular.
54
fáciles de decodificar en el futuro si el ASCII de siete bits siguiera siendo el estándar preferido para textos. Pero ASCII no es el único código de uso generalizado para texto y, por otra parte, existen propuestas de ampliarlo a un código de 16 bits (para dar cabida a alfabetos distintos del inglés). Los lectores del futuro podrían verse incapaces, por tanto, de adivinar el estándar de texto correcto. Para complicar las cosas, los escritores rara vez guardan su trabajo en forma de texto puro. Como Avra Michelson y el autor hicieron notar en 1992, los escritores acostumbran dar formato a su trabajo en el inicio del proceso de escritura y añaden figuras y notas al pie con el fin de que sus originales resulten más legibles y completos. Si entendemos que “leer” un documento consiste meramente en extraer su contenido, sin conservación de su forma primitiva, es posible que no necesitemos recurrir al programa original. Pero el contenido puede perderse de muchas maneras sutiles. Por ejemplo, en tratamiento de textos, la traducción de los formatos provoca a menudo el desplazamiento o la eliminación de encabezamientos, epígrafes y notas al pie. ¿Se trata sólo de una pérdida de estructura, o resulta afectado el contenido? Si transformamos una hoja de cálculo en una tabla, eliminando las fórmulas que relacionan entre sí las casillas de la tabla, ¿queda alterado el contenido? Supongamos que el CD de mi desván contiene un mapa del tesoro, definido por los motivos visuales creados por el espaciado entre palabras y las líneas de mi versión digital original de este artículo. Dado que esos moti vos y siluetas son artefactos de los algoritmos de formato de mi programa, únicamente serán apreciables cuando se examine la versión digital mediante mi programa original. Si necesitamos ver un documento con el mismo aspecto que lo concibió su autor, no hay más opción que recurrir al paquete de programas utilizado para generarlo. ¿Con qué probabilidades contarán mis nietos de hallar esos programas dentro de cincuenta años? Aunque yo incluyera en el CD una copia del programa, todavía tendrían que dar con el sistema operativo que permite al programa funcionar en determinado ordenador. Almacenar en el disco una copia del sistema operativo podría servirles de ayuda, pero el equipo informático necesario para hacerlo funcionar habría quedado fuera de servicio desde hacía mucho tiempo. TEMAS 36
¿Qué clase de “Piedra Rosetta” digital podría dejarles yo, que les proporcionase la clave para comprender el contenido del disco?
eliminando así la necesidad de recurrir a programas anticuados. Los proponentes de este método ofrecen como ejemplo paradigmático la base de datos relacional, introduMigraciones de bits cida en los años setenta por ara impedir que se pierE. F. Codd. Dicha base de dan los documentos digidatos consiste en tablas que tales, hemos de empezar prerepresentan relaciones entre servando sus corrientes binaentidades. Una base de datos rias. Lo cual significa copiar de empleados podría contener los bits sobre soportes de nueuna tabla dotada de colum vos tipos, y así garantizar su nas para los nombres de los accesibilidad. El método se trabajadores y de los deparasemeja al de la conservatamentos a que pertenecen. ción de textos, que es preciso Una segunda tabla de la base transcribir periódicamente. de datos podría listar en la Ambas actividades exigen un primera columna los nombres esfuerzo incesante; el acceso de los departamentos, los futuro se funda en una catamaños de los mismos en la dena ininterrumpida y fresegunda, y el nombre del jefe cuente de migraciones, que de departamento en la terimpida que el soporte se vuelcera. El modelo relacional va físicamente ilegible o antidefine un conjunto de operacuado antes de copiarse. Una ciones formales que posibisimple rotura de esta cadelitan la combinación de las na torna inaccesible la inforrelaciones entre tablas: por mación digital, salvo a costa ejemplo, hallar el nombre del de esfuerzos heroicos. Dada jefe de departamento de cierto la actual falta de permanenempleado. cia de los soportes y la veloPuesto que todos los sistecidad con que evolucionan 3. FRAGMENTO SOBRE EL GUAYACAN de La Historia Medicinal mas de bases de datos relasus formas, tal migración de las cosas que se traen de nuestras Indias Occidentales, que cionales llevan a la práctica puede resultar necesaria ca- sirven en Medicina , de Nicolás Monardes, en su edición de 1580. este mismo modelo subyacenda pocos años. Estimaciones Sirve de ejemplo para indicar la longevidad de los libros impre- te, cualquiera de tales bases a la baja sugieren que los sos. El texto es perfectamente legible cuatro siglos después. de datos puede en principio datos retenidos en cinta magser traducida a una forma nética digital deberían cotabular normalizada, aceppiarse una vez al año para garanti- saber qué información ha desapare- table en cualquier otro sistema. Los zar que no haya fugas de información. cido con la pérdida del original. (En archivos representados de esta ma(La capacidad de reproducir cintas casos extremos, la traducción inva- nera podrían ser copiados a nuevos analógicas perdura muchos años, por- lida completamente el contenido: ima- moldes conforme fuera siendo neceque las señales registradas en ellas ginemos la traducción a ciegas de los sario, y el sistema normalizado garanson mucho más robustas y su degra- dos idiomas de un diccionario bilin- tizaría para siempre su legibilidad. dación, más lenta.) güe a un tercer idioma.) RecíprocaEs posible que, a la larga, acabe- mente, al copiar texto en su idioma Fallos de traducción mos desarrollando medios de alma- original (conservación de la corriente ero ese método adolece de dos facenamiento de larga duración, con lo binaria) se garantiza la integridad llos fundamentales. Ante todo, las que la migración resultaría menos absoluta. Desde luego, este método bases de datos relacionales están meapremiante. Por el momento no aso- da por supuesta la conservación del nos normalizadas de lo que parece. man por el horizonte medios de mayor conocimiento del idioma original. Los sistemas comerciales de bases de longevidad. Sin embargo, el costo de Los archiveros han desarrollado datos relacionales se distinguen unos la migración puede terminar impo- dos estrategias análogas para la pre- de otros por ofrecer características que niendo el desarrollo de tales produc- servación de documentos digitales. amplían el modelo relacional en fortos, venciendo nuestro apetito por La primera consiste en traducirlos a mas no estandarizadas. Además, las rendimientos superiores. formas normalizadas que sean inde- limitaciones de tales bases conducen Un texto antiguo puede conservar- pendientes de cualquier equipo infor- a la adopción de nuevos modelos. Las se por traducción a un lenguaje mo- mático. La segunda consiste en pro- tablas de una base de datos relacioderno o por copia en su dialecto ori- longar la longevidad de los equipos nal no traslucen ninguna estructura. ginal. La traducción tiene a su favor informáticos y de sus soportes lógi- Por ejemplo, la base de datos podría que evita la obligación de conservar cos originales, con el fin de conservar no dejar claro a primera vista que el conocimiento del lenguaje origi- legibles los documentos. Ambos méto- una empresa consta de una sede cennal; sin embargo, pocos eruditos ala- dos sufren de graves limitaciones. tral, cinco secciones nacionales, 25 dibarían a sus predecesores por haber A primera vista, se diría preferible visiones y 100 departamentos. Para tomado esta senda. Con la traduc- la traducción de los documentos di- satisfacer ese vacío se han desarroción no sólo se pierde información, gitales a formas normalizadas, que llado diversos modelos de bases de sino que también resulta imposible siguieran siendo legibles en el futuro, datos “dirigidas a objetos” (capaces
P
P
LA INFORMACIÓN
55
Seleccionemos los datos de un extracto de cuenta bancaria FECHA 4/5/94 4/26/94 4/27/94 11/3/94
OPERACION INGRESO EFECTIVO TALON N. o 314 INGRESO EFECTIVO TALON N.o 315
IMPORTE
SALDO
$500.00 $100.00 $50.00 $100.00
$500.00 $400.00 $450.00 $350.00
Eliminemos todos los espacios y signos de puntuación; traduzcamos las fechas a series de seis dígitos (mmddaa), los números de los talones a cuatro cifras; sustituyamos "ingresos" por "0000"; expresemos con 11 dígitos los importes en dólares 04059400000000005000000000050000 04269403140000001000000000040000 04279400000000000500000000045000 11039403150000001000000000035000 Al concatenar las cifras anteriores, se obtiene una corriente de dígitos decimales 04059400000000005000000000050000042694031400000 01000000000040000042794000000000005000000000450 0011039403150000001000000000035000
E C A R G E I R U A L
4. LA COMPRENSION de una corriente de bits exige conocer el formato utilizado para crearla. Si se escribieran unos tras otros todos los números de un extracto de cuenta bancaria, sin nada que distinguiera las referencias de las operaciones, ni las fechas, ni los importes, sería imposible entender la serie de guarismos resultante.
de representar la estructura directamente). Tan rápida evolución no es ni accidental ni indeseable. Constituye, por contra, el marchamo de la técnica asociada a la información. Lejos de representar un ejemplo arquetípico, las bases de datos relacionales son un caso prácticamente único. Ningún otro tipo de documento digital posee una base tan formal para la normalización. Los documentos creados por los procesadores de texto, los programas de grafismo, las hojas de cálculo o los programas hipermediáticos encierran mayor diversidad. La incompatibilidad de los ficheros creados por los procesadores de texto sirve de ejemplo de este problema, que no surgió simplemente porque las compañías se esforzasen en diferenciar sus productos en el mercado. Se trata más bien de una secuela inme-
diata de la tendencia de la técnica a adaptarse a las necesidades que se les van creando a los usuarios. Hasta el momento, ninguna aplicación de uso corriente está lista para constituirse en norma. Carecemos de una comprensión formal y aceptada de los procedimientos con que las personas manipulan información. Por consiguiente, resulta prematuro enumerar las clases más importantes de aplicaciones digitales, y no digamos, circunscribir sus capacidades mediante normas. Sería fútil obligar a los usuarios a aceptar las limitaciones impuestas por tales normas, o imponer que todos los documentos digitales contengan sólo texto, a modo de mínimo común denominador. La revolución informática extrae su impulso precisamente del atractivo de las nue vas posibilidades. La definición de nor-
CLAVE DESEADA BYTES DE DATOS DE 4 BITS DESEADOS, DE 7 BITS (VALOR DE 0111 = 7) CORRIENTE 0 1 1 1 1 1 0 0 0 0 0 0 0 0 1 0 1 0 1 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 1 1 1 0 1 1 1 0 BINARIA: BYTES DE DATOS CLAVE INDESEADA NO DESEADOS, DE 5 BITS (VALOR DE 15 BITS DE 01111 = 15)
E C A R G E I R U A L
5. CLAVE DE CODIFICACION para desvelar la organización de una corriente de bits. En este caso, los cuatro primeros bits representan el entero 7, lo que significa que los bytes restantes tienen cada uno longitud de siete bits. No hay, sin embargo, forma de saber la longitud de la clave de codificación a partir de la corriente de bits propiamente dicha. Si tomáramos como clave los cinco primeros bits, concluiríamos erróneamente que los bytes restantes constaban de 15 bits.
56
mas de larga duración para los documentos digitales podría resultar factible cuando la ciencia informática descanse sobre cimientos más formales, pero tales estándares no ofrecen todavía una solución. La traducción de documentos a sucesivas normas de corta duración ofrece sólo falsas esperanzas. La sucesiva traducción elude la necesidad de una normalización definitiva, pero cada traducción provoca nuevas pérdidas. ¿Tendría el mismo impacto literario una versión moderna de la Ilíada de Homero si se hubiera traducido a través de una serie de lenguajes intermedios, en lugar de hacerlo desde los textos griegos más antiguos que han sobrevivido? En teoría, la traducción de un documento mediante una serie de estándares debería permitir la reconstrucción del documento original. Pero eso exigiría que cada traducción fuese reversible sin pérdida, lo que no suele darse. Finalmente, la traducción adolece de un fallo fatal. A diferencia de nuestro idioma o del griego clásico, cuya semántica y potencia expresiva son poco más o menos equivalentes, los documentos digitales están evolucionando con tal velocidad, que inevitablemente han de producirse desviaciones en la forma de los documentos. Las formas nuevas no siempre subsumen a sus predecesoras ni admiten compatibilidad con formatos anteriores. Los documentos antiguos no siempre pueden traducirse de manera significativa a formas nue vas; con frecuencia, resulta imposible traducir a la inversa un archivo actual y devolverlo a su forma primitiva. En este sentido, muchas bases de datos antiguas, de tipo jerárquico, hubieron de rediseñarse por completo para adaptarlas al modelo relacional, lo mismo que las bases de datos relacionales han experimentado un proceso de reestructuración para acomodarlas a los modelos “objetuales”. Los desplazamientos de este tipo hacen difícil, o incluso carente de sentido, la traducción del documento a nuevas formas normalizadas. La alternativa a la traducción de un documento digital consiste en examinarlo mediante el programa que lo produjo. En principio no sería obligado movernos con el soporte lógico original. Si pudiéramos describir su comportamiento con plena independencia del sistema de computación, las generaciones venideras podrían volver a crear el comportamiento del programa y, por tanto, leer el documento. Pero la ciencia informática no es capaz todavía de describir el TEMAS 36
comportamiento de los soportes lógicos con la profundidad suficiente para que esto funcione, ni es verosímil que lo consiga en un futuro cercano. Para reproducir el comportamiento de un programa no queda hoy más remedio que ejecutarlo. Por esta razón resulta preciso guardar los programas que generan nuestros documentos digitales, así como toda la base informática requerida para hacerlos funcionar. Aunque la tarea es monumental, es teóricamente factible. Los autores suelen incluir un programa de aplicación adecuado y un sistema operativo para facilitar a los destinatarios la lectura de sus documentos digitales. Ciertas aplicaciones y sistemas operativos pueden ser ubicuos; en tal caso, basta que los autores se lo indiquen a sus lectores. En Internet se dispone de programas gratuitos, de dominio público. Además, cuando los programas con propietario quedan anticuados suelen caducar los derechos de “copyright”, quedando a libre disposición de futuros usuarios. ¿Cómo podremos disponer de los equipos materiales en los que ejecutar los programas y bases operativas de sistemas anticuados? Cierto número de museos especializados y de foros de “retrocomputación” se esfuerzan por mantener en funcionamiento ordenadores que hace tiempo quedaron fuera de servicio. A pesar del innegable encanto de este empeño de arqueología informática, el método es, en última instancia, fútil. El costo de la reparación o sustitución de componentes desgastados (y de mantener el saber técnico necesario para esta labor) acabará por pesar más que la demanda hacia cualquier ordenador periclitado. Salvar trocitos de historia
P
or fortuna, los ingenieros de programación pueden preparar programas especiales, llamados emuladores, que remedan el comportamiento de los equipos físicos. Suponiendo que los ordenadores alcancen mucha mayor potencia, deberían ser capaces de emular bajo demanda sistemas anticuados. El principal incon veniente de la emulación es que exige una especificación minuciosa del equipo a remedar. Para que la posteridad pueda leerlas, tales especificaciones han de guardarse en una forma digital independiente de cualquier soporte lógico concreto, para no tener que emular un sistema que lea las especificaciones necesarias para la emulación de otro. Si hay que conservar los docuLA INFORMACIÓN
ENTERO
CARACTER
21
U
CORRIENTE BINARIA:
E C A R G E I R U A L
SONIDO
0 1 0 1 1 1 0 0 0 0 00 0 0 1 0 1 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 1 1 1 0 1 1 1 0
IMAGEN NUMERO REAL
MAPA LOGICO DE BITS
1.3125
NO, NO, NO, SI NO, SI, NO, SI
6. LA INTERPRETACION de una corriente de bits es imposible sin información contextual. Esta secuencia de ocho bits admite, al menos, seis modos de interpretación.
mentos digitales y sus programas, es una serie binaria en un soporte nuevo, imperativo que su migración no modi- el contexto asociado a ella podría trasfique sus corrientes binarias, pues el ladarse a una norma de lanzamiento más mínimo cambio puede corromper actualizada. (En esta situación, resullos programas y sus archivos. De re- taría aceptable una traducción irresultar inevitables tales cambios, han versible, porque tan sólo se requiere de ser reversibles y sin fugas. Es pre- mantener el contenido semántico del ciso, además, registrar suficientes contexto original.) Estas normas sirpormenores de cada transformación, ven tambié n para cod ificar las espara permitir la reconstrucción de la pecificaciones de los equipos físicos corriente binaria original. Aunque necesarias para la construcción de podemos diseñar las corrientes bina- emuladores. rias de suerte tal que sean inmunes ¿En qué situación quedan, pues, a cualquier cambio esperado, la mis nietos? Si incluyo en el disco toda migración futura podría introducir la base informática requerida juntaalteraciones inesperadas. A modo de mente con especificaciones completas ejemplo, una compresión de datos y fáciles de descifrar concernientes agresiva puede convertir una corrien- al equipo físico necesario, tal vez te binaria en una aproximación de sí logren generar un emulador capaz de misma, tornando imposible una re- ejecutar los programas originales construcción minuciosa y fiel de la encargados de mostrarles mi docucorriente original. De igual manera, mento. Les deseo suerte. la encriptación bloquea la recuperación de la corriente binaria original sin la clave de decodificación. Lo ideal sería que las corrientes BIBLIOGRAFIA COMPLEMENTARIA binarias quedaran selladas en sobres virtuales: sus contenidos se conserUNDERSTANDING ELECTRONIC INCUNABU varían al pie de la letra, y la inforLA : A FRAMEWORK FOR RESEARCH ON mación contextual asociada con cada ELECTRONIC RECORDS . Margaret Hedssobre describiría su contenido y el histrom en American Archivist , vol. 54, n.o 3, torial de sus transformaciones. Sería páginas 334-354; verano de 1991. preciso que esta información se graA RCHIVAL T H EO RY A ND I NFORMATION TECHNOLOGIES : THE IMPACT OF INFORbara en forma digital (para garantiMATION T ECHNOLOGIES ON A RCHIVAL zar su supervivencia), pero también PRINCIPLES AND PRACTICES. Charles M. sería preciso que estuviera codificada Dollar. Dirigido por Oddo Bucci. Inforen una forma que las personas pudiemation and Documentation Series n.o 1, ran leer mejor que la corriente binaUniversidad de Macerata, Italia, 1992. ria propiamente dicha, para así resolSCHOLARLY COMMUNICATION AND INFOR ver el problema del lanzamiento. En MATION TECHNOLOGY: EXPLORING THE IMPACT OF CHANGES IN THE RESEARCH consecuencia, hemos de adoptar norPROCESS ON ARCHIVES. Avra Michelson y mas de lanzamiento para la codificaJeff Rothenberg en American Archivist , ción de información contextual; basvol. 55, n.o 2, págs. 236-315; primavera taría para ello una norma sencilla, de 1992. en texto puro. Cada vez que se copiara 57
La crisis de las memorias masivas La técnica de discos magnéticos se acerca veloz a una barrera física: el efecto superparamagnético. Serán necesarias sagaces innovaciones para poder superarla Jon William Toigo
M
uchas empresas y entidades comprueban que el volumen de datos generados por sus ordenadores se duplica cada año. Las bases de datos colosales, de más de un terabyte (es decir, 10 12 bytes), se están convirtiendo de excepción en norma, por la tendencia de las compañías y organismos a mantener en línea una parte creciente de sus registros, que almacenan en discos magnéticos rígidos (discos duros) para una fácil consulta de la información. Los beneficios de tal proceder no son menguados. Las empresas, provistas de la programación idónea para
la recuperación y el análisis de datos, pueden identificar rápidamente tendencias del mercado, suministrar mejor servicio a sus clientes, afinar los procesos de manufactura, y así por menudo. Desde la otra orilla, los consumidores están sirviéndose de ordenadores personales de precio modesto para manejar una plétora de datos propios y guardar un sinfín de mensajes electrónicos, hojas de cálculo de la contabilidad doméstica, fotografías digitalizadas y toda clase de juegos de ordenador. Todo ha sido posible merced a unidades de memoria masiva, a discos
duros de alta capacidad y bajo costo. El perfeccionamiento de esta técnica ha sido legendario: la capacidad de los discos duros mantuvo un crecimiento de un 25 a un 30 por ciento anual entre 1980 y 1990, y aceleró hasta un promedio del 60 por ciento anual en el último decenio. A finales de 1999, el incremento anual había alcanzado el 130 por ciento. Hoy, la capacidad de los discos se está duplicando cada 9 meses, con gran ventaja sobre los avances en microcircuitos, que obedecen a la ley de Moore (duplicación cada 18 meses.) Mientras, el costo de los discos duros ha caído en picado. Disk/Trend, una compañía de Mountain View, en California, que estudia la evolución de 1000 esta industria, nos informó de que el ) precio medio por megabyte de los dis S E cos duros había caído desde 11,54 dó R lares en 1988 hasta 0,04 dólares en A L 1998. En la actualidad, pueden en O 100 D ( contrarse discos duros por tan sólo E unas décimas de milésima de dólar T Y el megabyte. B A Tan notable combinación de capa G E cidad creciente y precio descendente M 10 ha tenido por efecto un próspero mer R O cado. Ahora bien, resulta muy cues P tionable que la industria pueda seguir O I manteniendo estos fantásticos resul D E tados económicos. En años próximos, M 1 la técnica podría alcanzar un límite O I C impuesto por el efecto superpara E R magnético (ESP). Sucintamente, el P ESP consiste en un fenómeno físico E T que se produce en el almacenamiento N 0,1 E U F 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 de datos cuando la energía necesaria para la conservación del espín magAÑO 1. EL PRECIO DE LOS DISCOS DUROS POR GIGABYTE DE MEMORIA que puede guardar ha nético de los átomos que constituyen un bit (sea un 0 o un 1) viene a coinido bajando en picado en los últimos años. 1 0 0 2 O Y A M C D I :
58
TEMAS 36
9 9 9 1 , S S E R P E E E I , l a t e L E I N A D . D . E R O P O D I G I R I D ,
S R A E Y 0 0 1 T S R I F E H T : G N I D R O C E R C I T E N G A M : E T N E U F /
N G I S E D R E P A R D M O T
100.000.000
10.000.000
) a d a r d a u c a d a g l u p r o p s t i b o l i k ( l a i c i f r e p u s d a d i s n e D
1.000.000
100.000
10.000
1000
100
2. LA DENSIDAD DE DATOS almacenados en un disco duro se ha multiplicado por decenas de millones durante la segunda mitad del siglo XX, desde que IBM introdujo la primera unidad de discos comercial en 1957. Los catalizadores primarios de un crecimiento tan espectacular han sido los avances en el proceso de miniaturización.
10
1 1957
1962
1967
1972
1977
1982
1987
1992
1997
2002
Año
LA INFORMACIÓN
59
cidir con la energía térmica ambiental. Cuando así ocurre, los bits pueden experimentar “mutaciones” aleatorias que truecan los 0 y 1, con la degradación consiguiente de la información que representan. Buscando producir discos duros de capacidad cada vez mayor, IBM, Seagate Technology, Quantum Corporation y otros fabricantes no han cesado de embutir bits en regiones de tamaño cada vez menor, con lo que los datos se tornan más sensibles al efecto superparamagnético. Ciertos expertos juzgan que, de continuar al ritmo de miniaturización actual, la industria podría topar con el ESP ya en el año 2005. Pero los investigadores se han venido afanando en la elaboración de diversas estrategias para obviar la barrera del ESP. Su ejecución en un mercado caracterizado por una competencia feroz, frecuentes guerras de precios y consumidores muy atentos a sus c ostos constituirá una hercúlea proeza de ingeniería. Maravillas magnéticas
L
as unidades de discos duros, auténticas maravillas de la técnica moderna, constan de varios discos planos, llamados platos, en montaje coaxial. Cada plato está formado por un sustrato de aluminio o vidrio, recubierto con un material magnético, y capas de protección. Unas cabezas de lectura-escritura, por lo general, una por cara en cada plato, inscriben o recuperan datos, registrados en circunferencias perfectamente definidas sobre el material magnético. Brazos actuadores servomecánicos se encargan de situar las cabezas exactamente sobre las pistas, y un cojinete fluidodinámico de aire hace que las cabezas “sobrevuelen” la superficie a distancias de micras. Un motor hace girar el montaje de platos coaxiales a una velocidad de 3600 a 10.000 revoluciones por minuto. Los orígenes de este diseño básico se remontan a la primera unidad de discos duros, el método de acceso aleatorio de contabilidad y control (RAMAC, de “Random Access Method of Accounting and Control”). Introducida por IBM en 1956, la unidad RAMAC almacenaba datos en 50 platos de aluminio de 24 pulgadas (algo más de 60 cm) de diámetro, recubiertos por ambas caras con una película magnética de óxido de hierro. (El recubrimiento se obtuvo de una imprimación utilizada para pintar el puente Golden Gate de San Francisco.) La RAMAC tenía una capacidad de cinco millones de caracteres, pesaba casi una tonelada y ocupaba 60
Así funcionan los discos duros
LOS FICHEROS se almacenan en los platos codificando magnéticamente ciertas regiones. Un mismo fichero puede quedar disperso entre varias regiones de distintos platos.
LOS PLATOS, discos de metal o vidrio con un recubrimiento magnético, giran a varios miles de revoluciones por minuto, accionados por un motor eléctrico. La capacidad de la unidad depende del número de platos y del tipo de recubrimiento magnético.
EL ACTUADOR de las cabezas desplaza los brazos portacabezas sobre los platos. Se encarga de alinear de forma precisa las cabezas con los círculos concéntricos de las pistas magnéticamente definidas sobre la superficie de los platos.
CAJA DE PROTECCION
LA SEPARACION entre una cabeza de lectura-escritura y la superficie del plato es 15.000 veces menor que el diámetro de un cabello humano.
CABEZA
DIAMETRO DE UN CABELLO 75.000 nanómetros
INTERVALO 15 nanómetros
TEMAS 36
CABEZA DE LECTURA-ESCRITURA
DISCO
PELICULA MAGNETICA
LAS CABEZAS de lectura-escritura, situadas en los extremos de los brazos móviles, s e desplazan transversalmente sobre las superficies superior e inferior de los discos giratorios. Las cabezas graban los datos en los discos alineando los campos magnéticos de las partículas de la superficie de los discos; leen los datos detectando las polaridades de partículas ya alineadas.
UNA PLACA DE CIRCUITO IMPRESO recibe las órdenes del controlador de la unidad. El controlador está gobernado por el sistema operativo y por el BIOS (sistema básico de entradas y salidas), un conjunto de programas de bajo nivel que vincula al sistema operativo con los elementos materiales. El circuito traduce las órdenes en fluctuaciones de voltaje, que impelen al actuador a desplazar las cabezas sobre las superficies de los discos. El circuito controla también el motor axial que hace girar a los discos a velocidad constante e informa a las cabezas de la unidad cuándo deben leer y cuándo grabar en el disco.
LA INFORMACIÓN
8 9 9 1 , N O I T A R O P R O C E U Q , N O I C I D E A T R A U C , E T I H W N O R E D
K R O W S R E T U P M O C W O H : E T N E U F /
K C E S T E R E G R O E G
61
más o menos lo que dos refrigeradores modernos. En los casi cincuenta años transcurridos desde entonces, diversas innovaciones han permitido multiplicar de forma impresionante la capacidad de las unidades y reducir, en modo no menos asombroso, sus dimensiones. En efecto, en ese plazo, la capacidad de los discos ha saltado varios órd enes de magnitud, con el resultado de que algunos ordenadores de sobremesa actuales cuentan con discos capaces para más de 120 gigabytes (GB). Tom H. Porter, de Seagate Technology en Minneapolis, ex-
plica que la industria ha logrado tales mejoras mediante una miniaturización sistemática. “Cabezas lectoras más pequeñas, platos más delgados, menores distancias de sobrevuelo [la distancia entre la cabeza y el plato]: todo ha consistido en reducción de escala.” Perfeccionamientos capitales
E
n el pasado, muchas de las mejoras de capacidad lograda s en las unidades de disco resultaron de perfeccionamientos de la cabeza de lectura-escritura, que inscribe datos mo-
dificando las polaridades magnéticas de regiones diminutas del medio de almacenamiento, llamadas dominios (cada dominio representa un bit). Para recuperar tal información, se sitúa la cabeza de suerte que los estados magnéticos de los dominios engendren señales eléctricas interpretables como secuencias de unos y ceros. Las cabezas de los primeros productos eran de ferrita, pero a partir de 1979 la técnica de construcción de microcircuitos permitió la fabricación precisa de cabezas de película delgada. Esta cabeza de nuevo tipo lo-
Sistemas magnetoópticos
U
na estrategia para prolongar la vida útil del percherón que el disco magnético es, podría consistir en suplementarlo con técnica óptica. La metodología híbrida podría llevar a densidades de almacenamiento muy superiores a las actuales decenas de gigabits por pulgada cuadrada (hasta alrededor de 10 GB/cm2). De hecho, TeraStor, de la californiana San José, afirma que se p odrían superar los 200 gigabits por centímetro cuadrado, mucho más que el supuesto límite impuesto por el efecto superparamagnético. La unidad TeraStor consiste, en esencia, en una variante de la técnica magnetoóptica, en la cual un láser caldea un pu nto diminuto del disco, para inscribir en él información por vía magnética. Una diferenci a crucial, sin embargo, es que TeraStor utiliza una lente de inmersión en sólido (LIS), un t ipo especial de lente esférica truncada. Las lentes LIS, inventadas en la Universidad de Stanford, se basan en la microscopía por inmersión en líquido; en ella, lente y objeto a estudiar se encuentran sumergidos en un líquido, oleoso por lo general, que multiplica la amplificación. Las LIS aplican esa técnica en sentido inverso, con el fin de enfocar un rayo láser sobre un punto de dimensiones inferiores a la micra. La técnica TeraStor es “de campo próximo”, porque la cabeza de lectura-escritura ha de hallarse sumamente cerca del medio de almacenamiento (su separación es menor que la longitud de onda del haz de láser). El medio de grabación consiste en una capa de material magnético similar al de los sistemas magnetoópticos. Pero en vez de ser una película magnética embutida en plástico, la capa de grabación descansa sobre un sustrato de plástico, lo que reduce el costo de producción y permite la escritura directa de datos sobre la superficie de grabación. Lo mismo que en un disco magnético normal, los bits de datos (dominios) se van depositando uno tras otro. Pero en el sistema de campo próximo los bits se inscriben en dirección perpendicular al plano del disco, no horizontalmente sobre su superficie. “Los campos magnéticos de los dominios emanan verticalmente del medio, en lugar de yacer longitudinalmente”, explica Gordon R. Knight, de TeraStor. “Con esta configuración los campos magnéticos de los bits se refuerzan unos a otros, a diferencia de los campos de los bits inscritos en horizontal, y no quedan sujetos al efecto superparamagnético.” Además, la escritura de estos dominios ultrapequeños procede en secuencias que se traslapan; se crea así una serie de bits en forma de media luna. Este método de grabación duplica el número de bits que pueden escribirse linealmente en una pista; de ese modo, la técnica TeraStor logra una capacidad de almacenamiento más alta. La lectura de la información se funda en el efecto Kerr. Se h ace que un rayo de luz sea refle jado por un do minio de l disco. De pend iendo de si lo s cristal es del dominio han sido magnetizados para representar un 0 o un 1, la luz resulta polarizada en distintos planos.
62
RAYO LASER LENTE OBJETIVO CABEZA SOBREVOLANTE
BOBINA MAGNETICA
LENTE DE INMERSION EN SOLIDO
K C E S T E R E G R O E G
CAPA DE GRABACION SUSTRATO DE PLASTICO UN RAYO LASER caldea un punto diminuto del disco; así, la cabeza de grabación puede modificar las propiedades magnéticas del punto y lograr que almacene un 0 o un 1 binario. Con dos lentes se enfoca el haz; lo concentran sobre un punto ínfimo, lo que permite inscribir los bits con una densidad muy elevada. La lente objetivo concentra el haz sobre una lente de inmersión en sólido —piedra angular del sistema— la cual, a su vez, enfoca la luz sobre un punto de diámetro menor que una micra.
La técnica TeraStor se ha venido desarrollando durante casi diez años. Knight reconoce que la entrega de productos se ha visto pospuesta varias veces, mientras la compañía resuelve diversos problemas técnicos. TeraStor cuenta ya con diversos socios fabricantes, entre ellos, Maxell y Tosoh para el medio de almacenamiento, Olympus para los componentes ópticos, Texas Instruments para la microcircuiterí a ancilar, y con Mitsumi para el ensamblaje de la unidad. Quantum Corporation, uno de los pesos pesados de la industria, con sede en Milpitas, ha invertido en TeraStor y le ha facilitado técnica adicional, amén del acceso a su laboratorio de investigación.
TEMAS 36
Las nuevas técnicas habrán de ofrecer beneficios rápidos y poder competir económicamente con los discos duros, advierte Currie Munce, del Centro Almaden de Investigación de IBM en San José graba inscribir bits en dominios más ceñidos. A su vez, en los primeros años noventa, las cabezas de película delgada fueron desplazadas por una técnica revolucionaria creada por IBM. Tal innovación, basada en el efecto magnetorresistivo (obser vado en 1857, por Lord Kelvin), permitió un gran avance en la densidad de almacenamiento. En vez de leer directamente las variaciones de campo magnético, las cabezas magnetorresistivas buscan minúsculas variaciones de la resistencia eléctrica del elemento de lectura que lo sobrevuela, que está influida por ese campo magnético. Merced a la mayor sensibilidad resultante, pueden reducirse todavía más los dominios de inscripción de datos. Aunque los fabricantes siguieron vendiendo cabezas de película delgada hasta 1996, los sistemas basados en el efecto magnetorresistivo se han ido adueñando del mercado. En 1997, IBM introdujo otra inno vación más: la cabeza magnetorresistiva gigante (CMG), en la cual los materiales magnéticos y no magnéticos de la cabeza de lectura hállanse estratificados, lo que duplica o triplica su sensibilidad. Mediante la estratificación de materiales de distintas propiedades cuántico-mecánicas, a los ingenieros les es posible diseñar lectoras concretas que posean las capacidades CMG deseadas. Currie Munce, del Centro Almaden de Investigación de IBM en San José, afirmó en 2000 que con los desarrollos de esta técnica las unidades de disco alcanzarían densidades de almacenamiento de datos superiores a los 100 gigabits por pulgada cuadrada de superficie de plato (unos 15,5 gigabits por centímetro cuadrado). Semejantes discos ya existen hoy en fase de prototipo. Es de señalar que en 1998 expertos hubo que opinaron que el límite para el efecto superparamagnético rondaría en torno a 30 gigabits por pulgada cuadrada. Nadie parece saber de cierto ahora dónde se encuentra la barrera exacta, pero el logro conseguido por IBM ha hecho que se afirme que el “demonio densitario” LA INFORMACIÓN
habita a más de 150 gigabits por pulgada cuadrada.
que es el número de bits por unidad de superficie.
Sobre la pequeñez de los datos
Seguir las pistas
P
ero las innovaciones en las cabezas lectoras carecerían de sentido si los discos individuales que componen la unidad no pudieran almacenar mayor densidad de información. Según Pat McGarrah, de Quantum Corporation en Milpitas, son muchas las compañías que a fin de alojar más datos en un disco están buscando materiales magnéticos que permitan utilizar bits más cortos. El problema, empero, es el ESP: al reducir el tamaño de los gránulos o cristales del material magnético para crear bits menores, tales gránulos pueden perder la facultad de mantener un campo magnético a una determinada temperatura. “En realidad, todo se reduce a la estabilidad térmica del medio de almacenamiento”, explica Munce. “Se pueden lograr unas lectoras más sensibles, pero en última instancia habrá que atender a las propiedades magnéticas del material (coercitividad o estabilidad magnética) y al número mínimo de gránulos utilizable para obtener una determinada resistencia al borrado térmico.” Tradicionalmente, explica Munce, se requerían como mínimo entre 500 y 1000 gránulos para almacenar un bit. Los investigadores buscan con empeño materiales perfeccionados capaces de albergar una carga magnética detectable y de resistir con menor número de gránulos al efecto superparamagnético. La industria está desarrollando, asimismo, mejores métodos de manufactura, tendentes a reducir las impurezas en el medio para lograr bits de menor tamaño. En espera de semejantes avances, el límite de bits por pulgada seguirá permaneciendo en la gama de 500.000 y 650.000, según Karl A. Belser, de Seagate Technology. Pero este parámetro, que corresponde a datos almacenados en una pista particular de un plato, constituye sólo uno de los determinantes de la densidad superficial,
L
a capacidad de almacenamiento depende también de la anchura de las pistas. Hasta la fecha los fabricantes han podido alojar 20.000 pistas por pulgada, guarismo que se encuentra limitado por diversos factores, verbigracia, la capacidad de la cabeza de grabación para resolver las diferentes pistas y la precisión de su sistema detector de posición. La inserción de mayor número de pistas exigiría avances sustanciales en diversos problemas, entre ellos, en el diseño de la cabeza y del actuador que la controla. Para lograr una densidad global de 100 gigabits por pulgada cuadrada será forzoso que la industria descubra un procedimiento para definir unas 150.000 pistas por pulgada. Según Belser, con la técnica existente, las pistas han de estar separadas por franjas de 90 a 100 nanómetros de anchura. “La mayoría de las cabezas de escritura se asemejan a una herradura que se extiende a tra vés del ancho de la pista”, explica. “Aunque graban en sentido longitudinal (es decir, a lo largo de la pista circular), generan también campos marginales que se extienden en sentido radial.” De hallarse demasiado juntas, este efecto puede provo car que la información correspondiente a pistas contiguas se superponga y se pierda. Una solución consiste en fabricar la cabeza de grabación con mayor precisión, haciéndola de menores dimensiones. “Se puede utilizar un haz iónico enfocado para recortar la cabeza de escritura y reducir la anchura de la pista que inscribe”, opina Belser. Pero la cabeza de lectura, que es un complejo emparedado de elementos, plantea un problema de manufactura más difícil. Además, para prensar 150.000 pistas o más por pulgada, las pistas habrían de tener una anchura inferior a 170 nanómetros. A las cabezas de lectura les resultaría muy difícil seguir unas pistas tan microscópicamente angostas; se 63
precisaría un actuador secundario para conseguir un posicionamiento exacto. (En los productos actuales, un solo actuador gobierna el montaje entero de todas las cabezas.) Por último, si los bits son más pequeños y las pistas más estrechas, las señales generadas resultarán más débiles. Para separar del ruido de fondo estas señales, habrá que idear nuevos algoritmos capaces de recuperar la información fielmente. Los programas actuales requieren una relación señal/ruido de al menos
20 decibelios. Belse afirma: “A la industria le faltan por lo menos seis decibelios para poder trabajar con la relación señal/ruido que sería necesaria para tratar con los tamaños de bit implícitos en densidades superficiales de 100 a 150 gigabits por pulgada cuadrada”. No obstante, muchos expertos de la industria coinciden en que esa clase de problemas se conoce bien. De hecho, Munce afirma que los perfeccionamientos en los materiales, en las técnicas de fabricación y en el pro-
cesamiento de señal que se están estudiando ya en IBM y en otras empresas permitirán, en pocos años, la manufactura de unidades de disco con densidades superficiales en el intervalo antedicho. La introducción de las cabezas de película delgada requirió casi 10 años. La transición desde ellas hasta la técnica de magnetorresistencia exigió otros seis años más por diversos imperativos técnicos, entre ellos, la separación de los elementos de lectura y escritura en las cabezas, un proceso
Materiales “duros”
U
na forma obvia de embutir más información en un disco consiste en reducir el tamaño de los bits de datos utilizando, para cada bit, menos gránulos o gránulos más pequeños. El problema, sin embargo, reside en la posible interferencia mutua entre los diminutos bits (imaginemos lo que ocurre al aproximar dos barras imantadas). Para impedir tal corrupción de datos, resultado del efecto superparamagnético, se ha venido investigando ciertos elementos del grupo de las “tierras raras” o de los elementos de transición que son, magnéticamente, muy estables. Dichos metales poseen una elevada coercitividad; en la jerga de la industria se denominan “duros”. Como resulta difícil escribir en un material “duro”, podemos antes “ablandarlo” por calentamiento con láser. El proceso 8 9 9 1 , N O I T A R O P R O C E U Q , N O I C I D E
A T R A U C , E T I H W N O R E D
K R O W S R E T U P M O C W O H
tipo de cabeza de escritura, controlada por un actuador especial.También la cabeza de lectura presenta ciertas d ificultades. Dado que incluso los dispositivos experimentales en servicio tienen una anchura de tres pistas, en lugar de una, cabe la posibilidad de que en el proceso de lectura recojan ruido indeseable, según Karl A. Belser, de Seagate. Y si se lograra una cabeza más estrecha, el dispositivo, para poder seguir las pistas, que son extremadamente finas, tendría qu e ubicarse con suma precisión. Entre las soluciones se cuenta un sistema de posicionamiento por láser, pero ello añadiría complejidad —y costo— al conjunto de la unidad. Una alternativa consiste en hacer que el medi o sea más fácil de leer, lo que puede lograrse con un medio bicapa, provisto de un estrato de almacenamiento permanente yacente
RAYO LASER
ALCANCE DEL CAMPO MAGNETICO AREA CALDEADA POR EL LASER
CABEZA DE ESCRITURA
EN LOS DISCOS MAGNETOOPTICOS, los cristales magnéticos se calientan con un láser para “aflojarlos” y poderlos reorientar mediante un campo magnético. La miniaturización de esta técnica presenta dificultades; se ha de evitar que el láser caliente por azar datos ya almacenados y los destruya. Para obviarlo, se graban surcos de separación entre las pistas de datos, que evitan los flujos térmicos de unas a otras. Para leer la información, Seagate Technology ha considerado la utilización de un sistema de dos capas o pisos, con las pistas de almacenamiento ubicadas en el nivel inferior. Cuando hay que leer los datos, se calienta con un láser una sección de pista del piso bajo. El calentamiento induce un acoplamiento magnético que transfiere los datos al nivel superior del disco, de donde pueden leerse sin interferencias provocadas por las pistas adyacentes.
: E T N E U F /
bajo un estrato de lectura. Para leer los datos registrados en el medio, se borraría magnéticaALUMINIO K C E mente la capa de lectura; después, la p ista apro S ALEACION T E R piada de la capa de almacenamiento se caldea E PLASTICO G ría con un láser para llevar sus datos hasta la R O E capa de lectura mediante un proceso de aco G plamiento parecido a los procesos actuales de los discos magnetoópticos. Una vez inscrita la rebaja la coercitividad de los gránulos, haciendo posible la inspista en la capa de lectura, sus bits podrían ser leídos con indecripción de datos en ellos. Cuando el material se enfría vuelve pendencia de las otras pistas. Sin el ruid o causado por las pisa “endurecerse”, protegiendo la información almacenada de tas adyacentes, hasta una cabeza ancha podría leer la inforlas vicisitudes del superparamagnetismo. La idea , que parece mación de la pista de lectura. bastante sencilla, ha costado llevarla a la práctica: se ha de La técnica permitirá almacenar terabits por pulgada cuadrada, evitar que el haz de láser caliente por accidente los bits veci- según Seagate. En contraste, la doctrina vigente sostiene que nos que contienen datos almacenados con anterioridad. el efecto superparamagnético limita la densidad de almaceA tal fin, Seagate Technology emplea un disco provisto de namiento de las unidades de discos tradicionales a un intersurcos entre las pistas circulares destinadas a bits (al modo valo de 100 a 150 gigabits por pulgada cu adrada. Pero incluso de un disco microsurco). Los surcos impiden que el calor del Seagate admite que habrá que esperar hasta 2010 para la comerláser fluya hasta las pistas vecinas. Para registrar informa- cialización de sus unidades de disco térmicamente asistidas, ción en esas estrechas pistas, Seagate ha ideado un nuevo con una densidad de 1 terabit por pulgada cuadrada.
64
TEMAS 36
de manufactura denominado deposición electrónica y servocontroles de nuevo cuño. “La transición desde las cabezas inductivas de película delgada hasta las magnetorresistivas conllevó cierto número de procesos nuevos”, comenta Munce. “Era forzoso que se produjeran algunos retrasos.” Pero la transición a las unidades magnetorresistivas gigantes corre mucho más veloz, sólo requerirá de 12 a 18 meses. La verdad es que IBM y Toshiba habían empezado a expedir tales productos antes incluso de que el resto de la industria hubiera adoptado plenamente las cabezas magnetorresistivas. La transición ha podido ser tan rápida porque las cabezas magnetorresistivas gigantes no han exigido demasiadas modificaciones en los demás componentes de la unidad. Según Munce, la progresión hacia capacidades de 100 gigabits por pulgada cuadrada se produce también de forma evolutiva, paulatina, sin saltos revolucionarios.
Pauta de bits
L
as unidades de discos duros pueden almacenar datos a densidades increíbles, muy superiores a los 10 gigabits por pulgada cuadrada de espacio de disco. Pero conforme los fabricantes van apiñando más información, los minúsculos bits empiezan a interferirse unos a otros: es el efecto superparamagnético. Para resolver el problema, se piensa en individualizar los bits erigiendo barreras entre ellos. Tal método, llamado “medio cuadriculado”, ha sido campo de investigación activa en la mayoría de los laboratorios ocupados en técnicas avanzadas de almacenamiento. Una forma de introducir cuadrículas en el medio consiste en construir “mesetas” y “valles” sobre la superficie de los platos; en ca da meseta se alojaría un bit individual. Según los proponentes de este método, un bit de datos (sea un 0 o un 1) podría en teoría quedar almacenado en un solo gránulo o microcristal de material magnético. La técnica común de discos duros requiere un mínimo de 500 a 1000 gránulos por bit. Así pues, con un ta maño de gránulo de siete a ocho nanómetros de diámetro, este tipo de almacenamiento podría lograr densidades de más de 10.000 gigabits (o sea, 10 terabits) por pulgada cuadrada. Para la construcción de las mesetas y los valles las compañías han estado investigando los procesos fotolitográficos empleados por la industria de microcircuitos. “Hacen falta haces de electrones o láseres para grabar la pauta (en el medio de almacenamiento). Después se desarrollan mesetas sobre una capa de
)
a í f a r g o r c i m ( M B I ; K C E S T E R E G R O E G
La cuestión de la velocidad
A
hora bien, la capacidad de almacenamiento no es el único aspecto a considerar. La propia velocidad de acceso a los datos se está con virtiendo en un factor importante que puede también determinar la vida útil de la técnica de discos magnéticos. Además, la capacidad de los discos magnéticos crece mucho más deprisa que la velocidad de acceso. Con el fin de mejorar la situación, los fabricantes han trabajado para aumentar la velocidad angular de los discos. Pero al girar más deprisa, la turbulencia del aire y la vibración pueden provocar errores en el registro de las pistas, problema que podría corregirse con la adición de un actuador secundario para cada cabeza. Entre otros perfeccionamientos posibles está la utilización de cojinetes fluidos en el motor, en sustitución de rodamientos de bolas de acero o cerámica, que se desgastan y emiten sonidos audibles cuando los platos giran a más de 10.000 revoluciones por minuto. Muchos analistas prevén una posible bifurcación en el mercado, en el que ciertos discos estarían optimizados en capacidad y otros en velocidad. Los primeros podrían servir para almacenamiento masivo, por ejemplo, para las copias de seguridad de los archivos históricos de una compañía. Los segundos se destinarían a la atención a clientes y aplicaciones similares, donde la pronta recuperación de los datos es crucial. En el pasado, los usuarios prefeLA INFORMACIÓN
PELICULA MAGNETICA PAUTADA SUSTRATO
LAS “MESETAS Y VALLES” de un futuro disco magnético podrían contribuir a evitar el efecto superparamagnético, causa de que los bits muy densamente inscritos en el medio magnético se interfieran. Para eludir el problema, se aísla cada bit en su propia meseta. La dificultad reside en lograr que las mesetas sean lo bastante pequeñas: no deberían medir más de 8 nanómetros de lado para lograr los valores de densidad que los diseñadores buscan. IBM logró construir estas estructuras con dimensiones características de 0,1 y 0,2 micras (inserto ), es decir, de 100 y 200 nanómetros.
sustrato, de un bit de diámetro”, explica Gordon R. Knight, de TeraStor. Pero hay que depurar más la técnica. Aun cuando la industria pudiera obtener mesetas y valles suficientemente pequeños, seguiríamos precisando una cabeza de lectura de nuevo cuño para leer los datos, explica Currie Munce, de IBM. En su op inión, diversos aspectos de la relación señal/ruido obligarían a soluciones radicalmente distintas de las actuales en los sistemas de discos magnéticos. IBM y General Electric, que trabajan conjuntamente en el desarrollo del medio pautado, admiten que esta técnica tardará años en alcanzar viabilidad práctica.
rían unidades de la mayor capacidad y menor costo posible, aun cuando el producto operase algo más lento. Pero hay nuevas aplicaciones que demandan discos más rápidos. Por ejemplo, al extenderse el comercio electrónico por toda la Red, las compañías necesitan almacenar y recuperar al ins-
tante los datos de los clientes. Además, las empresas están desplegando un número creciente de servidores de archivos “reservados” para aquella información que han de compartir cierto número de empleados, y a la que han de tener acceso rápido. El debate entre capacidad y ren65
dimiento podría agudizarse mientras la industria considera diversas formas de esquivar la barrera del ESP. Los expertos están de acuerdo en que para superar densidades superficiales de 150 gigabits por pulgada cuadrada, se habrán de tomar nuevos rumbos. Algunas de las opciones exhiben impresionantes capacidades de alma-
cenamiento, pero velocidades mediocres, que limitarían su uso en ciertas aplicaciones. En el presente, entre las principales estrategias se cuentan:
• Cambiar la orientación de los bits
en los discos, situándolos en dirección transversal (radial) en vez de longitudinal (perimetral), para api-
ñarlos más e impedir su inversión aleatoria. • Utilizar materiales magnéticos que sean más resistentes al ESP, como las aleaciones de hierro y platino, o de cobalto y samario. Si la “dureza” (coercitividad) magnética del material dificulta la inscripción de los datos, se calienta primero el
En el horizonte: almacenamiento holográfico
E
l almacenamiento holográfico viene siendo, desde hace casi cuarenta años, la esperanza blanca de la investigación en técnica. A pesar de las enormes inversiones, los investigadores, de instituciones públicas y de la industria, siguen sin lograr un sistema completo de uso general, apto para la comercialización. Continúan, empero, insistiendo sobre esta técnica, por lo asombroso de lo que promete. Las previsiones teóricas sugieren que acabará siendo posible utilizar técnicas holográficas para almacenar billones de bytes —una cantidad de información equivalente a la contenida en millones de libros— en una pieza de material holográfico del tamaño de un terrón de azúcar o de un disco compacto normal. Además, las técnicas holográficas permiten la recuperación de datos almacenados a velocidades inconcebibles con los métodos magnéticos. En breve, ninguna otra técnica de almacenamiento en desarrollo iguala las posibilidades de la holografía en almacenamiento y velocidad. Estos hechos han atraído a IBM, Rockwell, Lucent Technologies y Bayer Corporation, entre otros emporios del sector. Trabajando por separado, en unos casos, y, en otros, integradas en un consorcio de investigación organizado y cofinanciado por la agencia estadounidense de proyectos avanzados para la defensa (DARPA), las compañías se están esforzando en producir un sistema práctico de almacenamiento holográfico de uso comercial. Desde mediados de los años noventa, DARPA ha contribuido a dos grupos que trabajan en técnicas de memoria holográfica: el consorcio HDSS (“Holographic Data Storage System”, sistema holográfico de almacenamient o de datos) y el consorcio PRISM (“PhotoRefractive Information Storage Materials”, materiales de almacenamiento de información por métodos fotorrefractivos). Ambos reúnen y coordinan a compañías e investigadores del Instituto de Tecnología de California, la Universidad de Stanford y la Universidad Carnegie-Mellon. Al consorcio HDSS, constituido en 1995, se le encomendó la misión de desarrollar en el plazo de 5 años un sistema práctico de memoria holográfica, mientras que al PRISM, formalizado en 1994, se le asignó la producción de medios de almacenamiento avanzado, para su empleo en memorias holográficas a finales del 2000. En 1999, en Stanford, miembros del consorcio HDSS presentaron una memoria holográfica de la que era posible leer datos a razón de mil millones de bits por segundo. Aproximadamen te al mismo tiempo, el HDSS demostraba en la compañía Rockwell, en Thousand Oaks, que un elemento de datos tomado al azar era accesible en 100 microsegundos o menos, cifra que los ingenieros confían reducir a decenas de microsegundos. Esa cifra mejora en varios órdenes de magnitud la velocidad de recuperación de los discos magnéticos, que requieren milisegundos para acceder a un elemento seleccionado al azar entre los datos almacenados. Tan reducido tiempo de acceso es posible porque los haces de láser, esenciales en la técnica holográfica, se desplazan rápidamente sin inercia, a diferencia de los actuadores de una unidad de discos tradicional. Aunque las exhibiciones de 1999 difirieron considerablemente desde el punto de vista de medios de almacenamiento y técnicas de lectura, bajo los dos sistemas experimentales subyacen determinados aspectos fundamentales. Por ejemplo, se almacenan y recuperan de una sola vez páginas enteras de datos. Estas páginas pueden contener millares e incluso millones de bits.
66
Cada una de dichas páginas de datos se almacena en forma de figura de interferencia en el seno de un cristal fotosensible o de un material polímero. Las páginas se inscriben en el material, una tras otra, utilizando dos haces laséricos. Uno de ellos, el haz objeto o haz de señal, se carga con la página de dato s a almacenar, cuando atraviesa el “modulador espacial de luz”, una pantalla especial, similar a las de cristal líquido. La pantalla reproduce la página de datos traduciéndola en una matriz de cuadrados claros u opacos, que recuerda a las casillas de un crucigrama. Para crear un holograma de esa página se hace que el haz objeto de esa página y un segundo haz, el ha z de referencia, se interfieran en el seno del material de registro, que es fotosensible. Según el material, la figura de interferencia queda estampada en el material a resultas de modificaciones físicas o químicas. La figura se registra en todo el material, traducida en variaciones del índice de refracción, de propiedades de absorción de la luz o del espesor del material fotosensible. Cuando iluminamos esa figura de interferencia almacenada con cualquiera de los dos haces orig inales, la luz se difracta en él, de modo tal, que resulta reconstruido el otro haz utilizado para producir la configuración. Por eso, al iluminar el material con el haz de referencia queda recreado el ha z objeto, que lleva en sí la página de datos. Resulta entonces bastante sencillo detectar la pauta de datos con un sensor semiconductor parecido a los utilizados en las modernas cámaras de vídeo. Los datos tomados del sensor, interpretados, se envían al ordenador en forma de flujo digital. Se ha logrado situar en un mismo material muchas figuras de interferencia distintas, correspondiente cada una a una página de datos diferente. La separación de las páginas se consigue, ora variando el ángulo entre el objeto y los haces objeto y referencia, ora cambiando la longitud de onda del láser. La compañía Rockwell, interesada en el desarrollo de memorias holográficas para aplicaciones aerospaciales y de defensa, optimizó el sistema, en su exhibición, buscando un acceso rápido a los datos, pero no grandes densidades de almacenamiento. Por tal razón, para guiar su láser a través de un cristal de niobato de litio, su sistema utilizaba un so lo dispositivo de posicionamiento óptico-acústico, muy rápido. En Stanford, por contra, donde se empleaban técnicas apo rtadas por IBM, Bayer y otras entidades, el medio consistía en un disco de alta capacidad de material polímero, de tamaño similar a un CD, y estaba concebido para almacenar mayores cantidades de datos. El sistema de Stanford, por otra parte, se proponía utilizar componentes y materiales fáciles de integrar en futuros sistemas comerciales de almacenamiento holográfico. Según Hans Coufal, que gestiona la participación de IBM en los consorcios HDSS y PRISM, la estrategia de la compañía consiste en recurrir a componentes producidos en masa, siempre que sea posible. Los láseres, señala Coufal, son similares a los utilizados en los reproductores de discos compactos; los mod uladores de luz espacial recuerdan a pantallas ordinarias de cristal líquido. Pese a lo dicho, queda mucho trecho por recorrer antes de que la memoria holográfica se apodere del mercado, señala Coufal. Y explica que, para que el sistema holográfico de almacenamiento y recuperación de la información funcione, la imagen recreada de la página de datos ha de ser prácticamente perfecta. El cumplimiento de las estrictas condiciones de ali-
TEMAS 36
medio, para “ablandarlo” magnéticamente antes de grabar en él. • Estampar litográficamente pautas en el medio de almacenamiento, para alzar barreras microscópicas entre bits. • Recurrir a materiales de almacenamiento radicalmente diferentes, como cristales holográficos,
metales con cambio de fase o plásticos. Varios son los métod os que han atraído grandes inversiones de los principales fabricantes, pero casi todos ellos se encuentran todavía en fase de ensayo. Algunas de estas ideas han de aguardar a que se produzcan avan-
ces significativos en la investigación o progresos esenciales en las técnicas de apoyo, antes de que se pueda empezar a trabajar en serio en prototipos. Darse un respiro
H
asta ese momento, los fabricantes de discos duros continuarán estrujando la técnica magnética
dimiento, capacidad y precio adecuadas para un sistema comercial de alma K cenamiento a gran escala. C E MODULADOR S Munce y Coufal declaran ambos que T E ESPEJO DE LUZ ESPACIAL R el viejo interés de IBM por el almace E G R namiento holográfico se intensificó en O E G los últimos años, cuando se conocieron DIVISOR mejor las propiedades de recuperación DE HAZ asociativa del medio. Coufal recuerda que en el pasado las aplicaciones del HAZ almacenamiento holográfico se orienLENTE OBJETO LENTE taban hacia el almacenamiento permaHAZ DE nente, en un volumen pequeño, de inREFERENCIA LASER LENTE mensas bibliotecas de datos de texto, audio y vídeo. A causa del creciente ESPEJO interés comercial de la “minería de datos” MONTAJE —que consiste, en esencia, en el filDEL ESCANER trado de almacenes enormes de datos, ESPEJO en busca de relaciones o reglas que perHAZ mitan refinar la adopción de decisiones DIVISOR OBJETO o los procesos empresariales en las DE HAZ grandes compañías—, la capacidad de recuperación asociativa de la memoLENTE ESPEJO ria holográfica ofrece cada vez más atractivo. Una vez almacenados los datos en un HAZ DE medio holográfico, se puede proyectar REFERENCIA una sola página de datos deseados que LENTE reconstruirá todos los haces de referenCRISTAL cia para datos que tengan configuración FRANJAS similar y estén almacenados en los REFLECTANTES medios. La intensidad de cada haz de referencia indicaría en qué medida la confiEN ESTE ESQUEMA de un sistema de memoguración de datos almacenados conria holográfica se expone un procedimiento pacuerda con la página de datos deseada. ra la grabación de páginas de datos en un crisLENTE “En la actualidad, para buscar datos tal. El llamado “haz objeto” toma en sí los datos en un disco se consulta el sector que los al atravesar un modulador de luz espacial. Este haz interfiere con el haz de referencia en el secontiene, y no el contenido de los daLECTOR DE no del cristal. La figura de interferencia resultantos”, destaca Coufal. “Vamos a una direcHOLOGRAMAS te queda registrada en el cristal. Un escáner meción, traemos la información y la comcánico modifica el ángulo del haz de referencia; paramos con otros patrones. Con el se puede entonces grabar otra página. almacenamiento holográfico se podrían comparar datos por medios ópticos sin pasar por recuperarlos. Al buscar en grandes bases de datos, nos veríamos neación de los láseres, los detectores y los moduladores de luz rápidamente encaminados hacia las coincidencias óptimas.” espacial en un sistema de bajo costo plantea un espinoso proPese a las dificultades técnicas, los primeros resultados blema. empiezan a tomar forma. El pasado mes de febrero, la comTambién la determinación del material de almacenamiento pañía japonesa de telefonía móvil NTT anunciaba que ha conidóneo constituye una dificultad persistente, según Currie seguido fabricar un prototipo de memoria holográfica. Se trata Munce, de IBM. Esta compañía ha ensayado con múltiples de un pequeño cristal del tamaño de un sello de correos que materiales, entre ellos, cubos de niobato de litio y de otras sus- puede almacenar hasta 1 GB. Su comercialización está pretancias inorgánicas, así como polímeros fotorrefractivos, fotovista para el año que viene bajo el nombre de Info-MICA crómicos y fotoquímicos, que se están desarrollando en Bayer (“Information-Multilayered Imprinted CArd”). Sólo unos días y en otras instituciones. Aduce Munce que los trabajos reali- antes, InPhase Technologies anunciaba la comercialización del zados por Inphase Technologies, empresa dedicada a la téc- Tapestry HDS5000, un medio holográfico basado en láser azul nica holográfica que Lucent creó a finales de 2000, y por Ima- que ofrecerá capacidades del orden de terabytes a los futuros tion Corporation están logrando también prometedoras discos. Esta misma compañía está desarrolla ndo un disco holoexpectativas. Empero, ninguno de los materiales que IBM ha gráfico que en 2006 se asomará al mercado ofreciendo una ensayado hasta la fecha ha producido la combinación de ren- memoria de 200 GB.
LA INFORMACIÓN
67
En diez años: almacenamiento con resolución atómica
C
huck Morehouse, de Hewlett-Packard, se apresura a señalar que, probablemente, el almacenamiento de resolución atómica (ARS) no llegará nunca a reemplazar por completo el almacenamiento magnético rotativo. Las unidades de disco existentes y las agrupaciones de discos cumplen bien su papel en equipos de sobremesa y en centros de datos donde el tamaño del dispositivo no importe demasiado. Pero, ¿qué decir de las necesidades de almacenamiento masivo en un reloj de pulsera o en un ingenio espacial, donde el factor de forma, la masa y el consumo en ergético son criterios prioritarios? El programa ARS de Hewlett-Packard (HP) aspira a proporcionar un dispositivo del tamaño de la uña con densidades de almacenamiento superiores a un terabit (1000 gigabits) por pulgada cuadrada. La técnica saca partido de los avances en microscopía de sonda atómica, en la que una sonda de ápice o punta monoatómica va explorando la superficie de un material para producir imágenes cuya precisión es de nanómetros. La técnica de almacenamiento por sonda se valdría de una matriz de sondas con ápices sensores de tamaño atómico para leer y escribir datos en ciertos puntos del medio de almacenamiento. Un microdesplazador se encargaría de ubicar el medio con respecto a las puntas. IBM y otras compañías se afanan en el desarrollo de esta técnica de almacenamiento por sonda. Morehouse informa que el Departamento de Defensa de los EE.UU. también ha apostado por esa opción. La agencia de proyectos avanzados
de la sonda hasta el medio calienta un lugar de datos en la medida necesaria para escribir o borrar un bit. Para leer los datos se puede usar un haz débil, que detecte la resistencia del punto o alguna otra propiedad eléctrica dependiente de la fase. También son posibles técnicas de lectura óptica. HP ha investigado en una metodología de “campo lejano” donde la punta se encuentre, pongamos por caso, a unos 1000 nanómetros del medio, a diferencia de la mayoría de las te ntativas realizadas con sondas, en las que la punta se encuentra en contacto, o casi, con el medio. La tercera cuestión concierne al actuador o microdesplazador que ha de situar el medio para las operaciones de lectura y escritura. HP ha patentado un micromotor cuya precisión de posicionamiento es de 3 nanómetros. El último paso es el empaquetamiento. En palabras de Morehouse: “Necesitamos ensamblar todo el sistema ARS en un continente robusto y desarrollar para el sistema la electrónica que permita integrarlo con otros dispositivos”. Por otra parte, es muy probable que los elementos funcionales del dispositivo deban hallarse en el vacío o al menos en una atmósfera controlada, para reducir la dispersión de electrones desde el haz de lectura-escritura y para reducir el flujo calórico entre puntos de datos, lo cual plantea una dificultad adicional. Aunque la industria de discos magnéticos tiene importantes inversiones que proteger, Morehouse confía en que
)
a í f a r g o r c i m ( D R A K C A P T T E L
W E H ; K C E S T E R E G R O E G
HAZ ELECTRONICO SONDA EMISORA POR EFECTO DE CAMPO
conforme las aplicaciones vayan exigienCELDILLAS DEL MEDIO do la portabilidad y el DE GRABACION rendimiento que el ARS ofrece, irá adquiriendo un papel señaLOS HACES ELECTRONICOS emanados de una matriz de sonlado en el mercado de das, cuyos ápices o puntas son de tamaño atómico, inscriben almacenamiento. datos sobre el material de almacenamiento calentando celdillas El tamaño de los disdiminutas y alterando su fase o estado físico. El medio se descos magnéticos se esplaza con precisión nanométrica bajo la matriz ( abajo, a la de- tá reduciendo cada vez recha ). La grabación y posterior reconstrucción gráfica del emmás. Aun así, “el ARS blema de Hewlett-Packard, de 30 micras de anchura ( inserto ), puede resultar compese realizó con una punta sobre uno de tales medios de almaceRESORTES MEDIO DE titivo en muchas aplinamiento por cambio de fase. DE ALMACENAMIENTO SUSPENSION caciones”, apunta. “Una ventaja clave se encierra en su reducido consumo de energía. para la defensa (DARPA) ha financiado los gastos de tres El ARS no consume energía si no efectúa operación alguna. investigadores de HP. Quizá los fabricantes de relojes no deseen un Microdrive y un Según Morehouse, se enfrentan a cuatro problemas princi- montón de pilas.” pales. El primero es el medio de almacenamiento. El selecMorehouse afirma que los primeros dispositivos ARS podrían cionado por el grupo HP constituye un material bifásico, con tener una capacidad de un gigabyte, si bien estas capacidados estados físicos distintos, estables ambos a temperatura des aumentarán con el tiempo: “La capacidad definitiva queambiente. Una de las fases es amorfa; la otra, cristalina. Los dará determinada por lo diminuto que pueda llegar a ser un bits se inscriben en este medio fasealternante calentando punto. Nadie sabe la respuesta. ¿Cien átomos, tal vez?” zonas puntuales para llevarlas de una fase a otra. Con todo, HP ya ha conseguido fabricar un prototipo de El segundo problema reside en la punta de la sonda. Ha de 6 ∞ 10 ∞ 8 milímetros de lado, capaz de almacenar 2 gigabyemitir un haz bien dirigido de electrones al aplicársele un a dife- tes. Se espera llevar estos dispositivos al mercado en 2006, rencia de potencial. Un haz intenso que fluye desde la punta aumentando su capacidad hasta 10 gigabytes. MATRIZ DE SONDAS EMISORAS
68
TEMAS 36
Las “tarjetas perforadas” del futuro
H
ace decenios, las tarjetas perforadas constituían un método difundido, aunque torpón, de almacenamiento de información. Su simplicidad mecánica, contraída ahora hasta dimensiones mínimas, vuelve a estar en boga en IBM. Su grupo de investigación en Zurich ha desarrollado un prototipo, bautizado Milpiés, capaz de embutir una pasmosa cantidad de info rmación en un espa cio diminuto —200 gigabits por pulgada cuadrada— almacenando los datos en forma de microscópicas muescas marcadas sobre una superficie plana de polímero [ véase “Nanounidades de memoria”, por Peter
MATRIZ BIDIMENSIONAL DE AGUJAS
en formación cuadrada de 32 por 32, son de silicio y operan simultáneamente, grabando sus muescas sobre una fina película de plástico que recubre un sustrato de silicio. Una de las ventajas del Milpiés estriba en su peq ueño coste previsto. IBM afirma que estas matrices pueden construirse baratas mediante procesos similares a los de fabricación de microcircuitos. “Se podrían construir centenares de matrices en una sola oblea”, predice Vettiger. Para mayor almacenaje, un perfeccionamiento futuro podría consistir en una formación mayor (la próxima versión cons-
CONTROLADOR MULTIPLEX
MATRIZ BIDIMENSIONAL DE AGUJAS
AGUJA
)
a í f a r g o r c i m ( M B I ; K C E S T E R E G R O E G
PUNTA DE LA AGUJA
MEDIO DE ALMACENAMIENTO
Vettiger y Gerd Binnig en este mismo número]. En comparación, incluso en los prototipos más avanzados de laboratorio los discos magnéticos están hoy limitados a no más de 35 gigabits por pulgada cuadrada. “Hemos reinventado las tarjetas perforadas utilizando plásticos”, se jacta Peter Vettiger, director del proyecto. Para comprender el funcionamiento del Milpiés, recordemos otra técnica ya pasada: la aguja fonográfica. En la versión de IBM, la punta de la aguja es acutísima (su radio es de sólo 20 nanómetros) y descansa suavemente sobre una superficie móvil de plástico liso. Para crear una muesca o pozo, se hace pasar brevísimamente una corriente eléctrica a través de la aguja, lo que calienta su ápice hasta 400 oC por un instante, que funde ligeramente el polímero. Una serie de tales descargas eléctricas produce así una ristra de muescas, pasando a ser las zonas hundidas y las lisas los unos y los ceros del mundo digital. Para leer esa información, se calienta la punta de la aguja a una temperatura constante de 300 oC (inferior al punto de fusión del plástico), al tiempo que se desplaza sobre la superficie del polímero. Cuando la aguja cae en un pozo, se disipa el calor de la punta. El correspondiente descenso térmico se detecta a través de un cambio en la resistencia eléctrica de la aguja. IBM ha convertido esa técnica básica, derivada de la microscopía de fuerza atómica, en un prototipo operativo. Para aumentar las velocidades de lectura y escritura de los datos, el dispositivo consta de 1024 agujas (de aquí el nombre de Milpiés) en un área de sólo 3 por 3 milímetros. Las agujas, d ispuestas
LA INFORMACIÓN
EL “MILPIES” consta de 1024 diminutas agujas dispuestas en una formación cuadrada, o matriz, de 32 por 32 ( izquierda ). Los datos registrados o leídos por las agujas están materializados en muescas microscópicas sobre una superficie de plástico ( arriba ). La punta de cada aguja tiene un radio de sólo 20 nanómetros ( inserto ).
tará de 4096 agujas en un matriz cuadrada —64 por 64— de 7 milímetros de lado), de matrices múltiples, o en una combinación de ambos. Cabría también pensar en utilizar nanotúbulos de carbono para las puntas de las agujas, que serían aún más pequeñas. Empero, IBM ha de resolver varios problemas cruciales antes de que el Milpiés se convierta en producto acabado. Le ocupa ahora la estabilidad a largo plazo de la técnica. Las puntas de las agujas podrían embotarse por desgaste mecánico, lo que provocaría que las muescas del plástico se agrandasen. Estas, con el tiempo, podrían comenzar a traslaparse, convirtiéndose en un embrollo digital los datos prístinos. Obviamente, es mucho el trabajo por hacer antes de que el Milpiés pueda siquiera tener la esperanza de suplantar a las venerables unidades de discos magnéticos. Tal vez disponga de mayores oportunidades en pequeños artefactos de consumo. IBM confía desarrollar un dispositivo diminuto (de 10 por 10 por 5 milímetros, o menor), capaz de almacenar 10 gigabits; de lograrlo, la técnica sería idónea para teléfonos móviles, cámaras digitales y, posiblemente, para relojes. “Ahí es donde vamos a concentrar nuestros esfuerzos durante los próximos años”, afirma Vettiger. Pero él mismo es el primero en atemperar su creciente apasionamiento. “Se trata todavía de un proyecto de investigación exploratorio”, admite. “No es como si estos productos fueran a estar mañana en el mercado.” —Alden M. Hayashi
69
habitual para lograr ulteriores perfeccionamientos. “Esta industria parece estar siguiendo una curva logística”, observa Porter, de Seagate. Porter explica que, a corto plazo, los fabricantes seguirán a lomos de la ola de avances conseguidos en los campos de la fotolitografía y de la fabricación de microcircuitos, que hicieron posible la producción económica de cabezas magnetorresistivas o de las magnetorresistivas gigantes. Pero existe el convencimiento general de que la industria pronto tendrá grandes dificultades para seguir a este paso. Idos serán los días en que las capacidades de almacenamiento crecían al 130 por ciento anual. Y Porter añade: “Las cosas se están poniendo más difíciles a un paso más rápido de lo que históricamente solían. Si aflojáramos la marcha, tal vez tuviéramos tiempo para evaluar las opciones.” Nadie sabe cuál de las alternati vas llegará a dar fruto. La propia IBM está diversificando sus apuestas, invirtiendo en varios métodos, entre ellos, el de medios configurados, medios plásticos y medios holográficos. Una cosa es cierta: con el ESP en el horizonte, y confrontada la industria con los problemas de diseño estructural y las cuestiones sobre materiales, podría estarse abriendo para ellas una ventana a la oportunidad. Pero colarse por esa ventana no será fácil. “Las nuevas técnicas tendrán que ofrecer rápidamente rendimientos económicos y poder competir con los discos magnéticos en coste por gigabyte de almacenamiento”, juzga Munce. Lo más probable, prosigue, es que las nuevas técnicas deban empezar por excavar su nicho en el mercado. (Los cristales holográficos, por ejemplo, podrían servir para el almacenamiento permanente de grandes bibliotecas.) “La tendencia es, decididamente, hacia la reducción del coste, lo que hará muy difícil que otras técnicas lleguen a entrar en pista.” En su mayoría, los observadores están de acuerdo en que, con independencia de las incertidumbres de las futuras técnicas de almacenamiento de datos, el efecto superparamagnético no será causa de que la Era de la Información sufra un chirriante frenazo. Si en el viaje de los productos de alta capacidad hasta el mercado se producen demoras, lo más probable es que el vacío lo ocupen de un modo transitorio agregaciones de muchas unidades de discos en formaciones inteligentes, que ante los sistemas y los usuarios finales se representan a sí mismas como unidades individua70
les “virtuales” de discos magnéticos. Se trata de una opción empleada ya en el caso de los RAID (“agrupaciones redundantes de discos baratos”) y en los JBOD (“un puro montón de discos”), agrupaciones que se lanzaron en los años ochenta y noventa para subvenir a las exigencias de almacenamiento de compañías cuyas necesidades no quedaban cubiertas por las unidades de aquel entonces. Otro método que ha merecido cierta atención en la industria consiste en emplazar unidades y agrupaciones de discos en redes de almacenamiento local (RAL) cuya dimensión se puede modificar dinámicamente para satisfacer crecientes apetitos de almacenamiento. El método RAL “virtualiza” todavía más el almacenamiento y acabará proporcionando una “utilidad de almacenamiento” que entregará automáticamente a las aplicaciones de los usuarios el tamaño y clase de almacenamiento que precisan, tomándolo de una “flota” de dispositivos de almacenamiento interconectados. Tales métodos de aumento de la capacidad de almacenamiento entrañan una mayor complejidad y, por extensión, mayores gastos de gestión, en comparación con los dispositivos individuales de almacenamiento. A pesar de ello, proporcionan una forma de atender a las necesidades de empresas y consumidores que precisen mayor espacio para sus datos a corto plazo, hasta que las nuevas técnicas arriben al mercado. Se verán, además, facilitadas por la bajada de los precios de las unidades de disco, resultantes de los perfeccionamientos de los procesos de manufactura en curso.
BIBLIOGRAFIA COMPLEMENTARIA M AGNETO -R ESISTIVE H EADS : F UNDA MENTALS AND APPLICATIONS. Electromagnetism Series. John C. Mallinson, con notas y comentarios de Isaak D. Mayergoyz. Academic Press, 1995. M AGNETIC D IS K D RIVE T ECHNOLOGY : HEADS, MEDIA, CHANNEL, INTERFACES, AND INTEGRATION. Kanu G. Ashar. IEEE Press, 1997. MAGNETIC INFORMATION STORAGE TECHNOLOGY. Electromagnetism Series. Shan X. Wang y A. M. Taratorin. Academic Press, 1999. M AGNETIC RECORDING . THE FIRST 100 YEARS. Compilación de Eric D. Daniel, C. Denis Mee y Mark H. Clark. IEEE Press, 1999. HOLOGRAPHIC DATA STORAGE. Compilación de Hans J. Coufal y Demetri Saltis. Springer-Verlag TELOS, 2000.
TEMAS 36
TRANSMITIR LA INFORMACION
S E G A M I E T I H W M O T
Criptografía para Internet El correo electrónico es una postal digital, que no asegura la confidencialidad. Pero los sistemas criptográficos bien diseñados sí pueden garantizar el secreto de la correspondencia Philip R. Zimmermann
L
as cartas que se envían desde la oficina de correos pueden tardar días en llegar a su destino, pero al menos existe cierta garantía de intimidad de la correspondencia. Por su parte, el correo electrónico llega vía Internet con velocidad deslumbrante, pero también resulta fácil víctima potencial de los escuchas electrónicos. Una forma de reforzar el carácter reservado de estas transmisiones consiste en encriptarlas, manipulando y enrevesando la información con el fin de volverla ininteligible para todos, excepto, claro está, para el destinatario. Desde los años ochenta el desarrollo de algoritmos refinados y de equipos informáticos económicos ha puesto al alcance de millones de personas provistas de ordenadores personales sistemas criptográficos muy potentes, cuya seguridad es de nivel mili-
tar. Los avances técnicos prometen conseguir que tales sistemas adquieran mayor resistencia y se tornen incluso invulnerables. Desde las sombras
H
ace cuarenta años, la fuerza motriz de la industria electrónica estadounidense era el Pentágono, que exigía circuitos diminutos, hechos a la medida, para instalarlos en los misiles y en las naves espaciales. En nuestros días, domina la demanda civil. La milicia satisface sus necesidades con productos del mercado de consumo, muchísimo más amplio. Otro tanto está ocurriendo con la criptografía. Hasta hace unos 25 años, la estadounidense Agencia Nacional de Seguridad (NSA) poseía el monopolio de la técnica de encriptación, especialidad mantenida, a su vez, en ce-
loso secreto. En 1976, un artículo fundamental, “New Directions in Cryptography”, en el que Whitfield Diffie y Martin E. Hellman, ambos de la Universidad de Stanford, expusieron abiertamente la noción de “criptografía de clave pública”, cambió el panorama. En los años transcurridos desde su publicación ha ido floreciendo una vigorosa comunidad criptográfica en las universidades y las empresas, que está edificando una disciplina madura. La creciente popularidad de Internet —y la preocupación general por la seguridad de las comunicaciones en ese medio— ha intensificado la tendencia. Algunos de los mejores cifrados los están desarrollando criptógrafos pertenecientes a universidades o empresas privadas repartidas por todo el mundo. La propia NSA adquiere ahora productos comerciales para atender
parte de sus necesidades cripto- de problemas matemáticos que son mos grandes, pero resulta difícil en gráficas. fáciles de computar en una dirección, extremo descomponer ese número ¿Por qué ha sido tan crucial la intro- pero harto duros en la dirección altísimo en sus dos factores primos. ducción de la criptografía de clave contraria. Los dos principales algoLos sistemas criptográficos de clave pública que hicieron Diffie y Hellman? ritmos de clave pública son el de pública sirven también para la cerEn los criptosistemas tradicionales Diffie-Hellman y el método RSA. tificación de mensajes: su receptor se utiliza una sola clave tanto para Variantes del primero son el están- puede comprobar la identidad del la encriptación como para la desco- dar de firma digital, del Instituto remitente. Cuando Benito le envía dificación. Tales sistemas simétricos Nacional de Pesos y Medidas, ElGa- un mensaje a Alicia, primero lo cod iexigen que la clave se transmita por mal y los métodos basados en c urvas fica con su clave reservada; después, un canal seguro, proceso no exento elípticas. El método RSA ha sido de- vuel ve a encr ip tarlo co n la cl ave de inconvenientes. Después de todo, sarrollado en el Instituto de Tecno- pública de Alicia. Esta, al recibir la si existe un canal seguro, ¿qué nece- logía de Massachusetts por los infor- transmisión, invierte los pasos. Emsidad hay de encriptación? Esta limi- máticos Ronald L. Rivest, Adi Shamir pieza descodificando el mensaje con tación ha entorpecido siempre el de- y Leonard M. Adleman. su clave propia y reservada y, dessarrollo de la criptografía. El método de Diffie-Hellman se pués, con la clave pública de Benito. Diffie y Hellman eliminaron esa basa en algoritmos discretos. No es Si el texto final es legible, Alicia pued e limitación. La criptografía de clave difícil calcular gx módulo p: basta ele- confiar en que fue Benito quien realpública permite que los participan- var g a la x -ésima potencia, dividir mente preparó el mensaje. tes se comuniquen sin necesidad de esa cantidad por un número primo Ni que decir tiene que toda esta un medio secreto de enviarse las cla- grande p y tomar después el resto de encriptación y descodificación exige ves. Tales sistemas asimétricos des- esa operación. Pero dados g, p y el miríadas de cálculos matemáticos. cansan en un par de claves que son valor de gx módulo p, no es factible Pero existen programas, como el PGP, distintas, aunque complementarias. recuperar x. apto para ordenadores personales, Cada clave permite descifrar el menEl sistema RSA se apoya en la difi- capaces de automatizar el proceso. saje que la otra encripta, pero el pro- cultad de la descomposición de un Utilizando uno de estos paquetes de ceso no es reversible: la clave utili- número en factores. Es sencillo mul- programas, basta con que Alicia y zada para encriptar un mensaje no tiplicar uno por otro dos números pri- Benito pulsen los botones “encriptar” sirve para descodificarlo. Así pues, una de las claves complementarias (la pública) puede hallarse al alcance de 1. LA ENCRIPTACION de un mensaje reservado que Benito desea enviarle a Alicia por Inmuchos, mientras que la otra (clave ternet requiere varios pasos. En este esquema conceptual, Benito empieza computando un privada) sólo está en manos de su condensado (“hash”) del texto (véase el diagrama de la figura 2 ). A continuación, codifiposeedor. Cuando Benito desea enviar ca el condensado por medio de su clave particular secreta (véase el recuadro de la pági- un mensaje a Alicia, puede usar la na siguiente ). La información resultante (abajo, en azul ) actúa como “firma” de Benito. Esclave pública de ella para encriptar te comprime electrónicamente la firma y su mensaje (en violeta ) y encifra el archivo (en la información, pero sólo Alicia podrá verde ) utilizando determinada clave de sesión. Benito encripta esta clave mediante la cladescifrarla, con su clave particular. ve pública de Alicia; el resultado (en naranja ) se añade al mensaje. Por último, el archivo Los criptosistemas de clave públi- se pasa a caracteres alfanuméricos (en rojo ) para su transmisión por Internet. En el extreca se fundamentan en la existencia mo receptor, se desandan los pasos, utilizando Alicia su clave particular para descifrar la clave de la sesión, que después puede emplear para descifrar el resto del mensaje.
E C I R B F F E J
Criptografía de clave pública
L
a criptografía ha venido tropezando con el problema del intercambio de claves. Si Benito pretendía enviar a Alicia un mensaje cifrado, tenía que transmitirle la clave secreta de encriptación que él había utilizado. Los sistemas de criptografía de clave pública vencieron tal limitación haciendo uso sagaz de las matemáticas. En el algoritmo Diffie-Hellman, que ha contribuido a engendrar la especialidad de la criptografía de clave pública, Alicia utiliza su número secreto, x , para calcular g x , y le envía a Benito esta cantidad. Benito, por su parte, usa su número secreto y para computar g y , y se lo remite a Alicia. (El valor de g es de conocimiento público.) Una vez que Alicia ha recibido la información, puede calcular ( g y )x , valor que es igual al ( g x )y , que Benito calcula. Este número pasa a ser clave de encriptación, secreta y compartida, de ambos. Pero si alguien interceptase los valores g x de Alicia y g y de Benito, podría quizá deducir los números secretos x e y . Para frustrar, pues, a posibles fisgones, Alicia y Benito insertan la función módulo, que devuelve el resto de una operación de división. (Por ejemplo, 14 módulo 4 = 2, porque el resto de la división de 14 entre 4 es 2.) Este retoque adicional asegura el secreto: en vez de enviar a Benito el valor de g x , Alicia le transmite el valor de g x módulo p , valor desde el cual los fisgones tendrían gran dificultad en recuperar x , aun cuando conocieran g y p . Aderezado con mayor cantidad de matemáticas, el algoritmo Diffie-Hellman ha evolucionado en criptosistemas que generan dos claves complementarias, una privada (en el caso de Alicia, el valor x ) y pública la otra (consistente en g , p , y el valor de g x módulo p ) . De forma ingeniosa, la clave privada descodifica el mensaje que fue cifrado con la clave pública, pero la clave utilizada para encriptar un mensaje no puede servir para desencriptarlo. De este modo, Benito puede usar la clave pública de Alicia (que ésta ha dado a conocer a todos) para encriptar un mensaje dirigido a Alicia, que sólo ella puede desencriptar mediante su clave secreta.
ALICIA Clave secreta x
Y N S A
R K Y R T I M D
g x
g y
g y
g x
( g y ) x
( g x ) y
El secreto compartido es g xy
y “descifrar” que les presenten sus ordenadores; el trabajo numérico se realiza entre bastidores. La criptografía de clave pública adolece de dos graves limitaciones. Primero, por su relativa lentitud, esta técnica no resulta práctica para codificar mensajes largos. Segundo, y tal vez lo más importante, la criptografía de clave pública deja en ocasiones que aparezcan en el mensaje patrones que sobrevivan al proceso de encriptación. Tales pautas son detectables en el texto cifrado, lo que hace que la técnica sea vulnerable al análisis criptográfico, o criptanálisis. (La 74
BENITO Clave secreta y
El secreto compartido es g xy
criptografía es la ciencia de preparar cifras, el criptanálisis estudia cómo descodificarlas y la criptología abarca ambas disciplinas.) Percherones simétricos
L
a encriptación de gran tamaño suele estar encomendada a cifrados simétricos, más rápidos y seguros, estando limitada la criptografía de clave pública a la pequeña —aunque esencial— función de intercambiar las claves que se utilizan en esos cifrados simétricos. Benito encripta su mensaje mediante un sistema de cifrado robusto y simétrico.
Necesita entonces enviar a Alicia la clave simétrica que ha utilizado, por lo que la cifra con la c lave pública de Alicia y adjunta el resulta do a su mensaje encriptado. Alicia descifrará la clave simétrica con su clave particular, pudiendo así utilizar esa información para descifrar el resto del mensaje de Benito. Para certificar la autencicidad del mensaje, Benito no se vale de métodos de clave pública para “firmar” su transmisión directamente; antes bien, computa un extracto o condensado (“hash”) que haga las funciones de “huella dactilar” digital en su mensaje. Se recurre a tales procedimientos matemáticos para condensar una entrada de tamaño arbitrario en un extracto de tamaño fijo, que tiene, típicamente, una longitud de 160 bits. (Un bit es la unidad elemental de datos informáticos. Almacena uno de dos estados posibles, representados por un 0 o un 1.) Las funciones de condensación criptográficamente robustas, como SHA-1, RIPEMD-160 o MD5, están diseñadas de modo que a los falsificadores no les resulte computacionalmente factible preparar un mensaje distinto que produzca la misma huella. Dicho de otro modo, las huellas generadas son virtualmente únicas; los extractos generados por dos mensajes diferentes serán distintos. Tras computar un extracto de su mensaje, Benito codifica esa información con su clave particular secreta. Envía entonces esta “firma” con el resto de su transmisión encriptada. Alicia recibe el extracto encriptado y lo descifra con la clave pública de Benito. Compara el resultado con el condensado que ella computa por sí misma tras descodificar el mensaje. La concordancia de los extractos condensados proporciona una demostración de que la transmisión no ha sido manipulada, y de que Benito es el verdadero remitente. El método habitual para codificar informaciones que hayan de enviarse por Internet consiste en fragmentar los datos en segmentos o “bloques” de tamaño fijo, cada uno de 64 o 128 bits de longitud, de suerte que la encriptación se realice bloque por bloque. Los métodos de “encriptación por bloques” acostumbran fundarse en la reiteración de series de operaciones matemáticas (en número que viene dictado por cada algoritmo concreto), sirviendo de entrada para la siguiente iteración el resultado de la anterior. Cada pasada suele consistir en una permutación de los símbolos (operación que transforma, por ejemplo, TEMAS 36
“xtv” en “tvx”) y en sustituciones de car un mensaje bit a bit; es decir, el trocadas por K , las C sustituidas por los mismos (lo que convierte “tvx” en 34-ésimo bit de la secuencia aleatoria Q, y así sucesivamente. El número de “cb2”, sea por caso). Una sección de es utilizado para modificar el 34-ési- formas distintas de reorganizar el la clave se utiliza para esas trans- mo bit del mensaje. La clave ha de alfabeto inglés es factorial de 26, o formaciones de los datos durante las ser aleatoria. No basta una secuen- sea, 26 × 25 × 24 × ... × 3 × 2 × 1. Tal iteraciones. cia pseudoaleatoria producida por un número es aproximadamente igual a Al alimentar porciones idéntic as algoritmo determinista, que podría 288; el conjunto constituye un “espade texto a un sistema de cifrado por resultar vulnerable. Las “libretas” cio de claves” de distintas combinabloques se obtienen segmentos encrip- rara vez se usan. No son prácticas. ciones francamente respetable; de ser tados idénticos. Para impedir la for- La clave, amén de alargarse como el necesario ensayar todas las posibles mación de posibles patrones repe- mensaje, debe enviarse al destina- claves para fracturar el código se exititivos al alinear los segmentos tario por un canal seguro. Además, girían enormes recursos computaencriptados (con lo que la clave podría sólo puede emplearse una vez, para cionales. ser menos difícil de fracturar), los evitar que un atacante descifre los De niño descifraba ese tipo de cripalgoritmos de codificación por blo- mensajes. togramas con lápiz y papel. Buscaba ques emplean algún tipo de concate Aunque el tamaño de la clave cons- la letra más repetida y suponía que nación. Los segmentos ya encripta- tituye un factor determinante de la sería una E , y después miraba la dos se utilizan en la encriptación de robustez criptográfica, no importa segunda letra más utilizada, y le asiglas porciones no cifradas subsiguien- menos la calidad del diseño del ci- naba la T , y así sucesivamente. Pese tes. Así, la encriptación de un seg- frado. Tomemos un sencillo cifrado por a lo extenso que es el espacio de clamento de texto depende de la totali- sustitución simple, en el que todas las ves de este sistema de cifrado, el sisdad de los bloques anteriores. A se cambian por W , todas las B están tema peca de suma endeblez. Los sistemas de cifrado por bloques se valen de claves simétricas cuya longitud es de 56, 128 o 258 bits. Entre los ejemplos más conocidos se cuentan Data Encryption Standard (DES), triple-DES, CAST, IDEA y Skipjack. En los algoritmos del cifrado por bloques, auténticos caballos de carga de la criptografía, se ha conMENSAJE QUE SE HA DE CONDENSAR centrado la investigación reciente. La clave es la llave
E
l aspecto más delicado de la criptografía corresponde a la generación de claves. Para que un sistema ofrezca la seguridad máxima posible, las claves deben ser números aleatorios, impredictibles por un atacante. Tales números difieren de las secuencias determinísticas pseudoaleatorias que los ordenadores generan de forma automática para juegos y simulaciones. Los números aleatorios sólo pueden extraerse del “ruido” ambiental del mundo físico, como los procesos de desintegración radiactiva. Resulta difícil generar en un ordenador un azar de tan elevada calidad. Puede optarse por el método que consiste en medir en microsegundos el tiempo entre pulsaciones de teclas efectuadas por humanos, imposible de predecir. Los datos recogidos no son lo suficientemente aleatorios para la generación directa de claves, pero puede pasarse la información a una función de condensación para que se quede con lo que en ella hay de verdadero desorden. El único sistema de cifrado que los criptólogos han podido demostrar que es totalmente seguro es la llamada libreta de un solo uso (“one time pad”), donde la clave es tan larga como el mensaje. En tales libretas, se utiliza una secuencia aleatoria para codifiLA INFORMACIÓN
CONVERSION DEL MENSAJE EN SIMBOLOS BINARIOS
Y N S A R K
Y R T I M D
MENSAJE CONDENSADO (EXTRACTO)
2. EL ALGORITMO DE CONDENSACION efectúa un resumen de un mensaje, dejando una “huella dactilar” digital que puede servir para detectar falsificaciones. Se empieza por convertir el texto del mensaje en forma binaria. (La le tra A podría representarse por 00000, la letra B por 00001, la letra C por 00010, y así sucesivamente.) A continuación se procede a fragmentar la ristra resultante de ceros y unos en bloques de igual tamaño. Luego, se introducen estos bloques como si fueran claves en el algoritmo de cifrado. El resultado final es el condensado (“hash”) del mensaje original. Observemos que todos los mensajes, cualquiera que sea su longitud, producirán siempre un extracto de tamaño fijo. Esta operación es “de sentido único”, dada la imposibilidad casi absoluta de recuperar un mensaje a partir de su condensado. Además, el algoritmo está diseñado para que dos mensajes cualesquiera produzcan, con certeza casi total, extractos distintos, y no es computacionalmente factible hallar otro mensaje que genere el mismo condensado que un mensaje dado. Por cuya razón, un condensado puede servir de “huella dactilar” para su correspondiente mensaje.
75
Por consiguiente, en un sistema criptográfico bien diseñado el tamaño de la clave no guarda relación directa con el esfuerzo requerido para fracturarla. En el caso de los sistemas de cifrado por bloques, tal relación acostumbra ser exponencial. Con sólo añadir un bit más a la longitud de la clave, el esfuerzo que el atacante ha de realizar para probar todas las claves se duplica. Y la duplicación del tamaño de la clave eleva al cuadrado tal esfuerzo. Por término medio, la fractura de una clave de 128 bits requiere unas 2127 operaciones (alrededor de 1, 7 × 10 38, en notación decimal).
Los algoritmos de clave pública presentan menor sensibilidad. En el caso típico, sus espacios de claves son subexponenciales, pero superpolinómicos, lo que significa que la duplicación de la longitud de la clave aumenta bastante el trabajo, pero no llega a ser el cuadrado. Con el métod o RSA, los modernos algoritmos de descomposición factorial de números compuestos son mucho más eficaces que el mero tanteo de todos los posibles factores primos para descomponer un número compuesto. También el algoritmo Diffie-Hellman es subexponencial. A modo de comparación,
MENSAJE QUE SE HA DE CONDENSAR
CONVERSION DEL MENSAJE EN SIMBOLOS BINARIOS
ALGORITMO DE CON CATENACION
ENCRIPTACION BINARIA DEL MENSAJE
MENSAJE ENCRIPTADO
Y N S A R K Y R T I M D
3. EL ALGORITMO DE CONCATENACION aumenta la seguridad de los cifrados por bloques. Tras convertir el mensaje en ristra de ceros y unos, se fragmenta la secuencia en segmentos de igual tamaño. Antes de encriptar cada bloque, primero se lo combina matemáticamente con el bloque encriptado anterior. Así pues, la encriptación del segmento número 23 depende del bloque cifrado número 22, que está a su vez afectado por la encriptación del tramo número 21, etcétera. Por mor de esta cadena de realimentación, cada bloque encriptado depende de todos los anteriores, con lo cual el cifrado es mucho más difícil de descodificar por los criptanalistas.
76
la fractura de una clave Diffie-Hellman o RSA de 3000 bits exige aproximadamente el mismo esfuerzo que una clave de 128 bits en los cifrados por bloques o segmentos. A pesar de ello, no puede decirse que los cifrados por bloques sean invencibles. Durante el año en curso, una máquina de funcionamiento en paralelo a gran escala, construida para este fin por Electronic Frontier Foundation, extrajo en menos de una semana un mensaje codificado en DES explorando exhaustivamente el espacio de claves de 56 bits. Y no es la fuerza bruta la únic a forma de fracturar un cifrado. Los criptanalistas pueden servirse de un potente repertorio de instrumentos matemáticos y estadísticos para hallar atajos, tal vez, descubriendo regularidades en el texto encriptado. Las tentativas de descifrado pueden agruparse en tres categorías, en función de lo que se conozca sobre el mensaje original (el denominado “texto llano”) y la correspondiente transmisión en clave (el “texto cifrado”). En algunos casos, los atacantes disponen sólo del texto cifrado y carecen de guía en sus esfuerzos por averiguar la clave. Incluso una clave débil podría soportar ataques basados en el texto cifrado. Pero si los atacantes conocen al menos una parte del mensaje —por ejemplo, que el texto comienza por “Estimado señor López”— las oportunidades de éxito aumentan. Incluso el mero conocimiento del idioma del texto llano (sea ruso, francés o COBOL) proporciona información aprovechable. Si el mensaje está en español, la palabra más repetida será, probablemente, un artículo. Para neutralizar estos métodos de ataque tan conocidos, algunos sistemas criptográficos comprimen electrónicamente el mensaje antes de encriptarlo, suprimiéndole las regularidades fácilmente predictibles. El atacante, con frecuencia, dispone de más información. Si alguien roba una tarjeta “inteligente” provista de circuitos de encriptación, el ladrón tal vez pueda presentar a la tarjeta miles de millones de mensajes cuidadosamente elegidos y examinar el texto cifrado con que responde. Los ataques de este tipo, con textos llanos bien elegidos, pueden descerrajar los sistemas de cifrado mal diseñados. Tenemos otro ejemplo en los sistemas de clave pública. El atacante puede escribir un mensaje, encriptarlo con la clave pública (que después de todo, es p ública) y analizar después el texto cifrado resultante. TEMAS 36
De creación reciente, hay dos métodos de criptanálisis muy eficaces, conocidos por lineal y diferencial. Uno y otro se han utilizado para descifrar cierto número de sistemas de cifrado, y han puesto de manifiesto que el DES puede descifrarse centenares o millares de veces más deprisa que lo habitual en un ensayo exhaustivo de claves. En el criptanálisis diferencial, introducido por Shamir y Eli Biham, del Instituto Technion de Israel, se encriptan muchos pares de mensajes en texto llano cuyas diferencias están cuidadosamente elegidas, con la intención de hallar un correspondiente par de textos cifrados que presenten una determinada discrepancia. El descubrimiento de un par de este tipo proporciona información sobre la clave. El criptanálisis lineal, desarrollado por Mitsuro Matsui, de la compañía Mitsubishi, busca correlaciones entre el texto llano, el texto cifrado y la clave, que sean verdaderas con frecuencia ligeramente mayor que lo son falsas. Después, el método recopila estadísticas sobre grandes números de pares texto llano-texto cifrado, buscando sesgos que revelen indicios sobre la clave. Por potentes que sean, las técnicas de criptanálisis reclaman una abrumadora carga computacional. No es insólito que, en vez de tratar de descifrar un procedimiento de cifrado, resulte más sencillo atacar el protocolo, o implantación, de tal cifrado. Desconfiad del intermediario
U
na posible amenaza son los ataques del intermediario, la mayor flaqueza de los criptosistemas de clave pública. Cuando Benito se dispone a enviar un mensaje a Alicia, quizá no se percate de que Carolina anda buscando suplantar a Alicia. Si Carolina lograse que Benito, en lugar de la clave pública de Alicia, emplease la que ella tiene, podría descifrar el mensaje de Benito. La única forma de impedir ataques de este tipo sería que Benito confirmara que la clave pública de Alicia realmente pertenece a Alicia. La mayor parte de la complejidad de las implementaciones bien diseñadas de los criptosistemas de clave pública tiene que ver con este tipo particular de vulnerabilidad. Una solución sería hacer que un fedatario comprobase y certificase las claves. Este método, sin embargo, pone en entredicho la cuestión principal: ¿Deben certificar las claves unas autoridades gubernamentales, procediendo de LA INFORMACIÓN
Y N S A R K Y R T I M D
ALICIA Número x secreto
CAROLINA Número z secreto
BENITO Número y secreto
g x
g z
g y
g z
g x g y
g z
( g z ) x = g xz El secreto compartido es g xz
( g x ) z = g xz ; ( g y ) z = g yz El secreto compartido con Alicia es g xz y el secreto compartido con Benito es g yz
( g z ) y = g yz El secreto compartido es g yz
4. EL ATAQUE POR INTERMEDIARIO es el punto débil de los criptosistemas de clave pública. Si Carolina intercepta las transmisiones entre Alicia y Benito, tal vez logre engañar a Benito y le haga utilizar su g z en lugar del valor g x de Alicia, e inducir del mismo modo a Alicia a que use g z en vez del g y de Benito. Carolina podría entonces descifrar y volver a encriptar los mensajes que Alicia y Benito se intercambian, sin que éstos se percatasen. Es como si Alicia y Benito estuvieran hablándose por teléfonos especiales, encriptados, mientras Carolina les espía utilizando un par de tales teléfonos para desencriptar la transmisión y volverla a encriptar después.
arriba abajo, o bien se ha de seguir claves y en los procesos de encriptael método inverso, descentralizado, ción y descodificación, sobre todo, se con participación de diversas empre- implanten en procesadores de 32 bits sas privadas o individuos particula- o lo estén en microprocesadores de res, permitiendo a cada cual elegir por ocho bits, previstos para tarjetas sí los fedatarios a los que confiar la “inteligentes” y otros equipos. Habrán firma de claves? Una cuestión deli- de funcionar eficientemente en una cada que merece un artículo entero. amplia gama de aplicaciones, que Conforme han ido perfeccionán- pueden ir desde las comunicaciones dose las técnicas de desvelar claves, vía satélite hasta la televisión de alta han mejorado también los algoritmos definición. de criptografía, cada vez más robus Varios de los candidatos a AES han tos. El Instituto Nacional de Pesos y alcanzado una notable perfección en Medidas norteamericano ha solici- su diseño. Las mejores propuestas tado diseños para el Estándar de han aprovechado la experiencia de Encriptación Avanzada (AES), nuevo criptógrafos que han estado estusistema de cifrado por bloques que ha diando los cifrados por segmentos a de reemplazar al Estándar de En- lo largo de los últimos 20 años; han criptación de Datos (DES), que ha tenido en cuenta sus progresos para llegado al fin de su vida útil, a causa, defenderse de los métodos lineal o sobre todo, de lo pequeño de su c lave diferencial de análisis criptográfico. de 56 bits y su tamaño de bloque, de De las 15 propuestas presentadas, sólo 64 bits. El AES, que viene sus- muchas constituirían estándares de citando encendido interés en la comu- encriptación dignos de crédito. El sisnidad criptográfica, utilizará claves tema MARS, que aprovecha la expecon un tamaño de 128, 192 o 256 bits riencia del equipo de IBM creador del con el fin de encriptar datos en seg- DES, utiliza dos estructuras muy mentos de 128 bits. diferentes para las rondas de encripLos diseños del AES han de satis- tación. El método mixto, afirman los facer varios criterios. Habrán de ser criptógrafos de IBM, proporcionará flexibles y admitir diversos tamaños mayor seguridad que la conseguida de clave y de bloque; habrán de ser con un cifrado homogéneo. Por su eficientes en el establecimiento de parte, el sistema CAST-256 genera77
liza la estructura CAST precedente Un algorimo, el XL, resuelve muchos hasta una clave de 256 bits y un sistemas de ecuaciones así, pero fratamaño de bloque de 128 bits. El sis- casa con Rijndael. Nicolas Courtois tema Twofish reviste mayor rigor y Josef Pieprzyk han propuesto una matemático que Blowfish, su prede- mejora de XL, XSL. Está por ver la cesor. El Serpent despliega un insó- eficacia de esta teoría en la práctica, lito diseño en paralelo con el fin de pero los ataques algebraicos de ese hacerlo tan veloz como DES, con un tipo podrían ser el punto débil del breve tiempo de ajuste de la clave, lo AES, en opinión de Courtois.] que debería permitir que el sistema funcionase eficientemente para pre- Descifrar el futuro paración de extractos. ualquiera que sea el candidato [Mars, Twofish, Serpent, RC6 y seleccionado, en la carrera de Rijndael fueron los finalistas del con- armamentos que sostienen contra los curso que eligió el algoritmo de cifrado criptanalistas, el AES promete incli AES. En octubre de 2000 se comunicó nar todavía más la balanza en favor que el vencedor era Rijndael (deno- de los criptógrafos. En nuestros días, minado así por el nombre de sus crea- los sistemas de encriptación más perdores, los belgas Joan Daemen, de Pro- fectos se hallan fuera del alcance de ton World —fabricante de tarjetas los más sagaces métodos de análisis inteligentes—, y Vincent Rijmen, del criptográfico. Pero cabe imaginar que laboratorio COSI de la Universidad aparezcan nuevas y potentes técniCatólica de Lovaina). Este algoritmo cas para descifrar mensajes. Aun así, repite 10, 12 o 14 veces la misma fun- muchos criptólogos sostienen que la ción de transformación al bloque de ventaja de los creadores de sistemas texto que debe cifrarse. La función de cifrado sobre los descodificadores consta de cuatro pasos. El bloque y no hará sino aumentar. la clave se escriben como matrices de Estoy de acuerdo con tal afirmación, 16, 24 o 32 casillas (correspondiendo en parte, en vista de lo activa que es cada casilla a un byte). En el primer la comunidad criptográfica, tanto en paso, se aplica una “S-Box” —una medios académicos como en el sector tabla de transformación de bytes— a privado. Ha crecido y madurado hasta la matriz del bloque, lo que introduce ponerse a la par con los expertos de no-linealidad. En el segundo, se mez- la milicia en este campo. Tenemos la clan linealmente los bytes de cada prueba de que así es en la reciente columna multiplicándolos por una desclasificación de la cifra Skipjack matriz fija, lo que introduce difusión como material secreto, que la Agencia de los bytes dentro de cada columna. Nacional de Seguridad había desaEl tercer paso desplaza cada fila de rrollado en secreto para el microcirla matriz un número distinto de casi- cuito Clipper. Una recensión efecllas, lo que introduce introduce difu- tuada por Biham, del Technion, un sión entre las columnas. El cuarto criptólogo universitario, reveló que paso suma la matriz a la matriz de el algoritmo era menos conservador, la clave, lo que introduce dependen- y tenía menores márgenes de seguricia de la clave. dad, que los mejores diseños creados En un principio, la Agencia Nacio- en el mundo académico. La criptogranal de Seguridad de Estados Unidos fía —como la propia Internet— ha negó que fuese a utilizar el AES para salido desde las oscuras sombras de encriptar documentos secretos; se la milicia al sol vigoroso del mercalimitaría a utilizarlo sólo cuando do libre. “fuese apropiado”. Sin embargo, en 2003 aprobó su utilización para todos los organismos gubernamentales. El AES de 128 bits se aplicará a los documentos clasificados como secretos y las versiones de 192 y 256 BIBLIOGRAFIA COMPLEMENTARIA bits a los considerados “top secret”. El consorcio europeo Nessie de encripTHE OFFICIAL PGP USER′S GUIDE. Philip R. tación recomendaba también en 2003 Zimmermann. MIT Press, 1995. el AES, al que no se le había descuAPPLIED CRYPTOGRAPHY. Segunda edición. bierto, decía, ningún punto débil. Sin Bruce Schneier. John Wiley & Sons, embargo, algunos criptólogos estu1996. Puede hallarse más información en http:// dian su vulnerabilidad a ataques. Se www.pgpi.com; http://www.pgpinternaha mostrado que la recuperación de tional.com, http://www.pgp. com/phil; la clave a partir de un solo texto en http://csrc.nist.gov/encryption/, http:// la versión de 128 bits equivale a un www.epic.org, http:// www.eff.org y sistema de 8000 ecuaciones cuadráhttp://www.cdt.org. ticas con 1600 incógnitas binarias.
C
78
TEMAS 36
Láser en el kilómetro final Los modernos servicios multimedia en banda ancha pueden llegar directamente a viviendas y empresas por medio de láseres infrarrojos de corto alcance Anthony Acampora
I
magínese una red urbana de dis- óptica (entre 60.000 y 300.000 euros Los láseres infrarrojos de baja tribución de agua que no abastece por kilómetro). Por tales razones hoy potencia operan en una banda del locales y viviendas porque las sólo se utiliza del 2 al 5 por ciento espectro de frecuencias no sujeta a tuberías carecen de la longitud su- de esta red de cobertura nacional. licencia; están diseñados —o se pueficiente. Esta situación se parece Aunque diversas técnicas de trans- den diseñar— de modo que no suponmucho a la que hoy se da en la red de misión de datos que no emplean la gan riesgo alguno para el ojo humano. transmisión de datos de alta veloci- fibra, entre ellas el radioenlace por Por desgracia, la escasa potencia de dad. Se han invertido muchos miles microondas, las líneas de abonado estos láseres limita su alcance. En de millones de euros en construir digitales y los módems de cable, in- función del tiempo que haga, los enlaredes básicas de fibra óptica que lle- tentan materializar la conectividad ces por FSO abarcan desde unas pocas ven a los ordenadores domésticos y en banda ancha, muchos expertos manzanas urbanas hasta un kilóprofesionales servicios multimedia creen que ninguna cuenta con más metro, distancia suficiente para un de calidad realmente elevada; pese a probabilidades de éxito que la óptica tráfico de banda ancha, en ambos ello, se han quedado cortas: en Es- en el espacio libre (FSO, “free-space sentidos, entre la red básica y un tados Unidos, por ejemplo, les falta optics”): la comunicación óptica, pero buen número de usuarios finales. un poco menos de un kilómetro para sin fibra. Inventada en los años se- Para remediar la fuerte reducción llegar a nueve de cada diez empre- tenta, se ha reavivado en fechas re- del alcance que causa el mal tiempo sas de más de 100 empleados. No obs- cientes. Los elementos básicos de este —sobre todo la niebla espesa— en tante el incesante crecimiento de la sistema son los transceptores (trans- unos dispositivos que dependen de la demanda, tardan en hacerse reali- misores-receptores) de láser infrarro- vis ibi lid ad dir ecta, puede est abl edad las halagüeñas perspectivas: la jos de baja potencia, que transmiten cerse una red en la que cada nodo supresión de los retrasos en la nave- datos en ambos sentidos a velocida- transceptor óptico (cabecera de engación por la Red y en el acceso a des de gigabits por segundo. Varios lace) se comunique con varios otros bibliotecas de datos, un comercio elec- proveedores han instalado ya en dis- nodos cercanos. Esta topología “de trónico más ágil, emisiones de vídeo tintas partes del mundo sistemas de malla” garantizaría la retransmisión que pueden contemplarse en el acto FSO reducidos. fiable de enormes cantidades de datos y de seguido, servicios de petición de vídeo, videoconferencias, transferencias de imágenes clínicas en tiempo real, interconexiones de empresas Aplicaciones de la óptica en el espacio libre que posibiliten el compartir traba jos, una variedad de transac ciones • Acceso en el último kilómetro: enlaces de datos de alta velocidad entre entidades comerciales. Todo conectan usuarios finales —empresas y particulares— con proveedores esto no ha despuntado todavía; yace de servicios de Internet y otras redes de fibra metropolitanas y de área enterrado bajo las calzadas y aceras extensa. de las ciudades. • Telefonía móvil: medios para transportar el tráfico de la telefonía celular El problema es bien sencillo: los desde las torres de antena locales a las instalaciones conectadas a la conductores de cobre y cables coared telefónica pública conmutada. xiales que conectan los sistemas de • Conectividad de empresas: interconexión fácil de los segmentos teléfonos y televisión por cable a los de red de área local instalados en los distintos edificios de una empresa. edificios carecen de la capacidad • Reserva para la fibra: enlaces redundantes de bajo coste que sirven de necesaria (del orden de gigabits por reserva a la fibra óptica, sustituyendo a un segundo enlace por cable de segundo) para transportar servicios fibras enterrado. y aplicaciones de gran anchura de • Aceleración del servicio: servicio de alta velocidad transitorio para banda. Además, costaría demasiado clientes que esperan el tendido de la infraestructura de fibra óptica. instalar los puentes de fibra óptica Instalación de una red de comunicaciones de emergencia. requeridos para conectar millones de usuarios a la red básica de fibra LA INFORMACIÓN
79
desde unos puntos de difusión centralizados a poblaciones, ciudades o regiones enteras. Los equipos de FSO que se han comercializado proporcionan velocidades de datos muy superiores a las que ofrecen las líneas de abonado digitales o los cables coaxiales —de 10 megabit a 1,25 gigabit por segundo—, más que suficientes para la mayoría de los servicios y aplicaciones de gama alta en banda ancha. Además, los diodos láser más avanzados ya disponibles en el mercado operan a un ritmo tal, que permitiría transmitir información a velocidades todavía mayores, llegando a los 9,6 gi-
gabit por segundo. Si bien estos dispo- van como sus promotores predicen, sitivos aún no están adaptados para esta industria podría pasar de facel uso en la FSO, un sistema de ese turar en el año 2000 unos 120 millotipo podría transmitir impulsos ópti- nes de euros a superar lo s 2000 micos de sólo 100 picosegundos (100 billo- llones en 2006, según un estudio nésimas de segundo) de duración. dirigido por Strategis Group, conLos sistemas ópticos en el espacio sultora de telecomunicaciones de libre cuestan entre tres y diez veces Washington, D.C. menos que las instalaciones convencionales de fibra óptica subterránea. Salvar el último kilómetro Por si fuera poco, enterrar el cable aa óptica en el espacio libre se do lleva de seis a doce meses, mien vale de aparatos y técnicas ideatras que el enlace FSO se instala y dos originalmente para los sistemas pone en servicio en pocos días. No es de fibra óptica por cable, los mismos de extrañar, pues, que cerca de una que ahora se pretende complementar. docena de compañías estén desarro- Las señales electrónicas que contiellando la técnica FSO. Si las cosas nen información digital (los “1” y los “0” del lenguaje binario de los ordenadores) se envían por medio de un 1. SI LAS EMPRESAS adoptaran la técnica de la óptica en espacio libre, quienes residie- transmisor de diodo láser infrarrojo, sen en sus cercanías podrían acceder de un modo asequible a servicios multimedia de montado sobre un tejado o en una
L
banda ancha.
S N O M I S P I H C
ventana, que convierte cada “1” lógico nadas por las oscilaciones del edifi- óptica funcionan normalmente a ese en un estrecho impulso de energía cio y la dilatación o contracción de nivel de servicio. La FSO quizás enóptica y cada “0” en una ausencia de los materiales de construcción, obli- cuentre una de sus principales apliimpulso. A esta modulación digital de gan a introducir medios de segui- caciones en los sistemas de transmila señal óptica se la denomina seña- miento automático en ambos extre- sión que conectan las estaciones base lización todo/nada. Se mejora el ren- mos del enlace, con el consiguiente de radio celular con los centros de dimiento de la transmisión distribu- aumento de la complejidad y del coste. conmutación móvil conectados a la yendo el tráfico en paquetes de datos Hay sistemas de seguimiento activos red telefónica pública conmutada; independientes, que se direccionan y que utilizan plataformas mecánicas esta aplicación requiere una dispotransmiten por separado. Además, el móviles o espejos articulados para nibilidad operativa intermedia, en sistema FSO admite la multiplexa- apuntar el afilado haz hacia las len- torno al 99,99 por ciento. ción por división en longitud de onda tes receptoras y para que la abertura Alcanzar un nivel de calidad fun(WDM), técnica que transporta por receptora mire al transmisor. Me- cional tan elevado es todo un reto una sola vía óptica decenas de cana- diante ajustes regulares controlados para la óptica en el espacio libre. les de señal independientes, siempre por realimentación se mantienen el Cuanto mayor sea la densidad de la que cada uno vaya codificado en una transmisor y receptor en la orienta- niebla, menor será la disponibilidad longitud de onda ligeramente dis- ción correcta. y más limitado el alcance admisible. tinta de la de los demás. En las regiones donde es muy rara la Los impulsos ópticos emitidos por Perdidos en la niebla niebla intensa puede lograrse una el diodo láser de 850 o 1550 nanóa sensibilidad a la niebla ha re- disponibilidad excelente a una dismetros atraviesan después una lente trasado el lanzamiento comercial tancia muy cercana a la máxima de enfoque y se envían al exterior en de los sistemas ópticos en espacio alcanzable, alrededor de un kilómeforma de haz luminoso colimado, libre. Es cierto que la niebla (y en un tro. Sin embargo, en climas menos como el que genera una lámpara de grado mucho menor, la lluvia y la nie- favorables esta distancia sería mudestellos. Pese al enfoque por la len- ve) produce una notable caída de la cho menor. te, la potencia del haz se dispersa potencia óptica recibida y, por tanto, Para resolver el problema del alcon la distancia; cuando una parte limita considerablemente el alcance cance y la fiabilidad, cabe diseñar sisde la luz transmitida incid e en la len- máximo de un enlace de FSO. El coefi- temas FSO con longitudes de enlace te de la abertura de un receptor (tam- ciente de atenuación óptica aumen- limitadas que forme parte de una topobién situado en un tejado o en una ta exponencialmente con la distancia. logía de malla óptica interconectada, ventana), la potencia óptica captada En una niebla que no sea demasiado configuración semejante a una tela se enfoca a un fotodetector, que con- densa, la señal óptica pierde el 90 por de araña que llevaría los servicios de vierte los impulsos en una señal eléc- ciento de su intensidad cada 50 me- banda ancha a numerosos edificios, trica débil. A continuación, esta señal tros. Esto implica que a los 100 metros demasiado alejados de la red básica se amplifica y regenera en un re- se habrá perdido el 99 por ciento de la de fibra óptica para poder conectarceptor electrónico muy sensible, lo energía y a los 150 metros el 99,9 por se a ella por medio de un solo enlace que completa el enlace de transfe- ciento. Para que un enlace óptico en de FSO. En una red de transmisión de rencia de datos ( véase el recuadro el espacio libre resulte practicable datos con esa estructura de malla, el “Completar la conectividad”). tendrá, pues, que estar diseñado con edificio más cercano al término de la Aunque el haz de infrarrojos trans- un “margen de enlace” especificado, fibra óptica se equipa con un nodo mitido sea estrecho, no por ello deja es decir, un exceso de potencia óptica FSO “raíz”, el cual está unid o a la fide abrirse; cuando llega al extremo al que pueda recurrirse para tras- bra y contiene varios transceptores receptor del enlace forma un cono de pasar la niebla cuando sea necesario. ópticos. Otros edificios atendidos se bastante anchura. El grado de disDado un margen de enlace deter- equipan también con nodos FSO propersión del haz viene determinado minado, toma sentido otro paráme- vistos de transceptores múl tiples. por el tamaño de la lente transmiso- tro de medida: la disponibilidad del Estos transceptores permiten que los ra, variando en razón inversa al diá- enlace, la fracción del tiempo de fun- nodos se comuniquen con sus vecinos metro de la misma. De ahí que la cionamiento total durante la cual el próximos utilizando la interconexión cantidad de energía que realmente enlace falla a causa de la niebla u en malla. alcanza la lente colectora caiga de- otras interrupciones físicas. DepenLas señales destinadas a un edifiprisa con la distancia (varía en razón diendo de la aplicación, se establecen cio concreto se envían desde el nodo inversa al cuadrado de ésta). Para objetivos de disponibilidad dispares. raíz a una determinada serie de enlaunos determinados valores de la velo- En la red interna por FSO de una ces de la malla, con nodos intermedios cidad de transmisión de datos, la po- compañía privada (la conexión, por que actúan como repetidores regetencia óptica transmitida, la sensibili- ejemplo, de dos despachos de la misma neradores a lo largo del camino. Anádad óptica del receptor y el tamaño empresa situados en diferentes edi- logamente, un edificio envía señales de la lente receptora, la divergencia ficios) puede aceptarse un 99,9 por al nodo raíz siguiendo otra ruta disdel haz impone una distancia máxima ciento de tiempo útil, que correspon- tinta. De este modo la longitud de cada a la cual puede funcionar el enlace dería a nueve horas inservibles por enlace óptico es corta, tanto como para óptico. año. conseguir una gran inmunidad a la Para aumentar esa distancia hay Por el contrario, los proveedores niebla. Si fallara un enlace, las señaque utilizar lentes transmisoras de públicos de señal necesitan que el les se reencaminarían por una vía altermayor diámetro que reduzcan la dis- enlace esté disponible para los clien- nativa cualquiera de las redundantes persión del haz; de esa manera incide tes preferentes el 99,999 por ciento que haya previstas, lo que facilita una una proporción mayor de energía del tiempo (como se dice en las tele- recuperación rápida tras un fallo del óptica en la lente receptora. Al estre- comunicaciones, la marca de los cinco equipo. Por último, la malla puede char el haz, sin embargo, las minús- nueves): cinco minutos de fallo al año conectarse a varios nodos raíz, ofreculas variaciones del blanco, origi- como mucho. Los sistemas de fibra ciendo así una mayor capacidad total
L
LA INFORMACIÓN
81
Completar la conectividad EXTENSION DE LA BANDA ANCHA AL KILOMETRO FINAL Instalando en los edificios nodos ópticos de espacio libre (FSO) con multitransceptores ( debajo y a la derecha ), una red de transmisión de datos de corto alcance con estructura de malla y enlaces bidireccionales por láser extendería la distribución de datos en banda ancha desde las ciudades ya atendidas a otras poblaciones, urbanizaciones e incluso regiones.
Transceptores múltiples
URBANIZACION E C A R G E I R U A L
T O R RA L R E D E D IST RIBUCION C E N T BARRIO
Red básica nacional de fibra optica
NODO OPTICO DE ESPACIO LIBRE
P ARQUE E MPRESARIAL
C E NT RO U RBANO
Z ONA INDUS TRIAL
ENLACE OPTICO DE ESPACIO LIBRE CON LA RED BASICA DE FIBRA OPTICA Transmitir datos en banda ancha dentro de un área residencial a velocidad elevada es la función primordial de un enlace FSO. Estos enlaces pueden proporcionar la conexión de “último kilómetro” con la red de fibra óptica de alta capacidad ya tendida. Los datos codificados para las aplicaciones y servicios de banda ancha que se ejecutan en equipos de oficina digitales (y en el futuro, en sus homólogos domésticos) se envían a un nodo transceptor FSO montado en un tejado o ventana (1 ). Diodo láser Nodo
1
El diodo láser del transceptor convierte los datos en impulsos ópticos infrarro jos, colimados por una lente (2 ) y dirigidos en haz ( 3 ) a otro nodo FSO (en este caso, un nodo raíz conectado a la conducción de fibra óptica) fijado en un edificio próximo. La lente receptora de ese transceptor enfoca los impulsos ópticos a un fotodetector, que los restituye como impulsos eléctricos (4 ). Los impulsos son luego amplificados y depurados por un regenerador de señal ( 5 ).
A continuación, las señales eléctricas se envían por un hilo a otro diodo láser, que las codifica ópticamente (6 ) para transmitirlas por un cable de fibra óptica que forma parte de la red básica nacional (7 ). En el extremo de dicho cable, un fotodetector ( 8 ) reconvierte las señales en impulsos eléctricos que utilizarán los ordenadores y servidores de un nodo de conmutación principal de Internet ( 9 ); éste enlaza con los proveedores de aplicaciones y servicios de banda ancha.
Fotodetector Enlace óptico en el espacio libre
2
Regenerador de señal
4
Nodo raíz
5 Diodo láser
Hasta 1 kilómetro
3 Conducción de fibra óptica
Impulsos ópticos
7
Impulsos eléctricos
9 Equipo de oficina informático y de comunicaciones
82
Nodo de conmutación de Internet
6
8 Fotodetector
TEMAS 36
S N O M I S P I H C
2. UNAS REDES de enlaces por láser invisibles podrían traer en breve plazo la revolución de la banda ancha.
al grupo de edificios a los que se da ser vicio. Cada estación regeneradora/repetidora de un sistema en malla debe contener, además de un pequeño número de transceptores ópticos, un conmutador electrónico que combine (por multiplexación) el tráfico de señales procedente del edificio loc al con el que llega desde otros edificios próximos y encamine las señales entre el nodo raíz y cada uno de los edificios atendidos. Por añadidura, las necesarias funciones de multiplexación, desmultiplexación y conmutación exigen que todas las señales procedentes de los diversos equipos informáticos y de comunicaciones de los usuarios se conviertan a un formato común. Realiza esta conversión de formatos un dispositivo llamado unidad de terminación de la red. Aunque los datos atraviesen multitud de nodos a lo largo de los diversos trayectos, los usuarios perciben cada señal como si se entregara a la red básica de fibra a través de una línea de transmisión exclusiva. De este modo es posible ofrecer a zonas extensas un ancho de banda propio de la fibra óp tica e instalar con bastante rapidez y comodidad nuevos nodos, que incorporan más edificios a la red FSO. Para cada señal procedente de cada edificio, los programas de gestión de la red eligen un trayecto a través de la malla que pase por uno de los nodos raíz del sistema. Como los programas detectan el fallo de un nodo, las señales afectadas pueden encauzarse instantáneamente de manera que sorteen el problema. Al diseñar la red se ha de prever en cada enlace óptico una reserva no asignada; así se garantiza que habrá capacidad suficiente para reencaminar el tráfico y recuperarse de los posibles fallos de uno o de múltiples enlaces. El radioenlace punto a punto por microondas, técnica inmune a la atenuación de la niebla, compite con la óptica de espacio libre en despejar el atasco del último kilómetro. Presenta la desventaja de que se necesitan licencias para funcionar en la mayoría de las bandas de radiofrecuencias; en casi todas, además, está limitado el espectro disponible, con las consiguientes restricciones de capacidad. El radioenlace por microondas resulta además más costoso que los sistemas de FSO, y sus transmisiones son vulnerables a la interferencia. Otra desLA INFORMACIÓN
ventaja más es la considerable atenuación que sufre la señal cuando llueve mucho, especialmente en las frecuencias más altas, donde se hallaría más espectro disponible. Sin embargo, funcionando en la frecuencia de 60 gigahertz, el enlace de microondas podría complementar el sistema de óptica en espacio libre. La Comisión Federal de Comunicaciones de EE.UU. ha asignado una porción del espectro aún libre en la gama de 60 GHz a las aplicaciones de alta velocidad. Esta concesión significa que se puede ofrecer más capacidad y utilizar un método de modulación que no aproveche con gran eficacia el espectro —y por tanto que cueste menos—, como una sencilla modulación todo/nada, por ejemplo. Dado que la lluvia intensa y la espesa niebla no ocurren simultáneamente, hay la oportunidad de potenciar la fiabilidad de la red mediante la combinación de la radio en 60 GHz con la FSO. El sistema resultante de la unión de ambas técnicas sería muy fiable a distancias mucho mayores.
Aunque a la óptica en el espacio libre le queda algún trecho por recorrer antes de solucionar sus problemas pendientes, se trata de la mejor opción para salvar el fatídico kilómetro final y causar la tan esperada revolución de la banda ancha. BIBLIOGRAFIA COMPLEMENTARIA UNINET: A HYBRID APPROACH FOR UNIVERSAL B ROADBAND A CCESS U SING SMALL RADIO CELLS INTERCONNECTED BY FREE-SPACE OPTICAL LINKS. A. Acampora, S. Krishnamurthy y S. H. Bloom en IEEE Journal on Selected Areas in Communications, vol. 16, n.o 6, págs. 973-988;
agosto de 1998. A BROADBAND WIRELESS ACCESS NET WORK B ASED ON M ESH -C ONNECTED FREE -S PACE OPTICAL LINKS. Anthony Acampora y Srikanth V. Krishnamurthy en IEEE Personal Communications (hoy llamada IEE E Wir ele ss Co mmu ni cations), vol. 6, n.o 5; octubre de 1999. F RE E -S PACE L ASER C OMMUNICATION TECHNOLOGIES. Número especial de Proceedings of SPIE (publicación anual).
83
Informatización del hogar Gracias a unas ingeniosas técnicas, ya pueden comunicarse los ordenadores y los electrodomésticos por medio del cableado eléctrico de la casa W. Wayt Gibbs
M
uy pronto, todos los posibles comunica por medio de ondas radioterminales de una vivienda eléctricas. —al principio ordenadores La acogida de las normas Homee impresoras, en el futuro teléfonos, PNA y Wi-Fi entre los propietarios aparatos recreativos e incluso elec- de viviendas no ha sido calurosa, trodomésticos— podrán interconec- según Kurt Scherf, encargado por tarse sin más que enchufarlos a la red Park Associates (Dallas) de seguir el eléctrica. Si entre los dispositivos de desarrollo de las redes domésticas. esa red hay un módem, todas las De todas las familias estadounidentomas de corriente de la casa darán ses equipadas con varios ordenadoacceso lo mismo a Internet que a la res (unos 26 millones), debe de haber corriente eléctrica. 5,5 millones ya configuradas en red, Desde hacía años se venía pensando que de un 80 % a un 90 % de los casos que tenía que haber alguna forma de es del tipo Ethernet. A 100 megabit que los kilómetros de hilo de cobre que por segundo, las redes Ethernet llegan a cada habitación de nuestras transmiten diez veces más rápido casas ofreciesen un doble servicio. La que las HomePNA y Wi-Fi, si bien han verdad es que ya en 1899 se concedió de utilizar cables especiales. la primera patente estadounidense de La Wi-Fi todavía resulta algo cara; un método de comunicaciones que además, a muchos usuarios potenutilizaba el cableado eléctrico; pero ciales les preocupa que sus vecinos un gran número de intentos se estre- puedan espiar los correos electrónillaron contra obstáculos técnicos in- cos que envían y las páginas Web que salvables. Tras los fracasos de firmas visitan. Con razón , afirma Sch erf : bien conocidas —Nortel Networks y “Casi todos los dispositivos inalámSiemens AG—, unas compañías euro- bricos de red poseen la opción de enpeas ofrecen desde el año pasado a criptar, pero la mayoría de los usuasus clientes servicios telefónicos y de rios no saben cómo activarla”. La Internet por el tendido eléctrico. Las principal limitación de HomePNA es redes eléctricas norteamericanas y que los apartamentos y las viviendas japonesas tienen, sin embargo, un di- más antiguas no suelen tener más de seño diferente, que encarece dema- una o dos ro setas telefónicas. siado la competición con el DSL y el En cambio, hay tomas de corriente cable coaxial de televisión ( véase el por todas partes. Al no necesitar recuadro “Tendidos eléctricos e In- transductores de radio, el equipo de ternet”). una red de comunicaciones instalada Mientras, han aparecido otras téc- por medio de los cables de la luz puede nicas que permiten interconectar las ser más barato y más seguro que el máquinas que haya dentro de un edi- de Wi-Fi. El quid está en conseguir ficio sin tirar más cables por las pare- un funcionamiento rápido y fiable. des. La nueva norma de conexión en Las normas anteriores de transmisión red por medio de los cables eléctricos de datos por cableado eléctrico —las ordinarios tendrá que competir con X.10, CEB us y LonWor ks eran las la HomePNA, por ejemplo, que uti- más conocidas— no permiten pasar liza las rosetas del teléfono. Otra com- de unos 10 kilobit por segundo. petidora, la norma 802.11b, o Wi-Fi, HomePlug Powerline Alliance, un 84
consorcio de unas 90 empresas electrónicas e informáticas, sabía que tenía que encontrar el modo de conseguir una velocidad 1000 veces mayor. De la tela de araña al bolso de seda
E
l problema atrajo a Larry W. Yonge, ingeniero de telecomunicaciones y vicepresidente de investigación de Intellon, en Ocala (Florida). Fundó hace tiempo una empresa de antenas parabólicas; tuvo un gran éxito durante años, pero acabó por sucumbir ante la competencia del cable. Cuando entró en Intellon en 1996 no se dedicó a otra cosa que a buscar la manera de construir una red doméstica de datos con los cables de la corriente eléctrica de las casas. “No era tan evidente que pudiera conseguirse,” señala. “Teníamos que diseñar un sistema entero desde sus cimientos.” Hasta los más avezados en tratar con las interferencias dicen que las líneas eléctricas son un medio de comunicación pésimo. “Hemos diseñado un sistema muy eficaz para transportar energía eléctrica a 60 hertz”, afirma William Blair, del Instituto de Investigación de la Energía Eléctrica de Palo Alto, en California, “pero intentar transmitir señales de comunicaciones por esos mismos hilos es desastroso”. Es como querer transcribir exactamente la partitura de una sinfonía emitida por los altavoces de un abarrotado estadio de fútbol, en los últimos minutos de una disputada final de Copa, con fuerte viento y orejeras. En lugar del alboroto de la multitud, pongamos todo el maremágnum de aparatos domésticos que envía descargas estáticas por los hilos. El caTEMAS 36
O D N A M I R G T T O C S
LA INFORMACIÓN
85
bleado doméstico, en sí, filtra con preferencia algunas frecuencias y altera la señal de un modo errático; recuerda mucho a las distorsiones que la música sufre en la megafonía. En el tren de datos se reflejan las ondas estacionarias y resonancias por realimentación generadas por los enchufes no utilizados y otros cambios repentinos de la resistencia del hilo. El papel de las orejeras corresponde al cuadro de disyuntores de una vi vienda, que atenúa las señales al di vidir el cableado en sec ciones casi independientes. En las casas más modernas, provistas de la alimentación llamada de doble fase, es frecuente que un mensaje enviado por el hilo “activo” tenga que salir a la calle hasta alcanzar un transformador de distribución colocado en un poste del tendido eléctrico y vuelva después por el hilo de “tierra” hacia una parte diferente del edificio. Cuando la señal llega a la toma de destino puede que se haya atenuado en exceso. Añádase a lo anterior que la forma y el tamaño de la red eléctrica cambian en la casa de manera impredecible cada vez que se acciona un interruptor. Al encender luces o conectar un alargador varían las tensiones, resistencias y corrientes. Por si fuera poco, dice Blair, los circuitos eléctricos, largos, cerrados sobre sí mismos, se convierten en antenas y captan una gran variedad de señales radioeléctricas que interfieren la señal de datos. Pero si, p ara vencer el ruido, ésta se amplifica de-
masiado, los propios hilos transmi- condiciones de la línea. La elección tirán señales de radio que causarán recayó en la llamada multiplexación interferencias en cualquier otro apa- por división de frecuencias ortogonal rato; habrá, por ejemplo, zumbidos en (OFDM), que se utiliza en Europa el equipo estereofónico y perturba- para la difusión de la televisión diciones estáticas en el televisor. gital. Yonge y sus ayudantes abordaron estos problemas por diversos cami- Doblegarse nos. Decidieron utilizar frecuencias ante el viento muy superiores a las que nunca se a OFDM es más sencilla de lo que hubiesen empleado, por encima de sugiere su pomposa denominacuatro megahertz. En esa región del ción (véase el recuadro “Afrontar el espectro electromagnético, los apa- ruido: adaptarse a él y evitarlo”). A ratos domésticos generan menos ruido diferencia de la radio de FM, donde y las señales tienden a pasar sin cada canal lleva un programa difedemasiadas perturbaciones de uno a rente, en la OFDM un dispositivo otro lado del cuadro de disyuntores HomePlug emite el mensaje utilizando (o del transformador de distribución). de un golpe todos los canales inde Ya no hay orejeras. pendientes (76). Antes de iniciarse el Eligieron, además, una faja de intercambio de datos entre dos adapespectro muy amplia, de los 4,5 a los tadores HomePlug, éstos se envían 21 megahertz, y la dividieron en 84 ca- del uno al otro señales de prueba por nales. Con este procedimiento, muy cada uno de los canales y bloquean los semejante al que se utiliza en la tele- que presenten niveles excesivos de fonía celular digital, los dispositivos ruido o atenuación. “Ese mapa de pueden transmitir datos a menor canales se actualiza a intervalos de potencia y no contaminar tanto el pocos segundos”, explica Yonge. De ese entorno radioeléctrico. Para que no modo, la velocidad de la comunicahubiese quejas ante la Comisión Fe- ción aumentará y disminuirá según deral de Comunicaciones estadouni- sea menester mientras prosiga la condense, bloquearon los ocho canales versación. más susceptibles de interferir las Siguiendo con la analogía del esseñales de los radioaficionados. tadio de fútbol, así se neutraliza la “De todos modos, el tratamiento acción del viento, pero no se comdel ruido en la línea eléctrica fue el pensan del todo los ecos y las súbitas problema más arduo, el que se llevó ráfagas de ruido. Para evitar los ecos, la mayor parte de nuestro esfuerzo”, a cada paquete de datos enviado a la señala Yonge. Se necesitaba una téc- red se le incorpora un intervalo de nica de transmisión capaz de adap- guarda, breve pausa que deja extintarse a las rápidas variaciones de las guirse las reverberaciones. Y toda
L
Tendidos eléctricos e Internet
S
e puede ir más allá de usar los cables de la luz de las casas en las redes de datos interiores; ahora, el tendido eléctrico conecta a Internet barrios enteros, aunque no en todas las partes del mundo. Y no sólo porque la forma de los enchufes difiere de un país a otro, sino porque además varía la estructura de la red de energía eléctrica. En la mayoría de las naciones de Europa, Asia y Sudamérica un transformador único de gran tamaño atiende a centenares de edificios. En cambio, en EE.UU., Canadá y Japón, entre otros países, se utilizan pequeños transformadores sobre postes que conectan de tres a seis vecinos sólo. Por desgracia para las compañías eléctricas que quieran proveer servicios de Internet con su red, los transformadores se comportan como grandes filtros que borran las pequeñas oscilaciones de la corriente en las que reside la información. “Se puede instalar un amplificador de desacoplamiento para cada transformador”, dice William Blair, del Instituto de Investigación de la Energía Eléctrica de Palo Alto, California, “pero no es rentable intercalar docenas de ellos en cada circuito, como habría que hacer en EE.UU. Los europeos sí pueden instalar con un rendimiento económico aceptable un amplificador de desacoplamiento en una
86
subestación que encamine las señales a 200 o 300 viviendas desde el transformador.” El verano de 2001 la empresa alemana RWE Powerline, filial radicada en Essen de una compañía eléctrica, comenzó a ofrecer por unos 35 euros al mes un servicio de dos megabit por segundo. Los adaptadores son de la firma suiza Ascom. Esta casa informaba en septiembre de 2001 de que la compañía eléctrica Freiburgischen Elektrizitätswerken empezaba también en Suiza a ofrecer conexiones a Internet a través de sus tendidos y de que había pruebas de campo en curso en otros nueve países europeos, en Hong Kong, en Singapur y en Brasil. En España, Endesa ya ha probado esta técnica en el Puerto Olímpico de Barcelona con dispositivos de Ascom y en Sevilla con los de la empresa de Valencia DS2. Enersis, filial de Endesa, solicitó a finales de 2001 que se le autorizase un plan piloto en un barrio de Santiago de Chile. Unión Fenosa, que trabaja con DS2, también ha realizado pruebas en Madrid, Alcalá de Henares y Guadalajara. La Comisión del Mercado de las Telecomunicaciones ha determinado que las compañías eléctricas deben ofrecer este servicio antes de octubre de 2005 al 40 por ciento de sus clientes.
TEMAS 36
Para conectarse a una red doméstica no hay más que añadir potencia LOS PRIMEROS PRODUCTOS para redes domésticas tendidas por medio de los cables de la electricidad de las casas llegaron al mercado en 2002. De momento sólo conectan ordenadores, impresoras, escáneres y demás dispositivos que acepten conexiones USB o Ethernet, pero la norma HomePlug se aplicará también a futuros aparatos domésticos modificados de manera que se comuniquen a través de sus cables de alimentación.
ORDENADORES PERSONALES
MODEM DE CABLE O DSL
CONECTOR DE DSL O CABLE COAXIAL DE TV
1 DSL a un encaminador Al conectar su módem
que dirige la señal a las líneas eléctricas de su casa, Susana tiene un acceso de alta velocidad a Internet en cada pared.
ENCAMINADOR A LOS CABLES DE LA LUZ
TOMA DE ENERGIA
RED DE DATOS EN LOS CABLES DE LA LUZ
TOMA DE ENERGIA
ADAPTADOR A LA RED DE DATOS EN LOS CABLES DE LA LUZ
2 utilizar el PC de su
3 introduce una contraseña
cuarto para navegar por la Red en busca de información escolar y noticias deportivas.
y hace clic en una página Web para encender la grabadora de vídeo y bajar el termostato de su casa.
Luis puede ahora
Desde la oficina, Susana
PROVEEDOR DE VIDEO
CABLE O DE DSL
TEMP
4 Web en la
Un terminal
cocina va detallando una compleja receta que Susi quería probar...
7 un detector de También hay
movimiento conectado a la red. Tras el fracaso de la difícil receta de Susana, el detector la avisa de que llega el repartidor de pizzas.
6 y Jaime luchan
Entre tanto, Luis
a brazo partido en un videojuego de la red.
LA INFORMACIÓN
5 música de los fiche... y reproduce
ros MP3 guardados en su ordenador personal del piso de arriba.
) M O C . E N A L P X . W W W ( E N A L P X
87
Afrontar el ruido: adaptarse a él y evitarlo LOS CABLES DE LA ELECTRICIDAD interiores de una vivienda están diseñados para soportar una corriente que varía, con mayor o menor regularidad, entre –311 volt y +311 volt (valor eficaz de 220 volt). Las señales de comunicación —pequeñas variaciones de tensión añadidas a esta onda sinusoidal— pueden quedar sofocadas por numerosas fuentes de ruido e interferencia.
Ruido de motores
Reflexión
Los motores de aspiradoras, batidoras y otros utensilios generan descargas estáticas al pasar sus escobillas por los imanes. Estas descargas circulan por el cableado de la casa.
Los cambios bruscos de la resistencia de un circuito, por ejemplo la terminación en una toma que no se está utilizando, son un muro para las señales de comunicaciones; cuando rebotan en él pueden crearse “ondas estacionarias” que confundan al equipo de la red.
311 311 TENSION EN C.A. IDEAL
Interferencia radioeléctrica El cableado eléctrico de una vivienda viene a ser una gran antena que capta señales de las emisiones de radio y televisión o de los radioaficionados cercanos.
?
210 210
Circuitos separados Cambios de tamaño y forma Accionar un interruptor de luz o enchufar un alargador cambia el tamaño y el carácter de la red eléctrica y hay breves caídas o elevaciones de los niveles de potencia.
El cableado doméstico se divide en circuitos cuya única conexión es el cuadro de disyuntores o un transformador de la calle. Las señales que vayan y vengan entre máquinas situadas en distintos circuitos han de salvar estas barreras.
Cómo evita el ruido un sistema HomePlug PEQUEÑOS SIMBOLOS Para enviar un mensaje, el ordenador empieza por dividirlo en paquetes.
Se puede hacer frente al ruido aumentando la potencia de la señal, pero así crece a su vez el ruido radioeléctrico que el cableado emite a modo de antena. REPARACION DE DAÑOS
CODIGOS DE PROTECCION CONTRA ERRORES Un algoritmo matemático intercala en el símbolo varios números que describen su contenido.
Transmisiones parásitas
Excesivo ruido
El adaptador de recepción utiliza otro algoritmo matemático para comprobar la integridad de los símbolos entrantes y reparar los que hayan sufrido daños menores.
Excesiva atenuación
MULTIPLEXACION EN BANDA AMPLIADA Un adaptador HomePlug enchufado en la pared recibe estos paquetes y los subdivide en "símbolos", suficientemente pequeños para que pasen entre las ráfagas de ruido.
88
El adaptador rellena además el símbolo con un intervalo de guarda que lo protege de las colisiones con sus propios ecos y con los de otros símbolos.
Cada par de adaptadores explora 76 canales alojados en una amplia banda del espectro, de 4,5 a 21 megahertz, y bloquea los que presenten ruido o atenuación excesivos. Los símbolos se envían a la vez a todos los canales.
Después, el adaptador reúne los símbolos en paquetes y el ordenador destinatario los monta para formar una copia del mensaje original.
) M O C . E N A L P X . W W W ( E N A L P X
TEMAS 36
carga útil digital se somete a un pro- Shack. Al no necesitar tantos circuicesado previo que introduce infor- tos analógicos, siempre costará menos mación suplementaria destinada a fabricar adaptadores de línea eléctrica la corrección de errores. Si el men- que dispositivos inalámbricos. saje se deteriora en ruta, el receptor Reed destaca además las ventajas se valdrá de los números añadidos que tienen en materia de seguridad para reconstruir matemáticamente las comunicaciones por medio de los los bits afectados. cables de la luz sobre las inalámbri“Se logra gracias a un procesa- cas. Aunque las señales se propaguen miento de señales de una compleji- a otras casas conectadas al mismo dad bien superior a la que se haya transformador —suelen ser de tres a podido ver alguna vez en las comu- seis en EE.UU., o todos los apartanicaciones alámbricas o inalámbricas mentos de un edificio—, los microcirordinarias”, señala Oleg Logvinov, cuitos vienen con la encriptación actipresidente de la compañía de comu- vada, lo que no ocurre en los equipos nicaciones por medio de las líneas Wi-Fi. Y deshacer los códigos de 56 bits eléctricas Enikia, de Warren, Nueva no es imposible, pero sí muy difícil. Jersey, “pero los microcircuitos de Para Scherf, de Parks Associates, hoy admiten un número de puertas la técnica ha de superar dos pruebas lógicas suficiente para vencer esa críticas. La primera es una norma complejidad”. El microcircuito de competidora, hoy en proceso de elaIntellon es casi tan complejo como el boración por la Asociación Electróniprocesador Pentium de la primera ca de Consumidores, que no se prevé generación, aunque esté concebido que esté concluida antes de un año. para desempeñar esa única tarea. Cuando se implante, dice Yonge, En las simulaciones, comenta Yon- HomePlug estará lanzando su verge, el sistema tuvo un magnífico com- sión 2, que elevará la velocidad hasta portamiento. Pero la prueba real fue 100 megabit por segundo. De todas la primavera de 2001, cuando Inte- formas, la coexistencia de dos norllon ensayó su prototipo en más de mas incompatibles podría crear con25 empresas y 500 viviendas de diver- fusiones. sos tipos y tamaños repartidas por el En segundo lugar, y probablemente mundo. Los miembros del consorcio no por casualidad, las compañías que habían establecido unos requisitos fabrican componentes de sonido, vídeo exigentes para que se considerara y telefonía se mantienen al margen. que la prueba había tenido éxito, Esto quizá retrase varias de las apliafirma William Earnshaw, jefe de caciones más sugestivas de las comuingeniería de Intellon. “Tenía que nicaciones por medio de las líneas funcionar a plena capacidad en el 80 eléctricas. Reed augura que será posipor ciento de las viviendas y a dos ter- ble, por ejemplo, enchufar el recepcios de su velocidad máxima en el tor de imágenes por cable o satélite resto.” La prueba se pasó con holgu- en una toma cualquiera e ir camra, cuenta Earnshaw; Yonge alardea biando de sitio el televisor por toda de que se podía enchufar una aspi- la casa cuando se quiera. O añadir radora al lado mismo del módem sin una segunda línea telefónica virtual: que éste dejara de funcionar. las llamadas que se hiciesen a un En noviembre de 2001, Linksys y número de Oklahoma podrían reciPhonex Broadband fueron los pri- birse en un teléfono IP —es decir, con meros en poner a la venta dispositi- conexión a Internet en vez de a la red vos aptos para func ionar con orde- telefónica ordinaria— enchufado a nadores personales, impresoras y la red eléctrica en una casa de Calicualquier otro periférico que admita fornia; y si hay un nuevo traslado, a una conexión de red del tipo USB. Boston, digamos, el número seguirá Otros fabricantes no van muy reza- siendo el mismo. gados. Según Linksys, los precios Para que la realización de tales serán semejantes a los de los equi- sueños resulte lucrativa se necesipos Wi-Fi, pero algo superiores a los tarán nuevas estrategias comerciade HomePNA. “Casi todas las habi- les. La técnica parece hoy a nuestro taciones tienen al menos dos tomas alcance. de corriente”, señala Karen Sohl, de Linksys, “con lo cual los adaptadores a la línea eléctrica resultan más útiBIBLIOGRAFIA COMPLEMENTARIA les que los productos para la línea telefónica” y pueden admitir un precio HOMEPLUG STANDARD BRINGS NETWORalgo más alto. El coste del equipo irá KINGTO THE HOME. Steve Gardner y otros bajando con el tiempo, afirma Tom en Communication Systems Design, voReed, presidente de HomePlug y lumen 6, n.o 12; diciembre de 2000. director de nuevas técnicas de Radio LA INFORMACIÓN
89
Antenas adaptables Las configuraciones adaptativas de antenas convierten las comunicaciones inalámbricas entre los teléfonos móviles en auténticas conexiones por hilos virtuales Martin Cooper
N
os encontramos inmersos en porar a redes inalámbricas, tanto abonados de una red celular de teleun invisible océano de ondas nuevas como ya existentes. Nuestras fonía móvil se comunican con la estaelectromagnéticas. Proceden configuraciones comprenden un máxi- ción base más cercana, donde hay de multitud de fuentes: antenas de mo de doce antenas y un potente pro- una serie de antenas que manejan radiodifusión, estaciones de telefo- cesador digital que combina y mani- todas las señales inalámbricas del nía celular, transmisores de la poli- pula las señales entrantes y salientes. servicio en la zona circundante (la cía y otros servicios civiles o milita- Esta técnica, también aplicada por “célula” a la que se refiere el epíteto res. Aunque estas radiaciones no nos Lucent Technologies, Nortel Net- de “celular”). Las estaciones base ocasionen quizá perjuicio físico works y otras firmas, promete redu- están situadas de manera que la reualguno, sí pueden mermar notable- cir los costes y mejorar la calidad d e nión de sus respectivas células commente nuestra capacidad de recibir las comunicaciones inalámbricas. Se ponga la zona total de cobertura del y transmitir información. El exceso cuentan ya por millones los usuarios servicio de telefonía móvil. Así, de energía radioeléctrica contamina de telefonía móvil que disfrutan de cuando en el curso de una llamada el el entorno porque perturba e inter- las ventajas de las configuraciones usuario se desplaza de una célula a fiere las comunicaciones útiles. Así adaptativas. Las antenas inteligen- otra, el sistema traspasa automáticomo hay que alzar la voz en los am- tes podrían también convertirse en camente la llamada a la estación base bientes ruidosos, las señales de radio piezas clave de la Internet inalám- que corresponda a la nueva célula. se han de amplificar para que desta- brica, dada su gran aptitud para Pero sería mucho mejor concentrar quen sobre el ruido de fondo electro- transmitir y recibir grandes volú- la energía radioeléctrica en cada usuamagnético. Y cuanto más proliferan menes de datos. rio, a la manera en que un proyector las comunicaciones electrónicas, más concentra los rayos de luz en un haz. crece el alboroto de las interferen- Principios físicos Un haz radioeléctrico tendrá un alde las antenas cias radioeléctricas. cance mucho mayor que una señal de El problema puede solucionarse ara comprender el funcionamiento idéntica potencia radiada omnidimediante un nuevo tipo de antenas de las antenas inteligentes, con- reccionalmente. Y la interferencia se de radio que reduce muchísimo las viene empezar por describir las ordi- reducirá al existir una separación interferencias artificiales. En vez de narias. Una antena de radio emisora espacial entre los haces que transmite radiar innecesariamente en todas las convierte las corrientes y tensiones la estación base celular a los distindirecciones la energía asociada a una eléctricas creadas por un transmisor tos usuarios. comunicación personal (una llamada en ondas electromagnéticas que se Los reflectores pueden concentrar de teléfono móvil, pongamos por caso), radian al espacio. También será una las ondas de radio en un haz, pe ro son siguen la posición de los usuarios a antena la que capte tales ondas y las voluminosos y caros. Por ello se han medida que se desplazan y les envían reconvierta en corrientes y tensiones ideado artificios para crear haces de directamente las señales de radio que que pueda procesar el receptor. El radiación sin necesidad de reflectoles estén destinadas. Se eleva así al tipo más sencillo y más común de res. Montemos dos antenas lado con máximo la intensidad de señal reci- antena de radio es el dipolo, un sim- lado, separadas media longitud de bida por el usuario del teléfono al ple conductor metálico de longitud onda de la señal de radio; el diagrama tiempo que las interferencias de otros muy precisa que radia energía en de la energía que radiará esta senciusuarios se reducen al mínimo. Es todas las direcciones ( véase el recua- lla configuración presentará, visto como si las antenas tendiesen hilos dro “Generación de un haz de radia- desde arriba, la forma de la c ifra ocho. virtuales que las conectasen con cada ción”). Las ondas radioeléctricas se Las ondas radioeléctricas tienen su teléfono móvil. van atenuando a medida que se pro- máxima propagación en las dos diSuele llamarse a estos sistemas, pagan por el espacio y son absorbi- recciones perpendiculares a la confien general, antenas inteligentes, pero das por los obstáculos que encuentran: guración (es decir, a la línea que une las más inteligentes reciben una deno- el aire, los árboles o los edificios. las antenas), ya que un usuario siminación específica: configuraciones Las estaciones comerciales de radio tuado en esas direcciones recibirá adaptativas de antenas. Fui uno de y de televisión tienen que recibirse exactamente a la vez las señales de los fundadores, en 1992, de Array- en lugares muy dispersos, y por tanto ambas antenas: dicho de otro modo, Comm, una empresa domiciliada en es lógico que emitan señales en todas las dos señales estarán en fase. San José, California, dedicada al de- las direcciones. Pero la llamada de un Cuando dos señales idénticas están sarrollo de configuraciones adapta- teléfono móvil va dirigida por lo nor- en fase, su combinación constituye tivas de antenas que se puedan incor- mal a un solo usuario nada más. Los una señal de intensidad doble a la de
P
90
TEMAS 36
N W O R B N N E K
LA INFORMACIÓN
UNA CONFIGURACION ADAPTATIVA de antenas concentra las ondas radioeléctricas en una “célula personal” que rodea a cada usuario del servicio de telefonía móvil. La técnica de las antenas inteligentes aumenta el alcance de las redes inalámbricas de voz y datos, y permite que varios abonados situados en la misma zona de cobertura se comuniquen en la misma frecuencia.
91
cualquiera de ellas. Sin embargo, si el usuario se sitúa en las direcciones paralelas a la configuración de antenas, las dos señales recibidas estarán desfasadas en 180 grados, y entonces los máximos de amplitud de la señal procedente de una antena llegarán al mismo tiempo que los mínimos de la otra señal, con lo que las dos señales se anularán entre sí. En esos puntos se crea un nulo, una zona en la que no puede detectarse la señal. El haz de radiación que genera una configuración de dos antenas, bastante ancho, se extiende en dos direcciones opuestas. Al añadir antenas se va estrechando; la configuración resultante, una “antena de elementos en fase”, se utiliza para dirigir haces de radar desde la Segunda Guerra Mundial. Además del estrechamiento del haz, también se producen los llamados lóbulos de radiación laterales, pequeños haces situados a uno y otro lado del haz principal. Según la dirección en que se coloque el usuario respecto de la configuración de antenas, la señal puede ser más intensa que la procedente de una antena individual (caso de “ganancia”) o más débil debido a los efectos de anulación (“rechazo”). Apuntar el ha z
D
e nada sirven los haces radioeléctricos si no es posible dirigirlos hacia un destino deseado. La solución obvia, se diría, consiste en girar físicamente la antena. Método engorroso y caro, es mucho más fácil orientar los haces por medios electrónicos. En la técnica de conmutación de haces, la configuración de antenas crea un grupo de haces de radiación que se solapan para cubrir toda una zona circundante ( véase el recuadro “Conmutación de haces”). Cuando un abonado del servicio de telefonía móvil llama, el radiorreceptor de la estación base determina por qué haz llega con mayor intensidad su señal; seguidamente “responde” utilizando ese mismo haz. Si el abonado se traslada desde el haz original hasta otro adyacente, el sistema de
control radioeléctrico conmutará a ese nuevo haz, que se empleará tanto para recibir como para transmitir. La conmutación de haces no da, sin embargo, buenos resultados en el mundo real de las comunicaciones inalámbricas. Para que la transmisión sea óptima el usuario tiene que situarse en el centro del haz. Si se aparta de esa posición central la señal se atenúa, como sucede con la luz proyectada por un foco si nos salimos de la dirección a la que apunta. Cuando el usuario se aproxime al borde exterior del haz, la intensidad de la señal bajará rápidamente antes de que el sistema conmute al haz adyacente. ¿Y qué pasará si otro usuario intenta utilizar ese mismo radiocanal desde una dirección diferente? Si está en un nulo no habrá interferencia, pero si se situase en el centro de un lóbulo la segunda señal podría muy bien anular o distorsionar la primera. Los sistemas de conmutación de haces tienen además que superar otra dificultad: la trayectoria irregular —raramente en línea recta— que siguen las señales radioeléctricas en la mayoría de los entornos. La señal recibida en un teléfono móvil suele ser una combinación de las reflexiones en objetos naturales y artificiales, en casas, montañas, vehículos y árboles. Y estas reflexiones cambian continuamente, sobre todo las producidas por los vehículos grandes (trenes, autobuses). Este fenómeno, la propagación multitrayecto, afecta también a las señales que el teléfono móvil envía a la estación base. Si el usuario de una configuración de conmutación de haces se acerca al borde de un haz, la señal que transmita podría rebotar hacia el haz adyacente antes de alcanzar la configuración de conmutación de haces. En tal caso, la configuración transmitiría hacia un haz que no es el correcto y el usuario podría perder enteramente la señal de retorno. Los sistemas de conmutación de haces resultan inadecuados para las aplicaciones prácticas. Una configuración de antenas inteligente deberá apuntar el haz radioeléctrico directa-
Antenas inteligentes
92
•
En una red inalámbrica resulta útil emplear una configuración de múltiples antenas en cada estación base celular.
•
Las configuraciones adaptativas incluyen potentes procesadores que modifican las señales de antena para intensificar la comunicación con un usuario, al tiempo que se reducen al mínimo las interferencias de los demás usuarios.
mente al usuario móvil, en vez de elegir un haz que le caiga más o menos próximo. La configuración ideal tendría que conformar el haz de radiación de suerte tal, que haga mínima la interferencia de otros usuarios que se estén comunicando por el mismo canal de frecuencias. Y debería adaptarse con rapidez a los desplazamientos del usuario y a los reflejos cambiantes. Todo esto nos lleva a las configuraciones adaptativas de antenas. El efecto “sala de banquete”
L
a clave de la inteligencia de una configuración adaptativa reside en el procesamiento de la información que reciben las antenas que la componen. Se puede hallar una buena comparación en la forma en que el cerebro procesa la información acústica procedente de los oídos. Una persona con audición normal localiza el origen de un sonido aun con los ojos cerrados. Los repliegues curvos del oído externo producen diferentes resonancias según sea la dirección angular del sonido recibido. A menos que la fuente sonora esté situada en el plano vertical de simetría del cuerpo (justo delante o detrás, justo arriba o abajo), el sonido llegará a un oído antes que a otro y las dos señales se desfasarán. El cerebro recibe esa información y rápidamente determina la posición de la fuente. Por si fuera poco, salvo que se padezcan problemas de audición, se pueden percibir sonidos bastante débiles —una conversación interesante, por ejemplo— en medio de un fuerte ruido ambiente; es el “efecto sala de banquete”. Se ha demostrado que la capacidad de concentrarse en un sonido concreto depende en parte de que pueda localizarse su origen. Se realizaron unas pruebas sobre la claridad con que puede oírse una señal en un ambiente ruidoso; demostraron que los sujetos que prestaban atención con ambos oídos percibían sonidos mucho más débiles que quienes escuchaban con un solo oído. Una vez determinada la posición de la fuente acústica, el cerebro puede concentrarse en el sonido y rechazar los ruidos indeseados que provienen de otras direcciones. De manera similar, una configuración adaptativa de antenas puede localizar la fuente de una señal radioeléctrica y amplificarla selectivamente, al tiempo que anula las señales que compiten con ella. El cerebro de la configuración es un procesador digital que maneja las señales que llegan por los conductores de las antenas. Una configuración adaptativa TEMAS 36
Generación de un haz de radiación LA TECNICA DE LAS ANTENAS INTELIGENTES se basa en la capacidad de conformar los diagramas de radiación que definen la cobertura. Al enfocar las ondas a los usuarios individuales de la telefonía móvil, las antenas inteligentes amplían el alcance de los sistemas y reducen al mínimo la interferencia.
ANTENA ORDINARIA
Ondas radioeléctricas
La antena más sencilla es el dipolo, varilla metálica que radia energía en todas las direcciones. Las ondas radioeléctricas se atenúan a medida que se propagan por el espacio y sufren absorción por obstáculos. Estas antenas son idóneas para la difusión de emisiones de radio y televisión, que han de llegar a audiencias geográficamente dispersas.
Antena dipolo
CONFIGURACION DE DOS ANTENAS
Sean ahora dos antenas, A y B, dispuestas lado con lado y separadas entre sí una distancia de media longitud de onda de la señal de radio que ambas emiten (las longitudes de onda de los sistemas celulares caen entre los 12 y los 37 centímetros). El usuario de un teléfono móvil situado perpendicularmente a la configuración de antenas (usuario 1) recibe ambas señales al mismo tiempo (en fase), con lo que su intensidad se duplica. Pero el que está alineado con la configuración (usuario 2) recibe la señal de la antena B medio ciclo antes que la señal de la antena A. Las dos señales le llegan en oposición de fase y se anulan entre sí. De este modo, la configuración de dos antenas crea zonas, llamadas nulos, donde no puede recibirse la señal.
USUARIO 1
SEÑALES RECIBIDAS POR EL USUARIO 1 A B A+B
A
B
SEÑALES RECIBIDAS POR EL USUARIO 2 A B A+B
SEÑAL NULA
USUARIO 2
Haz principal
CONFIGURACION DE SEIS ANTENAS
Una configuración de seis antenas genera un haz de radiación más estrecho y de mayor alcance que el producido por la configuración de dos antenas. Crea además otros haces más pequeños, los “lóbulos laterales”.
LA INFORMACIÓN
Lóbulos
N E H C A R A S
93
Conmutación de haces UNA ANTENA INTELIGENTE ha de ser capaz de dirigir sus haces de radiación a los destinos deseados. Un modo de conseguirlo es la llamada conmutación de haces, técnica que se incorpora con facilidad a las redes inalámbricas, aunque adolece de graves inconvenientes. SELECCION DE HAZ
USUARIO 1
En un sistema de conmutación de haces, la configuración de antenas genera haces de radiación que se solapan de manera que cubran entre todas la zona circundante (derecha ). Cuando un usuario hace una llamada con el teléfono móvil, el radioreceptor de la estación base determina cuál es el haz mejor alineado con la señal que emite. La configuración transmitirá por ese mismo haz (en púr- pura ) las señales de respuesta al usuario.
USUARIO 2 Haces de radiación
USUARIO 1
Estación base celular
SEÑALES MIXTAS
USUARIO 3
ordinaria comprende de cuatro a doce antenas; por mor de sencillez, consideraremos una configuración de dos antenas, separadas entre sí una distancia igual a media longitud de onda de la señal radioeléctrica. En una configuración ordinaria, las señales recibidas por las dos antenas se suman sin más, pero si la configuración es adaptativa, las dos señales irán a parar al procesador adjunto, que realizará con ellas los cálculos matemáticos que sean precisos. Supongamos, a modo de ejemplo, que la configuración tiene una alineación norte-sur y que la señal de un usuario telefónico celular llega por el este (véase el recuadro “Configuraciones adaptativas de antenas”). El procesador puede determinar enseguida la dirección de la señal: puesto que las ondas llegan al mismo tiempo (en fase) a las dos antenas, proceden de una dirección perpendicular a la configuración. Para que la recepción sea máxima el procesador suma las dos señales, con lo que la intensidad total se duplica. Cuando responde al usuario, la configuración transmite señales idénticas desde ambas antenas. 94
El principal inconveniente de la conmutación de haces es que la configuración no siempre apunta el haz directamente al usuario (izquierda ). Al acercarse al borde del haz el usuario 1, la intensidad de la señal bajará rápidamente. Otros usuarios podrán comunicarse en la misma frecuencia (aunque utilizando un haz diferente) siempre que estén en un nulo (usuario 2). Pero si el usuario se halla dentro de un lóbulo (caso del usuario 3), las señales que intercambie con la configuración interferirán las del usuario 1.
N E H C A R A S
Envíe otro usuario celular una ten también a otras direcciones; para señal desde el sur. Las ondas que ello ejecutará operaciones matemácapte la antena norte estarán desfa- ticas más complejas con las señales sadas 180 grados respecto de las que de las dos antenas. La transmisión y incidan en la antena sur; el procesa- recepción selectiva se reduce, pues, dor sabrá que la señal viene de una a resolver una serie de ecuaciones sidirección paralela a la configuración. multáneas. Para dirigir los haces a Por lo tanto, sustraerá una señal de usuarios en movimiento, el procesador la otra; es decir, invertirá la señal debe resolver una y otra vez las ecuade la antena norte (o de la sur), tornan- ciones con la información, constando en mínimos los máximos de la on- temente actualizada, que le suminisda, y viceversa; sumará esta imagen tre la configuración de antenas. invertida a la señal que procede de Si se añaden antenas a la configula antena sur (o norte). También ahora ración adaptativa, la localización será se duplica la intensidad de la señal. más precisa, y mayor la ganancia de Cuando la configuración responde al la señal. Una configuración de 12 anusuario móvil, el procesador envía tenas podrá escuchar señales doce una señal desfasada a una de las ante- veces más débiles que las perceptinas, lo que genera un haz de radia- bles por una sola antena; además, ción que va de norte a sur. transmitirá con intensidad 12 veces Adviértase en ambos ejemplos que mayor y mucho más directamente. el haz de radiación generado para un El procesador jugará con las señales usuario de la telefonía móvil no llega de las antenas para crear formas de a ningún otro. Dos usuarios podrían haz que aseguren la mayor ganancia estar comunicando con la configura- posible a la señal deseada y el máximo ción adaptativa al mismo tiempo y en rechazo de las demás señales que ocuel mismo canal de frecuencia, pero sus pen la misma frecuencia. señales no se interferirían. El proPuesto que la velocidad del procecesador de la configuración puede sador le permite realizar esta función crear haces de radiación que apun- muchas veces por segundo, la confiTEMAS 36
Configuraciones adaptativas de antenas LAS ANTENAS “más inteligentes” utilizan procesadores digitales para el tratamiento de las señales entrantes y salientes. Estos sistemas, las “configuraciones adaptativas de antenas”, favorecen la transmisión a un usuario y la recepción de las señales de ese mismo usuario al tiempo que minimizan las interferencias de otros usuarios.
APUNTAR EL HAZ
El ejemplo más sencillo de configuración adaptativa consiste en dos antenas separadas media longitud de onda. Al recibir una llamada del usuario 1, la configuración determina que quien hace la llamada se encuentra al este geográfico (perpendicular a la configuración de antenas), dado que la señal S1 llega al mismo tiempo a ambas antenas. Para el usuario 1, el procesador suma las señales de una y otra antena, con lo que obtiene la máxima intensidad de S1 y elimina la interferencia del usuario 2.
S1+S2 2S2
S1+S2
S1 2S2
S1+S2
+
S1–S2
S1+S2
USUARIO 1
S1–S2
Procesador
S2
USUARIO 2
S1 USUARIO 1
S1–S2
CAMBIO DE DIRECCION
S1–S2 S2
Al recibir una llamada del usuario 2, el procesador determina que está situado al sur (alineado con la red), pues la señal que llega a una antena (S2) está desfasada 180 grados con respecto a la señal que llega a la otra antena (–S2). Para el usuario 2, por consiguiente, el procesador sustrae una señal de la otra, con lo que eleva al máximo la intensidad de S2 y elimina la señal procedente del usuario 1.
USUARIO 2
USUARIO 2 DOS LLAMADAS A LA VEZ
En la práctica, una configuración adaptativa contiene de 4 a 12 antenas. El procesador realiza complejas operaciones matemáticas con las señales procedentes de las antenas para garantizar que el haz y los lóbulos generados para el usuario 1 (en azul ) no se solapen con los que se han creado para el usuario 2 (en verde ). De ese modo, los dos usuarios de teléfonos móviles no se interfieren aun cuando utilicen la misma frecuencia en sus comunicaciones.
USUARIO 1
N E H C A R A S
LA INFORMACIÓN
95
guración reajustará continuamente espectro de frecuencias que se le ha Desde finales del decenio pasado, la su haz de radiación a medida que el asignado para transmitir las señales. industria de telecomunicaciones viene usuario se desplaza a través de la zona Muchos sistemas celulares sufren ya anunciando la llegada de la Internet de cobertura. El sistema está dise- sobrecarga: en ciertas zonas conges- sin hilos [ véase “Internetinalámbrica”; ñado de manera que las reflexiones tionadas las señales de llamada se acu- INVESTIGACIÓN Y CIENCIA , por Mark parásitas de la señal del usuario en mulan y se sobrepasa el tráfico que Alpert y George Musser, diciembre vehículos o edificaciones no provoquen puede cursar el limitado número de 2000]. El desarrollo de las nuevas cambios bruscos en la dirección del radiocanales. Los usuarios sufren el redes ha sido más lento de lo que en haz. La configuración adaptativa va trastorno cuando se les corta la co- principio se esperaba; no obstante, los siguiendo su trayectoria; de esa ma- municación o reciben señales de mala trabajos avanzan. Mientras los openera estará en condiciones de evaluar calidad. Pero la técnica de las configu- radores inalámbricos siguen empela verosimilitud de movimientos futu- raciones adaptativas aumenta la capa- ñados en la creación de red es 3G —la ros y de descartar informaciones erró- cidad del espectro al posibilitar que próxima generación de sistemas celuneas que indiquen supuestos cambios varios usuarios comprendidos en la lares, que transmiten los datos en pade posición repentinos. zona de cobertura de una estación base quetes—, hay empresas que ofrecen Eso no es todo: las configuraciones compartan un mismo radiocanal. La soluciones distintas para la transmiadaptativas más avanzadas pueden mejora con respecto a las antenas ordi- sión de datos a alta velocidad. Algunas aprovechar la propagación multitra- narias es notable: las estaciones base han incorporado ya a sus propuestas yecto para enfocar todavía mejor las equipadas con configuraciones adap- las antenas inteligentes, que pueden señales de radio. Dichas configuracio- tativas de antenas pueden multiplicar también utilizarse en las redes ya exisnes incorporan procesadores de una por seis el número de personas a quie- tentes. En Sidney funciona una red potencia tal, que les permiten proce- nes se da servicio en la comunicación de datos basada en las técnicas de sar la información de todas las seña- de voz, y por cuarenta en la transmi- ArrayComm, y quizá se instalen pronto les reflejadas que rebotan a lo largo sión de datos. Se logra así un mejor ser- redes similares en EE.UU. y Corea de los distintos trayectos entre el telé- vicio y se reduce la interferencia, aparte del Sur. También Navini Networks, fono celular y la configuración adap- del ahorro de energía y la menor con- de Richardson, tiene configuraciones tativa. Al incluir las reflexiones por taminación radioeléctrica. adaptativas de antenas que algunos multitrayecto en las ecuaciones mateNo es de extrañar, pues, que las operadores inalámbricos andan promáticas, el procesador extrapola no configuraciones adaptativas tengan ya bando en estos momentos. Varios fabrisólo la dirección de la señal, sino tam- aplicación comercial. Hay instaladas cantes importantes de equipos de telebién la posición exacta del usuario más de 150.000 estaciones base celu- comunicación tienen pensado incluir celular de que se trate. En un ambiente lares con la técnica de ArrayComm en las antenas inteligentes en su próurbano, donde las reflexiones son nu- Japón, China, Tailandia y otros paí- xima generación de productos. merosas, la configuración adaptativa ses de Asia y Africa. En total, las conDurante los casi cien años postepodrá transmitir o recibir hacia una figuraciones adaptativas de antenas riores a la invención del teléfono por pequeña zona alrededor del teléfono, dan servicio a más de 15 millones de Graham Bell, las comunicaciones o desde la misma. De este modo, la con- usuarios. En EE.UU. y Europa se está vocales han dependido de una conefiguración no genera un haz de radio, tardando más en adoptarlas, en parte xión física —conductor o cable coasino que crea una minúscula “célula porque las dificultades económicas de xial— entre el que llama y la red. En personal”, tal vez de sólo unos centí- las empresas de telecomunicaciones los treinta años últimos, sin embargo, metros de radio. Y como la configura- han restringido las inversiones en las los teléfonos móviles nos han hecho ción está continuamente calculando la redes de telefonía móvil. saborear la libertad de comunicarposición del teléfono, la célula persoLas configuraciones adaptativas nos sin hilos. Ayudados por las técnal irá acompañando al abonado en resultan también muy convenientes nicas de las configuraciones adaptasus desplazamientos. para las redes inalámbricas de datos. tivas de antenas, los operadores Al reducir se al mín imo la inter fe- podrán ofrecer prestaciones mucho Ven taj as y aplica ciones rencia, las configuraciones adapta- mejores, a costes mucho más bajos, as redes inalámbricas que utili- tivas pueden recibir y transmitir más que las actuales redes alámbricas. zan configuraciones adaptativas datos a los usuarios en una determi- Solamente entonces saldremos por de antenas ofrecen varias ventajas nada porción del espectro de fre- fin de nuestra jaula de cobre. sobre las redes celulares ordinarias. cuencias. Una estación base equipada Dado que el alcance de una estación con una configuración adaptativa base equipada con una configuración podría enviar datos a cuarenta usuaBIBLIOGRAFIA COMPLEMENTARIA adaptativa es mucho mayor que el de rios a un megabit por segundo, veinte A REVIEWOF THE COCKTAIL PARTY EFFECT. una estación ordinaria que transmita veces más rápido de lo que es habiBarry Arons, en Journal of the American a la misma potencia, se necesitarán tual en las redes inalámbricas de Voice I/O Society , vol. 12; julio de 1992. menos estaciones para cubrir una largo alcance. Y puesto que no todos NTELLIGENT ANTENNAS: SPATIAL DIVISION I determinada zona. Es cierto que una los usuarios de esas redes necesitan MULTIPLE ACCESS. Martin Cooper y Marc configuración adaptativa de antenas transmitir a velocidad máxima al Goldburg, en 1996 Annual Review of puede costar más que una antena tra- mismo tiempo, una estación base equiCommunications, págs. 999-1002. dicional, pero la reducción del número pada con configuración adaptativa A LAYMAN’S GUIDE TO CELLULAR. Martin Cooper, en 1996 Annual Review of Comde estaciones base rebaja mucho los podría atender a varios miles de permunications, págs. 993-997. costes de instalación y explotación sonas. Los usuarios de ordenadores S ANTENNAS FOR WIRELESS COMMUMART de una red de telefonía móvil. portátiles, u otros dispositivos simiNICATIONS: IS-95 AND THIRD GENERAEl empleo de configuraciones adap- lares, mantendrían un acceso contiTION CDMA APPLICATIONS. Joseph C. Litativas facilita además que la compa- nuo de alta velocidad a Internet mienberti y Theodore S. Rappaport. Prentice ñía operadora del servicio celular apro- tras caminan o conducen a través de Hall, 1999. vec he mej or un recur so esc aso: el la zona de cobertura.
L