www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
B1G1T01 - TECNOLOGÍAS ACTUALES DE ORDENADORES: DE LOS DISPOSITIVOS DE MANO “PALMTOP” A LOS SUPERORDENADORES.
1.
INTRODUCCIÓN.............................................................................................................................................................. 3
2.
HISTORIA DE LA COMPUTACIÓN ............................................................................................................................. 4
3.
SUPERORDENADORES .................................................................................................................................................. 5 3.1. DEFINICIONES........................................................................................................................................................... 6 3.2. COMPUTACIÓN EN RED (GRID COMPUTING) .................................................................................................... 7 3.3. EQUIPO BASE DE CRAY .......................................................................................................................................... 8 3.4. EQUIPOS BASE DE IBM............................................................................................................................................ 9 3.6. EQUIPOS BASE DE HEWLET-PACKARD............................................................................................................... 9 3.7. LOS EQUIPOS MÁS POTENTES DEL MUNDO..................................................................................................... 11 3.8. EL FUTURO DE LA SUPERCOMPUTACIÓN ........................................................................................................ 12 3.8.1. NANOTECNOLOGÍA......................................................................................................................................... 12 3.8.2. COMPUTACIÓN CUÁNTICA............................................................................................................................ 12
4.
MACROORDENADORES (O MAINFRAMES) .......................................................................................................... 13 4.1.
5.
MINIORDENADORES (O SERVIDORES DEPARTAMENTALES) ....................................................................... 15 5.1. 5.2. 5.3.
6.
IBM S/390 .................................................................................................................................................................. 13
DIGITAL VAX .......................................................................................................................................................... 16 IBM AS/400 ............................................................................................................................................................... 18 TENDENCIAS TECNOLÓGICAS Y DEL MERCADO ........................................................................................... 20
MICROORDENADORES (U ORDENADORES PERSONALES) ............................................................................. 21 6.1. BREVE LINEA DEL TIEMPO DEL MICROORDENADOR................................................................................... 22 6.2. TIPOS DE CPU .......................................................................................................................................................... 25 6.2.1. CISC ................................................................................................................................................................... 26 6.2.2. RISC.................................................................................................................................................................... 26 6.2.3. PERSPECTIVA HISTÓRICA.............................................................................................................................. 26 6.3. BUSES LOCALES..................................................................................................................................................... 29 6.3.1. ISA (INDUSTRY STANDARD ARCHITECTURE) ............................................................................................. 29 6.3.2. MCA (MICRO CHANNEL ARCHITECTURE)................................................................................................... 29 6.3.3. EISA (EXTENDED INDUSTRY STANDARD ARCHITECTURE)...................................................................... 30 6.3.4. PCI (PERIPHERAL COMPONENT INTERCONNECT) ................................................................................... 31 6.3.5. AGP (ACCELERATED GRAPHICS PORT)....................................................................................................... 31
7.
ORDENADORES PORTÁTILES .................................................................................................................................. 32 7.1. 7.2. 7.3. 7.4. 7.5.
8.
HISTORIA DE LOS ORDENADORES PORTÁTILES ............................................................................................ 32 TIPOS DE USUARIOS .............................................................................................................................................. 33 GAMAS DE PRODUCTO ......................................................................................................................................... 33 PROCESADORES ..................................................................................................................................................... 34 BATERÍAS ................................................................................................................................................................ 35
ORDENADORES DE MANO (PDAS, PALMTOPS Y HANDHELDS)..................................................................... 37 8.1. 8.2. 8.3. 8.4. 8.5. 8.6.
LOS COMIENZOS .................................................................................................................................................... 38 EVOLUCIÓN............................................................................................................................................................. 38 PALM PILOT............................................................................................................................................................. 38 SISTEMAS OPERATIVOS ....................................................................................................................................... 38 RECONOCIMIENTO DE ESCRITURA MANUSCRITA ........................................................................................ 38 SINCRONIZACIÓN .................................................................................................................................................. 38
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 1 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
8.7. 9.
XSCALE .................................................................................................................................................................... 38
CONCLUSIÓN ................................................................................................................................................................. 38
10.
BIBLIOGRAFÍA .......................................................................................................................................................... 38
11.
ESQUEMA – RESUMEN ............................................................................................................................................ 38
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 2 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
1.
INTRODUCCIÓN
En el presente documento se repasarán los aspectos más destacados de las principales tecnologías actuales de los ordenadores. La organización escogida para su desarrollo partirá con una breve historia de la computación, e irá presentando en apartados sucesivos cada una de las tecnologías actuales con una presencia significativa en el mercado informático. Las tecnologías han sido clasificadas por la potencia de cálculo que poseen las diversas máquinas. Así, comenzaremos por exponer los ordenadores más potentes (los superordenadores) para acabar en las tecnologías más ligeras (los ordenadores de mano). Tradicionalmente, la distinción entre cada categoría era nítida, de manera que resultaba trivial clasificar a un ordenador tras analizar sus características básicas en una u otra categoría. El mercado ha cambiado mucho, y la evolución del mismo lo ha llevado a una situación donde las fronteras están mucho menos definidas, y resulta en muchos casos complicado situar a un ordenador en una categoría concreta. Pese a ello, se ha estructurado el tema en apartados que exponen las categorías clásicos de ordenadores, si bien se le recomienda al lector mantener una mentalidad abierta y flexible, que le permita ver dicha clasificación desde una perspectiva adecuada, y acorde a los tiempos actuales. Una de las categorías clásicas dentro de esta clasificación por potencia, había venido siendo la de estación de trabajo. Las estaciones de trabajo se situaban entre los miniordenadores y los microordenadores. Es decir, podían ser considerados como microordenadores muy potentes, o bien, como miniordenadores de gama baja. Su principal característica era el uso al que se destinaban. Éste era habitualmente el que necesitaba un puesto de trabajo de ingeniería o científico, que explotaba las posibilidades de la potencia gráfica y de cálculo que típicamente poseían las estaciones de trabajo. Actualmente cualquier ordenador personal posee un interfaz gráfico de usuario, además de una potencia de cálculo nada despreciable. Es por ello que paulatinamente los PCs (o Mac) han ido desplazando a las estaciones de trabajo, hasta acabar desterrándolas casi por completo. Para reflejar esta realidad, el presente tema intencionadamente excluye la categoría de estación de trabajo por ser una categoría obsoleta, que ha quedado relegada a una parcela de la historia informática ya pasada. La versatilidad de los ordenadores personales ha empujado también a muchas otras categorías. En algunos casos las ha completado, ampliando su extensión. Este es el caso de los superordenadores, donde mediante el grid computing, los ordenadores personales conectados en red ejecutan un trabajo de supercomputación que hasta ahora estaba reservado para aplicación exclusiva de superordenadores. Otras categorías como los miniordenadores, que habitualmente desempeñan funciones de servidor departamental, han visto reducida su cuota de mercado con la irrupción de ordenadores personales de gama alta, cuyo rendimiento poco tiene que envidiar a los miniordenadores de gama media y baja. Sin embargo, a diferencia de las estaciones de trabajo, las otras categorías no han desaparecido por el empuje del PC. Sencillamente han modificado sus fronteras, redibujando así el mapa que componen cada una de las categorías, y por ello, sí se incluyen como apartados del tema. En lo sucesivo, se emplearán con frecuencia referencias a tamaños de almacenamiento y velocidades de transmisión, que utilizan como medidas los bytes (o bits) y los bytes (o bits) por segundo, respectivamente. Para simplificar la escritura de las abreviaciones correspondientes a dichas medidas y sus múltiplos, se utilizará la siguiente notación: se empleará la “B” mayúscula para referirse a bytes, y la “b” minúscula para referirse a bits. Así, por ejemplo tendríamos las siguientes equivalencias: 5 gigabytes = 5 GB 10 megabytes/segundo = 10 MBps
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
5 gigabits = 5 Gb 10 megabits/segundo = 10 Mbps
B1G1T01 Página 3 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
2.
HISTORIA DE LA COMPUTACIÓN
La historia del desarrollo de los ordenadores a menudo se expone como un conjunto de generaciones de dispositivos computacionales, y ese es el enfoque que le daremos en este tema. Cada generación de ordenadores se caracteriza por un desarrollo tecnológico diferenciador que, fundamentalmente, cambió la manera de trabajar de los ordenadores creando dispositivos cada vez más pequeños, baratos, potentes, eficientes, y fiables. Las generaciones informáticas y sus aportaciones al mundo de la computación son las siguientes: □
1ª Generación (Desde 1940 hasta 1956. Las válvulas de vacío): Los primeros ordenadores usaban válvulas de vacío para crear la circuitería, y tambores magnéticos para la memoria. Solían ser enormes y ocupaban habitaciones e incluso edificios completos. Eran muy costosos de mantener y al tener un consumo eléctrico elevado generaban mucho calor, lo cual era causa frecuente de fallos y problemas. La primera generación de ordenadores se programaban directamente en código máquina, y eran monotarea. La entrada se realizaba mediante tarjetas perforadas y cintas de papel, y la salida mediante listados impresos. El UNIVAC y el ENIAC son ejemplos de ordenadores de la primera generación. El UNIVAC fue el primer ordenador comercializado, y fue adquirido por la oficina del censo estadounidense en 1951.
Figura 1. Fotografía los orgullosos poseedores de un UNIVAC. □
2ª Generación (Desde 1956 hasta 1963. Los transistores): Los transistores reemplazaron a las válvulas de vacío en la segunda generación informática. El transistor se inventó en 1947 pero su uso no fue común en la informática hasta finales de la década de 1950. El transistor era muy superior a la válvula, y permitía a los ordenadores ser más pequeños, rápidos, baratos, eficientes energéticamente, y fiables que sus antepasados de primera generación. Aunque el transistor todavía generaba una gran cantidad de calor que amenazaba con dañar los ordenadores (y a veces así ocurría), fue un gran avance con respecto a la válvula de vacío. La segunda generación también utilizó tarjetas perforadas para la entrada y listados impresos para la salida. Sin embargo, en lugar de programarse en código máquina, se empezaron a emplear lenguajes simbólicos y ensamblador para permitir a los programadores escribir sus programas con palabras. Los lenguajes de programación de alto nivel también se estaban desarrollando en esta época, tales como las primeras versiones de COBOL y FORTRAN. Estos fueron también los primeros ordenadores en almacenar sus instrucciones en su memoria, que pasaron a basarse en tecnología de núcleo magnético. Los primeros ordenadores de esta generación se desarrollaron para la industria de la energía atómica.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 4 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
3.
□
3ª Generación (Desde 1964 hasta 1971. Los circuitos integrados): El desarrollo de los circuitos integrados fue la gran aportación de la tercera generación informática. Los transistores se miniaturizaron y se colocaron en circuitos integrados, que incrementaron drásticamente la velocidad y la eficiencia de los ordenadores. En lugar de tarjetas perforadas y listados impresos, los usuarios interactuaban con la tercera generación de ordenadores mediante teclados y monitores, a través de un sistema operativo que actuaba como interfaz, y que le permitía al dispositivo ejecutar varias aplicaciones a la vez, con un programa central que monitorizaba la memoria. Los ordenadores fueron por primera vez accesibles al gran público gracias a la reducción de sus tamaños y precios respecto a los de sus predecesores.
□
4ª Generación (Desde 1971 hasta el presente. Microprocesadores): El microprocesador trajo la 4ª generación informática al construir miles de circuitos integrados sobre un único chip de silicio. Lo que en la primera generación ocupaba una habitación, ahora cabía en la palma de la mano. El Intel 4004, desarrollado en 1971, albergaba todos los componentes de un ordenador (desde la unidad central de proceso, hasta la memoria y los controles de entrada/salida) en un solo chip. En 1981 IBM presentó su primer ordenador destinado al usuario doméstico, y en 1984 Apple presentó el Macintosh. Los microprocesadores también salieron del dominio de los ordenadores de escritorio, de manera que cada vez más tipos de dispositivos incorporaban microprocesadores. Conforme estos pequeños ordenadores se fueron haciendo más potentes, pudieron unirse para formar redes informáticas, que finalmente condujeron al desarrollo de Internet. La cuarta generación de ordenadores también trajo la llegada de interfaces gráficos de usuario, el ratón, y los dispositivos de mano (handheld).
□
5º Generación (Desde el presente hasta el porvenir. La inteligencia artificial): La quinta generación de ordenadores, basados en inteligencia artificial, todavía están en desarrollo. Aunque hay algunas aplicaciones como por ejemplo el reconocimiento de voz, que ya se están usando a día de hoy. El uso del procesamiento paralelo y los superconductores está ayudando a hacer que la inteligencia artificial sea una realidad. La computación cuántica, la molecular, y la nanotecnología cambiarán de manera radical el aspecto de los ordenadores en los años venideros. La meta de la quinta generación de ordenadores es desarrollar dispositivos que respondan al lenguaje natural, sean capaces de aprender, y de organizarse automáticamente.
SUPERORDENADORES
Cuando hablamos de superordenadores estamos refiriéndonos a sistemas de altas prestaciones. Los superordenadores son sistemas diseñados específicamente para efectuar actividades de supercomputación. La supercomputación permite efectuar la simulación y el análisis por ordenador como soporte de la investigación científica y de las actividades de diseño en ingeniería. Es por ello que también se conoce como computación técnica. Esta diferencia entre supercomputación y superordenadores es importante tenerla en cuenta pues no siempre es necesario un superordenador para efectuar tareas de supercomputación. Por otra parte, la diferencia existente entre superordenador y mainframe reside en lo siguiente: mientras que un superordenador utiliza toda su potencia en ejecutar un único (o unos pocos) programa lo más rápidamente posible; un mainframe, sin embargo, utiliza su potencia para ejecutar muchos programas concurrentemente. Ha habido una clara evolución en el diseño de los superordenadores. En una primera época el impulso del diseño se dirigía a crear buenas máquinas para el mercado científico, y posteriormente los avances conseguidos pasaban al entorno comercial de aplicaciones de alto volumen y alto rendimiento. Actualmente se ha invertido el proceso. Los diseñadores de ordenadores deben seleccionar dos atributos de los tres que presentamos en la lista indicada a continuación pero nunca los tres a la vez: □
El mayor rendimiento posible.
□
El coste más bajo.
□
La mayor facilidad de uso.
Los ordenadores vectoriales fueron diseñados inicialmente para conseguir grandes rendimientos. Posteriormente se avanzó en la línea de mejorar la facilidad de uso pero nunca el que fuesen de bajo coste (ni tan siquiera de
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 5 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
menor coste). Los ordenadores equipados con MPP (Massively Parallel Processing) fueron diseñados para ofrecer los rendimientos más elevados y disminuir el coste a base de utilizar microprocesadores estándar pero nunca de fácil uso. La actual generación de superordenadores insiste en la disminución del precio a costa de perder un poco del rendimiento conseguido en las versiones anteriores. Hay varios factores que confirman la posibilidad de una ampliación del mercado para superordenadores, entre los cuales destacan los siguientes: □
Dependencia creciente en el paralelismo. Actualmente el crecimiento de la demanda por parte de este tipo de usuarios en cuanto a rendimiento es mayor que el aumento de potencia conseguido en la producción de procesadores.
□
Requerimiento de una mayor velocidad de interconexión de memorias. Debido a que este crecimiento ha sido muy inferior al desarrollo de rendimiento de los procesadores.
□
La fuerza del mercado. Se ha conseguido incrementar de una manera espectacular la velocidad de los procesadores pero se ha llegado a un límite relativo de su utilización por los usuarios finales, ya que, muchas aplicaciones no se benefician claramente de dicha nueva potencia.
3.1.
DEFINICIONES
La tecnología de superordenadores ha evolucionado enormemente en los últimos años. Actualmente se pueden considerar los siguientes tipos de arquitectura existentes en el mercado: □
SMP de IBM, HP y SGI.
□
MPP de IBM, HP, Intel y Cray.
□
Supercomputadoras vectoriales de NEC.
□
Cluster de PC de varios proveedores (HP, IBM,…).
□
NUMA de Data General y otros.
□
MPI (Message Passing Interface) para plataformas distribuidas como AlphaServer de Hewlet-Packard.
SMP es el acrónimo de Symmetric MultiProcessing. MPP es el acrónimo de Massively Parallel Processing. Ambas son arquitecturas de ordenador con rendimientos muy elevados conseguidos mediante múltiples CPU que efectúan procesos individuales completos simultáneamente. La principal diferencia entre SMP y MPP es la siguiente: En SMP todas las CPU comparten la misma memoria mientras en MPP cada CPU tiene su propia memoria. La programación con MPP es mucho más compleja, ya que, el programa que se ejecuta debe ser divido en segmentos que puedan comunicarse entre sí. Por el contrario MPP no sufre el cuello de botella que supone en SMP cuando las CPU desean acceder a la única memoria a la vez. Un cluster está compuesto por dos o más ordenadores conectados de tal manera que se comportan como una única máquina. Se utiliza la técnica de clustering para el procesado paralelo, el balanceo de carga, y la tolerancia a fallos. El clustering es una técnica popular en las aplicaciones de procesado paralelo porque permite a las compañías amortizar la inversión hecha en PCs y estaciones de trabajo. Además, es relativamente fácil añadir nuevas CPUs, simplemente incorporando un nuevo PC a la red. Un gigaflop es una medida para poder efectuar comparaciones (benchmark) de velocidad entre microprocesadores. Las operaciones en coma flotante (floating-point operations, o flops) son operaciones con números decimales. Un gigaflop equivale a mil millones de operaciones en coma flotante por segundo. Es una medida aproximada, y por ello se ha creado un consorcio de empresas que definen los estándares de rendimiento para poder efectuar las comparaciones que se requieran: el Standard Performance Evaluation Corporation (SPEC).
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 6 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
NUMA es el acrónimo de Non-Uniform Memory Access. Es un tipo de arquitectura de proceso paralelo en el cual cada procesador tiene su propia memoria local y además puede acceder a las memorias de otros procesadores. Se llama no uniforme porque los accesos a memoria son más rápidos cuando el procesador accede a su propia memoria que cuando accede a otras. NUMA combina la escalabilidad de MPP con la facilidad de programación de SMP. Como veremos, los superordenadores actuales implementan las arquitecturas recién presentadas (algunos implementan mezclas híbridas de ellas), si bien cada cual presenta la que al fabricante/comprador le parece más adecuada.
3.2.
COMPUTACIÓN EN RED (GRID COMPUTING)
El grid computing es un tipo de red informática. A diferencia de las redes convencionales dirigidas a una comunicación entre diversos dispositivos, grid computing utiliza los ciclos de proceso no utilizados de los diversos ordenadores que forman la red para resolver problemas demasiado complejos para ser resueltos por una sola máquina. Una definición más formal de grid computing es: la coordinación de recursos compartidos y la resolución de problemas en organizaciones virtuales dinámicas y multi-institucionales. Cuando hablamos de compartir recursos no estamos hablando solamente de un intercambio de ficheros sino de acceso directo a ordenadores, software, datos y otros recursos en función del grado de colaboración de los participantes en dichos procesos. Esta compartición de recursos debe estar muy controlada con una clara distribución de funciones entre los proveedores de recursos y los consumidores de los mismos. Un conjunto de individuos y/o instituciones implicadas por dichas reglas de compartición recibe el nombre de Organización Virtual (Virtual Organization, o VO). Un proyecto conocido de grid computing es SETI@Home (Search for Extraterrestrial Intelligence at Home), en el cual los PC de usuarios distribuidos a lo largo y ancho del mundo donan los ciclos de sus procesadores no utilizados, empleando Internet como red de conexión, para ayudar a la búsqueda de signos de vida extraterrestre analizando las señales provenientes del espacio exterior.
Figura 2. Cliente de SETI@Home corriendo en un PC. El grid computing requiere un software especial único para cada proyecto.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 7 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
3.3.
EQUIPO BASE DE CRAY
El superordenador Cray X1 representa una arquitectura mixta vectorial-MPP, que aúna las arquitecturas vectorial y MPP. El objetivo de Cray con este X1 es el de obtener una mayor eficiencia económica. El diseño de este modelo X1 trata de ofrecer tanto un gran ancho de banda de la supercomputación vectorial, a la par que tener una posibilidad de escalado eficiente como lo que brinda MPP.
Figura 3. Fotografía de un Cray X1. Sus principales características son las siguientes: □
El procesador está diseñado con procesadores vectoriales multi-piped, con 12,8 Gflops de pico de rendimiento por procesador, que llegan gasta los 25,6 Gflops para cálculos de 32 bits.
□
El procesador utiliza un nuevo conjunto de instrucciones (Instruction Set Architecture, ISA) que está basado parcialmente en el MIPS ISA, junto con unas instrucciones adicionales para soportar el procesado vectorial.
□
Lleva a cabo el concepto de multi-streaming introducido en el supercomputador SV1. Además el procesador incorpora proceso superescalar, integra cachés vectoriales y una microestructura desacoplada que permite a los procesadores tolerar las latencias de las memorias.
□
Los procesadores están configurados con 8 vector-pipes.
□
Posee sistemas de balanceo para el ancho de banda de memoria. El sistema está organizado en cuatro nodos de procesadores, cada uno de los cuales contiene 128 canales de memoria RAMbus, para un ancho de banda local de 200 GBps. Los nodos están conectados por 16 circuitos paralelos, abasteciendo un ancho de banda de 26 GBps. En la configuración máxima escala este valor a 4 TBps en cuanto a ancho de banda global.
□
Escalabilidad. El CRAY X1 escala hasta 1000 procesadores.
El sistema operativo es el UNICOS/mp, basado en SYSTEM V UNIX con todos los comandos POSIX, sus utilidades e interfaces (IEEE Std 1003.1 y IEEE Std 1003.2). Incluye soporte para memoria compartida y memoria distribuida, y trabaja en entornos: C/C++, FORTRAN, SHMEM, Co-Array FORTRAN, UPC, Parallel C y Open MP. El mercado de CRAY se centra en los siguientes sectores: □
Clientes del Departamento de Defensa de los EEUU.
□
Diseño de coches y material aeroespacial.
□
Centros de investigación en empresas y Universidades.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 8 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
En España, entre otros, poseen equipos CRAY el Instituto Nacional de Meteorología (INM) y el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT).
3.4.
EQUIPOS BASE DE IBM
La serie eserver pSeries de IBM está a caballo entre los superordenadores y los mainframes, pero se incluye en este apartado porque IBM lo está utilizando como máquina para grid computing. La serie pSeries es la última generación de los servidores UNIX de IBM. Están diseñados para centros de proceso de datos de alto rendimiento. Utilizan microprocesadores POWER4+ que son de 64 bits y de los más rápidos del mercado. Su memoria principal varía desde 8 GB a 512 GB y su sistema de E/S tiene un ancho de banda de 44 GBps. Utiliza el particionado lógico (Local Partitioning, o LPAR) de IBM lo cual le da una gran flexibilidad para optimizar las cargas de trabajo. La serie pSeries 690 permite dividir el sistema en 32 servidores independientes cada uno con su propia memoria, procesadores y copia del sistema operativo AIX 5L ó Linux. Además posee una gran capacidad de almacenamiento, pudiendo albergar un sistema de disco duro con una capacidad de 18,7 TB. Permite el clustering para poder crear y mantener sistemas de alto rendimiento y escalabilidad. Con la utilización del clustering citado es posible gestionar desde un único punto de control 128 sistemas operativos AIX 5L. Como opción destacable a la hora de la capacidad de responder frente a la recuperación de problemas de hardware (u otros) tiene la opción de FFDC (First Failure Capture). Ésta permite identificar y crear un log de los diversos fallos que puedan ocurrir. También utiliza la tecnología IBM Chipkill que permite la detección y corrección de la mayoría de los errores de memoria. Para ello existe memoria redundante que puede ser utilizada cuando se detecte el fallo. Otra característica importante de la serie p690 y de su sistema operativo es que, si detectan que un componente (memoria, procesador...) no está operativo lo apartan a nivel lógico de los procesos en cursos asignando sus cargas a otros componentes que sí estén operativos. El sistema operativo AIX 5L se entrega con la tecnología Java para tratamiento de procesos web pudiendo obtener elevados rendimientos en el servicio. AIX 5L provee con API’s que permiten que las aplicaciones Linux Open Source puedan ejecutarse en AIX 5L con una simple compilación. Tiene también una caja de herramientas para aplicaciones Linux que permite realizar las tareas de desarrollo básicas. La versión de Linux que soporta preferentemente IBM para esta serie es la SuSe Enterprise en su Versión Server. En este caso Linux no necesita la utilización del sistema operativo AIX 5L, y las aplicaciones Linux pueden ejecutarse independientemente en una partición lógica y beneficiarse de la potencia de esta serie.
Figura 4. Fotografía del IBM eserver pSeries 690.
3.6.
EQUIPOS BASE DE HEWLET-PACKARD
La arquitectura SC AlphaServer se ha convertido en estándar para equipos de supercomputación dentro del grupo de empresas clientes de Hewlet-Packard y Compaq. Los clientes pueden escoger entre los equipos AlphaServer SC45 ó SC40.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 9 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Por ejemplo los AlphaServer S45 emplean procesadores de 1 GHz y una memoria de 8 GB por servidor. La arquitectura AlphaServer se ha diseñado para lograr los altos requerimientos de un sistema de supercomputación utilizando componentes comerciales, escalables, de fácil uso e interconectables. Este tipo de tecnología se conoce como tecnología COTS (Commercial Off-The-Shelf). Los sistemas SC AlphaServer son combinaciones de bloques de construcción integrados. Los bloques son de los siguientes tipos: □
□
□
Bloque de cálculo: Compuesto de hasta 5 servidores personalizados donde cada uno de los cuales consta de: à
De 1 a 4 procesadores Alpha-EV68 de 1 GHz con 8 MB de caché por procesador.
à
De 2 a 32 GB de memoria DIMM tipo ECC a 133 MHz.
à
Un adaptador de almacenamiento Ultra SCSI.
à
10 adaptadores PCI I/O en 4 buses de 64 bits con capacidad de un ancho de banda pico de 1.8 GHz.
à
De 1 a 2 adaptadores de interconexión PCI de AlphaServer SC.
à
Sistema operativo Tru64 UNIX v5.1.
Bloque de gestión. Compuesto por: à
Al menos un servidor de gestión basado en un sistema AlphaServer.
à
Otro sistema AlphaServer para redundancia y disponibilidad.
à
Puede incluir componentes de gestión como consola de gestión de red.
Bloque de almacenamiento: Incluye entre otros: à
Dos canales de fibra óptica para host.
à
Unidades de disco para 18 ó 36 GB.
à
Dos ó tres buses que pueden albergar hasta 42 unidades de disco duro.
La técnica de “High Perfomance Technical Computing (HTPC)“ ha exigido tradicionalmente tres requisitos en la arquitectura del sistema : □
Cálculo en coma flotante (específicamente coma flotante doble precisión de 64 bits).
□
Elevado ancho de banda.
□
Gran cantidad de memoria.
Todas estas demandas están interrelacionadas. La supercomputación (ó computación técnica) se suele emplear para modelar y simular fenómenos naturales, utilizando para ello diversas ecuaciones matemáticas. Pero el problema existente es que cuando crece el tamaño de un modelo, el incremento de los datos necesarios para simular dicho fenómeno crece de una manera exponencial. Otro factor que ha aparecido de una forma explosiva es la utilización en la tecnología de supercomputación es el empleo de sistemas operativos tipo “open-source” como Linux. Hasta el año 2000, los superordenadores estaban basados en sistemas operativos propietarios. Actualmente desde el punto de vista relativo al rendimiento todavía dichos sistemas operativos mantienen su supremacía, pero las distancias se van acortando con la irrupción de Linux y el apoyo decidido de algunas empresas como IBM, y Hewlet-Packard. AlphaServer está disponible con Linux y con UNIX True64 y Open VMS.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 10 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Figura 5. Fotografía de Colt (SC AlphaServer de 16 nodos de la división de ciencias y matemáticas del Oak Ridge National Laboratory).
3.7.
LOS EQUIPOS MÁS POTENTES DEL MUNDO
Existe una web que se ocupa de mantener una base de datos para detectar tendencias dentro de los superordenadores. Dos veces por año se elabora un listado de los 500 sitios con mayor potencia de cálculo del mundo que están operando con superordenadores. El listado se puede consultar en www.top500.org. Como muestra de esta tendencia se presentan muy esquemáticamente dos centros mundiales de supercomputación: □
□
En Japón tenemos existe el proyecto del Simulador de la Tierra (ES, o Earth Simulator) diseñado para el modelado del clima con una potencia de 40 TeraFlops. Está localizado en Yokohama a cuatro horas de coche de Tokio. Es el primer centro de supercomputación en la lista de Top 500. El ES tiene as siguientes características: à
5.120 (640x8 nodos) con CPU’s de 500 MHz de NEC.
à
8 GFLOPS por CPU (41 TFLOPS total).
à
2 GB (4x512 MB FPLRAM módulos) por CPU (10 TB total).
à
Memoria compartida dentro de cada nodo.
à
640 × 640 crossbar switch entre los nodos.
à
16 GB/s ancho de banda entre nodos.
à
20 kVA consumo de potencia por nodo.
à
La máquina utiliza como sistema operativo el Super-UX UNIX-OpenMP.
à
La máquina ocupa un edificio de 65 metros de altura por 50 metros de anchura.
El sistema Q de supercomputación del Laboratorio Nacional de los Alamos tiene por objetivo simular los diversos modelos utilizados para representar los efectos del stock de bombas nucleares existentes en los EEUU. El sistema consta de los siguientes componentes: à
3072 AlphaServer ES45s de Hewlett-Packard.
à
12,288 EV-68 1.25 GHz CPUs con 16 MB caché.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 11 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
3.8.
à
33 Terabytes (TB) de memoria central.
à
Un canal de fibra óptica de 1 GB para mantener 664 TB de almacenamiento global.
EL FUTURO DE LA SUPERCOMPUTACIÓN
A continuación se esbozarán las características fundamentales de las tecnologías más prometedoras que tienen una aplicación potencial y directa para el desarrollo de la supercomputación. Si bien su estado actual es todavía inmaduro, conviene conocer su existencia y unas pinceladas básicas de sus propiedades, dado el tremendo empuje que supondría su aplicación a las tecnologías de supercomputación.
3.8.1. NANOTECNOLOGÍA La nanotecnología es un campo de la ciencia cuyo objetivo es controlar los átomos individuales y las moléculas para crear chips y otros dispositivos que son miles de veces más pequeños que los que produce nuestra tecnología actual. Esta tecnología utiliza en sus procesos de fabricación la litografía para imprimir los circuitos en materiales semiconductores. La litografía ha evolucionado vertiginosamente en las últimas décadas, pero está llegando a sus límites físicos. Por ello es necesario para el desarrollo de nuevas tecnologías, como la nanotecnología, que permita reducir el tamaño de los circuitos a nivel de átomo elemental. Este es el concepto base de “nanotecnología” cuyo término fue concebido por Eric Drexler en 1986 en su libro “Engines of creation”.
3.8.2. COMPUTACIÓN CUÁNTICA Durante la década de los 90, un grupo de científicos desarrolló una nueva teoría que aplicaba principios de la física cuántica al estudio de la información. Este nuevo campo fue sido bautizado como teoría cuántica de la información. Una rama de esta teoría se ha centrado en el estudio de las posibles aplicaciones a los cálculos matemáticos, naciendo así él cálculo cuántico. Esta rama estudia la creación de un nuevo tipo de ordenadores que serían exponencialmente más rápidos que los actuales. Esta nueva clase de ordenadores se han denominado ordenadores cuánticos. Los ordenadores cuánticos se basan en una nueva unidad de información creada por el Dr. Schumacher, cuyo nombre es el qubit, o bit cuántico. En palabras del Dr. Schumacher, “el qubit es el primo cuántico del bit”. Mientras que el bit tradicional de un ordenador convencional sólo puede poseer dos estados (el estado alto ó 1, y el estado bajo ó 0), el qubit está formado por la composición lineal de dos estados. Así, un bit cuántico puede almacenar un estado alto, un estado bajo, o cualquier estado intermedio compuesto por una combinación de 0 y 1. Los ordenadores cuánticos son unos dispositivos teóricos que explotan las propiedades de la mecánica cuántica, la cual tiene lugar es un espacio matemático llamado espacio de Hilbert. Es este espacio no existe una única realidad, sino un número casi infinito de éstas. De forma que, una partícula deja de poseer forma y pesos deterministas, y pasa a ser una nube de probabilidad difusa y cambiante. Estas realidades paralelas, esos estados simultáneos que presentan las partículas, pueden ser utilizados para realizar operaciones de forma paralela, simultánea, con la misma partícula. Así cada bit cuántico sería procesado y modificado de forma concurrente, en cada una de sus realidades paralelas, para que efectue simultáneamente varias operaciones. Los ordenadores convencionales pueden paralelizar las operaciones para llevar a cabo un número elevado de ellas, pero un número siempre finito. Sin embargo, un ordenador cuántico podría realizar un número incontable de operaciones de forma simultánea, para finalmente ofrecer una única respuesta como salida del algoritmo. En cierto sentido los ordenadores cuánticos se parecen al pensamiento humano. Una persona puede pensar simultáneamente en varias ideas difusas, que incluso pueden ser contradictorias, para finalmente llevar a cabo
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 12 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
una única acción. La idea difusa es como una de las posibles realidades del qubit, difusa y múltiple. La acción es como el resultado final, único y tangible.
4.
MACROORDENADORES (O MAINFRAMES)
Un mainframe es un gran ordenador que da servicio a varios miles de usuarios simultáneamente y que ocupa parte de una habitación (originalmente ocupaba la habitación completa) equipada con un sistema especial de aire acondicionado. Son ordenadores muy caros, que en la escala de la potencia de cálculo quedan justo por debajo de los superordenadores. En cierto sentido los macroordenadores son más potentes que los superordenadores ya que soportan un número mayor de usuarios y programas simultáneos, pero los superordenadores pueden ejecutan un único programa más rápido que un mainframe. Las diferencias entre los mainframes pequeños y los miniordenadores son cada día más difusas, y su clasificación en una u otra categoría depende muchas veces de la estrategia comercial que le dé el fabricante. Ha habido varios fabricantes de mainframes, pero sólo unos pocos han alcanzado la extensión y el reconocimiento necesarios para conseguir resistir el paso del tiempo, adaptándose a los nuevos retos tecnológicos. A continuación daremos una descripción de uno de los mainframes más populares a nivel mundial, y sin duda, uno de los más difundidos dentro de la Administración española. Nos referimos al S/390, actualmente conocido como IBM eserver zSeries.
4.1.
IBM S/390
La arquitectura original del S/360 ha evolucionado de muchas formas desde su presentación original allá por 1963. Dos características fundamentales de esta evolución han sido: □
Evolución compatible: IBM ha sido consciente de la importante inversión realizada por sus clientes en hardware y software. Así, la evolución de la arquitectura ha sido planificada teniendo en cuenta la compatibilidad con las aplicaciones previamente existentes.
□
Resolución de las restricciones: la evolución de las capacidades del hardware y la evolución del diseño de aplicaciones producen varios puntos de fricción en el diseño de los sistemas. A lo largo de los años estos puntos de fricción han incluido el rendimiento de la CPU, el tamaño de la memoria utilizable, el tamaño de la memoria direccionable, la velocidad de E/S (Entrada/Salida), la gestión de la sobrecarga de E/S, etc. La arquitectura del sistema ha evolucionado considerando restricciones dentro de muchas áreas.
Ejemplos de esta evolución incluyen: □
Los sistemas monoprocesadores han evolucionado a sistemas multiprocesador.
□
Los sistemas con memoria real han evolucionado a sistemas con memoria virtual.
□
El direccionamiento de memoria (real y virtual) ha evolucionado de 24, a 31 bits, y a 64 bits de direccionamiento.
□
Los canales de E/S han evolucionado de 16 a 256 canales.
□
El direccionamiento de E/S ha evolucionado desde 3 dígitos hexadecimales (en el S/360) a 4 dígitos hexadecimales (en la arquitectura X) ofreciendo hasta 64.000 direcciones (números de dispositivo) para los dispositivos de E/S.
□
Un sistema operativo único en la máquina ha evolucionado a particiones lógicas (LPAR) que ofrecen hasta 15 imágenes del sistema en una sola máquina.
□
La gestión de E/S evolucionó del complejo manejo por parte del sistema operativo hasta los SAP (System Assistance Processor) que manejan buena parte del trabajo.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 13 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
La gama de los zSeries incluye los siguientes modelos (ordenados de mayor a menor potencia): □
zSeries 990.
□
zSeries 900.
□
zSeries 800.
□
S/390.
Para tener una idea más clara de la capacidad que pueden llegar a ofrecer este tipo de máquinas, describiremos las características principales de los más potentes: el zSeries 990. El z990 es un miembro de la familia del zSeries y usa la arquitectura zArch (anteriormente conocida como arquitectura ESAME) y el juego de instrucciones (con algunas extensiones) que usa el z900. La arquitectura zArch se conoce como arquitectura de 64 bits, aunque ofrece mucho más que capacidad de 64 bits.
Figura 6. Aspecto interior (izquierda) y exterior (derecha) del IBM eserver zSeries 990. Un nuevo concepto introducido por el z990 es el de libro dentro de una máquina zSeries. El z990 ofrece cuatro modelos: el A08 (con un libro), el B16 (con dos libros), el C24 (con tres libros) y el D32 (con cuatro libros). Un libro contiene procesadores (PUs, o Processing Units en la terminología del zSeries), memoria, y cajas de conexiones de E/S. Un z990 posee espacio para albergar de 1 a 4 libros. Cada libro tiene: □
12 unidades de proceso (Processing Units, o Pus): Dentro de cada libro, hasta un máximo de 8 procesadores pueden usarse como CPUs (dos se usan como SAPs y dos se reservan como respaldo).
□
De 8 a 64 GB de memoria.
□
Hasta 12 conexiones a las cajas de E/S y/o canales acoplados ICB.
La memoria que reside en un libro se usa como un SMP. Toda la memoria es direccionable por cualquier procesador de cualquier libro. Dicho de otra manera, un procesador puede direccionar toda la memoria del sistema, y toda la memoria es coherente a los programas. Existen cachés de nivel 1 y 2 para mejorar el rendimiento, pero no son visibles directamente por los programas. El z990 está disponible en 4 modelos, aunque en la adquisición inicial solo se pueden comprar los dos primeros modelos. El modelo está directamente relacionado con el número de libros que incluye el sistema. El número de TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 14 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
PUs que se compran para cada libro se selecciona a través de los códigos de las características, y no está directamente reflejado en el número de modelo del sistema. Los modelos son: □
IBM 2084-A08: Un libro, con hasta 12 procesadores, 12 conectores STI, con un máximo de 8 PUs usadas por el cliente, y un máximo de 64 GB de memoria.
□
IBM 2084-B16: Dos libros, con hasta 24 procesadores, 24 conectores STI, con un máximo de 16 PUs usadas por el cliente, y un máximo de 128 GB de memoria.
□
IBM 2084-C24: Tres libros, con hasta 36 procesadores, 36 conectores STI, con un máximo de 24 PUs usadas por el cliente, y un máximo de 192 GB de memoria.
□
IBM 2084-D32: Cuatro libros, con hasta 48 procesadores, 48 conectores STI, con un máximo de 32 PUs usadas por el cliente, y un máximo de 256 GB de memoria.
STI son las siglas de Self-Timed Interconnect. Un STI es un interfaz al adaptador del bus de memoria (Memory Bus Adaptor, o MBA), usado para recibir y enviar información. Cada STI tiene un ancho de banda bidireccional de 2 GBps. De manera que el ancho de banda instantáneo máximo por libro (con 12 STIs) es de 24 GBps. Como puede verse, las letras A, B, C y D del número de los modelos indican si posee 1, 2, 3, y 4 libros. El número que sigue a la letra indica el número máximo de CPs/IFLs/ICFs que pueden dirigirse y activarse. Actualmente el número del modelo ya no refleja el número de procesadores que pueden usarse. Solo indica el número de procesadores usados por los usuarios que podrían activarse (si se compran). El número del modelo también refleja el número de libros instalados. Las características descritas junto con la capacidad de establecer particiones lógicas para virtualizar distintas máquinas dentro de una sola, las capacidades criptográficas, de red y almacenamiento, y la fiabilidad y robustez de funcionamiento que han demostrado a lo largo de los años, convierten a estas máquinas en una alternativa atractiva para los entornos que requieran el soporte concurrente a gran escala de estas funcionalidades centralizadas en una única máquina.
5.
MINIORDENADORES (O SERVIDORES DEPARTAMENTALES)
Este concepto empezó a utilizarse para hacer referencia a equipos modulares, de fácil instalación y manejo, con posibilidades de procesamiento científico y rápidamente comenzó una superposición entre supermicros, minis y superminis ya que los avances hacían que las gamas se solapasen constantemente. El pionero de lo minis fue VAX en la década de 1970. Se considera que el primer supermini fue el VAX-11/780 y sus incrementos de potencia hicieron que la diferenciación con un mainframe fuera cada vez más difusa. En 1984 aparece el VAX 8600 de Digital y a partir de este momento múltiples compañías, Digital, Data General, HP, Prime, IBM y otras muchas, se concentran de forma cada vez más intensa en la fabricación de máquinas de 32 bits que, pese a ser denominadas de diferentes formas, disponen cada vez de mayor potencia. Estos equipos estaban destinados a prestar un nuevo servicio con un nuevo modelo de arquitectura. Se orientaron a servir como: □
Servidor principal de una empresa pequeña o mediana en la que se ofrecería un precio bajo al usuario y múltiples aplicaciones de gestión estandarizadas.
□
Servidor asociado o incluso departamental instalado en una dependencia separada y dependiente de la sede central de la organización. Se concebía la máquina departamental como una herramienta de productividad con un precio bajo que evitaba el empleo masivo de líneas de teleproceso hacia los mainframes corporativos.
□
Servidor autónomo para aplicaciones poco repetitivas o especializadas como las de Automatización de Oficinas con soporte directo del proveedor.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 15 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Los argumentos empleados para potenciar la introducción de estas máquinas departamentales dependían de los fabricantes. Para algunos eran razones funcionales, como en el caso de IBM, que esgrimía: □
Consideraciones económicas basadas en la mejor relación precio/rendimiento.
□
La facilidad de instalación y mantenimiento necesario en instalaciones remotas, así como la operación en entorno de oficina sin necesidad de aire acondicionado o instalaciones especializada.
□
Una alternativa a la filosofía maestro-esclavo propia del SNA.
El mercado hizo que compitieran entre sí varias líneas de máquinas de este segmento destinadas a una misma función, como por ejemplo las máquinas S/36, S/38, los 43XX, los 93XX, Sistemas 88, y más adelante los AS/400 y máquinas RISC. Otros utilizaban razones filosóficas y estratégicas como ocurrió en el caso de DEC que con su línea VAX. Apostaban por considerar la red más importante que al propio ordenador y diseñaron una solución distribuida al proceso de datos en la que distintas máquinas, cuya potencia iba desde el ordenador personal hasta la propia del mainframe, se integraban en la misma arquitectura. A continuación se describirán dos de los miniordenadores más conocidos de la historia: el VAX de Digital Equipment Corporation, y el AS/400 de IBM.
5.1.
DIGITAL VAX
A comienzos de 1975 un grupo de desarrolladores de Digital Equipment Corporation (en lo sucesivo Digital) se pusieron a trabajar en el sucesor de la línea de ordenadores PDP-11. La serie del PDP-11 era el buque insignia de Digital, estaba haciendo un buen trabajo, y tenía gran aceptación comercial, pero era necesario crear algo nuevo más potente. El primer VAX fue presentado el 25 de octubre de 1977, en la reunión anual de accionistas de Digital. Era la primera máquina de 32 bits disponible comercialmente, y fue un hito importante en la historia de la informática. Su nombre es el acrónimo de Virtual Address Extension (Extensión Virtual de Dirección). El VAX y su sistema operativo VMS (posteriormente renombrado como OpenVMS) fueron revolucionarios en muchos aspectos. Además de su arquitectura de 32 bits, fueron la primera pareja de máquina y sistema operativo que se diseñaron simultáneamente, pensando el uno en el otro. Esto produjo un sistema perfectamente engranado que funcionaba muy bien y duró mucho tiempo. De hecho, el VAX se diseñó para que durase de 10 a 15 años. El primer VAX-11/780 se instaló en la universidad de Carnegie Mellon en EEUU. En 1978 se instaló en el CERN (en Suiza) y en el Instituto Max Planck de Alemania. Esta máquina podía ejecutar un millón de instrucciones por segundo, lo cual era una cifra muy elevada para la época.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 16 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Figura 7. Fotografía del VAX-11/780. En unos pocos años, Digital sacó los sistemas VAX-11/750, que estaban diseñados para reemplazar a los ordenadores de gama alta PDP-11. Al ofrecer Digital también una forma de actualización mediante un modo de compatibilidad, muchos clientes se pasaron al nuevo hardware. Una de las mejores características del la línea VAX era el sistema operativo VMS. De hecho, la capacidad de clustering que se le añadió a VMS sigue estando muy por delante de lo que puede hacer la mayoría de sistemas operativos actuales. En 1980 se lanzó la versión 2 de VMS. En 1982 Digital sacó el VAX-11/730, que era todavía más pequeño que el VAX-11/750. Este fue el tercer miembro de la línea VAX, y era una versión reducida de las dos maquinas anteriores, pero aún más potente. Sin embargo, era mucho más barato y resultaba así atractivo para un conjunto de clientes mucho más amplio. En 1982 Digital era la segunda compañía informática más importante, por detrás de IBM (que era la número uno). En 1983 se anunció la discontinuidad de desarrollo de la línea PDP-11 en favor de la de VAX, aunque debido a las protestas de los clientes siguieron algún tiempo más. VMS se convirtió en un sistema operativo maduro y bien diseñado, que heredó muchos de sus conceptos de los dos principales dos principales sistemas operativos del PDP-11: RSTS/E y RSX. Del mismo modo, Windows NT heredó muchos de los conceptos de VMS, al ser diseñado por mucha de la gente que creó la línea VAX. Tras la llegada del VAX-11/730, muchos clientes demandaron un VAX más potente. Digital respondió con el VAX-11/782, que estaba compuesto por dos procesadores VAX-11/780 compartiendo la misma memoria. A éste le siguió el sistema VAX-11/785, que corría más rápido. En octubre de 1984, Digital anunció el VAX 8600, que era el primero de una segunda generación de máquinas VAX. En 1986 Digital presentó el 8800, el 8300, y el 8200. Un año después anunció el 8974 y el 8978. El MicroVAX se lanzó en julio de 1982. El MicroVAX II era muy diferente de los VAX anteriores. Era más barato (el primer VAX con un coste inferior a los $20.000) y era rápido. De hecho, su procesador era tan rápido como el VAX-11/780.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 17 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Figura 8. Fotografía del MicroVAX II. Los sistemas redujeron aún más su tamaño con la llegada del VAXstation 2000, que costaba menos de $5.000. En aquella época era un precio muy bajo para el hardware y el software que incluía. En 1992 Digital lanzó el Alpha, que era una máquina con un procesador RISC (Reduced Instruction Set Computer) de 64 bits que corría una versión modificada de VMS llamada AXP. Esta máquina era realmente rápida, de hecho, batió muchos de los récords de velocidad y rendimiento de la época. A mediados de la década de 1990, se le cambió el nombre a VMS por el de OpenVMS, y dio soporte a estándares como OSF/Motif, POSIC, XPG4, y DCE. Digital fue vendida a Compaq en 1998, y Compaq fue adquirida por HP a finales de 2001. Ninguna de las dos compañías (Compaq y HP) supieron continuar con las líneas de ordenadores VAX ni Alpha, por lo que sus ventas bajaron drásticamente. La línea de VAX está actualmente muerta. Muchos clientes todavía utilizan hardware VAX, pero es solo una cuestión de tiempo hasta que esas máquinas dejen de tener soporte o no sean mantenibles. Alpha con OpenVMS todavía se vende.
5.2.
IBM AS/400
El mítico AS/400 de IBM sufrió un cambio de nombre el 3 de octubre de 2000, pasando a denominarse IBM eserver iSeries. Sin embargo, a lo largo de este apartado se manejarán ambos términos indistintamente, ya que, pese a los esfuerzos publicitarios de IBM, mucha gente sigue utilizando el nombre de AS/400 para referirse a éstas máquinas (por no hablar de las máquinas que realmente son AS/400 y que siguen en activo).
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 18 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Figura 9. Fotografía del AS/400. El AS/400 es un sistema integrado muy complejo que incluye hardware, software, seguridad, una base de datos y otros componentes. La arquitectura avanzada AS/400 destaca por ser extremadamente adaptable y poder incorporar fácilmente nuevas tecnologías. Esto es importante en el mercado informático actual donde los cambios se suceden con rapidez. El AS/400 está diseñado para aislar el software y el hardware, de manera que los cambios en uno tienen poco efecto sobre el otro. Esto se logra a través del interfaz de la máquina (MI) que es un interfaz de la programación de software entre el usuario, el sistema operativo y el hardware. El MI es un interfaz de programación de aplicaciones (API) que gestiona todos los accesos al hardware. Así es cómo el AS400 alcanza la independencia del software. El sistema operativo del AS/400 se llama OS/400. El OS/400 reside sobre el MI. Esto permite que el sistema operativo sea independiente del hardware. La mayoría de los componentes del sistema operativo manejan funciones tales como memoria, proceso, programa, y gestión de I/O. En el AS/400 estas funciones de nivel inferior son manejadas por el código interno licenciado (Licensed Internal Code, o LIC). El LIC aísla a las aplicaciones y al OS/400 frente a cambios del hardware. El AS/400 contiene un sistema de ficheros integrado (Integrated File System, o IFS). Esto significa que puede accederse a otros sistemas de ficheros (FAT, i-node, etc.) desde el AS/400. El IFS integra todos los sistemas de ficheros en el AS/400 con un único interfaz y un sistema de reglas. El AS/400 contiene una base de datos empotrada llamada DB2/400. DB2/400 se integra en el AS/400 sobre el MI y el LIC. Habitualmente las bases de datos son componentes de software separados que residen sobre el sistema operativo. Puesto que DB2/400 se integra a través del sistema entero, se puede alcanzar un nivel de la eficacia más alto porque se integra firmemente con los componentes con los cuales se comunica. El sistema de gestión de la base de datos (DBMS) permite almacenar y recuperar datos. Un DBMS debe tener un interfaz para que los usuarios puedan tener acceso y manipular a los datos. Hay dos interfaces en el AS/400: □
Las especificaciones de la descripción de los datos (DDS) y lenguaje de interrogación estructurado (SQL). El DDS, o el interfaz nativo, fue transportado de la IBM System/38. Tiene un aspecto similar al sistema de gerencia de información de IBM (IMS).
□
El segundo interfaz para el AS/400 es SQL. Éste es el estándar de la industria para las bases de datos relacionales y es un producto opcional que debe comprarse por separado.
El AS/400 se describe a veces como un sistema orientado a objetos porque los objetos son una parte fundamental del diseño del sistema. Casi todo en el AS/400 es un objeto. Éstos incluyen ficheros de datos, perfiles de usuario, colas de trabajo, colas de mensaje, colas de impresión, programas compilados, documentos del procesamiento de textos, menús, etc. En AS/400 los objetos son clasificados por su tipo, y permiten que el usuario especifique qué tipo de objetos se requiere para una tarea dada. Hay objetos OS/400 y objetos del sistema del MI.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 19 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Una biblioteca es un objeto OS/400 que se utiliza para encontrar otros objetos OS/400 en la base de datos. La biblioteca se organiza como jerarquía de un solo nivel, al contrario que las estructuras de directorio encontradas en los PCs que tienen una jerarquía de niveles múltiples. Para encontrar un objeto del sistema OS/400 es necesario el nombre de la biblioteca y el nombre del objeto. El AS/400 identifica los objetos por su nombre cualificado, que toma la forma de LIBRARY/OBJECT. Por ejemplo, para encontrar el DINERO (MONEY) del objeto en la NÓMINA DE PAGO (PAYROLL) de la biblioteca se referiría a esto como PAYROLL/MONEY. Dos o más objetos pueden tener el mismo nombre pero deben ser tipos de objetos diferentes. Por ejemplo se podría tener un programa de nombre TEST y un espacio de los datos de nombre PRUEBA, pero no podría haber dos programas de nombre PRUEBA. Un objeto puede existir solamente en una biblioteca. En un mundo que demanda una potencia de cálculo cada vez mayor, los iSeries responden con una estrategia tecnológica que se asienta sobre cuatro pilares:
5.3.
□
Integración: El desafío de la integración consiste en crear una tecnología sin costuras (seamless) que permita integrar diversos sistemas operativos, middleware, y aplicaciones. El sistema operativo OS/400 combina tecnologías comprobadas de base de datos, gestión de la carga de trabajo, almacenamiento, y seguridad, en un entorno operativo para las aplicaciones de negocio de fácil manejo. Gracias a la incorporación de su integración con Microsoft Windows y su soporte para Linux, los iSeries han reducido los límites de la integración.
□
Virtualización: La virtualización ofrece la posibilidad de ofrecer dinámicamente recursos del servidor, de almacenamiento, y de aplicación, de acuerdo a la demanda y prioridad de cada momento. El primer ladrillo sobre el que los iSeries se acercan a la meta de la virtualización, es la gestión dinámica de la carga de trabajo y recursos del sistema. Después está el soporte completo de particionamientos lógicos dinámicos. También está la capacidad para dividir cada procesador en varias particiones. Ésta hace posible tener varias imágenes virtuales de Windows o Linux con diferentes cargas de trabajo.
□
Estándares abiertos: Los iSeries tienen un fuerte compromiso con los estándares abiertos tales como Java, SQL, XML, y Linux. El compromiso resulta evidente en la implementación de los iSeries de Linux. Esto permite a los clientes manejar soluciones nuevas y abiertas, dentro de particiones virtuales y la gestión de redes de almacenamiento en los servidores iSeries. Los iSeries ganaron el premio "Best of Show" en la feria LinuxWorld de 2001.
□
Automatización: Este es el término empleado para describir las tecnologías de autoreparación, autooptimización, y autoconfiguración de los iSeries. Los iSeries están construidos sobre cimientos que enfatizan el uso de automatizaciones como la gestión autooptimizada de disco, y la capacidad para llamar al servicio de mantenimiento automáticamente en caso de fallo. Actualmente los iSeries incluyen las siguientes automatizaciones: à
Particiones dinámicas para una utilización eficiente de los recursos.
à
Consejero de índices automático para gestionar los índices de las bases de datos automáticamente.
à
Identificación única en red (Single Sing-on) ofrecida a través del Enterprise Identity Mapping para responder al reto de gestionar las identidades de los usuarios y sus contraseñas en redes corporativas heterogéneas.
TENDENCIAS TECNOLÓGICAS Y DEL MERCADO
La tendencia generalizada es la descentralización en la capacidad de proceso, con lo cual proliferan las redes locales conectadas al host y se tiende a sustituir los terminales convencionales por ordenadores personales. Aprovechando las cada vez más potentes prestaciones de las plataformas pequeñas y medias, se propone la migración de las tradicionales aplicaciones de mainframe a dichas plataformas (downsizing), utilizando como plataforma lógica los sistemas abiertos. Se combina así un coste más favorable, proveniente de la utilización de máquinas más pequeñas, y la portabilidad e interoperabilidad de los sistemas abiertos.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 20 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Aunque se tiende a la implantación de sistemas abiertos en sistemas pequeños y medios, en sistemas grandes la migración no se ha producido tan rápidamente como se podía pensar. Las razones son dos: por un lado las fuertes inversiones ya realizadas por los usuarios de grandes sistemas propietarios, tanto en equipos físicos como en el software de su propiedad, y por otro las dificultades y riesgos involucrados en la migración de las aplicaciones.
6.
MICROORDENADORES (U ORDENADORES PERSONALES)
El concepto original de microordenador u ordenador personal puede definirse como un ordenador relativamente barato diseñado para ser usado por una única persona. El precio de la gama media y baja se sitúa típicamente entre los 600 y los 3000€. Todos se basan en el uso de microprocesadores que permiten a los fabricantes incluir una CPU completa en un único chip. En el ámbito empresarial, los ordenadores personales se utilizan fundamentalmente para labores ofimáticas como el procesado de textos, la contabilidad, las hojas de cálculo, y aplicaciones de bases de datos. En el ámbito doméstico, los ordenadores se utilizan además de para lo anterior como herramientas lúdicas (juegos) y de comunicación. Si bien lo dicho anteriormente es cierto, debe tenerse en cuenta que los fabricantes están ofreciendo cada vez un surtido más amplio de PCs cubriendo un abanico más extenso de posibilidades. De hecho, actualmente la versatilidad de los PCs ha llevado a crear microordenadores de gama alta, que nada tienen que envidiar en prestaciones (y precio) a los servidores tradicionales, arrebatándole una cuota de mercado importante a estos últimos. Así mismo, los ordenadores personales también han visto reducido su tamaño y adaptado sus características a las necesidades de un mundo cada vez más móvil creando así ordenadores portátiles, que serán tratados en un apartado posterior por sus peculiaridades intrínsecas. Los ordenadores personales aparecieron a finales de los 70. Uno de los primeros y más conocidos microordenadores fue el Apple II, presentado en 1977 por Apple Computer. Durante la década de 1970 y 1980, nuevos modelos y sistemas operativos rivales aparecían a un ritmo frenético. En 1981, IBM entró en escena con su primer ordenador personal, conocido como IBM PC. El IBM PC se convirtió rápidamente en el ordenador personal más popular, y la mayoría de los fabricantes restantes acabaron desapareciendo. Una de las pocas compañías que sobrevivió a la llegada de IBM fue Apple Computer, que sigue hoy en día presente aunque con una cuota de mercado mucho menor de lo que llegó a tener (en los 90 se decía que 1 de cada 4 ordenadores personales era un Apple, mientras que hoy en día apenas llega a 1 de cada 100).
Figura 10. Fotografías del Apple II (izquierda) y del IBM PC (derecha).
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 21 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Otras compañías se adaptaron a la supremacía de IBM construyendo clónicos de los IBM PC, ordenadores que eran internamente casi idénticos a los IBM PC pero con un coste menor. Al usar los clónicos los mismos microprocesadores que los IBM PC, eran capaces de ejecutar el mismo software. Con el paso de los años, IBM ha perdido toda su influencia en la evolución del PC. Muchas de sus innovaciones como el bus MCA (Micro Channel Architecture) no han sido aceptadas por el mercado. Esto unido a los costes más reducidos de empresas rivales, ha hecho que IBM se replantee su negocio, cancelando en Julio de 2003 la línea de producción de PCs. Desde entonces centra su negocio en ordenadores de categorías superiores, y sobre todo, en los servicios de tecnologías de la información. Hoy en día, el mundo de los ordenadores personales está básicamente dividido en PCs (compatibles con IBM PC) y Apple Macintosh (con procesadores de Motorola), inclinándose la balanza claramente a favor de los primeros. Por su parte, los PCs se subdividen en aquellos que utilizan microprocesadores Intel y AMD. Pese a que ambos son compatibles entre sí, hay una clara pugna entre ambos por conseguir el dominio del mercado, aunque hasta ahora AMD va perdiendo el combate con una cuota del 18% del mercado.
6.1.
BREVE LINEA DEL TIEMPO DEL MICROORDENADOR □
1971: à
□
1972: à
□
□
□
à
Aparece el primer ordenador no basado en kit (hasta entonces los ordenadores se vendían como piezas sueltas en forma de kit que cada usuario debía ensamblar) con un microprocesador, el Intel 8008 y de nombre Micral. Construido en Francia, el Micral se anuncia en Estados Unidos, pero no tiene éxito.
à
El término "microordenador" aparece en la prensa escrita por primera vez en referencia al Micral.
1974:
à
La computadora de kit Altair del MITS, el sueño de cualquier aficionado a la electrónica, cobra la vida por sólo $397.
à
Paul Allen y Bill Gates desarrollan el BASIC para la Altair 8800.
à
Los compañeros de clase Paul Allen y Bill Gates establecen su propia compañía: Microsoft.
1976: Steve Wozniak y Steve Jobs finalizan su trabajo de la placa de su ordenador al que llaman Apple I. Diez meses después de su invención, se han vendido 175 kits de Apple I.
1977: à
□
Jonathan A. Titus diseña el Mark-8, "su minicomputadora personal," según la cubierta del número de julio de “Radio-Electronics”.
1975:
à □
Gary Kildall escribe PL/M, el primer lenguaje de programación de alto nivel para el microprocesador de Intel. Gary Kildall escribe un sistema operativo simple en su lenguaje de PL/My lo la llama CP/M (Control Program/Monitor).
1973:
à □
Intel desarrolla el primer microprocesador, el 4004.
En el año 1977 se despertó un gran interés por los ordenadores personales y se introdujeron una larga serie de máquinas como el Commodore PET, el Radio Shack TRS-80, y el más importante, el Apple II.
1978: à
El Intel 8086 ofrece potencia de 16 bits y es la elección inicial de IBM para su PC.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 22 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
□
1979: à
□
□
1980: à
Tim Patterson comienza a escribir un sistema operativo para el uso con el ordenador basado en el 8086 de Seattle Computer Products.
à
Apple Computer presenta el Apple III en la National Computer Conference, en Anaheim, California.
à
IBM encarga a Microsoft que desarrlle BASIC para su PC.
1981: à
□
□
□
□
□
□
□
El IBM PC se lanza en agosto de 1981.
1982: à
□
Software Arts desarrolla la primera hoja de cálculo, Visicalc, en la primavera de 1979. Se lanzó en octubre y fue un éxito inmediato. Las ventas mensuales ascendieron de las 500 a las 12.000 unidades entre 1979 y 1981.
Compaq introduce su primer PC, el Compaq Portable y la guerra de los clones comienza.
1983: à
El Lisa apunta el gran futuro que tendrá Apple en materia de computación gráfica.
à
IBM refuerza su línea de PC con el PC-XT.
à
Nace Borland con Philippe Kahn como su presidente.
à
Se nombra hombre del año al PC en la revista Time.
1984: à
Hewlett-Packard lanza la primera impresora láser.
à
IBM lanza el PC-AT que incluye el procesador Intel 80286.
à
El Apple Macintosh debuta en 1984. Posee un interfaz gráfico sencillo, una CPU de 32 bits, el modelo 68000 de Motorola a 8 MHz, e incorpora una pantalla de 9” en blanco y negro.
1985: à
Commodore crea un ordenador de culto, el mítico Amiga.
à
Intel arranca la era de los procesadores de 32 bits con el 80386.
à
Microsoft lanza Windows 1.0 en noviembre.
à
Steve Jobs funda NeXT.
1986: à
Compaq vence a IBM al ser el primero en sacar un ordenador de escritorio con el 80386.
à
Motorola anuncia el 68040, un microprocesador 32-bit a 25MHz.
1987: à
El PS/2 se convierte en el motor de IBM de una segunda generación de PCs.
à
IBM lucha por recuperar el control del mercado mediante la arquitectura Micro Channel.
à
La alianza IBM/Microsoft desarrolla el OS/2 versión 1.0.
1988: à
La industria contraataca Micro Channel con la arquitectura EISA.
à
Tras 3 años de desarrollo nace el radicalmente diferente, Nextcube de NeXT Computer.
1989: à
El procesador 80486 de Intel incluye caché de nivel 1 en el chip.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 23 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
à □
1990: à
□
□
□
□
□
□
□
□
Microsoft lanza la primera versión realmente útil de Windows, la versión 3.0.
1991: à
Creative Labs presenta la Sound Blaster Pro Deluxe, la primera tarjeta de sonido estéreo para PC.
à
Se lanza MS-DOS 5.0. Añade un editor en color a pantalla completa, y las utilidades undelete y unformat.
à
La Comisión Federal de Comercio Americana comienza una investigación de Microsoft , por presuntas prácticas monopolísticas del mercado de software de PC.
1992: à
□
Las ventas de Microsoft sobrepasan el millón de dólares por primera vez.
Microsoft presenta Windows 3.1.
1993: à
Aparece el PowerPC 601, la primera nueva plataforma informática en años.
à
Intel alcanza los 3 millones de transistores por chip con el Pentium.
à
Se libera la primera versión del navegador web Mosaic de la NCSA.
1994: à
Los portátiles empiezan a adquirir características de sobremesa como unidades de CD-ROM.
à
Nescape lanza la primera versión beta del Navigator.
1995: à
Aparece Windows 95.
à
Microsoft se apunta a la guerra de los navegadores con Internet Explorer.
à
Aparece Java.
1996: à
Los dispositivos Windows CE dan al mercado de los ordenadores de mano un empujón.
à
Se presenta el Pilot de US Robotics, un PDA que es fácil de llevar.
1997: à
Intel agrega extensiones multimedia a los Pentium con MMX.
à
Intel introduce el Pentium II a 300 MHz.
1998: à
Denuncian a Microsoft en 20 estados por practicas anticompetitivas.
à
Microsoft lanza el Windows 98 en Junio.
à
Intel presenta el Pentium II a 350 y 400 MHz, el Celeron, y el Pentium II Xeon a 450 MHz.
1999: à
Intel presenta el procesador Pentium III a 450, 500, 600, 750 y 800 MHz.
à
El iMac de Apple está disponible en 5 colores traslúcidos.
à
Apple presenta el Mac G4.
à
AMD presentó el procesador Athlon a 700 MHz.
à
El efecto 2000 está a la vuelta de la esquina.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 24 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
□
□
□
□
2000: à
El efecto 2000 no causó ningún estrago porque fue corregido a tiempo.
à
Se lanza Windows 2000.
à
En Septiembre Microsoft lanza Windows ME (Millenium Edition).
à
Compaq lanza los primeros ordenadores equipados con el procesador Athlon a 1 GHz de AMD.
à
Intel presenta los procesadores Pentium 4 a velocidades de 1.4 y 1.5 GHz.
2001: à
Aparece Mac OS X, que combina la potencia de UNIX con la tradicional facilidad de manejo y varidad de aplicaciones de Macintosh.
à
Intel lanza en abril el Pentium 4 a 1.7 GHz, y en agosto a 2 GHz.
à
Microsoft lanza Windows XP.
2002: à
En enero Apple presentó un iMac completamente nuevo.
à
Las frecuencias de los micros de Intel y AMD siguen subiendo.
2003: à
Intel añade la tecnología Hyperthread a sus Pentium 4.
à
AMD lanza el Athlon 64, el primer microprocesador de 64 bits de la compañía.
Figura 11. Fotografías de los procesadores para PC más recientes.
6.2.
TIPOS DE CPU
Los microprocesadores actuales contienen decenas de millones de transistores. Su uso combinado con resistencias, condensadores, y diodos permiten la construcción de puertas lógicas. Las puertas lógicas se pueden agrupar para formar circuitos integrados, y los circuitos integrados se emplean para desarrollar sistemas electrónicos. Intel fue el primero en fabricar un microprocesador en 1971, el 4004. Era un microprocesador de 4 bits, diseñado para ser usado en calculadoras. Procesaba los datos de 4 en 4 bits, pero sus instrucciones eran de 8 bits de longitud. La memoria de datos y programa estaban separadas, y eran de 1 y 4 KB respectivamente. También tenía 16 registros de 4 bits (u 8 registros de 8 bits) de propósito general. El 4004 tenía 46 instrucciones, poseía 2300 transistores en una pastilla de 16 patillas, y corría a una frecuencia de reloj de 740 KHz.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 25 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Durante años, dos familias de microprocesadores han dominado la industria del PC: los Pentium de Intel, y los PowerPC de Motorola. Estas CPUs son también sendos ejemplos de las dos arquitecturas que compiten entre sí durante las dos últimas décadas: CISC (Intel) y RISC (Motorola).
6.2.1. CISC CISC (Complex Instruction Set Computer, ordenador de juego complejo de instrucciones) es la arquitectura tradicional del ordenador personal, en la que la CPU utiliza su microcódigo para ejecutar un juego muy completo de instrucciones. Éstas pueden ser de longitud variable, y usar todos los modos de direccionamiento, requiriendo para ello complejos circuitos decodificadores que ralentizan la ejecución de cada instrucción.
6.2.2. RISC Durante varios años, la tendencia entre los fabricantes de ordenadores era la de construir CPUs de complejidad creciente que tenían juegos de instrucciones cada vez más completos. En 1974, John Cocke del departamento de investigación de IBM decidió probar una nueva estrategia que redujese el número de instrucciones del chip de manera radical. A mediados de la década de 1980 esto modificó la tendencia de varios fabricantes que pasaron a construir CPUs que sólo eran capaces de ejecutar un número muy limitado de instrucciones. Las CPUs RISC (Reduced Instruction Set Computer, ordenador de juego reducido de instrucciones) fijan la longitud de todas las instrucciones haciéndola constante, prohiben el modo de direccionamiento indirecto, y además reducen el conjunto de instrucciones significativamente manteniendo sólo aquellas que pueden ser superpuestas y ejecutadas en un único ciclo de máquina (o menos). Una de las ventajas de las RISC es que pueden ejecutar sus instrucciones con mucha rapidez por la sencillez de las mismas. Otra ventaja, quizás más importante, es que los procesadores RISC necesitan menos transistores, lo cual los hace más baratos de producir y más fáciles de diseñar. Todavía hay cierta discrepancia entre los expertos sobre las ventajas de la arquitectura RISC, ya que, al simplificar el hardware crece la complejidad del software, especialmente de los compiladores que deben sintetizar las instrucciones complejas que se desean ejecutar mediante combinaciones del reducido conjunto de instrucciones disponible. La discusión va perdiendo intensidad con el paso del tiempo porque ambas arquitecturas se van acercando mutuamente. Muchos procesadores RISC actuales soportan tantas instrucciones como los procesadores CISC antiguos, y por otra parte, muchos procesadores CISC actuales emplean técnicas antiguamente reservadas en exclusiva a los RISC. De hecho, pese a ser Intel un claro defensor de la arquitectura CISC, actualmente el corazón de sus procesadores es RISC (con la rapidez y ventajas de procesamiento simultaneo que esto conlleva), estando rodeado por una capa CISC que le comunica con el exterior y que le aporta la versatilidad deseada.
6.2.3. PERSPECTIVA HISTÓRICA El 4004 fue el primer antepasado de los actuales microprocesadores de Intel, y hasta la fecha, todos los procesadores de PC han estado basados en los diseños originales de Intel. El primer chip utilizado en un IBM PC fue el Intel 8088. No era, en el momento de su elección, la mejor CPU disponible, de hecho el propio Intel 8086 era más potente y había sido desarrollado antes. El 8088 fue escogido por razones de economía: su bus de datos de 8 bits requería placas madre más baratas que los 16 bits del 8086. Por otro lado, cuando se diseñó el primer PC, la mayor parte de interfaces de chips disponibles estaban hechos para ser usadas diseños de 8 bits. Con el transcurrir del tiempo los procesadores han sido cada vez más potentes (y a su vez el software ha ido exigiendo cada vez más potencia). La siguiente tabla muestra un resumen de las generaciones de procesadores para PC, desde la primera generación de Intel a finales de la década de 1970 (el 8088/86) hasta la octava generación de AMD (el Athlon 64), lanzada en otoño de 2003.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 26 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Tipo/ Generación 8088/ Primera 8086/ Primera 80286/ Segunda 80386DX/ Tercera 80386SX/ Tercera 80486DX/ Cuarta 80486SX/ Cuarta 80486DX2/ Cuarta 80486DX4/ Cuarta Pentium/ Quinta MMX/ Quinta Pentium Pro/ Sexta Pentium II/ Sexta Pentium II/ Sexta Pentium III/ Sexta AMD Athlon/ Séptima Pentium 4/ Séptima AMD Athlon 64/ Octava
Año
Ancho del bus de Datos/ Direcciones
Caché de Nivel 1 (KB)
Velocidad del bus de memoria (MHz)
Velocidad del reloj interno (MHz)
1979
8/20 bit
Ninguna
4.77-8
4.77-8
1978
16/20 bit
Ninguna
4.77-8
4.77-8
1982
16/24 bit
Ninguna
6-20
6-20
1985
32/32 bit
Ninguna
16-33
16-33
1988
16/32 bit
8
16-33
16-33
1989
32/32 bit
8
25-50
25-50
1989
32/32 bit
8
25-50
25-50
1992
32/32 bit
8
25-40
50-80
1994
32/32 bit
8+8
25-40
75-120
1993
64/32 bit
8+8
60-66
60-200
1997
64/32 bit
16+16
66
166-233
1995
64/32 bit
8+8
66
150-200
1997
64/32 bit
16+16
66
233-300
1998
64/32 bit
16+16
66/100
300-450
1999
64/32 bit
16+16
100
450-1.2GHz
1999
64/32 bit
64+64
266
500-2.2GHz
2000
64/32 bit
12+8
400
1.4GHz-3.2GHz
2003
64/64 bit
64+64
400
2GHz
Tabla 1. Resumen de los procesadores para PC. La tercera generación de chips basados en los procesadores Intel 80386SX y DX, fueron los primeros procesadores de 32 bits para PC. La principal diferencia entre ellos estribaba en que el SX era un procesador de 32 bits sólo a nivel interno, pero sus interfaces con el mundo exterior eran a través de bus de datos de 16 bits. Esto significa que los datos que se movían entre el procesador SX y el resto del sistema lo hacían a la mitad de velocidad que lo hacían en un DX. La cuarta generación de procesadores también fue de 32 bits. Sin embargo, todos trajeron algún avance. En primer lugar, el diseño fue completamente modificado haciendo al 486 de Intel casi el doble de rápido. En segundo lugar, todos tenían una memoria caché de 8 KB en el propio chip (justo al lado del procesador lógico). Ésta redujo las transmisiones de datos (en un 96%) desde la memoria principal, ya que, con frecuencia el dato que necesitaba el procesador ya se encontraba en la caché. El 486DX se diferenciaba del 486SX solo en que ya incorporaba un coprocesador matemático en la propia placa. Este era un procesador independiente que se encargaba sólo de los cálculos en coma flotante. Ofrecía poca
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 27 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
mejora a las aplicaciones cotidianas, pero disparaba la velocidad de otras como las hojas de cálculo, análisis estadístico, CAD, etc. Una innovación importante llegó con la duplicación de la frecuencia del reloj del DX2. Esto significaba que los circuitos internos del chip iban al doble de velocidad que el resto de la electrónica externa. Los datos se transmitían entre el procesador, la caché interna, y el coprocesador al doble de velocidad, mejorando considerablemente el rendimiento. El 486DX4 llevó más allá esta técnica, triplicando la frecuencia del reloj haciendo que internamente corriese a 75 o 100 MHZ y también dobló la cantidad de caché de nivel 1 hasta los 16 KB. El Pentium es el procesador más característico de la quinta generación y ofrece un rendimiento mejorado sobre los 486 que le precedieron, gracias a severos cambios en la arquitectura, incluyendo la duplicación del tamaño del bus de datos hasta los 64 bits. El procesador P55C MMX (MultiMedia eXtensions) añadió mejoras significativas al doblar el tamaño de la caché hasta 32 KB y aumentando el conjunto de instrucciones para optimizar el tratamiento de información multimedia. El Pentium Pro, presentado en 1995 como sucesor del Pentium, fue el primer procesador de sexta generación e introdujo nuevamente cambios severos en la arquitectura. El Pentium Pro fue el primer procesador para PC que cambió radicalmente el flujo de ejecución de la CPU, al traducir las instrucciones a microinstrucciones de tipo RISC y ejecutándolas en un núcleo interno altamente optimizado. También trajo un rendimiento sensiblemente mayor para la caché de nivel 2 (o secundaria). En lugar de utilizar la caché de la placa madre (como sus predecesores) que corría a la frecuencia del bus de memoria, usaba una caché de nivel 2 (integrada en el procesador) con su propio bus, y que corría a la velocidad del procesador, típicamente 3 veces la velocidad de ese tipo de caché en un Pentium. Desde el Pentium Pro, pasó casi un año y medio hasta que apareció un nuevo procesador de Intel, el Pentium II. A nivel de arquitectura, el Pentium II es muy parecido al Pentium Pro, con un núcleo de emulación x86 y casi con las mismas características. El Pentium II mejoró la arquitectura del Pentium Pro doblando el tamaño de la caché de nivel 1 hasta los 32 KB, utilizando cachés especiales para realizar un procesado eficiente de código de 16 bits (el Pentium Pro estaba optimizado para 32 bits) e incrementando el tamaño de los buffers de lectura. Sin embargo, el aspecto más comentado del Pentium II fue su encapsulado. La caché de nivel 2 integrada en el Pentium Pro (y que corría a la velocidad del mismo) fue reemplazada en el Pentium II por un pequeña placa de circuitos que contenía el propio procesador y 512 KB de caché secundaria, corriendo a la mitad de velocidad el procesador. Este ensamblaje, llamado SEC (Single-Edge Cartridge), fue diseñado específicamente para caber en un slot de 242 pines (Socket 8) en posición vertical, un nuevo estilo incorporado en las placas madre del Pentium II. El Pentium III de Intel, lanzado en la primavera de 1999, no introdujo ninguna ventaja adicional salvo 70 nuevas instrucciones a las que llamaron SSE (Streaming SIMD Extensions). Esto ofreció a su rival AMD la posibilidad de adelantarle en la carrera tecnológica, y la aprovechó lanzando pocos meses después su CPU Athlon, el primer procesador de la séptima generación. El Pentium 4 de séptima generación de Intel, representó el mayor cambio en la arquitectura de 32 bits de la compañía desde el Pentium Pro en 1995. Uno de los cambios más importantes se le hizo a la memoria interna pipiline del procesador, llamándola Hyper Pipeline. Ésta contaba con 20 fases de pipeline frente a las 10 de la microarquitectura del Pentium Pro, y fue vital para permitirle operar a velocidades de reloj mucho más altas que su predecesor. A la espera de la llegada del Itanium, el primer procesador de 64 bits de Intel, este fabricante ha incorporado la tecnología Hyper Threading a sus procesadores, que se basa en la separación virtual en dos procesadores lógicos de 32 bits, de un único procesador físico, y que permite (según Intel) una mejora de hasta el 30% en la ejecución concurrente de aplicaciones frente a procesadores que no incorporan esta tecnología. En otoño de 2003 AMD presentó su Athlon 64. Este procesador es el primero de 64 bits presente en el mercado de PCs, e inicialmente está destinado a servidores o a tecnófilos empedernidos (para estos últimos en su versión FX). El Athlon 64 incorpora 1 MB de caché, duplicando así la del XP. Su juego de instrucciones es 100% compatible con los de 32 bits del x86, a diferencia del juego del Itanium, característica que AMD se encarga de propagar a los cuatro vientos.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 28 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
6.3.
BUSES LOCALES
La capacidad de adaptación del PC (su habilidad para desarrollar diferentes interfaces que le permitan conectarse a muy diversas clases de periféricos) ha sido una de las razones fundamentales de su éxito. En esencia, un PC moderno no se diferencia mucho del diseño original de IBM: una colección de componentes, externos e internos, interconectados por una serie de "autopistas eléctricas" que transmiten la información desde un dispositivo de entrada hasta un dispositivo de salida. Los buses, que son como se conoce a estas "autopistas", son los encargados de interconectar los componentes externos del PC con los internos, su CPU y la RAM. La arquitectura del PC se trata pues de una arquitectura abierta basada en buses de expansión que facilita la conexión de componentes adicionales. Ahora vamos a ver los distintos tipos de arquitecturas de buses locales que podemos encontrar en un PC.
6.3.1. ISA (INDUSTRY STANDARD ARCHITECTURE) La primera versión del bus ISA era de 8 bits, y corría a 4,77 MHz (igual que el procesador). Se mejoró a lo largo del tiempo hasta convertirse en un estándar de la industria en 1982 con la llegada del IBM PC-AT que usaba el procesador Intel 80286 y presentaba un bus de datos de 16 bits. La velocidad también aumentó primero a 6 y luego a 8 MHz. Estas especificaciones permitían al bus alcanzar teóricamente los 16 MBps. Funcionalmente se reducía a 8 MBps porque se empleaba un ciclo de reloj para el direccionamiento y otro para la transmisión de los 16 bits de datos. En la práctica, la velocidad real que podía mantener era de 5 MBps, todavía suficiente para muchos periféricos de aquella época, por lo que era frecuente ver tarjetas ISA en el mercado hasta finales de la década de 1990. Conforme fueron aumentando los procesadores su velocidad, ISA fue incapaz de seguir el ritmo. Tarjetas gráficas, discos duros, y otra serie de componentes demandaban cada vez un mayor ancho de banda que ISA no podía proporcionar. El primer intento de mejorarlo vino de la mano de IBM y su bus MCA, seguido casi inmediatamente por el bus EISA.
Figura 12. Tarjeta gráfica VGA para puerto ISA.
6.3.2. MCA (MICRO CHANNEL ARCHITECTURE) En 1987, IBM realiza un cambio brusco en la política de compatibilidad, que hasta entonces había seguido dentro del mercado de los PCs, con la aparición del IBM PS/2. Los PS/2 eran una respuesta de 32 bits a los 386 que ya habían lanzado otros fabricantes como Compaq o Zenith. En segundo lugar, introducían una nueva arquitectura de buses incompatible con la arquitectura tradicionalmente utilizada desde 1981. En tercer lugar, IBM proponía junto a Microsoft un nuevo sistema operativo multitarea, el OS/2, que pretendía convertirse en el sucesor del MS-DOS para la década de los 90. En cuarto
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 29 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
lugar, los PS/2 incorporaban un nuevo estándar de vídeo llamado VGA que alcanzaba una resolución de 640x480 con 16 colores. Y en quinto lugar, los PS/2 apoyaban decididamente los disquetes de 3 pulgadas y media como dispositivo de almacenamiento transportable. Únicamente el estándar VGA (Video Graphics Array), y los disquetes de 3,5 consiguieron imponerse. En los aspectos más importantes, no se tuvo el éxito que se esperaba, ni el OS/2 ni la arquitectura Micro Channel constituyen hoy en día estándares reconocidos. MCA, se utiliza para designar un conjunto de especificaciones y tecnologías que proponen normas para el ensamblaje de la arquitectura de ordenadores. En general, IBM utiliza el término MCA para definir la organización de los conectores de los buses utilizados en los PS/2 de la gama alta, las señales eléctricas que transportan y las funciones lógicas que dirigen el funcionamiento del sistema, aunque los modelos de PS/2 de 286 utilizan la arquitectura ISA. A grandes rasgos, se puede decir que la arquitectura MCA define unos conectores y tarjetas de expansión más pequeños, una reorganización más eficiente de las señales del bus que permite mayor velocidad y un potente esquema de arbitraje de buses. Los conectores de las tarjetas de expansión Micro Channel son más pequeños y facilitan el montaje en cadenas especializadas de ensamblaje de microchips al situarse en incrementos de 0.05 pulgadas y no en incrementos de 0.10 pulgadas como en las tarjetas ISA. El menor tamaño de las tarjetas Micro Channel (11.5"x3.48") reduce los costes de fabricación y permite construir ordenadores que dejan más espacio libre en la mesa de trabajo. Las señales del bus están reorganizadas de forma que se introduce una señal de tierra cada 4 conectores. De esta forma se ayuda a reducir la interferencia. El nuevo diseño del bus y sus señales permite incrementar la velocidad de manipulación de datos. Si el bus ISA está limitado a 8 MHz, el bus MCA de los primeros PS/2 trabaja a 10 MHz. El bus de datos trabajaba con 32 bits y no con los 16 de ISA. Esto quiere decir que todos los dispositivos conectados al bus accedían a 32 bits en cada ciclo de reloj. Por tanto, en condiciones iguales, MCA doblaba las prestaciones de la arquitectura ISA, que necesitaría dos impulsos de reloj, el doble de tiempo, para acceder a 32 bits. Teóricamente podía alcanzar los 20 MBps. Igualmente, el bus de direccionamiento de 24 bits de ISA en ordenadores 386 se ve superado por los 32 bits de MCA, que suponen un máximo de 4 gigabytes o 4096 megabytes de direcciones de memoria (232). Por último, hay que resaltar un esquema de control y arbitraje del bus que permite compartir el bus a múltiples microprocesadores y dispositivos (hasta 8 microprocesadores y 8 dispositivos), permitiendo de esta forma no solo la multitarea, sino también el procesamiento paralelo. Técnicamente hablando, la arquitectura MCA era muy superior a ISA y ligeramente superior a EISA. A nivel de funcionalidad, EISA y MCA eran parecidas ya que ambos tenían esquemas parecidos de arbitración de bus, permitían multitarea y soportaban 32 bits de datos.
6.3.3. EISA (EXTENDED INDUSTRY STANDARD ARCHITECTURE) Es evidente que se necesitaba superar los lentos 8 MHz con que trabajan los buses de ISA, pues su lentitud impedía aumentar el rendimiento de los ordenadores trabajando a 16 MHz o más. Lo que no es tan evidente es que esa superación se debiese llevar a cabo a través de una ruptura total como la promulgada por MCA. La arquitectura EISA fue diseñada para PCs que usaban microprocesadores Intel 80386, 80486 o Pentium. Utiliza un bus de 32 bits, funcionaba a una frecuencia de 8 MHz y soporta multiproceso. Fue diseñado por competidores de IBM, para competir con su arquitectura Micro Channel (MCA). La principal diferencia entre EISA y MCA es que EISA es compatible con ISA, mientras que MCA no. Esto significa que los ordenadores con EISA pueden usar tanto las tarjetas de expansión EISA como las antiguas ISA. Los ordenadores con MCA solo pueden utilizar tarjetas MCA.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 30 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Ni EISA ni MCA tuvieron mucho éxito, y la llegada de la nueva tecnología denominada PCI se empezó a utilizar en combinación con el antiguo bus ISA. EISA permitía compartir el bus hasta por 6 dispositivos diferentes.
6.3.4. PCI (PERIPHERAL COMPONENT INTERCONNECT) PCI fue desarrollado originalmente por Intel que lo convirtió en, y estándar alcanzó la versión 2.0 del mismo en mayo de 1993. PCI hizo la expansión del PC mucho más sencilla mediante la tecnología Plug and Play (PnP), que permite al PC ajustar automáticamente las tarjetas cuando se conectan al equipo sin necesidad de tocar los interruptores (jumpers) en las tarjetas, ni de reconfigurar las interrupciones (IRQ) de las mismas. Windows 95 fue el primer sistema operativo en dar soporte para el hardware PnP. En 1994, PCI era el bus local dominante. En su implementación original, PCI corría a 33 MHz. Estos fueron aumentados hasta 66 MHz en las posteriores especificaciones 2.1 de PCI, doblando así el rendimiento máximo teórico hasta 266 MBps (33 veces más rápido que el bus ISA). Puede configurarse como un bus de 32 o 64 bits, y ambos pueden utilizar tarjetas de 32 y 64 bits. PCI también es mucho más listo que su predecesor ISA, permitiendo que las IRQ sean compartidas, lo cual resulta muy útil porque las interrupciones pueden acabarse muy rápido si el PC posee una gran número de dispositivos. Desde mediados de 1995 los dispositivos más críticos del PC se han comunicado entre sí a través del bus PCI. Los dispositivos más típicos del bus PCI eran los discos duros, y las tarjetas gráficas. El tráfico en el bus PCI empezó a ser ser lento para una nueva generación de dispositivos gráficos hambrientos de ancho de banda, que además de no conseguir el rendimiento que ellos mismos demandaban, saturaban el bus con su tráfico congestionando así al resto de periféricos. Para combatir la eventual saturación del bus PCI con información de vídeo, un nuevo interface fue desarrollado por Intel, diseñado específicamente para el subsistema de vídeo. Es el llamado Accelerated Graphics Port (AGP).
6.3.5. AGP (ACCELERATED GRAPHICS PORT) En la época en reinaba el bus ISA, los ordenadores tenían tarjetas CGA (Colour Graphics Array) que podían mostrar 4 colores (2 bits de datos) a una resolución de 320x200 pixels a 60 Hz, lo cual requería 128.000 bits de datos por pantalla, es decir, unos 937 KBps. Una imagen XGA de 16 bits de color requiere 1.5 MB de datos por cada imagen, y a una velocidad de refresco vertical de 75 Hz requiere 112.5 MBps. Los gráficos en 3D de los juegos que fueron apareciendo pusieron las cosas peor para el PCI al demandar acceso rápido a texturas y datos masivos para poder mantener el número de imágenes por segundo (fps, frames per second) a un nivel aceptable. Esto hizo que el límite de 132 MBps del PCI resultara insuficiente. La solución de Intel fue desarrollar el AGP (Accelerated Graphics Port) como un puerto independiente que operaba fuera del bus del procesador. El AGP actúa de intermediario entre el procesador, la caché de nivel 2 del contenida en el cartucho del Pentium II, la memoria del sistema, la tarjeta gráfica y el bus PCI. A esto se le llama aceleración Quad Port. AGP trabaja a la velocidad del bus del procesador, conocido como bus frontal (frontside bus). A una velocidad de reloj de 66 MHz, esto representa el doble de la velocidad del PCI, y significa subir el límite hasta los 264 MBps. Para las tarjetas gráficas que están preparadas, AGP permite enviar información durante los ciclos alto y bajo del reloj, doblando así la frecuencia efectiva de trabajo y ofreciendo una transferencia máxima de 528 MBps. A esto se le conoce como AGP 2X. Una nueva versión del estándar, el AGP 2.0, permite transmitir cuatro datos por ciclo de reloj del interfaz a 66 MHz del AGP. En este caso se habla de AGP 4X, y se consiguiéndose así aproximadamente 1GBps. Actualmente existen tarjetas de hasta 8X. TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 31 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Figura 13. Dos de las últimas tarjetas gráficas acelaradoras 3D con bus AGP. La ATI Radeon 9800 XT (arriba) Y la AOPEN FX5950Ultra (abajo). Como puede, ambas incluyen disipadores y ventiladores para rebajar sus temperaturas.
7.
ORDENADORES PORTÁTILES
Podemos definir un ordenador portátil como un ordenador personal muy ligero. Los portátiles habitualmente pesan unos 3 kilos y son suficientemente pequeños como para caber fácilmente en un maletín. Además del tamaño, otra de las diferencias entre un ordenador portátil y un ordenador personal típico es la pantalla. Los portátiles utilizan distintos tipos de pantallas planas y los de sobremesa suelen utilizar monitores de tubo o TFT. En términos de potencia de procesamiento los portátiles actuales son prácticamente igual de rápidos que los ordenadores personales, y poseen capacidades de almacenamiento similares. Sin embargo empaquetar toda esta potencia en un espacio reducido es caro. Normalmente los ordenadores portátiles cuestan cerca del doble que el ordenador equivalente de sobremesa. Los ordenadores portátiles poseen conjuntos de baterías que permiten trabajar con ellos sin necesidad conectarlos a la red. Sin embargo las baterías necesitan ser recargadas cada pocas horas.
7.1.
HISTORIA DE LOS ORDENADORES PORTÁTILES
Alan Kay del centro de investigación de Palo Alto de Xerox concibió la idea de un ordenador portátil en la década de 1970. Kay imaginó un ordenador portátil del tamaño de un bloc de notas (notebook en inglés, de donde se deriva su denominación actual en inglés) llamado Dynabook que todo el mundo pudiese poseer, y que pudiese manejar las necesidades de información del usuario. Kay también imaginó al Dynabook con capacidades de red inalámbrica. El primer ordenador portátil fue diseñado en 1979 por William Moggridge de Grid Systems Corp. Tenía 340 KBytes (KB) de burbuja, una carcasa de magnesio y una pantalla gráfica plegable electroluminiscente. En 1983 Gavilan Computer desarrolló un portátil con las siguientes características: □
64 KB de RAM (ampliables a 128 KB).
□
Sistema operativo Galivan (también ejecutaba MS-DOS).
□
Microprocesador 8088.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 32 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
□
Ratón touchpad.
□
Impresora portátil.
□
Peso de 4 kg él sólo, 6.4 kg con impresora.
El ordenador Galivan tenían una disquetera que no era compatible con otros ordenadores, y principalmente utilizaba su propio sistema operativo. La compañía fracasó. En 1986, IBM presentó su IBM PC Convertible. Al igual que ordenador de Galivan, utilizaba un microprocesador 8088, pero tenía 256 KB de memoria, dos unidades de disco de 3.5", una pantalla de cristal líquido (LCD), puertos de impresión serie y paralelo, y espacio para un modem interno. Venía con sus propias aplicaciones de software (procesado básico de textos, calendario de citas, libro de teléfonos y direcciones, y calculadora), pesaba 5.4 kg y costaba $3.500. El PC Convertible fue un éxito, y dio comienzo a la era de los portátiles.
Figura 14. Fotografía del IBM PC Convertible, con un detalle de su monitor. Un poco después, Toshiba también tuvo éxito con un clon del portátil de IBM. Desde entonces, muchos fabricantes han mejorado los ordenadores portátiles a lo largo de los años.
7.2.
TIPOS DE USUARIOS
Antes de entrar a explicar los diferentes tipos de ordenadores portátiles es importante que el usuario analice cuáles son exactamente sus necesidades. La primera pregunta que debe plantearse es en qué escenarios va a utilizarlo más a menudo. Habrá usuarios de portátil que nunca lo muevan de su mesa de trabajo, salvo en situaciones muy esporádicas y concretas. Tal es el caso de los que cuentan con un escritorio muy pequeño. Para ellos, la autonomía, el peso o las dimensiones pasarán a un segundo plano, primando en su lugar unas elevadas prestaciones y una buena ergonomía. Por otro lado, están aquellos individuos que combinan el trabajo en su oficina o casa con cierto número de desplazamientos para viajes o visitas. En este caso, aunque también demandan buenas prestaciones, ya empiezan a mirar el peso y la autonomía como detalles importantes. Finalmente, tenemos aquellas personas que se desplazan con mucha frecuencia y necesitan poder trabajar en lugares como un avión o la sala de espera. Con estas premisas, lo más importante son unas mínimas dimensiones, un peso lo más bajo posible (menos de dos kilos) y una gran autonomía.
7.3.
GAMAS DE PRODUCTO
Habrá tres categorías que encajan con cada uno de los tipos de usuario presentados. Para el primero, se recomiendan las que podríamos denominar estaciones de trabajo móviles, que más que portátiles propiamente
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 33 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
dichos, son PCs portátiles, dado que su peso en muchas ocasiones puede llegar a los cuatro kilos (incluso superarlos) y su autonomía no va más allá de la hora y media. Asimismo, están dotados de grandes pantallas de al menos 15 pulgadas (aunque en breve ensamblarán TFT de 17 pulgadas), procesadores muy potentes, enormes cantidades de memoria, toda clase de unidades extraíbles y discos duros de al menos 80 GB. En este segmento es donde los portátiles clónicos se mueven como pez en el agua, puesto que en él se concentra la mayor parte de su oferta, caracterizada principalmente por la integración de procesadores no mobile (es decir, no integran las versiones de microprocesadores diseñadas específicamente para ser usadas por portátiles). A cambio ofrecen precios muy competitivos respecto a máquinas de similar orientación pero de marca. En cuanto al segundo tipo de usuarios, hablaríamos de los portátiles «estándar», esto es, con un peso de entre tres y dos kilos, que implementan unidades ópticas y, cada vez menos, la disquetera. Cuentan con pantallas de 14 o 15 pulgadas, y tienen un peso, tamaño y autonomía más ajustados al concepto de un portátil para que transportarlos resulte más sencillo y cómodo. Dentro de esta clasificación, se sitúan casi obligatoriamente a los procesadores mobile, y pueden encontrarse una ingente cantidad de modelos de gama baja, media y alta (porque abarca el tipo de máquina más polivalente y demandado por los usuarios) Por último, en tercer lugar tendríamos a los ultraportátiles. PCs de menos de 2 kilos en los que prima, por encima de todo, el peso, el tamaño y la autonomía de funcionamiento. Son equipos pensados para llevar continuamente y, por ello, sus pantalla oscilan entre 12,1 y 13 pulgadas, no integran unidades de almacenamiento extraíble y, generalmente, carecen de enchufes externos para las interfaces serie o paralelo, con lo que logran reducir el tamaño total. Su uso es estrictamente profesional e incorporan la tecnología más moderna de miniaturización, por lo que tienen un precio más elevado que otras propuestas. Este terreno se reserva, salvo contadas excepciones, a los portátiles de marca, ya que, el coste de desarrollo que precisa es muy elevado. Además, la demanda aún no es masiva, por lo que la penetración en esta parcela todavía no parece rentable para los fabricantes de portátiles clónicos, que obtienen su rentabilidad por el alto volumen de unidades producidas. Para terminar, no podemos olvidarnos de incluir una nueva variedad de ordenadores: los Tablet PC. Estas máquinas, gobernadas por un sistema operativo específico, con una pantalla táctil de altas prestaciones y en ciertos modelos sin teclado, son la culminación del concepto ultraportátil.
7.4.
PROCESADORES
Los procesadores de los portátiles en el mercado de los PCs se centran en los modelos que presentan Intel y AMD para estas plataformas. Como ya se ha dicho, podemos distinguir entre portátiles que no incorporan procesadores mobile, y los que sí los tienen. Los primeros son básicamente versiones especiales de los mismos procesadores que existen en el mercado de PCs de sobremesa, pero adaptados específicamente para su uso en ordenadores portátiles. Para ello, reducen su tamaño empleando tecnologías de fabricación más avanzadas, y que actualmente están en las 0,13 micras. Además, reducen su voltaje de funcionamiento para reducir así su consumo (aumentando la autonomía) y la potencia que disipan (reduciendo el calor que desprenden). Los segundos son los mismos procesadores que incorporan los PCs de escritorio, cuya ventaja radica fundamentalmente en un precio menor, pero pierden todas las virtudes descritas en el párrafo anterior sobre los procesadores mobile. Por parte de Intel podemos encontrar en el mercado actualmente la gama de Pentium M o Pentium Mobile, con frecuencias de hasta 3 GHz. Si además del procesador Pentium M, el portátil incorpora el chipset 855 de Intel, y un adaptador Intel inalámbrico para LAN entonces se habla de un portátil Centrino, que es la marca que le ha
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 34 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
dado Intel a la conjunción de estos 3 elementos que (entre otras cosas) garantizan la comunicación inalámbrica del portátil, y un menor consumo. De la mano de AMD, hoy en día (febrero de 2004) tenemos un amplio surtido de procesadores Athlon Mobile disponibles en el mercado. Recientemente la compañía ha presentado su procesador de 64 bits Athlon 64. Éste posee un modelo específico para portátiles, el Mobile AMD Athlon 64. Entre otras ventajas este microprocesador posee un sistema de ahorro de energía avanzado (de nombre PowerNow!) que le permite adaptar su consumo dinámicamente a la intensidad de proceso requerida en cada momento, escogiendo para ello entre varias posiciones.
7.5.
BATERÍAS
El aumento de la oferta y la demanda de dispositivos móviles ha remarcado la necesidad de prolongar la duración de las baterías que los alimentan, abaratar los precios de las mismas y alargar su vida útil. Así mismo resulta necesario reducir el consumo de los componentes para ordenadores portátiles. Y es que, pese a que los grandes avances en este sentido se están realizando sobre el procesador, no es éste el elemento que más energía demanda. Como se puede comprobar en la figura siguiente, la pantalla y el sistema gráfico, con el uso intensivo que hacen de ellos las aplicaciones lúdicas o la reproducción de vídeo, son los que más gasto energético registran.
Otros 24%
CPU 7% Chipset 13%
HD/DVD 9%
Gráficos 14%
LCD 14,1" 33%
Figura 15. Distribución del consumo de un ordenador portátil por componentes. Fuente: Intel. Para minimizar el consumo de batería se han planteado diversas soluciones. Entre ellas, la creación de sistemas basados en software que modifican la potencia consumida por el microprocesador, tarjeta gráfica o placa base, reduciendo su rendimiento pero ahorrando energía. Intel SpeedStep es un ejemplo de estas propuestas. Más tradicional es el método APM (Advanced Power Management o gestión avanzada de energía), por el que se desactiva un dispositivo que no se ha empleado durante un período de tiempo. Se suele aplicar a pantallas, discos duros, etc. Y habitualmente se activa desde la BIOS del equipo. Su evolución, en forma del sistema ACPI desarrollado por Compaq, Intel, Microsoft, Phoenix y Toshiba, nos permite controlar esta operación a través del sistema operativo. La última aportación de Intel es la plataforma Intel Centrino, que de forma transparente al usuario es capaz de modificar el estado del microprocesador (cambiando voltajes y frecuencias) en función de las exigencias de las aplicaciones que ejecutemos.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 35 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Tanto esta última como el resto de las soluciones descritas discurren alineadas al descubrimiento de nuevos materiales que mejoran la capacidad y la potencia de las baterías. Las baterías indicadas para ordenadores portátiles estándar suelen tener entre 4 y 8 celdas, pesan aproximadamente 500 gramos y ofrecen un voltaje de entre 10 y 16 voltios. Su tiempo de carga varía de 1 a 3 horas, mientras que el de descarga ronda también ese intervalo. El litio y níquel son los materiales más utilizados para su construcción. En cuanto al número de celdas, lo habitual son 4, pero existen de 8 e incluso de 16 con mucha más capacidad. Su principal inconveniente es el peso. El ciclo carga-descarga muestra el número de veces que una batería puede ser recargada antes del comienzo del fin de su vida, esto es, cuando su eficacia cae por debajo un 70%. En orden cronológico, las primeras que se utilizaron en los ordenadores portátiles estuvieron basadas en NiCd (niquel cadmio), para pasar posteriormente al NiMH (niquel megahidruro). Sin embargo, ambos materiales han sucumbido ante la eficacia, potencia y bajo mantenimiento del ión de litio y los polímeros de litio. Las basadas en níquel se ven afectadas por el efecto memoria, en especial las de NiCd. Básicamente, se trata de la formación de cristales que impiden la carga completa de las celdas y, generalmente, se origina como consecuencia de una recarga sin haber completado la descarga, o de una sobrecarga. En cuanto a los productos de litio, al ser éste un material más ligero, se obtiene más energía con un peso inferior y ofrecen mayores voltajes. Además, la progresión hacia las baterías de polímeros de litio ha aumentado su capacidad de carga, así como su durabilidad. La diferencia con las de ión de litio estriba en que las primeras utilizan un electrolito con gel para mejorar la conductividad. Por desgracia, a las propuestas de litio les perjudica la oxidación de las celdas, una corrosión natural e irreversible, con lo que no pueden reciclarse. Su duración estimada puede llegar a 500 recargas o a dos años aproximadamente (se utilice o no), tras lo cual el fabricante no garantiza un mínimo de eficacia. En el extremo opuesto, las de NiCd soportan más de 1.000 recargas, frente a las 300 de las de NiMH. El mantenimiento de las baterías basadas en níquel es otro de sus puntos menos favorables. Es recomendable descargarlas periódicamente (por lo menos una vez al mes) para alargar su ciclo vital, exigencia que no contemplan las de ión de litio. De la misma manera, mantenerlas cargadas durante más de dos meses puede disminuir un 30% su eficacia. Otro detalle relevante es la autodescarga, el principal inconveniente del níquel. Una batería de NiMH puede perder un 20% de energía de forma espontánea y la mayor parte de la misma se va en las primeras 24 horas y, si hablamos de NiCd, tenemos un 15% de pérdidas, muy lejos del 6% aproximado del ión de litio.
Composición Mantenimiento Vida útil (mínima estimada) Energía Autodescarga Curva de descarga Influencia por calor Peso
NiCd Elevado 1.000 cargas Baja 20% Irregular Elevada Elevado
NiMH Elevado 300 cargas Elevada 15% Regular Elevada Elevado
IoLi/Polímeros de Litio Bajo 500 cargas Muy elevada 6% Muy regular Baja Bajo
Tabla 2. Características principales de los tres grupos de baterías.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 36 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
8.
ORDENADORES DE MANO (PDAS, PALMTOPS Y HANDHELDS)
Para comenzar, debemos definir los distintos términos que se emplearán a los largo de la sección. Un PDA (Personal Digital Assistant) es un ordenador de mano que ha reemplazado a las tradicionales agendas de papel. Un palmtop es un ordenador pequeño que literalmente cabe en la palma de la mano. Por otra parte, un handheld es un ordenador que es suficientemente pequeño como para poderlo sostener con la mano. En lo sucesivo se usarán indistintamente los términos PDA, palmtop, handheld, y ordenador de mano, ya que, si bien históricamente surgieron para cubrir necesidades diferentes, actualmente la frontera entre ellos es cada día más difusa. A finales de los años 90 se extiende la utilización de la ayudante personal digital -Personal Digital Assistant o PDA-). Un PDA es un PC de mano, capaz de manejar todas las tareas normales de su antepasado forrado de cuero (libreta de direcciones, cuaderno de notas, agenda, y listín telefónico. Sin embargo, la mayoría de PDAs ofertan además muchos más usos, por ejemplo hoja de cálculo, procesador de textos, base de datos, software de gerencia financiera, reloj, calculadora y juegos. Lo que hizo a los PDAs así de atractivos para muchos usuarios de PC era la capacidad de transferir datos entre el dispositivo de mano y un PC de sobremesa, y de convertir datos de aplicaciones de planificación existentes, es decir, sincronizar datos entre los entornos móvil y de escritorio fácilmente. Al principio la interconexión se efectuaba a través de un cable serie. Los PDAs modernos se conectan mediante un puerto infrarrojo, bluetooth o una base especial. No es difícil que el mundo de los negocios sucumba al encanto de los PDAs. Siempre ha demandado tecnología pequeña, portátil y potente. Para los usuarios preocupados por el estilo que buscan siempre el dispositivo más moderno y avanzado, el PDA resulta un complemento natural al otro artículo esencial de los años 90, el teléfono móvil. El aumento de potencia de estos dispositivos ha atraído un interés cada vez mayor al mundo empresarial. Si todo lo que se requiere es una manipulación sencilla de datos y una conexión básica a Internet, un PDA es una opción atractiva. Debido a su tamaño, la introducción de datos en un PDA requieren un teclado minúsculo o un sistema de reconocimiento de la escritura. El problema del primero es que son demasiado pequeños para teclear directamente. El problema con el segundo es la dificultad en trabajar con eficacia. La solución al problema del reconocimiento de letra ha sido resuelto en parte con el sistema de escritura Graffiti. Éste se basa en una pantalla táctil y un alfabeto simplificado (que tarda unos 20 minutos en aprenderse) para la entrada de datos. Típicamente, los PDAs con el sistema Graffiti proporcionan la opción de escribir directamente sobre la pantalla y ésta traduce la entrada a texto, o abrir un espacio dedicado a la escritura que también proporciona ejemplos y ayuda en línea. El resultado final fue que a finales de los años 90 el mercado de PDA se había dividido en usuarios de los dos principales sistemas, los dispositivos que tenían un teclado y los dispositivos que no la tenían. La elección dependía de las preferencias personales y del nivel de funcionalidad requerido. Microsoft siguió esta tendencia, desarrollando su sistema operativo Windows CE para funcionar en dos versiones diferentes, una para cada plataforma. A finales de 2001 la demanda de PDAs con teclados incorporados había disminuido sensiblemente, con pocos fabricantes además de Psion que apoyasen este sistema. Parecía que los consumidores no estaban dispuestos a pagar el mismo precio por una PDA que incorporase teclado como el que pagarían por un portátil de gama baja más versátil y potente. Otra razón para su pérdida de popularidad puede ser atribuida al desarrollo de teclados extraíbles para PDAs. Los PDAs todavía necesitan una aplicación estrella que las haga realmente omnipresentes, pero la llegada de herramientas de comunicación universales mutifunción que combinan las capacidades de los teléfonos móviles y el aspecto de las PDAs podría conseguirlo. La capacidad de acceder a Internet de forma fácil y barata con un único dispositivo es el Santo Grial de la computación móvil, y ya hay varios modelos en el mercado que poseen estas capacidades, como por ejemplo el modelo inalámbrico Palm VII que fue lanzado en otoño de 1999.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 37 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Un posible resultado es que el mercado se divida en dos grupos: los que desean básicamente un teléfono móvil multifunción y que adquirirán solamente un producto con potencia de cálculo media (como los Symbian), y los que necesitan un ordenador portátil y que desean estar en tacto mientras viajan (como los PDAs inalámbricos).
8.1.
LOS COMIENZOS
La compañía tecnológica británica Psion creó el término PDA con el lanzamiento de su primer Organizer allá por 1984. Con un tamaño de 142 mm x 78 mm x 29,3 mm, y un peso de 225 gramos, el Psion 1 era más estrecho que un paquete grande de cigarrillos y un poco más largo y más ancho. Basado en tecnología de 8 bits, venía con 10K de almacenamiento de caracteres no volátil en cartuchos, dos ranuras para cartuchos, una base de datos con función de búsqueda, un paquete para uso general con funciones matemáticas, una pantalla LCD de 16 caracteres, y un reloj/calendario. El paquete opcional de ciencias transformaba al Psion Organizer 1 en una auténtica computadora, capaz de ejecutar programas científicos y siendo programable en su propio lenguaje OPL (similar al BASIC). El Psion 1 fue reemplazado por el Psion II, y entre mediados de los años 80 y principios de los 90, se fabricaron más de 500.000 Psion II. Muchas de éstas eran versiones POS (Point Of Sale, punto de venta) comerciales que no incluían las funciones estándares del organizador sino que ejecutaban aplicaciones especializadas. Los tres tipos principales eran el CM, el XP y el LZ, y tenían distintos tamaños de ROM, RAM, y pantalla. El LZ era la versión más completa, con 64K de ROM, 32K de RAM y pantalla de caracteres de 4x20.
Figura 16. Psion Organizer II. El Series 3a, lanzado en 1993, y basado en tecnología de microprocesadores de 16 bits, supuso la segunda generación en la evolución de Psion. Con un LCD de 40 caracteres y 8 líneas, y un teclado de 58 teclas en la base, el Series 3a marcó un hito por su capacidad de conectarse a un PC de sobremesa y transferir, convertir, y sincronizar datos entre ambos. Durante un par de años, Psion dominó el mercado de PDAs, y el éxito del 3a sirvió de cimiento para la Series 3c (más potente), y la Series 5 (de tercera generación y 32 bits, lanzada en 1997). La Series 5 tenía la pantalla (640x240 pixels, y 16 tonos de grises) y el teclado más grandes de cualquier PDA hasta la fecha, pero no resultó suficiente para evitar que Psion perdiese su liderato del mercado de PDAs frente a los nuevos PalmPilot de 3COM.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 38 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
8.2.
EVOLUCIÓN
El éxito de Psion hizo que otras compañías comenzasen a mirar hacia el mercado de los PDA. De entre estas destacó Apple Computer cuyo lanzamiento de su primer dispositivo Newton MessagePad a mediados de 1993 fue reconocido como un hito fundamental de la era la información. A Apple se le unieron pronto otros dispositivos de comunicación portátiles de reconocidos fabricantes electrónicos tales como HP, Motorola, Sharp, y Sony. Por sus tamaños, la introducción de datos en una PDA requiere o bien un pequeño teclado o algún tipo de sistema de reconocimiento de escritura manuscrita. El problema del primero es que son demasiado pequeños para teclear directamente sobre ellos. El problema del segundo es la dificultad de trabajar con él de forma eficiente. Lo que diferenció a la tecnología del Newton de Apple de sus competidores fue su ambicioso intento de admitir la entrada de datos a través de pantallas LCD táctiles y un complejo software de reconocimiento de la escritura manuscrita. En 1997 Appel lanzó el eMate, un nuevo PDA que continuó con la tecnología del Newton. Pese a los altibajos que ha sufrido la tecnología de reconocimiento de escritura del Newton desde que apareció, nunca fue suficientemente rápido ni fiable. En 1998 Appel anunció su decisión de cesar el desarrollo del sistema operativo del Newton. En 1995 Palm Computing fue adquirida por US Robotics, y un año después el mercado de los PDAs se transformó con la introducción de los productos Pilot sin teclado de la compañía. La entrada de datos en estos dispositivos se hacía a través de una pantalla táctil, usando el sistema de escritura Graffiti propietario de la compañía. Éste se basa en una pantalla táctil y en un alfabeto simplificado (que tarda unos 20 minutos en aprenderse) para la entrada de datos. Típicamente, los PDAs con el sistema Graffiti ofrecen la posibilidad de escribir directamente en la pantalla la cual traduce la entrada en texto, o de abrir un espacio dedicado a la escritura que también ofrece ejemplos en línea y ayuda. Tras un nuevo cambio de propiedad (US Robotics fue absorbida por 3COM a mediados de 1997) los productos Palm se convirtieron en estrellas de la computación de mano y condujeron a un florecimiento del mercado de los PDAs. Su éxito también condujo a la segmentación del mercado en usuarios de dos tipos: dispositivos que tienen teclado, y dispositivos que caben en la palma de la mano que no lo tienen. Los primeros son vistos cada vez más como dispositivos que acompañan a PCs de escritorio y habitualmente ejecutan versiones reducidas de aplicaciones de escritorio. Los dispositivos de que caben en la palma generalmente tienen menos funcionalidad, manteniendo su énfasis en el conjunto de aplicaciones de gestión de información personal (PIM, Personal Information Manager). La elección depende de la preferencia personal y el nivel de funcionalidad requerido.
8.3.
PALM PILOT
En 1996 Palm Computing Inc. (por entonces propiedad de US Robotics) lideró el renacer de los ordenadores de mano con la introducción de sus dispositivos Pilot 1000 y Pilot 5000. Diseñados como productos para acompañar a ordenadores personales, los PDAs de Palm permiten a los usuarios móviles gestionar sus calendarios, contactos y otra información de negocios y personal en sus escritorios y de forma remota. Automáticamente sintonizan su información con un ordenador personal local o en red tocando un botón. Sus características más importantes son: tamaño de bolsillo, interfaz gráfica de usuario y una base de escritorio que facilita la sincronización bidireccional entre el PC y la agenda. Los dispositivos Pilot introdujeron el factor de forma de la palma de la mano, siendo los primeros dispositivos del tamaño aproximado de una baraja de cartas y pesando alrededor de 155 g. En 1999 los tamaños se habían hecho todavía más pequeños, pesando el Palm V 115 g con un tamaño de 115 mm x 77 mm x 10 mm. Por entonces los dispositivos estaban equipados con una pantalla retroiluminada de 160x160 pixels y traían un conjunto de software PIM que incluía libro de citas, libro de direcciones, lista de tareas, software de contabilidad, calculadora, notas, y juegos. El paquete de software también incluía una versión mejorada de Graffiti, que permitía a los usuarios introducir hasta treinta palabras por minuto con un 100% de precisión. Su facilidad de uso y funcionalidad lo han hecho el estándar de facto en el mercado de la informática de mano.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 39 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Figura 17. Palm Pilot IIIx. A finales de 1999, Palm Computing había consolidado su posición de liderazgo en el mercado con el lanzamiento de su esperado Palm VII, que añadía acceso inalámbrico a Internet al conjunto aplicaciones PIM. Varios proveedores de contenidos web colaboraron con Palm para ofrecer versiones adaptadas de sus sitios (diseñadas específicamente para Palm) para facilitar su descarga. Con unas ventas estimadas en 13 millones de dispositivos en 2001, parecía que Palm Computing iba a dominar el mercado de los PDA durante los siguientes años. Con la llegada de la crisis económica generalizada, particularmente severa en el sector tecnológico, la compañía se encontró con un gran stock seguido de una mala gestión de la transición de productos. La situación empeoró con una competencia más dura de sus rivales y una línea de productos considerada por muchos confusa y dispersa. Tras varios meses de reorganización (durante los que la compañía fue vista por algunos como un objetivo de compra) a principios de 2002 trató de recuperar la confianza de los inversores separando su línea de negocio de sistemas operativos (desde entonces conocida como PalmSource) de sus grupos de hardware.
8.4.
SISTEMAS OPERATIVOS
Aunque la variedad de dispositivos PDA aumenta constantemente, la guerra por dominar el mercado de los sistemas operativos se centra sobre tres protagonistas: □
Windows CE.
□
EPOC.
□
PalmOS.
La tentación de entrar en el mercado de los PDA no afectó exclusivamente a los fabricantes de hardware. Microsoft, al detectar una buena oportunidad de negocio también entra en el mercado con Windows CE, su primer sistema operativo para pequeños dispositivos. En el momento de su lanzamiento en otoño de 1996, más de 40 compañías se ofrecieron a desarrollar hardware o software compatible con CE. El primer CE en su versión 1.0 soportaba dispositivos monocromo. El soporte para dispositivos a color fue introducido con la versión 2.0 y fue durante un tiempo un factor importante a favor de Microsoft en la batalla por el control del mercado. El soporte para procesadores RISC se añadió en la versión 2.1. Sin embargo los primeros dispositivos CE no fueron bien recibidos, principalmente en por culpa de las limitaciones del sistema operativo y del hardware que consumía excesiva batería. A pesar de las mejoras, y en vista del creciente apoyo del rival PalmOS, al final del milenio CE continuó pujando por dominar la lucha.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 40 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Muchos pensaban que el problema fundamental recaía en la decisión de Microsoft de copiar el aspecto de interfaz gráfico de usuario tradicional de Windows en un dispositivo mucho más pequeño. Sus detractores aducían que la consecuencia era un sistema operativo demasiado complejo para los dispositivos PDA. Microsoft inicialmente solucionó el problema haciendo evolucionar CE en dos ramas: la Handheld PC Pro -H/PC Pro- diseñada para PDAs con teclado y la versión Palm PC -P/PC- para dispositivos Palm. Además de estas mejoras, pronto se adoptó una estrategia más radical. En la primavera de 2000 Microsoft lanzó la plataforma "Pocket PC", que era una capa de aplicaciones y componentes de software que se apoyaban sobre los cimientos de Windows CE. Esto representó una ruptura radical con los entonces actuales dispositivos Windows 2.11, abandonando la idea de llevar una versión de escritorio de Windows sobre un dispositivo móvil, y en su lugar se centró en la resolución de los problemas funcionales involucrados en construir un dispositivo móvil realmente útil. El nuevo enfoque trajo una interfaz de usuario simplificada de manejo mucho más cómodo y eficiente. La estrategia fue mejorada en otoño de 2001 con el anuncio del Pocket PC 2002. Al igual que su predecesor estaba enfocado a la parte alta del mercado de ordenadores de mano, ofreciendo mucha más potencia de cálculos que los dispositivos de gama baja popularizados por Palm. Por ejemplo, usando el procesador de Intel SA-1110 la exitosa agenda iPaq de Compaq fue capaz de trabajar con velocidades de reloj de hasta 206 MHz, comparados con los 33 MHz de un sistema típico Palm que empleaba un procesador Dragonball de Motorola. Además, el Pocket PC 2002 significó un sutil cambio de dirección desde la versión original de la plataforma, centrándose en un sector del mercado más empresarial, mediante la inclusión de un buen número de características móviles. La última versión incluye soporte para Bluetooth, IEEE 802.11b, y tecnologías de teléfonos móviles tales como CDPD, CDMA, y GSM, y permite acceso a la información corporativa a través de una serie de opciones de conectividad como VPN, WAN, LAN, o PANs. De interés más general es el soporte para las versiones actuales del software multimedia de Microsoft (Windows Media Player) permitiendo con ello poder reproducir música y películas en formato digital en dispositivos de bolsillo. EPOC toma su nombre del corazón del sistema operativo de los Series 3 de Psion. Se llamaba EPOC para remarcar la creencia de Psion de que una nueva época de computación personal había comenzado. Para los Series 5, EPOC se ha convertido en el hombre del propio sistema operativo y ha evolucionado a un sistema operativo de 32 bits. Originalmente sólo corría sobre procesadores RISC usando una arquitectura ARM (Advanced RISC Machines). Poco después, EPOC32 se hizo portable a cualquier arquitectura hardware. Psion no comenzó a licenciar su sistema operativo EPOC32 hasta 1997. Sin embargo no tuvo demasiados seguidores, con Philips como único gran fabricante que mostró algún interés. Sin embargo, a mediados de 1998 Psion se alió con Ericcson, Nokia, y Motorola para formar una nueva "joint venture" llamada Symbian. Su intención era la de situar a EPOC como el sistema operativo de facto para los dispositivos de información inalámbricos, y buscando conducir la convergencia de computación móvil y tecnología inalámbrico. Para ello permitiría el acceso Internet, la mensajería, y el acceso a la información, desde un dispositivo que cabe en el bolsillo de una camisa. Los tres fabricantes compartirían sus recursos de desarrollo con Psion, el cual haría avanzar al desarrollo del sistema operativo EPOC32. A finales de 1999 EPOC incluye soporte para dispositivos a color como por ejemplo el Series 7 y el netBook. El gran éxito de los dispositivos de Pilot y Palm Pilot a finales de los 90 han dado a PalmOS una ventaja competitiva en la batalla por el control del mercado de los sistemas operativos. A finales de 1999 Palm Compting afirmó tener el 70% de la cuota de mercado mundial de PDAs. Como consecuencia directa había más de 20.000 desarrolladores creando y adaptando software para la plataforma Palm OS al comienzo del nuevo milenio. El número de compañías que adquieren una licencia de Palm OS también crece de manera continua, e incluye a IBM, Nokia, Sony y al fabricante rival de PDAs Handspring Inc. El sistema operativo es una de las características más importante, y el desarrollo específico del interfaz gráfico de usuario de PalmOS, junto a un estilo de programación preocupado por el consumo permite que la duración de las baterías se mida en semanas, mientras que el de sus rivales se mide en horas.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 41 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
Palm introdujo el color en sus dispositivos después que sus competidores, siendo reacio a perder sus ventajas en términos de vida de las baterías, tamaño, y peso. El Palm IIIc, introducido en la primavera de 2000, superó este desafío, pesando tan sólo 20 g más que el modelo monocromo, y trayendo baterías recargables de Li-ion (que le otorgan una vida estimada de dos semanas). Es difícil predecir quién será el ganador final de la batalla los sistemas operativos para PDA. Sin embargo, parece fuera de toda duda que la llegada de la plataforma Pocket PC en 2000 ha cambiado las tornas para Microsoft Windows CE y le ha permitido disputar el liderazgo del que hasta entonces disfrutaba PalmOS de manera indiscutible y exclusiva.
8.5.
RECONOCIMIENTO DE ESCRITURA MANUSCRITA
Cuando el espacio está limitado, como es el caso del teclado de un PDA, teclear puede ser una tarea lenta y frustrante. Escribir los datos en un PDA sería una idea mucho más sensata, pero la complejidad involucrada en hacer que funcione el reconocimiento en de la escritura manuscrita es inmenso. ¿Cuál es la diferencia entre dibujar una figura y escribir una palabra? El ojo humano, reconoce la diferencia entre uno y otro distinguiendo cuál es el dibujo y cuál el texto. Hay dos opciones para que un ordenador pueda resolver este problema. La solución más sencilla es la adoptada por el sistema de reconocimiento Graffiti. Éste interpreta la forma de cada letra como un patrón único, y convierte cada forma en su letra correspondiente. No trata de entender las palabras ni el contexto. Para hacerlo todavía más sencillo, Graffiti utiliza formas especiales para algunos caracteres que el usuario del sistema tiene que aprender (lo cual lleva unos 20 minutos, aproximadamente).
Figura 18. Plantilla del sistema de ayuda de Graffiti 2. La aproximación tomada por Newton era mucho más ambiciosa. Trataba de leer la escritura del usuario y convertirla en palabras. Intentaba aprender la forma en que el usuario escribía, basándose en algunos tests y tutoriales interactivos. Esta aproximación era cada vez más efectiva conforme el usuario lo utilizaba, ya que, el sistema analizaba cada vez más el estilo de escritura del usuario. Con Newton, era posible establecer varios perfiles de escritura, de manera que era importante asegurarse de que Newton usaba siempre el perfil correcto para un determinado usuario para evitar que su base de conocimientos se "ensuciase". Newton fue un fallo costoso para Apple. Será recordado por su digno pero infructuoso intento de tratar de resolver el problema del reconocimiento de escritura. El éxito de Graffiti, por otra parte, fue emulado por otros desarrolladores. "Jot" de Communication Intelligence Corporation's (CIC) y CalliGrapher de ParaGraph son dos de los sistemas usados habitualmente por PDAs basadas en Windows CE y EPOC. Originalmente la plataforma Pocket PC basada en Windows CE ofrecía dos medios de entrada: a través de un teclado software, y a través de una aplicación reconocimiento de letras. Si se seleccionaba el primero, aparecía
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 42 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
un teclado QWERTY en la pantalla. Los caracteres deseados se introducían en el documento simplemente pulsando el carácter requerido sobre la imagen del teclado. El segundo reconocía las letras escritas con el lápiz, y soportar reconocimiento de palabras para acelerar la entrada de datos. La siguiente versión Pocket PC 2002 añadió dos opciones de entrada nuevas: el reconocedor de bloques que acepta Graffiti y el transcriptor, que reconoce escritura cursiva. Microsoft asegura que la tecnología que soporta el primero es propietaria, y no una licencia de Palm.
8.6.
SINCRONIZACIÓN
Sin la capacidad de transferir y sincronizar los datos con un sistema de escritorio, no hay ningún beneficio en tener un procesador de textos o un programa similar en un PDA (ya que hay relativamente pocos dispositivos portátiles que permitan imprimir por un puerto paralelo). Por ello, esta característica ha sido sustancialmente mejorada durante los últimos años, gracias al esfuerzo de terceras partes que han desarrollado tanto el hardware de las bases de los PDAs como las aplicaciones diseñadas para la sincronización tan completas y tan sencillas de utilizar como ha sido posible. La mayoría de los PDAs emplean un diseño de base similar que permite al dispositivo ser introducido en un pequeño receptor, y ser conectado al PC de escritorio a través de un cable serie. A la vez que facilitan la conexión al dispositivo de sobremesa, muchas bases también dan alimentación eléctrica, recargando las baterías del PDA mientras está conectado. Sin embargo, dos tecnologías inalámbricas (infrarojos -IrDA- y Bluetooth) son cada vez más utilizadas para tareas de sincronización.
8.7.
XSCALE
Intel renovó su apuesta por establecer una seria alternativa en el mercado de los dispositivos inalámbricos de Internet con el lanzamiento de su arquitectura de bajo consumo llamada XScale y construida sobre la tecnología StrongARM. XScale está diseñado para operar en varios rangos de frecuencias de reloj y niveles de consumo de energía. La gestión dinámica del voltaje es un elemento fundamental en la arquitectura y permite a los microprocesadores RISC ajustar su consumo dependiendo de la tarea que estén realizando en un determinado momento. Intel trata de colocar a XScale como la tecnología más rápida y eficiente enérgicamente en el floreciente mercado inalámbrico. Ofrece frecuencias de reloj más elevadas y menores consumos de energía que los StrongARM ajustándose a la aplicación. Este chip puede funcionar desde 50 MHz, donde consume unos 10 mW, hasta 800 MHz, donde consume aproximadamente 1 W. Estas características hacen a XScale ideal para los dispositivos de acceso inalámbrico a Internet, y ofrecer la posibilidad de desarrollar aplicaciones móviles sofisticadas capaces de funcionar con una sola pila AA. La competencia llega de la mano del fabricante de chip Texas Instruments, que promueve una arquitectura similar conocida como OMAP (Open Multimedia Applications Platform).
9.
CONCLUSIÓN
La tecnología informática ha avanzado a un ritmo vertiginoso. Las mejoras introducidas por las sucesivas generaciones informáticas han conseguido reducir el tamaño y precio de los ordenadores, a la par que mejoraban sus prestaciones. El ordenador ha sido siempre una utilísima herramienta de trabajo. Hoy en día, es también una forma de diversión y esparcimiento. La drástica bajada de precios de los equipos informáticos, unida a su creciente facilidad de uso, ha convertido al ordenador en un elemento omnipresente en nuestras vidas diarias. Tanto es así, que los
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 43 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
ordenadores personales empiezan a ser considerados un electrodoméstico más de cualquier hogar, si bien, su penetración no es aún tan fuerte como el de la televisión o el teléfono. La tecnología informática parece no tener límite. Cada vez que se vislumbra una barrera, hipotéticamente infranqueable, el ingenio humano consigue superarla perfeccionando cada vez más los sistemas. Es por ello que aunque no podamos concretar con precisión qué nos depara el futuro, podemos asegurar que todavía nos quedan muchos avances por descubrir.
10. BIBLIOGRAFÍA □
AMD. Información sobre productos. http://www.amd.com/la-es/Processors/ProductInformation/
□
HP PCs de bolsillo. http://www.compaq.es/productos/Handhelds/index_hp.asp
□
IBM eservers. http://www-1.ibm.com/servers/es/
□
Intel España. http://www.intel.com/es/
□
PalmOne España. http://www.palmone.com/es/index.html
□
Servidores HP AlphaServer. http://h41105.www4.hp.com/productos/servidores/index_alpha_hp.asp
□
SETI@home en español. http://www.querysoft.es/seti/
□
Sistemas Cray X1. http://www.cray.com/products/systems/x1/
□
TOP500 Supercomputer sites. http://www.top500.org/
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 44 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
11. ESQUEMA – RESUMEN Actualmente cualquier ordenador personal posee un interfaz gráfico de usuario, y una potencia de cálculo nada despreciable. Es por ello que paulatinamente los PCs (o Mac) han ido desplazando otras categorías, ampliándolas, reduciéndolas, e incluso erradicándolas. Las generaciones informáticas son 5: □
La 1ª generación va desde 1940 hasta 1956, y utiliza las válvulas de vacío, el código máquina, y las tarjetas perforadas.
□
La 2ª generación abarca desde 1956 hasta 1963, y emplea los transistores, lenguajes simbólicos y ensamblador.
□
La 3ª generación va desde 1964 hasta 1971, y supuso la llegada de los circuitos integrados, los teclados, los monitores, y el sistema operativo (permite multitarea).
□
La 4ª generación abarca desde 1971 hasta el presente., y supune la llegada de los microprocesadores, las redes informáticas, los interfaces gráficos de usuario, el ratón, y los dispositivos de mano (handheld).
□
La 5º generación está en camino, y la traerá inteligencia artificial, la computación cuántica, la molecular, y la nanotecnología.
Los tipos de ordenadores son: □
Superordenadores: Los superordenadores son sistemas diseñados específicamente para efectuar actividades de supercomputación. à
SMP es el acrónimo de Symmetric MultiProcessing. MPP es el acrónimo de Massively Parallel Processing. La principal diferencia entre SMP y MPP es que en SMP todas las CPU comparten la misma memoria mientras en MPP cada CPU tiene su propia memoria.
à
Un cluster está compuesto por dos o más ordenadores conectados de tal manera que se comportan como una única máquina. Se utiliza la técnica de clustering para el procesado paralelo, el balanceo de carga, y la tolerancia a fallos.
à
Un gigaflop equivale a mil millones de operaciones en coma flotante por segundo.
à
NUMA es el acrónimo de Non-Uniform Memory Access. Es un tipo de arquitectura de proceso paralelo en el cual cada procesador tiene su propia memoria local y además puede acceder a las memorias de otros procesadores.
à
Computación en red (grid computing): El grid computing es un tipo de red informática en la que se utiliza los ciclos de proceso no utilizados de los diversos ordenadores que forman la red para resolver problemas demasiado complejos para ser resueltos por una sola máquina. Un proyecto conocido de grid computing es SETI@Home. El grid computing requiere un software especial único para cada proyecto.
à
Equipo base de Cray: El superordenador Cray X1 representa una arquitectura mixta vectorial-MPP, que aúna las arquitecturas vectorial y MPP. El objetivo de Cray con este X1 es el de obtener una mayor eficiencia económica. El mercado de CRAY se centra en los siguientes sectores: Clientes del Departamento de Defensa de los EEUU; diseño de coches y material aeroespacial; y centros de investigación en empresas y Universidades.
à
Equipos base de IBM: La serie eserver pSeries de IBM está a caballo entre los superordenadores y los mainframes, pero IBM lo está utilizando como máquina para grid computing. La serie pSeries es la última generación de los servidores UNIX de IBM. Están diseñados para centros de proceso de datos de alto rendimiento. Utilizan microprocesadores POWER4+ que son de 64 bits y de los más rápidos del mercado.
à
Equipos base de Hewlet-Packard: La arquitectura SC AlphaServer se ha convertido en estándar para equipos de supercomputación dentro del grupo de empresas clientes de Hewlet-Packard y Compaq. Los clientes pueden escoger entre los equipos AlphaServer SC45 ó SC40. Por ejemplo los
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 45 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
AlphaServer S45 emplean procesadores de 1 GHz y una memoria de 8 GB por servidor. Los sistemas SC AlphaServer son combinaciones de bloques de construcción integrados. Los bloques son de cálculo, de gestión, o de almacenamiento. • □
Macroordenadores (o mainframes): un mainframe es un gran ordenador que da servicio a varios miles de usuarios simultáneamente y que ocupa parte de una habitación (originalmente ocupaba la habitación completa) equipada con un sistema especial de aire acondicionado. Son ordenadores muy caros, que en la escala de la potencia de cálculo quedan justo por debajo de los superordenadores. à
□
□
El futuro de la supercomputación: nanotecnología y computación cuántica.
IBM S/390: La arquitectura original del S/360 ha evolucionado de muchas formas desde su presentación original allá por 1963. Dos características fundamentales de esta evolución han sido la evolución compatible y la resolución de las restricciones. Un nuevo concepto introducido por el z990 es el de libro dentro de una máquina zSeries. Su capacidad de procesado, de establecer particiones lógicas para virtualizar distintas máquinas dentro de una sola, las capacidades criptográficas, de red y almacenamiento, y la fiabilidad y robustez de funcionamiento que han demostrado a lo largo de los años, convierten a estas máquinas en una alternativa atractiva para los entornos que requieran el soporte concurrente a gran escala de estas funcionalidades centralizadas en una única máquina.
Miniordenadores (o Servidores Departamentales): El pionero de lo minis fue VAX en en la década de 1970. Se orientaron a servir como: Servidor principal de una empresa pequeña o mediana en la que se ofrecería un precio bajo al usuario y múltiples aplicaciones de gestión estandarizadas; Servidor asociado o incluso departamental instalado en una dependencia separada y dependiente de la sede central de la organización; Servidor autónomo para aplicaciones poco repetitivas o especializadas como las de Automatización de Oficinas con soporte directo del proveedor. à
Digital VAX: El primer VAX fue presentado el 25 de octubre de 1977, en la reunión anual de accionistas de Digital. Era la primera máquina de 32 bits disponible comercialmente, y fue un hito importante en la historia de la informática. Su nombre es el acrónimo de Virtual Address Extension (Extensión Virtual de Dirección). El VAX y su sistema operativo VMS (posteriormente renombrado como OpenVMS) fueron revolucionarios en muchos aspectos. Además de su arquitectura de 32 bits, fueron la primera pareja de máquina y sistema operativo que se diseñaron simultáneamente, pensando el uno en el otro. Esto produjo un sistema perfectamente engranado que funcionaba muy bien y duró mucho tiempo.
à
IBM AS/400: El mítico AS/400 de IBM sufrió un cambio de nombre el 3 de octubre de 2000, pasando a denominarse IBM eserver iSeries. El AS/400 está diseñado para aislar el software y el hardware, de manera que los cambios en uno tienen poco efecto sobre el otro. Esto se logra a través del interfaz de la máquina (MI) que es un interfaz de la programación de software entre el usuario, el sistema operativo y el hardware. El sistema operativo del AS/400 se llama OS/400. El AS400 contiene una base de datos empotrada llamada DB2/400. Los iSeries responden con una estrategia tecnológica que se asienta sobre cuatro pilares: integración, virtualización, estándares abiertos y automatización.
Microordenadores (u ordenadores personales): à
Podemos definir el microordenador u ordenador personal como un ordenador relativamente barato diseñado para ser usado por una única persona. El precio de la gama media y baja se sitúa típicamente entre los 600 y los 3000€. Todos se basan en el uso de microprocesadores que permiten a los fabricantes incluir una CPU completa en un único chip. Debe tenerse en cuenta que los fabricantes están ofreciendo cada vez un surtido más amplio de PCs cubriendo un abanico más extenso de posibilidades.
à
Los ordenadores personales aparecieron a finales de los 70. Uno de los primeros y más conocidos microordenadores fue el Apple II, presentado en 1977 por Apple Computer. En 1981, IBM entró en escena con un primer ordenador personal, conocido como IBM PC.
à
Tipos de CPU: CISC y RISC. Actualmente se está produciendo una convergencia entre ambas.
à
Los PCs han ido evolucionando aumentando su frecuencia de reloj, el tamaño de sus memorias caché, y el número de bits de sus buses. En la tabla 1 puede resumida de esta evolución.
à
Buses locales: La capacidad de adaptación del PC ha sido una de las razones fundamentales de su éxito. Las arquitecturas de buses más importantes son: ISA (8 ó 16 bits a 4.77, 6, y 8 MHz), MCA (32
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 46 de 47
www.haztefuncionario.com
Material registrado. Prohibida su reproducción.
Copia exclusiva de José Ignacio Méndez Yanes. Av de los Poblados 133, 7º - 3ª - 28025 - Madrid - Tel. 917464968
bits a 10 MHz, con hasta 8 microprocesadores y 8 dispositivos), EISA (32 bits a 8 MHz y permite compartir el bus hasta por 6 dispositivos diferentes), PCI (32 ó 64 bits a 33 ó 66 MHz, añade PnP, y compartición de IRQ), y AGP (de 66 MHz en adelante, según multiplicador). □
□
Ordenadores portátiles: Podemos definir un ordenador portátil como un ordenador personal muy ligero. En términos de potencia de procesamiento los portátiles actuales son prácticamente igual de rápidos que los ordenadores personales, y poseen capacidades de almacenamiento similares. Sin embargo empaquetar toda esta potencia en un espacio reducido es caro. Normalmente los ordenadores portátiles cuestan cerca del doble que el ordenador equivalente de sobremesa. Los ordenadores portátiles poseen conjuntos de baterías que permiten trabajar con ellos sin necesidad conectarlos a la red. à
Gamas de producto: las estaciones de trabajo móviles (que más que portátiles propiamente dichos, son PCs portátiles), los portátiles «estándar» (con un peso de entre tres y dos kilos, que implementan unidades ópticas y, cada vez menos, la disquetera), y los ultraportátiles (PCs de menos de 2 kilos en los que prima, por encima de todo, el peso, el tamaño y la autonomía de funcionamiento).
à
Los procesadores de los portátiles en el mercado de los PCs se centran en los modelos que presentan Intel y AMD para estas plataformas que resultan más eficientes energéticamente y se calientan menos. Por parte de Intel podemos encontrar en el mercado actualmente la gama de Pentium M o Pentium Mobile, y de la mano de AMD tenemos un amplio surtido de Athlon Mobile disponibles en el mercado (incluído el AMD Athlon 64 for Notebooks).
à
Las baterías: para minimizar el consumo de batería se han planteado diversas soluciones (software y hardware), como el SpeedStep y el Centrino de Intel, el APM, y el ACPI. Las baterías indicadas para ordenadores portátiles estándar suelen tener entre 4 y 8 celdas, pesan aproximadamente 500 gramos y ofrecen un voltaje de entre 10 y 16 voltios. Su tiempo de carga varía de 1 a 3 horas, mientras que el de descarga ronda también ese intervalo. El litio y níquel son los materiales más utilizados para su construcción, siendo el primero mejor (y más caro).
Ordenadores de mano (PDAs, palmtops y handhelds): Un PDA (Personal Digital Assistant) es un ordenador de mano que ha reemplazado a las tradicionales agendas de papel. à
La compañía tecnológica británica Psion creó el término PDA con el lanzamiento de su primer Organizer allá por 1984.
à
En 1996 Palm Computing Inc. (por entonces propiedad de US Robotics) lideró el renacer de los ordenadores de mano con la introducción de sus dispositivos Pilot 1000 y Pilot 5000. Sus características más importantes son: tamaño de bolsillo, interfaz gráfica de usuario y una base de escritorio que facilita la sincronización bidireccional entre el PC y la agenda.
à
Sistemas operativos: los principales son Windows CE, EPOC, y PalmOS.
à
Reconocimiento de escritura manuscrita: el más extendido es Graffiti (inventado por Palm) y sus imitaciones. El Newton de Apple trató de mejorarlo abordando una técnica más ambiciosa, pero fracasó.
à
Sincronización: originalmente se usaron puertos de comunicaciones. Posteriormente, bases de conexión que permitían recargar el PDA a la vez que se transmitía la información. Actualmente la tendencia es a incorporar algún método inalámbrico adicional, destacando IrDA y Bluetooth.
TEMARIO-TICB-feb04 Actualizado en febrero de 2004
B1G1T01 Página 47 de 47