DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Contenido 1
Introducción .......................................................................................................................... 3
2
Carcasa .................................................................................................................................. 4
3
Fuente de alimentación ........................................................................................................ 5 3.1
4
5
6
7
Características de la fuente de alimentación ................................................................ 6
Placa base .............................................................................................................................. 7 4.1
Formato ......................................................................................................................... 8
4.2
Chipset........................................................................................................................... 9
4.3
BIOS ............................................................................................................................. 10
4.3.1
Funciones de la BIOS ........................................................................................... 11
4.3.2
CMOS ................................................................................................................... 11
4.4
Zócalo .......................................................................................................................... 12
4.5
Slots de expansión....................................................................................................... 13
4.6
Buses ........................................................................................................................... 18
4.7
Conectores externos ................................................................................................... 19
Microprocesador ................................................................................................................. 22 5.1
Estructura .................................................................................................................... 22
5.2
Evolución ..................................................................................................................... 23
5.3
Tecnologías.................................................................................................................. 24
Memoria .............................................................................................................................. 25 6.1
Jerarquía de memoria ................................................................................................. 25
6.2
Tipos ............................................................................................................................ 26
Almacenamiento ................................................................................................................. 29 7.1
Discos duros ................................................................................................................ 29
7.1.1
Partes................................................................................................................... 30
7.1.2
Funcionamiento .................................................................................................. 33
7.1.3
Escritura y lectura de datos ................................................................................. 34
7.1.4
Parámetros .......................................................................................................... 34
7.1.5
Tipos de interfaz .................................................................................................. 35
7.2
Unidades de cinta ........................................................................................................ 40
7.3
Discos de estado sólido ............................................................................................... 42
7.4
Almacenamiento en red .............................................................................................. 44 Página 1 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
8
7.4.1
NAS ...................................................................................................................... 44
7.4.2
SAN ...................................................................................................................... 46
Servidores ............................................................................................................................ 49 8.1
8.1.1
Torre .................................................................................................................... 50
8.1.2
Rack ..................................................................................................................... 50
8.1.3
Blade .................................................................................................................... 51
8.2 9
Tipos ............................................................................................................................ 50
Funcionalidades........................................................................................................... 53
Alta disponibilidad............................................................................................................... 54 9.1
RAID ............................................................................................................................. 54
9.2
Cluster ......................................................................................................................... 59
10
Resolución de averías ...................................................................................................... 61
10.1
Programas diagnóstico ................................................................................................ 61
10.2
Troubleshooting .......................................................................................................... 61
11
Sala servidores ................................................................................................................ 63
11.1
Condiciones estancia ................................................................................................... 63
11.2
SAI................................................................................................................................ 64
Página 2 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
1 Introducción El modelo de arquitectura básica empleada en los ordenadores digitales fue establecido por Von Newman en 1945. La principal característica del ordenador debía ser que pudiera ser programado para resolver todo tipo de problemas sin que ello implicara cambiar su circuiteria.
Así pues, tenemos que la máquina Von Neumann está compuesta de: La Memoria Principal es una unidad dividida en celdas donde se almacena la información (datos e instrucciones). La Unidad Central de Proceso se encargada de la ejecución de los programas almacenados en memoria y esta formada por: •
•
La Unidad de Control que decide y controla las operaciones que se van a realizar en cada momento. Su función es decodificar las instrucciones del programa en ejecución y generar todas las señales necesarias para que puedan ser ejecutadas. La Unidad Aritmético Lógica que realiza las operaciones aritméticas (sumas, restas...) y lógicas (And, Not, Or...). Página 3 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 •
Los Registros son un almacén temporal durante la ejecución de una instrucción.
La Unidad de Entrada / Salida permite la comunicación de la CPU y la Memoria Principal con el exterior: impresoras, monitor, teclado, etc... Los Buses que son los encargados de la interconexión entre los distintos elementos que componen el ordenador.
2 Carcasa Hay unos formatos que definen las características que debe tener la placa base, la fuente de alimentación y la caja del PC en cuanto a dimensiones, conexiones y fijaciones para que encajen entre sí. Es importante cuando se monta un PC, asegurarse que los distintos componentes tengan el mismo formato. A lo largo de la historia de los PC, los formatos han ido evolucionando, siendo los principales el AT (prácticamente desaparecido del mercado) y el ATX. Las diferencias entre ambos formatos que afectan a la caja son:
Las dimensiones de la placa base y fuente de alimentación Las sujeciones de éstas a la caja La distribución de los componentes conectados a la placa base. Las conexiones entre los componentes de la caja (botones, leds y altavoz) y la placa base. En el formato AT sólo el conector del teclado está soldado a la placa base, en cambio en el formato ATX hay más conectores de dispositivos externos y puertos de comunicaciones soldados a la placa base. Eso afecta al diseño de la parte posterior de las cajas de PC.
Estas diferencias las veremos con detalle en los apartados dedicados a la fuente de alimentación y a la placa base respectivamente. Según su forma y tamaño, las cajas pueden clasificarse en varios tipos: Slimline. Ahorra mucho espacio debido a sus pequeñas dimensiones. Limita la capacidad de aplicación de los equipos, ya que el espacio previsto para la placa base no es suficiente para introducir determinadas tarjetas de ampliación. La ampliación de tarjetas en estos equipos suele hacerse desde el exterior. Sobremesa. Tiene suficientes posibilidades de ampliación de tarjeta y periféricos. Esta carcasa se sitúa de forma horizontal sobre el escritorio, lo que hace que ocupe mucho espacio. Suelen incorporar bahías para periféricos de 51/4” 7y 31/2” pulgadas. Torre. Tiene buenas posibilidades de ampliación, aunque necesita mucho espacio en el escritorio y cables más largos para conexión del teclado, corriente eléctrica, etc. Barebone. Un ordenador barebone es una plataforma semi-ensamblada que consiste en un sistema informático con una placa base, una fuente de alimentación preinstalada y un sistema de enfriamiento. Apenas dispone de opciones para su ampliación debido a su reducido tamaño.
Página 4 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Estaciones sin disco (Thin client). Estaciones de trabajo que no disponen de disco duro, tan sólo de una memoria flash que albergan alguna versión muy reducida de sistema operativo que carga la configuración y programas desde la red. Tienen un tamaño muy reducido y no disponen de elementos mecánicos (discos, CD’s). Resultan prácticos en determinados entornos, sin embargo, su precio es similar a un ordenador normal, el cual puede funcionar sin conexión a red, mientras que el cliente ligero no.
3 Fuente de alimentación La fuente de alimentación es el dispositivo que proporciona la energía eléctrica al resto de dispositivos del ordenador. El aspecto de una fuente de alimentación de PC es el de una caja metálica de la que sobresalen unos cables eléctricos con unos conectores de color blanco en su extremo. Veamos las principales funcionalidades de la fuente de alimentación. a) Primera funcionalidad: alimentación
El ordenador es un aparato que se conecta a una tensión de corriente alterna de 220 voltios (220V AC), sin embargo los componentes microelectrónicos que lo componen funcionan con tensiones bajas y continuas (DC). Por ejemplo, los microprocesadores necesitan una tensión entre 1V y 5V DC, mientras que los discos duros, disqueteras y lectores de CD/DVD funcionan con unas tensiones de 5V DC y 3V DC. Para generar estas tensiones bajas y continuas a partir de la tensión de entrada de 220V AC, la fuente lleva a cabo cuatro etapas: 1. Transformación. Este paso es en el que se consigue reducir la tensión de entrada a la fuente (220V o 125V) que son los que nos otorga la red eléctrica. Esta parte del proceso de transformación, como bien indica su nombre, se realiza con un transformador en bobina. La salida de este proceso generará de 5 a 12 voltios. 2. Rectificación. La corriente que nos ofrece la compañía eléctrica es alterna, esto quiere decir, que sufre variaciones en su línea de tiempo, con variaciones, nos referimos a variaciones de voltajes, por tanto, la tensión es variable, no siempre es la misma. Eso lógicamente, no nos podría servir para alimentar a los componentes de un PC, ya que imaginemos que si le estamos dando 12 voltios con corriente alterna a un disco duro, Página 5 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 lógicamente no funcionará ya que al ser variable, no estaríamos ofreciéndole los 12 voltios constantes. Lo que se intenta con esta fase, es pasar de corriente alterna a corriente continua. 3. Filtrado. Ahora ya disponemos de corriente continua, que es lo que nos interesaba, no obstante, aun no nos sirve de nada, porque no es constante, y no nos serviría para alimentar a ningún circuito. Lo que se hace en esta fase de filtrado, es aplanar al máximo la señal, para que no hayan oscilaciones, se consigue con uno o varios condensadores, que retienen la corriente y la dejan pasar lentamente para suavizar la señal, así se logra el efecto deseado. 4. Estabilización. Ya tenemos una señal continua bastante decente, casi del todo plana, ahora solo nos falta estabilizarla por completo, para que cuando aumenta o descienda la señal de entrada a la fuente, no afecte a la salida de la misma. Esto se consigue con un regulador.
b) Segunda funcionalidad: refrigeración.
Un fenómeno inevitable en todo dispositivo electrónico es la generación de calor mientras está en funcionamiento. En el interior de la caja del PC esto ocasiona un problema de aumento de la temperatura, al estar funcionando muchos dispositivos electrónicos en un espacio muy reducido. El exceso de calor puede hacer que los diversos componentes del ordenador no funcionen correctamente. Para solucionar este problema, las fuentes de alimentación tienen un ventilador en su parte más exterior y unos orificios en la parte que comunica con el interior de la caja con la finalidad de generar una corriente que renueve constantemente el aire del interior de la caja.
3.1 Características de la fuente de alimentación Las principales son: Formato. Puede ser el antiguo AT o el ATX de los equipos actuales. Hay que tener en cuenta que el formato ATX va evolucionando constantemente debido a la aparición de nuevos dispositivos con especiales requisitos de alimentación. Así ocurre con la aparición del Pentium 4, que requiere de un nuevo conector de 4 pines que necesita una alimentación de 12V DC. Otro ejemplo es el nuevo formato de discos duros Serial ATA que requiere un conector de alimentación más pequeño que el utilizado por los discos duros de los formatos anteriores. El formato AT ya no se utiliza. Potencia. Se mide en vatios (W) e indica la capacidad de alimentar diferentes dispositivos. Lo habitual es encontrar fuentes de alimentación entre 200W y 400W. Va a depender de la cantidad de dispositivos que queramos instalar en el PC y del consumo elevado o no de cada uno de ellos, que sea más aconsejable una u otra potencia.
Nota: es importante disponer de una fuente de alimentación con suficiente potencia para todos los dispositivos instalados, pues de lo contrario pueden funcionar mal algunos elementos, especialmente de red, o provocar caídas del sistema
Página 6 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Cuidado con tocar el interruptor selector de voltaje que algunas fuentes llevan, este interruptor sirve para indicarle a la fuente si nuestra casa tiene corriente de 220v o 125v, en caso de error puede provocar serios problemas. Es conveniente, revisar de tanto en tanto, el estado del ventilador de la fuente, hay que pensar, que si no tenemos instalado en la parte posterior del equipo un ventilador adicional, es nuestra única salida de aire. Un ventilador de fuente defectuoso puede significar el final de tu equipo, elevando la temperatura del sistema por encima de la habitual y produciendo un fallo general del sistema.
Comprobación del correcto funcionamiento de una fuente de alimentación ATX Una de las tareas de mantenimiento de un ordenador más frecuentes es la comprobación del buen funcionamiento de una fuente de alimentación. Para ello se tendrán que revisar todos los pines de cada conector de la fuente de alimentación y comprobar que dan la señal esperada. Esto se hace con un aparato que se llama voltímetro. Las fuentes de alimentación ATX tienen una característica que nos facilitará enormemente esta labor. Mientras que las fuentes de alimentación AT se ponen en funcionamiento exclusivamente por el interruptor situado en la caja del ordenador, las fuentes de alimentación ATX pueden ponerse en funcionamiento o apagarse mediante una señal que les envía la placa base a través de un pin del conector principal que las une. Esta señal podemos reproducirla manualmente haciendo un puente entre el pin 14 (PS_ON#) y el pin 15 (COM) para el formato ATX 2.1 o anterior, o bien entre los pines 16 (PS_ON#) y 17 (COM) para el formato ATX 2.2 (se corresponden con el cable verde y uno de los cables negros que están junto a éste). Una vez hecho el puente con la fuente de alimentación conectada a la red eléctrica, ésta se pondrá en funcionamiento (lo detectaremos porque se pondrá en marcha el ventilador) y a partir de ese momento ya podremos comprobar con el voltímetro que la señal que proporciona cada cable sea correcta.
4 Placa base La placa base, también llamada placa madre (motherboard o mainboard) es la superficie de silicio donde se instalan los principales componentes de un ordenador (procesador y memoria). En ella se ubica el bus del sistema, la BIOS, el reloj y todos los conectores de dispositivos que forman el ordenador. Es una pieza importante de un equipo, pues de ella dependen las prestaciones y compatibilidad software del ordenador. Las placas bases suelen estar normalizadas en cuanto a medidas. Las más importantes son las siguientes: Fullsize: se usan en cargas de tipo torre con unas medidas de 35,6 x 30,5 cm. Babysize: se utilizan en carcasas de sobremesa con medidas de 22,5 x 33 cm. Halfsize: para carcasas estrechas de tipo Slimline (equipos sobremesa de tamaño reducido y con pocas posibilidades de añadir dispositivos) con medidas de 21,8 x 24,4 cm.
Página 7 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Atendiendo al modelo de Von Neumann, la placa base se corresponde con los buses de comunicación entre los diferentes componentes. Es por tanto, el componente central del PC pero no precisamente el más importante. Como todos los componentes se conectan a la placa base, éstos deben estar soportados por ella. En otras palabras, la placa base determina los componentes que puede soportar el PC y, en consecuencia, sus posibilidades de expansión.
4.1 Formato Como pasa con las cajas y las fuentes de alimentación, nos encontramos con dos formatos principales: el AT y el ATX. Cada uno de ello tiene variantes, en general en lo que se refiere al tamaño de la placa, como veíamos arriba, pero lo que veremos para los formatos AT y ATX es aplicable para sus formatos derivados. El formato AT Fue el principal formato hasta la aparición del formato ATX hacia el año 1997. La principal diferencia se encuentra en la distribución de los componentes. En ella el microprocesador se encuentra al lado de las ranuras de expansión. Esto con el tiempo llegó a ser problemático porque los microprocesadores necesitaron un ventilador montado encima, que disputaba el espacio a las tarjetas de expansión si éstas eran demasiado grandes. El único conector externo que incorporaban estas placas base era el de teclado. Hacia falta, pues, un cable hasta el exterior de la caja para cada conexión externa, normalmente dos puertos serie y un puerto paralelo. Esto contribuía a convertir el interior de la caja de un PC en una maraña de cables que dificultaba la ventilación. Todos estos problemas se solucionaron con el formato ATX. El formato ATX Diseñada por Intel en 1995, desplazó al formato AT. Ahora el microprocesador no se encuentra al lado de las ranuras de expansión sino encima de éstas y más próximo a la fuente de alimentación, lo que facilita su refrigeración. Las placas ATX incorporan los conectores de teclado, ratón, puertos serie, paralelo y USB soldados en la misma placa. Según el modelo puede incorporar también otras conexiones como la del monitor, altavoces, red o firewire. En el formato ATX, las conexiones del teclado y ratón pasan a ser del tipo PS/2. También se conectan los cables que vienen del frontal del ordenador, entre los que están el del interruptor, el led del disco o el pulsador de reset. Formato ITX Últimamente, cada vez está siendo más habitual la presencia de modelos de PC de muy reducidas dimensiones, denominados mini-PC, gracias a nuevas cajas de pequeño formato y componentes cada vez más reducidos e integrados. Esto ha sido posible en especial gracias a un nuevo formato de placa base: el denominado ITX, con distintas variantes desarrolladas por algunos fabricantes. Los equipos que montan estas placas tienen muy pocas posibilidades de ampliación, ya que tan solo cuentan con una ranura PCI. Un ejemplo son las placas EPIA (mini-ITX) de VIA. Página 8 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Formato BTX Otra de las nuevas especificaciones de factor de forma es la denominada BTX (Tecnología Extendida Balanceada). Este estándar viene a ser un evolución del tradicional ATX, pero adaptado a los nuevos tiempos y a todas las nuevas tecnologías desarrolladas hasta la fecha. Así, el formato BTX especifica unos determinados formatos de placa base y distribución de sus componentes orientados a una serie de principios similares a los del estándar ATX, aunque más abiertos: un sistema de ventilación de la caja más eficiente, la integración de sistemas de reducido tamaño, múltiples tamaños y configuraciones de placa base, lo que permite una amplia escalabilidad, así como características físicas que permitan la integración masiva de un elevado número de componentes en la placa base. Las diferentes opciones se denominan BTX (7 ranuras de expansión), micro-BTX (4 ranuras de expansión) y pico-BTX (1 ranura de expansión) siguiendo un tamaño decreciente.
4.2 Chipset Si analizamos la arquitectura de un ordenador, podemos ver que existen varios canales por los que fluye la información, y el centro neurálgico es el microprocesador. Los canales principales por los que suele circular información en una placa base son: Entre el microprocesador y la memoria RAM Entre el microprocesador y las ranuras de expansión a las que suelen estar conectadas las tarjetas (ISA, EISA, AGP, etc.) Entre el microprocesador y los dispositivos de almacenamiento. El elemento que integra todas estas funciones de control, además de muchas otras, es el denominado chipset. La velocidad con que se desplazan los datos en el interior de un ordenador está directamente relacionada con este componente. Sus funciones principales son: Soporte para el microprocesador: una de las funciones principales del chipset es la detección correcta del microprocesador y el pleno soporte de todas sus funciones. Esta es una de las razones principales de la rápida evolución de los chipsets: nuevos microprocesadores cada vez más rápidos necesitan nuevos chipsets que les proporcionen un soporte completo. Igualmente, el chipset es el responsable directo de que las placas base soporten más de un microprocesador, en el caso de placas base duales o con más de dos microprocesadores. Controlador de Memoria (MMU): gestiona la memoria RAM del sistema y en general todo el subsistema de memoria, incluidos los diferentes niveles de memoria caché. Determina la cantidad de memoria máxima y su posible disposición según el número de slots que disponga. En sistemas AMD esta función esta incluida dentro de microprocesador. Controlador para discos duros y otros dispositivos de almacenamiento (IDE o SATA). Esta parte del chipset es la encargada de controlar los dos conectores de almacenamiento secundario que habitualmente suelen integrar todas las placas bases actuales. Control de periféricos y del bus de E/S: las placas base actuales disponen de una serie de buses, principalmente PCI, AGP y PCI-Express (en un futuro solamente se soportará este formato). Esta función también incluye el soporte para nuevas tecnologías, como USB 2.0 o IEEE 1394.
Página 9 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Control de interrupciones: Es otra parte del chipset encargada de gestionar todo el sistema de interrupciones del PC. Reloj de tiempo real: mantiene la hora del sistema. El módulo de control del RTC (Real Time Clock) es otra parte de las muchas que integran el chipset. Soporte para la gestión de energía: todos los chipsets actuales soportan una serie de funciones para gestión y ahorro de energía eléctrica. Controlador de acceso directo a memoria (DMA): permite el acceso directo a la memoria a determinados dispositivos, sin pasar por el microprocesador, lo que agiliza el rendimiento de ciertas operaciones con dispositivos específicos como los discos duros. El DMA es controlado por una parte del chipset denominada controlador de DMA. Controlador de infrarrojos (IrDA): controla la conexión de dispositivos que funcionen mediante infrarrojos. Controlador de teclado: controla toda la actividad y el funcionamiento del teclado. Controlador PS/2: para el control de teclados y ratones con este formato. Generalmente los chipsets se suelen agrupar según sus funciones en lo que se denomina Northbridge y Southbridge. El Northbridge, también llamado controlador del sistema, es uno de los chips de control que forman el conjunto del chipset, y se encarga de gestionar la memoria, el microprocesador y los puertos AGP, PCI y PCI-Express. Suele ser el chip de mayor tamaño de los que forman el chipset, incluso a veces se encuentra refrigerado. El segundo chip, denominado Southbridge, gestiona otros componentes de la placa como pueden ser los canales IDE o SATA, las unidades de disquete, los puertos USB, la gestión avanzada de energía, el sistema de audio integrado en la placa base o el reloj de tiempo real (RTC). Nota: Dadas todas estas funciones, el chipset tiene una gran importancia a la hora de elegir una placa puesto que se trata de un elemento clave para el funcionamiento de la placa base. Por ello no todas las placas son iguales.
4.3 BIOS Bajo estas siglas se esconden las palabras BASIC INPUT-OUTPUT SYSTEM, es decir, Sistema básico de Entrada-Salida. Según esta definición, puede parecer que la BIOS tan sólo se encarga de gestionar los sistemas de entrada/salida (I/O) de nuestro ordenador, sin embargo, una BIOS es mucho más que eso. La verdad es que el nombre no ayuda a entender todas las capacidades y verdaderas funciones de este importante componente en cualquier sistema informático. Podemos decir que sin BIOS no hay ordenador ya que la existencia de una BIOS por muy simple que sea, es imprescindible para que un ordenador pueda ponerse en funcionamiento y comenzar el proceso de arranque del sistema. Una definición más apropiada sería como el SISTEMA DE ARRANQUE DE NUESTRO HARDWARE, es decir, que se inicia antes que cualquier elemento de hardware en nuestro PC, y además se encarga de realizar todas las funciones necesarias para que todo funcione de forma correcta. Entrando ya en términos más coloquiales, la BIOS no es otra cosa que una pastilla con un código almacenado en una memoria Flash (memoria no volátil) al que nuestra placa base Página 10 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 accede en el momento de conectarse a la corriente. Este código marca los pasos que el hardware ha de llevar a cabo para inicializar y comprobar todos los componentes. Cuando decimos todos los componentes nos referimos a la placa base al completo, microprocesador, memoria, tarjetas, puertos, sistemas de almacenamiento, y periféricos primarios como el teclado y ratón. Pero la BIOS se encarga de más cosas. Durante el modo de operación normal de nuestro PC, es decir, con nuestro sistema operativo funcionando, y los programas ejecutándose, algunas tareas como detectar los impulsos enviados desde el teclado o el acceso a los diferentes dispositivos, requieren de la utilización de interrupciones controladas todas ellas por la BIOS. Se encuentra físicamente colocado sobre la placa base, normalmente sobre un zócalo para permitir su fácil sustitución en caso de fallo o actualización. Funcionan con memorias FLASH BIOS. 4.3.1 Funciones de la BIOS Nada más encender nuestro ordenador, la primera pantalla que aparece es generada por la propia BIOS, en la mayoría de los equipos clónicos, esta pantalla nos informa de las características de chipset y versión de la BIOS instalada. Debajo de los códigos superiores, nos identificará el tipo de microprocesador y bajo este se comenzará a chequear la memoria del sistema. En este momento es cuando debemos pulsar una determinada tecla que nos permitirá acceder a los menús de configuración. Lo normal es que también nos aparezca un mensaje que nos avise de qué tecla es la que nos permitirá entrar al menú mencionado. Generalmente, la tecla para el acceso es DEL o SUPR. En otro tipo de BIOS, como las PHOENIX, tendremos que presionar la tecla F2. En otros equipos las combinaciones pueden ser F1 o Alt+Crtl+Esc. Existen numerosos tipos de BIOS, pero en todas ellas podemos realizar la configuración de las siguientes cosas:
Fecha y hora del sistema Configuración de los discos Parámetros básicos de la memoria Secuencia de arranque Configuración de algunos dispositivos de entrada-salida Funciones de la administración de energía Habilitar/deshabilitar dispositivos incorporados en la placa Contraseña para entrar al equipo
4.3.2 CMOS Aunque mucha gente tiende a confundir los términos de BIOS y CMOS, es un error: la BIOS y la CMOS no son lo mismo. La CMOS (Complementary Metal Oxide Semiconductor) es una porción de 64 bytes encargada de almacenar los valores y ajustes de la BIOS (aquellos que el usuario podrá cambiar). Podemos almacenar datos como por ejemplo, la fecha y la hora, los parámetros que definen nuestro disco duro, la secuencia de arranque o la configuración de nuestros puertos. Ya dijimos anteriormente que la BIOS es una memoria no volátil y que sus datos están guardados y son inalterables; en cambio, la CMOS es una memoria de tipo RAM y los datos que Página 11 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 se guardan se pueden alterar pero también se borrarán en caso de existir algún corte de energía. Para prevenir que se de esta situación, es decir, que se borren los datos definidos por el usuario, hacemos uso de una pila que alimentará esta memoria siempre que nuestro ordenador no esté en marcha. Nota: ¿Que pasaría en caso de que se gaste la pila? No ocurrirá nada ni se estropeará nada; tan solo tendremos que perder un par de minutos en volver a configurar nuestras unidades de disco, la hora y la fecha y otros parámetros menores ya que el resto serán, en la mayoría de los casos, valores prefijados que son perfectamente operativos. También se perderá la contraseña que se almacenará en ella
4.4 Zócalo El número y tamaño de las patillas ha ido variando con el tiempo según las necesidades y las tecnologías utilizadas. Para comunicarse con el resto del sistema informático el procesador utiliza las líneas de comunicación a través de sus patillas (pines). Se define como encapsulado la forma en que se empaqueta la oblea de silicio para efectuar su conexión con el sistema. Se diferencian los siguientes tipos: SIP (Single Inline Package): es un encapsulado alargado con Una Sola Línea de Pines en uno de sus bordes. Un punto pintado en uno de sus extremos nos indica el pin Nº 1. DIP (Dual Inline Package): es un encapsulado rectangular y chato que posee Dos Líneas de Pines en sus laterales. Hoy está en desuso. PLC (Pin Line Cuadrature): puede ser cuadrado o rectangular, pero siempre sus pines se encuentran alrededor de sus cuatro lados. Está soldado a la placa PGA (Pin Grid Array): es un encapsulado de aparición más reciente. Es siempre cuadrado y chato. Los pines emergen de la cara inferior, no de los bordes como en los casos anteriores El zócalo ZIF (Fuerza de Inserción Cero) es igual al PGA, pero agrega una palanca que permite sacar el micro sin necesidad de pinzas especiales. Esto evita que se puedan doblar las patillas al extraerlo. A este tipo pertenece desde el socket 3 para 486 hasta socket 478 para los primeros PIV y socket A para AMD K7 Encapsulado SECC: en lugar de pines utiliza contactos, similar a un slot PCI para una tarjeta de expansión. Utilizado en PII y en PIII BGA (Ball Grid Array): variante de PGA que en lugar de llevar pines utiliza como contactos pequeñas bolas de estaño ubicadas por la superficie de abajo del chip. Se utiliza para el chipset en algunas placas base actuales LGA (Land Grid Array): no tiene pines y es plano por su parte inferior con zonas de contacto planas. El zócalo de la placa base cuenta con pequeñas láminas que ejercen presión sobre el procesador para realizar la conexión, pero si estas láminas se rozan es posible que se tuerzan y tengamos que tirar la placa base a la basura. Utilizado por los procesadores actuales de Intel (775) y AMD (AMD2). Nota: cuidado al colocar el procesador en este tipo de zócalos puesto que si se toca con el dedo se pueden estropear las láminas de contactos de la placa base.
Página 12 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
4.5 Slots de expansión Los slots de expansión son las conexiones donde se insertan algunos componentes del PC en forma de tarjeta. Estos componentes pueden ser tarjetas gráficas, de sonido, controladoras de red o módems, entre muchos otros. El bus ISA (Industry Standard Architecture) Como su nombre indica fue un estándar ampliamente aceptado por los fabricantes de hardware. Los ordenadores actuales ya no utilizan slots de este tipo, pero hasta hace poco eran imprescindibles en cualquier ordenador. En este formato se podían encontrar tarjetas de sonido, vídeo, de red, controladoras, módems y otros. Tuvo una primera versión de 8 bits para datos que trabajaba a una velocidad de 4,77 Mhz, que coincidía con la velocidad de los procesadores de los primeros PC. Con la aparición de la arquitectura 80286, el bus ISA pasó a tener un ancho de 16 bits para datos. Su velocidad aumentó con el tiempo, alcanzando frecuencias de 6 y 8 Mhz. El bus de direccionamiento era de 24 bits lo cual significaba que tenía una capacidad para direccionar 224 bytes = 16 MB.
El bus PCI (peripheral Component Interconnect) PCI fue introducido por Intel en 1993 y permite la interconexión de hasta 10 dispositivos. Trabaja con 32 bits para los buses de datos y direccionamiento a una velocidad de 33 MHz para la versión 1.0 a 133 MHz para la versión 3.0. A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos.
Página 13 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
El puerto AGP (Accelerated Graphics Port) AGP es un puerto que apareció el año 1997 para satisfacer los altos requerimientos de transferencia de datos de las tarjetas gráficas. Las placas base incorporan normalmente solo uno de estos puertos. En su versión inicial tenían un ancho de 32 bits y una velocidad de 66 Mhz. Posteriormente han aparecido versiones que aumentan el número de transmisiones que realizan por ciclo de reloj. Así, las versiones 2x, 4x y 8x tienen una tasa de transferencia 2, 4 y 8 veces mayor respectivamente. •
AGP 1X: velocidad 66 MHz con una tasa de transferencia de 264 MB/s y funcionando a un voltaje de 3,3V.
•
AGP 2X: velocidad 133 MHz con una tasa de transferencia de 528 MB/s y funcionando a un voltaje de 3,3V.
•
AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas. AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un voltaje de 0,7V o 1,5V.
•
Página 14 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
AGP AGP 1.0
Voltaje 3,3 voltios
Modo 1x, 2x
AGP 2.0
1,5 voltios
1x, 2x, 4x
AGP 2.0 Universal
1,5 v y 3,3 v
1x, 2x, 4x
AGP 3.0
1,5 voltios
4x, 8x
Conector Conector AGP de 3,3 voltios: Conector AGP de 1,5 voltios: Conector AGP universal:
Interfaz PCI-X Es una extensión del bus PCI que desarrollaron entre IBM y HP-Compaq. Tiene un ancho de bus de 64 bits y principalmente se utiliza para entornos de servidor donde hace falta un mayor rendimiento. Concretamente se utiliza para tarjetas de red Gigabit Ethernet, tarjetas Fiber Channel o controladoras de disco SCSI. Este bus no debe de confundirse con el PCI-Express ya que entre otras cosas éste es serie, mientras que PCI-X es paralelo. Presenta las siguientes características: o Compatible con PCI o Velocidad máxima de 533 MHz con una tasa de transferencia de 4,6 GB/s o Presenta la característica de Hot Swap o cambio en caliente, es decir, con el equipo funcionando se puede quitar/poner la tarjeta y éste sigue su funcionamiento.
Página 15 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
El término hot swap o cambio en caliente hace referencia a la capacidad de algunos componentes hardware para realizar su instalación o sustitución sin necesidad de detener o alterar la operación normal del ordenador donde se alojan. Se utilizan en servidores cuyo funcionamiento resulta crítico para la empresa. Los componentes que suelen utilizar esta ventaja suelen ser discos duros, fuentes de alimentación o diferentes tarjetas, como la de red. Interfaz PCI Express PCI Express es un diseño de Intel que está llamado a convertirse en el nuevo estándar de bus que reemplazará los actuales PCI y AGP. Durante el verano de 2004 aparecieron los primeros chips con soporte para PCI-Express. Este interfaz sigue siendo un modelo de transmisión en serie de datos punto a punto y bidireccional. También se conoce como PCIe. Cada interfaz PCI Express está formado por dos pares de conectores y se le conoce como canal. Un interfaz PCI Express de un solo canal es considerado un interfaz 1x. Para obtener tasas de transferencia mayores, el estándar PCI Express permite agrupar los interfaces y obtener interfaces PCI Express multicanal. Así, un interfaz PCI Express 2x estará formado por dos canales. Se permiten grupos de 1, 2, 4, 8, 16 y 32 canales. La velocidad de transferencia es de 2,5 Ghz y en un futuro se prevé que la aumenta hasta 10 Ghz. El ancho de banda de un interfaz PCI Express 1x es 250 MB/s y el de un interfaz PCI Express 16x es de 4GB/s (ambos en los dos sentidos simultáneamente). El puerto AGP 8x ofrece un ancho de banda de 1,9 GB/s y no admite transmisiones simultáneas en los dos sentidos. Al igual que el anterior también dispone de la característica de Hot Plug.
Página 16 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Slots PCI Express (de arriba a abajo: x4, x16, x1 y x16), comparado con uno tradicional PCI de 32 bits
CARACTERÍSTICAS El conector PCI Express 1X posee 36 clavijas, y está destinado a usos de entrada/salida con un gran ancho de banda El conector PCI Express 4X posee 64 clavijas y tiene como finalidad el uso en servidores: El conector PCI Express 8X posee 98 clavijas y tiene como finalidad el uso en servidores: El conector PCI Express 16X posee 164 clavijas, mide 89 mm de largo, y tiene como finalidad el uso en el puerto gráfico:
CONECTORES
Página 17 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Diferencias entre slots de expansión
4.6 Buses Por su función se puede realizar la siguiente clasificación Bus de datos: transporta los datos que van a ser leídos o escritos de/en Memoria o periféricos. Cuanto mayor sea el número de líneas de datos más eficiente será el sistema. Un ejemplo, para leer una palabra de 32 bits, con 8 líneas de datos necesitamos cuatro operaciones de lectura, pero con 32 líneas de datos realizamos una sola operación. Bus de direcciones: transporta la dirección de Memoria o del dispositivo al que se accede para realizar una operación de lectura o escritura. Según el tipo de microprocesador varia su tamaño y en consecuencia la cantidad máxima de memoria que puede direccionar. Con n líneas de direcciones se pueden direccionar 2n posiciones de memoria. Los valores comunes de n son 8, 16, 32, 36 y 64. El problema es que el aumento del número de líneas encarece el sistema por lo que hay que llegar a un equilibrio entre aumento de prestaciones y encarecimiento del sistema. Bus de control: transporta las señales que indican el tipo de acceso que se va a realizar, el dispositivo al que se accede, y señales de sincronización para todos los dispositivos que participan en el proceso. Todos los microprocesadores disponen de señal de alimentación, señal de tierra y señal de reloj, el resto de las líneas de control pueden variar de un microprocesador a otro.
También podemos realizar una distinción por los componentes que conectan FSB (Front Side Bus): encargado de conectar el procesador con la memoria principal del ordenador. Este bus es el que se suele mostrar en las especificaciones de una placa base Página 18 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 BSB (Back Side Bus): encargado de conectar al procesador con la memoria cache. Se ubica íntegramente en el encapsulado del procesador
4.7 Conectores externos En la actualidad existen gran cantidad de conectores PS2: la comunicación en ambos casos es serie (bidireccional en el caso del teclado), y controlada por microcontroladores situados en la placa madre. No han sido diseñados para ser intercambiados en caliente, y el hecho de que al hacerlo no suela ocurrir nada es más debido a que los microcontroladores modernos son mucho más resistentes a cortocircuitos en sus líneas de entrada/salida. Conector serie: Un puerto serie es una interfaz de comunicaciones de datos digitales, frecuentemente utilizado por computadoras y periféricos, en donde la información es transmitida bit a bit enviando un solo bit a la vez, en contraste con el puerto paralelo que envía varios bits simultáneamente. También se conoce por el nombre de RS-232, que es el nombre del chip que controla la comunicación. Diseñado para comunicar con un módem o para introducir comandos de terminal a dispositivos como routers centralitas telefónicas. Para ello se utilizan programas como HyperTerminal.
El conector serie recibe el nombre de DB-9
Conector paralelo: un puerto paralelo es una interfaz entre una computadora y un periférico cuya principal característica es que los bits de datos viajan juntos enviando un byte completo o más a la vez. Es decir, se implementa un cable o una vía física para cada bit de datos formando un bus. Normalmente utilizados para impresoras o incluso para llaves software.
Página 19 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
El conector paralelo recibe el nombre de DB-25
USB: Universal Serial Bus (bus universal en serie) o Conductor Universal en Serie, abreviado comúnmente USB, es un puerto que sirve para conectar periféricos a una computadora. El estándar incluye la transmisión de energía eléctrica al dispositivo conectado. Algunos dispositivos requieren una potencia mínima, así que se pueden conectar varios sin necesitar fuentes de alimentación extra. La gran mayoría de los concentradores incluyen fuentes de alimentación que brindan energía a los dispositivos conectados a ellos. El USB puede conectar los periféricos como ratones, teclados, escáneres, cámaras digitales, teléfonos móviles, reproductores multimedia, impresoras, discos duros externos, tarjetas de sonido, sistemas de adquisición de datos y componentes de red Versión Baja velocidad (1.0) Velocidad completa (1.1) Alta velocidad (2.0) Super velocidad (3.0)
Tasa Transferencia 1'5 Mbps (192 KB/s) 12 Mbps (1'5 MB/s) 480 Mbps (60 MB/s) 4.8 Gbps (600 MB/s)
Página 20 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Tipos diferentes de conectores USB (de izquierda a derecha): Micro USB, mini USB, tipo B, hembra tipo A, tipo A.
Fire-Wire o IEEE 1394: utiliza la transferencia serie, para alcanzar una velocidad de transferencia de 400 Mb/s en su versión 1. En la versión 2 alcanza una tasa de transferencia de 800 Mb/s. También existe una versión con una tasa de transferencia de 3.2 Gb/s. Se pueden conectar hasta 63 dispositivos en un cable de 4,5 m de longitud. Se utiliza fundamentalmente para la transmisión de audio y video digital.
Página 21 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
5 Microprocesador 5.1 Estructura Al esquema tradicional de Von Neuman con el paso del tiempo se han añadido otros componentes con el fin de separar tares y mejorar el rendimiento, se tiende a simultanear tareas para mejorar el rendimiento. No existe un esquema único pero a grandes rasgos se puede dividir en los siguientes componentes:
RELOJ
Unidad de interfaz de bus: proporciona la interfaz con los buses. Acepta peticiones de los otros módulos. Unidad de prebúsqueda de código: durante los ciclos que la interfaz de bus permanece inactiva, se encarga de buscar las siguientes instrucciones, las cuales se almacenen en una cola. Se realiza para que la unidad de ejecución siempre disponga de instrucciones a ejecutar y que los tiempos de espera se reduzcan al mínimo. Unidad de descodificación de instrucciones: toma instrucciones de la cola de prebúsqueda y las descodifica (traduce a microcódigo). Pasan posteriormente a una cola de instrucciones, la cual alimenta a la unidad de ejecución. Los datos intermedios también se toman de la cola de prebúsqueda. Unidad de ejecución: realiza la ejecución de la instrucción. En esta fase se solapan algunas operaciones de la instrucción actual con la anterior. Se compone a su vez de tres subunidades: o Unidad de control: contiene el microcódigo y hardware paralelo especial que acelera la multiplicación, división y cálculo de direcciones efectivas. o Unidad de datos: contiene la ALU y registros de propósito general o Unidad de protección: comprueba las violaciones de la segmentación. Unidad de segmentación: traduce direcciones lógicas a direcciones lineales a petición de la unidad de control. Comprueba de igual modo que no existan violaciones en el ciclo de bus Unidad de paginación: si el mecanismo de paginación está activado, la unidad de paginación traduce las direcciones lineales a direcciones físicas. Si la paginación no está activada la dirección lineal es la misma que la dirección física. Página 22 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Reloj: un componente importante es el circuito que sincroniza todas las operaciones y que determina la velocidad con la cual se hacen. Este parámetro se utiliza como medida de la potencia de un micro, aunque no porque tenga una mayor frecuencia a la hora de realizar acciones quiere decir que sea más rápido que otro con menor frecuencia. Es lo mismo que ocurre con los motores de los coches: un motor de los años sesenta de 5000 cm3 no es más rápido que un actual multiválvula de 2000cm3.
En la actualidad debido a la capacidad de integración se puede considerar al primer nivel de la memoria caché como parte del procesador. Se trata de un almacenamiento intermedio pequeño y de rápido acceso que se coloca entre la CPU y la memoria, y que aprovechan lo que se llama localidad de referencia en el acceso a datos. -
Localidad temporal: tendencia a usar en breve los mismos datos que se acaban de utilizar. Localidad espacial: tendencia a usar datos ubicados muy cerca de los que se acaban de acceder.
5.2 Evolución Con las mayores exigencias de procesamiento los microprocesadores han ido evolucionando en sus diseños para ejecutar un número mayor de instrucciones en un menor tiempo, para ello se han ido implementando diferentes técnicas que a continuación se relatan: a) Multitarea: el procesador dispone de herramientas para implementar la multitarea como pueden ser la protección de tareas y memoria b) Luego entraría en acción la ejecución en paralelo, es decir la ejecución de varias instrucciones al mismo tiempo. Para ello se utilizan dos técnicas Segmentación: utiliza el mismo principio que las cadenas de montaje de automóviles, mejora del tiempo de producción aprovechando que el producto pasa por varias fases. En el procesador una división simple de etapas sería: lectura en memoria, descodificación de la instrucción, ejecución y almacenamiento de resultados. Mientras la primera esta descodificándose, la segunda se puede ir leyendo. Es conveniente tener fases que duren aproximadamente lo mismo, por ello es conveniente dividir más estas fases. Problemas: o No todas las instrucciones pasan por todas las etapas (para no complicar el diseño todas las instrucciones pasan por todas las etapas) o Duración de algunas etapas en demasía o Instrucciones de bifurcación condicional pueden obligar a la inicialización de un cauce. Para evitarlo se utilizan técnicas de predicción de saltos. Para solucionar estos problemas se suele utilizar las siguientes técnicas: predicción de saltos, especulación o paralelismo explícito. Diseño superescalar: ciertas operaciones escalares como aritmética entera y flotante, captaciones, escrituras de datos, etc. Pueden ejecutarse de manera simultánea, aunque para ello se dupliquen elementos tales como la ALU. Al igual que la segmentación tiene el problema de las bifurcaciones c) Hyper-threading: Al igual que sucede con los equipos segmentados y escalares no se ocuparán las dos partes al completo, por ello el hyperthreading va más allá y combina Página 23 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 la ejecución de dos hilos distintos (multitarea a bajo nivel). Por ello aparecen como dos procesadores en el administrador de tareas. Algo que es importante saber es, volviendo atrás, que un proceso puede crear otro proceso “hijo”. Si estamos usando un programa de dibujo y queremos imprimirlo, el programa (proceso) crea otro proceso (impresión) de forma que antes no teníamos que esperar que acabara de imprimir para seguir dibujando, pues alternaba entre proceso-programa y procesoimpresión simulando Multi-Tarea. Ahora en cambio no sólo no tenemos que esperar, sino que no alterna, pues sí es Multi-Tarea, con lo que aprovecharíamos el hyperthreading con un solo programa manteniendo ocupados los dos procesadores virtuales. d) Doble núcleo: desde hace algún tiempo la tendencia de sacar productos que trabajasen a mayores frecuencias de reloj ha cambiado, entre otras cosas debido al consumo y la disipación de calor (en el mundo móvil de hoy en día algo poco productivo). La tendencia actual intenta reproducir varios núcleos (microprocesadores completos, a diferencia de hyperthreading) aprovechando las nuevas tecnologías de integración. La carrera de los gigaherzios ha sido sustituida por la de los núcleos. Uno de los principales problemas se encuentra en la comunicación entre núcleos puesto que comparten la misma memoria principal.
En la actualidad se utilizan ambas técnicas en el diseño de procesadores para mejorar el rendimiento. Para ello cuentan con la ayuda de los compiladores, los cuales realizan reorganizaciones estáticas de las instrucciones durante los procesos de optimización de la compilación. Luego es el procesador quién realiza una reorganización de las instrucciones de forma dinámica para mantener la segmentación mediante técnicas de predicción de saltos y reorganización de instrucciones.
5.3 Tecnologías Fundamentalmente están destinadas a la reducción del consumo eléctrico y mejora de la comunicación entre el procesador y el resto de dispositivos, especialmente la memoria. HyperTransport es una tecnología de comunicaciones punto a punto entre chips que ofrece a los circuitos integrados un enlace avanzado de alta velocidad y alto rendimiento; es una conexión universal que está diseñada para reducir el número de buses dentro de un sistema. Puede funcionar a una serie de frecuencias entre los 200MHz y 2.6GHz. También es una conexión DDR (Doble tasa de transferencia de datos en castellano), la cual permite la transferencia de datos en los flancos de subida y bajada de la señal de reloj. La tecnología ya mencionada permite una tasa de información superior a los 2.1 Gb/s y en un futuro no muy lejano con nuevos dispositivos esta tasa se incremente a 20,3 GB/s en la versión actual 3.0 por cada enlace (40,6 GB/s sumando los dos enlaces). El microprocesador ya no necesita comunicarse con el puente norte para acceder a la memoria, sino que esta comunicación es directa. Está basada en paquetes. Su pretensión es eliminar el FSB. Impulsada por AMD. Intel tiene en desarrollo una tecnología similar llamada Quick Path que integrará en su nueva plataforma integrado por los procesadores Corei7 y en su nuevo chipset X58. Ambas utilizan técnicas usadas en las redes de ordenadores, como la transmisión de paquetes.
Página 24 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Intel SpeedStep technology permite ajustar dinámicamente el voltaje de procesador y frecuencia para reducir el consumo de energía y la producción del calor. Disminuyendo la energía y el calor en la PC de Sobremesa, constructores de sistema pueden bajar potencialmente la acústica, e incluso desarrollar los diseños más innovadores del factor de forma pequeña. Intel EMT64: conjunto de instrucciones de 64 bits para los procesadores de Intel. Si disponen de esta extensión se pueden instalar sistemas operativos x64. La tecnología AMD PowerNow: similar al anterior, ya que pretende reducir el consumo del sistema en función de la carga del mismo. Celeron: los procesadores Celeron pueden realizar las mismas funciones básicas que otros procesadores, pero su rendimiento es inferior cuando se compara a otros procesadores más costosos. Por ejemplo, los Celeron usualmente tienen menos memoria caché, o tienen algunas funcionalidades avanzadas desactivadas. Estas diferencias tienen un impacto variable en el rendimiento general del procesador y en su precio que es más reducido. Suelen ser los procesadores de bajo coste que se montan en ordenadores de oficina que no necesitan un gran rendimiento. Centrino: combinación de procesador, chipset y tarjeta inalámbrica utilizada en portátiles para reducir el consumo de estos. Desarrollado por Intel.
6 Memoria 6.1 Jerarquía de memoria Las CPU se construyen con circuitos integrados muy rápidos. Ello obliga a disponer de memorias muy rápidas, las cuales suelen tener poca capacidad debido a problemas de fabricación y de coste. Para aprovecharlo bien, hay que guardar la información en niveles según su volumen y necesidades. Los niveles pueden son los siguientes: Registros: de acceso aleatorio y baja capacidad, entre 1 y 256 bytes, pero muy rápidas, con tiempos de acceso sobre 1 ns. Se fabrican con semiconductores y se accede por palabra. Página 25 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Memoria caché o asociativa: de acceso aleatorio, baja capacidad, entre 100 y 1.000.000 bytes. Son muy rápidas, con tiempos de acceso sobre los 5 ns. Se construyen con semiconductores y se accede por palabra. En las CPU podemos distinguir dos tipos de memoria caché: o Nivel 1 o L1, que se aloja dentro de la CPU y funciona a su misma velocidad. o Nivel 2 o L2, cuyo encapsulado puede estar dentro o fuera de la CPU siendo su velocidad usualmente inferior a la del procesador. o Nivel 3 o L3, en la actualidad existen placas que incorporan un tercer nivel para aumentar el rendimiento. Este tipo de memorias tienen una gran influencia en el rendimiento del equipo, por tanto es interesante que sea lo mayor posible. Memoria principal: es de acceso aleatorio, con capacidad no muy alta, de 10 MB a 10 GB. El tiempo de acceso está entre algunas decenas de ns y unos pocos segundos. Se fabrican con semiconductores y se accede por palabra. Memoria secundaria o de disco: de acceso aleatorio por sectores y de alta capacidad, entre varios GB y TB en los discos fijos; variable en otros formatos como magnetoópticos, etc. Se fabrica con discos de plato y cabeza móvil. Memoria auxiliar: se trata de los soportes más lentos que la memoria secundaria y de capacidad generalmente grande, entre 10 MB y varios TB. Los podemos encontrar en cintas magnéticas, discos flexibles, unidades de CD-ROM, DVD-ROM, etc. Sus tiempos de acceso se encuentran entre las centenas de ms y varios minutos.
En esta figura se observa las características de cada uno de los niveles de la jerarquía.
6.2 Tipos Una memoria volátil es aquella que pierde su contenido al apagar el ordenador; por el contrario en una no volátil la información permanece. Una clasificación sería la siguiente: RAM (Random Access Memory, Memoria de Acceso Aleatorio) que es la encargada de almacenar los datos y los programas que la CPU está procesando. El término Página 26 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
acceso aleatorio significa que no es necesario leer una serie de datos para acceder al que nos interesa, sino que podemos acceder directamente al dato deseado. Esta memoria depende del suministro de tensión eléctrica para mantener la información y por tanto al apagar el ordenador los datos almacenados en ella se perderán. ROM (Read Only Memory, Memoria de Solo Lectura), el término Memoria de Solo Lectura, significa que esta memoria no puede ser modificada y aun cuando apaguemos el ordenador la información permanecerá inalterada en la ROM. Luego tendríamos otro tipo de memorias tales como PRON, EPROM o EEPROM, las cuales son modificables pero bajo ciertas condiciones, como por ejemplo su exposición a rayos ultavioletas. Este tipo de memorias no pueden programarse en la placa del ordenador, sino que deben extraerse para reprogramarlas. Finalmente tendríamos las memorias tipo FLASH que nos permiten reprogramarlas en la propia placa mediante un cambio en la tensión de entrada. Son perdurables en el tiempo sin alimentación electrica y hoy en día tienen múltiples aplicaciones: almacenan la BIOS de los ordenadores personales, son utilizadas por dispositivos móviles cono disco duro, etc. CMOS que contiene datos básicos de éste, como pueden ser el número de unidades de disquetes y su tipo, de discos duros y su tipo, la fecha, la hora y otros datos respecto al comportamiento fundamental del ordenador. Esta memoria no es de tipo permanente, ya que podemos variar la configuración de nuestro equipo y para ser mantenida necesita de la tensión que le suministra una pequeña pila o batería.
Las celdas de memoria son condensadores, los cuales después de un tiempo se descargan, por ello, para evitar pérdida de información se deben de cargar constantemente. Este proceso se denomina refresco y según esta característica se divide en: DRAM: memoria de gran capacidad de almacenamiento. Este tipo de memoria necesita actualizarse periódicamente para que la información contenida en ella no se pierda. SRAM: memoria de menor capacidad que la anterior, aunque más cara, bastante más rápida. No necesita refresco para mantenerse estable. SDRAM: memoria que incorpora la capacidad de la DRAM y la velocidad de la SRAM. Necesita refresco, aunque en un intervalo superior a la DRAM. Esta memoria es la actualizada actualmente en la mayoría de los equipos. DDRAM: memoria que necesita un refresco mayor que las anteriores, es muy compleja pero el doble de rápida respecto a las anteriores.
En la actualidad la memoria se vende empaquetada, en módulos que contienen los chips de memoria. Los más estandarizados son los siguientes: Módulos SIMM: son los módulos característicos de las placas de los primeros procesadores de 32 bits 386 y 486 de Intel. Cada módulo dispone de 72 contactos. Módulos DIMM: son similares a los anteriores, sin embargo, disponen de 168 contactos, la mitad por cada cara y separados entre sí. Se encuentran en dos disposiciones: de simple cara o con chips en ambas caras, los dos son incompatibles entre si. Página 27 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Módulos RIMM: dispone de 184 contactos y son los módulos actualmente utilizados. SODIMM: son memorias de similares características que los DIMM, pero con 144 contactos. Son utilizados para ordenadores portátiles. Tarjetas PCMC: también denominadas PCMCIA, tiene un tamaño similar a las tarjetas de crédito aunque algo más gruesas. Se utilizan fundamentalmente en ordenadores personales, encontrándose también en algunos modelos de routers y centralitas telefónicas.
También se puede clasificar la memoria en función de la tecnología utilizada en la fabricación de los chips: FPM: este tipo de memoria trabaja páginas EDO: funciona de forma parecida a la anterior, pero mejora los ciclos de tiempo, ya que permite al controlador de memoria acceder a una columna mientras lee información actual BEDO RAM: se trata de una memoria EDO pero en modo ráfaga. Más rápida que las anteriores. SDRAM: se trata de una memoria síncrona, es decir, que utiliza un reloj para sincronizar la lectura y la escritura. Se implementa en módulos DIMM SDRAM DDR: utilizados actualmente consiguen un ancho de banda dos veces superior a las anteriores. Permite la transferencia de datos por dos canales distintos simultáneamente en un mismo ciclo de reloj. SDRAM DDR2: permiten que durante cada ciclo de reloj se realicen cuatro transferencias. Operan tanto en el flanco alto del reloj como en el bajo, en los puntos de 0 voltios y 1.8 voltios, lo que reduce el consumo de energía en aproximadamente el 50 por ciento del consumo de las DDR, que trabajaban a 0 voltios y a 2.5. Mejoran las velocidades de las anteriores. No son compatibles SDRAM DDR3: permite que durante cada ciclo de reloj se realice ocho transferencias. Operan tanto en el flanco de subida como el de bajada. Son incompatibles con la DDR 2 (las muescas son diferentes). Tiene un voltaje de 1,5 V. Puede funcionar a velocidades de reloj de 800Mhz a 1600Mhz.
Página 28 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Dual Channel es una tecnología para memorias aplicada en los ordenadores personales que permite el incremento del rendimiento gracias al acceso simultáneo a dos módulos distintos de memoria. Esto se consigue mediante un segundo controlador de memoria en el Northbridge (componente del chipset). Las mejoras de rendimiento son particularmente perceptibles cuando se trabaja con controladoras de vídeo integradas a la placa base ya que estas, al no contar con memoria propia, usan la memoria RAM o memoria principal del sistema y, gracias a Dual Channel, pueden acceder a un módulo mientras el sistema accede al otro. Para que la computadora pueda funcionar en Dual Channel, se debe tener dos módulos idénticos de memoria DDR, DDR2, ó DDR3 en los zócalos correspondientes de la placa base, y el chipset de la placa base debe soportar dicha tecnología. Hay que tener muy en cuenta que las memorias sean totalmente idénticas (Frecuencia, Latencias y Fabricante), ya que en caso de que estas sean distintas puede que no funcionen Normalmente, en las placas que soportan Dual channel, los zócalos de memoria que forman el Dual channel suelen estar marcados en colores diferenciados
7 Almacenamiento 7.1 Discos duros La práctica totalidad de los dispositivos de memoria secundaria se basan en el principio de grabación magnética o en los de grabación óptica. Existen dos medios típicos para grabación magnética: los medios flexibles (disquetes) y los medios rígidos (discos duros, discos removibles, etc.). En ambos casos se aplica el mismo principio: se deposita una pequeña capa de material magnetizable (óxidos o metales) sobre un soporte, que en un caso será flexible y en otro rígido. Los elementos encargados de suministrar energía al medio para que adopte el estado deseado se denominan transductores de escritura; los que captan las magnitudes físicas del medio, se llaman transductores de lectura. Estos elementos son los que normalmente se llaman cabezales de lectura/escritura. La información se graba en unidades elementales o celdas que forman líneas o pistas. Cada celda puede estar en tres situaciones: • • •
Sin magnetizar Magnetizada con polarización norte (N): puede representar un valor binario elemental. Magnetizada con polarización sur (S): puede representar otro valor binario elemental.
Así pues, la celda se comporta como un elemento de memoria ya que almacena un bit. Para realizar una operación de escritura se hace pasar una corriente eléctrica por la cabeza del transductor. Esta corriente induce un campo magnético de forma que si se pasa un material susceptible de ser magnetizado por la cercanía de este campo, la zona afectada quedará magnetizada. Invirtiendo el sentido del campo y, por tanto, el sentido de magnetización del Página 29 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 soporte. A este sistema se le conoce como grabación por conmutación de corriente y a las cabezas de lecto-grabación que lo utilizan cabezas inductivas.
7.1.1 Partes Un disco duro está formado por una serie de discos o platillos apilados unos sobre otros dentro de una carcasa impermeable al aire y al polvo. Son de aluminio y van recubiertos de una película plástica sobre la que se ha diseminado un fino polvillo de óxido de hierro o de cobalto como material magnético. Estos discos o platillos se montan alrededor de un eje que gira siempre en el mismo sentido gracias a un motor de tipo plano. Además disponen de un cabezal de lectura/ Los más comunes son los platillos de 3,5 pulgadas (8,9 cm). Cada disco tiene dos caras y a cada una de ellas le corresponde una cabeza de lectura/escritura soportada por un brazo. En la práctica, estos brazos situados entre dos platillos contienen dos cabezas de lectura/escritura. La palabra cabeza se utiliza para designar a una cara. Así, se dirá por ejemplo, que un disco de siete platillos donde se emplean todas las caras, tiene catorce cabezas.
Página 30 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 La superficie de los platillos se divide en pistas concéntricas numeradas desde la parte exterior empezando por la pista número 0. Cuántas más pistas tenga un disco de una dimensión determinada, más elevada será su densidad, y por tanto, mayor será su capacidad. Todas las cabezas de lectura/ escritura se desplazan a la vez, por lo que es más rápido escribir en la misma pista de varios platillos que llenar los platillos uno después de otro. El conjunto de pistas del mismo número en los diferentes platillos se denomina cilindro. Así por ejemplo, el cilindro 0 será el conjunto formado por la pista 0 de la cara 0, la pista 0 de la cara 1, la pista 0 de la cara 2, la pista 0 de la cara 3, etc. Un disco duro posee, por consiguiente, tantos cilindros como pistas hay en una cara de un platillo. Las pistas están divididas a su vez en sectores con un número variable de 17 a más de 50. Estos sectores poseen varios tamaños: los situados más cerca del centro son más pequeños que los del exterior, aunque almacenan, sin embargo, la misma cantidad de datos, 512 bytes. La densidad, pues, es mayor en los sectores internos que en los externos. Dibujo sobre la definición de sector y pista:
Dibujo sobre la definición de cilindro
Página 31 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Esto nos llevaría a preguntamos por qué no se aumenta la capacidad de los discos colocando más sectores en las pistas exteriores que en las interiores. La respuesta es simple, porque hasta ahora no ha merecido la pena obtener ese aumento de capacidad a cambio de una organización más complicada de la información. Es más fácil controlar pistas que tienen el mismo número de sectores que aquéllas en las que el número de sectores varía dependiendo de la posición de la misma. Los discos duros más modernos que utilizan un procedimiento denominado Zone-bit-recording colocan un número de sectores distinto en función del diámetro de la pista. El número de pistas o cilindros, el de las caras de los platillos y el de los cabezales viene determinado físicamente por el fabricante. Por otro lado, la cantidad de sectores depende del procedimiento de grabación y de la densidad de los datos que vayan a almacenarse en el disco. Este factor se establece por la calidad de la película con que se haya recubierto la superficie de las láminas o placas. Anteriormente nos hemos referido a la capacidad neta de un disco duro. Esta denominación corresponde, en realidad, a la capacidad disponible después de darle formato. A menudo, lo que aparece en la documentación técnica de los discos duros es su capacidad en bruto. El volumen neto es, por supuesto, inferior, porque en él ya se ha descontado el espacio requerido para la gestión del disco duro. Por poner un ejemplo, en unidades con varios cientos de MBytes la diferencia entre los valores neto y bruto puede alcanzar fácilmente los 30 MBytes ó los 50 MBytes. En un disco duro con una capacidad bruta de 2.000 MBytes (2 Gigas) el espacio neto disponible alcanza, como mucho, los 1.700 MBytes .La diferencia es, por tanto, bastante sustancial. La capacidad bruta especifica la cantidad total de bytes que caben en un disco, pero porqué existe una capacidad neta inferior. Esto se debe a que se necesita colocar unas marcas de sincronía que diferencien los límites entre sectores, es decir, unas marcas que identifiquen el principio y fin de un sector, a la realización de este proceso se denomina formateo a bajo Página 32 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 nivel, el cual es diferente del formateo que realiza un determinado sistema operativo, en el que es el propio sistema operativo el que inserta unas marcas o estructuras que albergan las características de sus sistemas de ficheros. Es importante distinguir entre ambos formateos, el de bajo nivel ya viene realizado por el fabricante del disco duro, mientras que el de alto nivel lo realiza el sistema operativo que se instalará sobre el disco duro. Hay que tener cuidado con este tipo de formateo ya que en la actualidad se utiliza la técnica de Zone Bit Recording para ajustar el tamaño del sector a la pista donde se encuentra, por lo que si se utilizan utilidades distintas a las del fabricante puede darse el caso de que tras el formateo a bajo nivel el tamaño del disco sea inferior al original. 7.1.2 Funcionamiento Al igual que los disquetes, los discos duros constan de cuatro componentes principales: el motor de impulsión, los cabezales de lectura y escritura, el motor paso a paso y los circuitos de control. En la parte inferior del disco duro se encuentra una tarjeta de circuito impreso (circuitos de control) que recibe los comandos de la controladora de la unidad (la clásica tarjeta controladora de discos duros antiguamente, y el chipset en la actualidad), la cual se controla a su vez por el sistema operativo. Esta tarjeta traduce esos comandos en fluctuaciones de voltaje que fuerzan el movimiento de las cabezas de lectura/escritura a través de la superficie de los platillos. Por otro lado, la tarjeta de control también asegura que el eje de esos platillos tenga una velocidad constante e informa a la unidad de cuándo debe leer o escribir sobre el disco. En un disco duro IDE, el controlador es parte integral de esta tarjeta. Un eje, conectado a un motor eléctrico de impulsión, efectúa miles de giros por minuto (normalmente entre 5.000 y 7.200 rpm aunque, en discos duros más modernos puede llegar a 15.000). La composición del revestimiento magnético y la cantidad de platillos determinan la capacidad de la unidad. La unidad se mantiene a este ritmo de rotación hasta que se interrumpe el suministro de corriente, ya que llevaría demasiado tiempo situarla a esa velocidad antes de cada acceso. El dispositivo de control de las revoluciones se ocupa de verificar que el índice de velocidad no varíe en más de un 0,5 %. El motor paso a paso coloca y empuja el grupo de brazos o cabezales de lectura/ escritura sobre las superficies de los platillos con gran precisión. Alinea las cabezas y las pistas que están formadas por círculos concéntricos en la superficie de los platillos. Los cabezales de lectura/escritura incluidos en los extremos de los brazos en movimiento, avanzan al unísono a través de la superficie de los platillos giratorios del disco duro. Las cabezas escriben la información procedente del controlador de disco en los platillos, alineando las partículas magnéticas en la superficie de éstos. También se encargan de leer la información y detectan las polaridades de las partículas que ya fueron alineadas. Cuando el usuario o el software pide al sistema operativo que lea o escriba un determinado sector del disco, el sistema operativo ordena a la controladora del disco duro que mueva los cabezales de lectura/ escritura sobre la pista que contiene ese sector. Los cabezales sólo tienen que esperar a que ese sector pase exactamente por debajo de ellos, para leer o escribir sobre él. Página 33 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Otro aspecto importante de un disco duro es la utilización de una memoria caché que va incluida en la controladora interna del disco duro, de modo que todos los datos que se leen y escriben a disco duro se almacenan primeramente en el buffer o caché. La regla de mano aquí es 128kb-Menos de 1 Gb, 256kb-1Gb, 512kb-2Gb o mayores. Generalmente los discos traen 128Kb o 256Kb de caché. 7.1.3 Escritura y lectura de datos A diferencia de lo que sucede en las unidades de disquete, la cabeza de lectura y escritura no reposa sobre el soporte de datos, ya que a velocidades de rotación muy elevadas podría provocar agresiones graves en la cabeza y en el platillo. Por lo tanto, flota sobre la superficie del disco. Es el desplazamiento de las capas de aire arrastradas por el movimiento de rotación de la superficie del disco el que provoca, por un fenómeno aerodinámico, el despegue de las cabezas y su colocación a una distancia de 0,5 µm por encima de la superficie. Esto plantea varios problemas. En primer lugar, durante el funcionamiento debe evitarse que se introduzca alguna partícula en el espacio situado entre el interior del disco duro el disco y la cabeza de lectura. Si llegara a introducirse alguna, sufrirían daños importantes tanto la cabeza como la superficie del disco. Por este motivo, los discos duros están protegidos herméticamente al paso del aire por carcasas que no deben ser abiertas. Un disco duro, mientras está funcionando, no se puede mover debido a la cercanía de la cabeza y el disco. No haría falta un gran golpe para que la cabeza dañase la superficie del disco y, por lo tanto, se enviarían continuos mensajes de error de lectura y escritura o bien se encontrarían sectores defectuosos. Por otro lado, cuando el disco no está en funcionamiento, la cabeza de lectura/escritura debe reposar sobre la superficie magnética. Se produce un “despegue” de la cabeza cuando se conecta la corriente y un “aterrizaje” cuando se interrumpe dicha corriente. Durante estas dos fases, la cabeza roza la superficie del disco. Para evitar dañar zonas que contienen datos, se reserva una pista especial para esta acción, conocida como zona de aterrizaje (landing zone). El número de esta pista es una característica importante que hay que comunicar a la BIOS cuando se instala una unidad de disco duro. Este dato se utiliza para aparcar las cabezas de lectura sobre la pista adecuada antes de desconectar la corriente. La mayor parte de los discos duros modernos realizan un aparcamiento automático. La zona de aterrizaje es, generalmente, la pista situada en el interior del disco, la que tiene el número más elevado. Las dos operaciones que realiza la cabeza de lectura/escritura son la escritura de datos y la lectura de datos. 7.1.4 Parámetros Velocidad de rotación: éste es uno de los parámetros que como hemos visto anteriormente determina el tiempo de acceso de un disco duro, y por tanto su velocidad de transferencia de datos. Los primeros discos duros giraban todos a una velocidad de 3.600 revoluciones por minuto. Pero enseguida los fabricantes de discos duros se dieron cuenta que con sólo aumentar la velocidad de giro del ordenador se consiguen prestaciones mejores. Los discos duros modernos giran a 7.200 rpm y algunos incluso llegan hasta las 11.000 rpm. La velocidad de giro de los disquetes es del orden de 300 rpm. Además existe otra diferencia y es que un disco duro empieza a girar desde el mismo momento en que le llega la alimentación. En cambio, una disquetera sólo acciona el motor de giro cuando tiene en su interior un disquete Página 34 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
introducido. Si al proporcionar alimentación a un disco duro no gira, es síntoma evidente de que está dañado. Número de sectores por pista: en la actualidad las pistas más externas disponen de más espacio, y por consiguiente mayor número de sectores, que las pistas internas. Tiempo de búsqueda: cuando se pretende leer la información de un determinado sector, el primer paso consiste en mover la cabeza de lectura hasta la pista (cilindro) donde se encuentra dicho sector. Esta búsqueda lleva un tiempo que se conoce como tiempo de búsqueda y su duración dependerá en cada caso de dónde es situada la cabeza de lectura con respecto a la pista que se pretende encontrar. Los programas que miden este tiempo, toman como medida de referencia el tiempo requerido para recorrer un tercio del disco. A esto se le denomina tiempo de búsqueda medio. Suele estar en el orden de los milisegundos. Período de latencia o latencia rotacional: una vez que se está en la pista (cilindro) correcta, hay que encontrar el sector concreto que pretendemos leer; dicho proceso conlleva un tiempo conocido como período de latencia. Puede ser 0 si la cabeza se encuentra justo sobre el sector que se busca, o bien, en el peor de los casos, hay que esperar toda una vuelta. La medida de referencia que se toma es el período de latencia medio, es decir, lo que se tarda en dar media revolución. Tiempo de acceso: la suma del tiempo de búsqueda medio más el periodo de latencia medio es conocido como tiempo de acceso y es el proporcionado por el fabricante del disco duro. Suele ser del orden de milisegundos. Velocidad de Transferencia de datos o tasa de transferencia interna: determina cuántos datos pueden leerse o escribirse en el disco duro en un periodo determinado de tiempo. Es decir, la cantidad de datos que se transmiten entre el disco duro y el ordenador. Esta velocidad se mide en bytes por segundo. Las unidades de disco duro más antiguas poseen una velocidad de transferencia del orden de entre 400 y 700 KBytes por segundo, mientras que las más modernas alcanzan varios megabytes por segundo. La velocidad de transferencia de datos, depende entre otras muchas cosas, del tiempo de acceso. Por ello, es la velocidad de transferencia de datos el factor más determinante que indica la rapidez de un disco duro. Podemos encontrar en el mercado discos duros que teniendo un tiempo medio de acceso de 10 ms pueden tener un rendimiento menor que uno de 14 ms.
7.1.5 Tipos de interfaz Discos duros IDE El interfaz IDE (más correctamente denominado ATA, el estándar de normas en que se basa) era el más usado en PCs normales, debido a que tiene un balance bastante adecuado entre precio y prestaciones. Su característica más representativa era la integración de la controladora en el propio disco duro. Los discos duros IDE se distribuyen en canales en los que puede haber un máximo de 2 dispositivos por canal; en el estándar IDE inicial sólo se disponía de un canal, por lo que el número máximo de dispositivos IDE era 2. El estándar IDE fue ampliado por la norma ATA-2 en lo que se ha dado en denominar EIDE (Enhanced IDE o IDE mejorado). Los sistemas EIDE disponen de 2 canales IDE, primario y secundario, con lo que pueden aceptar hasta 4 dispositivos. En cada uno de los canales IDE debe haber un dispositivo Maestro (master) y otro Esclavo (slave). El maestro es el primero de los dos y se suele situar al final del cable. El esclavo es el segundo, normalmente conectado en el centro del cable entre el maestro y la controladora, la cual muchas veces está integrada en la propia placa base. Página 35 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Los dispositivos IDE o EIDE como discos duros o CD-ROMs disponen de unos microinterruptores (jumpers), situados generalmente en la parte posterior o inferior de los mismos, que permiten seleccionar su carácter de maestro, esclavo o incluso otras posibilidades como Cable Select (maestro sin esclavo). Las posiciones de los jumpers vienen indicadas en una etiqueta en la superficie del disco, o bien en el manual o serigrafiadas en la placa de circuito del disco duro, con las letras M para designar “maestro” y S para “esclavo”. En un mismo canal no puede haber dos maestros o dos esclavos. No dispone de la capacidad de cambio en caliente
Discos Duros Serial ATA (SATA) Estándar nuevo que representa una solución barata y con un rendimiento muy bueno. Sucesor del clásico IDE y de los modos de transferencia UltraDMA. En este tipo de interfaz se pasa de una transferencia en paralelo a una en modo serie, de la clásica banda de 40 ó 80 hilos a un conector que incluye solamente dos cables. Otra diferencia fundamental es que se trata de una comunicación punto a punto, es decir, que cada disco debe ir conectado con un cable de datos Serial ATA a la placa base, lo que permite eliminar la configuración de discos duros mediante jumpers. En cuanto a velocidades, este estándar parte de 150 Mb/s, llega a los 300Mb/s en Serial ATA-II y alcanza los 600 Mb/s para SATA III, el cual está previsto para 2009. El estándar SATA II normalmente se representa por SATA 3Ghz, esta cantidad se refiere a la frecuencia del reloj, no a la tasa de transferencia de datos la cual está limitada por 300Mb/s. SATA es una arquitectura "punto a punto". Es decir, la conexión entre puerto y dispositivo es directa, cada dispositivo se conecta directamente a un controlador SATA, así, cada dispositivo disfruta la totalidad del ancho de banda, de la conexión, sin que exista la sobrecarga inherente a los mecanismos de arbitraje y detección de colisiones.
Página 36 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Además este tipo de discos permite realizar configuraciones en modo RAID al igual que los discos SCSI. Dispone de la capacidad de cambio en caliente También se pueden conectar dispositivos SATA externos También cabe destacar que los cables son algo delicados y suelen estropearse
Conector Placa Base7 pines
Conector 7 pines
Conector 15 pines
Se trata de una tecnología que resulta muy interesante por su bajo precio y capacidades de almacenamiento, si bien no dispone de todas las capacidades de SCSI, si que puede resultar muy interesante en pequeñas y medianas empresas, e incluso para grandes empresas en almacenamientos grandes, de bajo coste y de pequeña o mediana importancia estratégica de los datos en la empresa. Discos duros SCSI Por alguna extraña razón, en español lo pronunciamos como «escasi». Debemos recalcar que la ventaja de estos discos no está en su mecánica, que puede ser idéntica a la de uno IDE (misma velocidad de rotación, mismo tiempo medio de acceso. . .) sino en que la transferencia de datos es más constante y casi independiente de la carga de trabajo del microprocesador. Esto hace que la ventaja de los discos duros SCSI sea apreciable en computadoras cargadas de trabajo, como servidores, computadoras para CAD o vídeo, o cuando se realiza multitarea de forma intensiva, mientras que si lo único que queremos es Página 37 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 cargar Word y hacer una carta la diferencia de rendimiento con un disco UltraDMA será inapreciable. En los discos SCSI se llega a 20 MB/s de transferencia teórica del modo Ultra SCSI, y a los 80 MB/s del modo Ultra-2 Wide SCSI, teniendo como tope los 320 Mb/s de Ultra Wide SCSI. Por lo que los discos SCSI son una opción profesional, de precio y prestaciones elevadas, por lo que los fabricantes siempre escogen este tipo de interfaz para sus discos de mayor capacidad y velocidad. Resulta francamente difícil encontrar un disco duro SCSI de mala calidad, pero debido a su alto precio conviene proteger nuestra inversión buscando uno con una garantía de varios años, 3 ó más por lo que pueda pasar. . . aunque sea improbable. En este tipo de buses se pueden conectar 16 dispositivos por canal, direccionados del 0 al 15. Normalmente la dirección 7 se asigna a la controladora, quedando las restantes 15 direcciones libres para su utilización. A esta dirección se le denomina ID. Una controladora puede albergar 2 canales e incluso 3. Estas direcciones se eligen mediante unos jumpers que se localizan en el disco duro, se codifican en binario por lo que se necesitan 4 jumpers para establecer la dirección del mismo. Además estos discos suelen incorporar la capacidad de HotSwap o cambio en caliente, es decir, si un disco está estropeado se puede sustituir por otro sin necesidad de parar la máquina. En estos casos se conectan los discos a un backplane (placa que dispone de varios conectores SCSI y que a su vez se conecta con la controladora), en este tipo de configuraciones no es necesario indicar la dirección mediante jumpers puesto que su ubicación dentro del backplane determina la dirección del disco. Los discos y controladores SCSI fueron desarrollados para servidores, 24x7, en sistemas de alta disponibilidad. Se soportan largas longitudes de cable para poder conectar dispositivos externos. La tecnología SCSI también incorpora un número de alto nivel para poder dar rendimiento y escalabilidad en servidores multiusuario, multi-threading (multi-hilo) para maximizar la transferencia de datos entre la memoria y el controlador y maximizar la eficiencia de las cabezas en su desplazamiento en el disco. (Son controladores inteligentes con capacidad para mezclar y cambiar la secuencia de instrucciones recibidas de la maquina anfitrión, al objeto de mejorar el rendimiento garantizando la integridad de datos). Cables y conectores SCSI
Página 38 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Conectores SCSI
SAS (Serial Attached SCSI) Serial Attached SCSI o SAS, es una interfaz de transferencia de datos en serie, sucesor del SCSI (Small Computer System Interface) paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. La primera versión apareció a finales de 2003: SAS 300, que conseguía un ancho de banda de 3Gb/s, lo que aumentaba considerablemente la velocidad de su predecesor (SCSI Ultra 320MB/s). La siguiente evolución, SAS 600, consigue una velocidad de hasta 6Gb/s. Termina con la limitación de 16 dispositivos existente en SCSI. Además, el conector es el mismo que en el interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costos. Por lo tanto, los discos SATA pueden ser utilizados por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS. ISCSI (Internet SCSI): El protocolo iSCSI utiliza TCP/IP para sus transferencias de datos. Al contrario que otros protocolos de red diseñados para almacenamiento, como por ejemplo el canal de fibra o Fiber Channel, solamente requiere un simple y una sencilla interfaz Ethernet (o cualquier otra red Página 39 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 compatible TCP/IP) para funcionar. Esto permite una solución de almacenamiento centralizada de bajo coste sin la necesidad de realizar inversiones costosas ni sufrir las habituales incompatibilidades asociadas a las soluciones canal de fibra para redes de área de almacenamiento. Este protocolo tiene un peor rendimiento que el canal de fibra. Sin embargo las pruebas que se han realizado muestran un excelente rendimiento de las soluciones iSCSI SANs, cuando se utilizan enlaces Gigabit Ethernet. A pesar de conectarse vía red los dispositivos SCSI conectados de esta forma se muestran como recursos locales. Fiber channel o canal de fibra: El Canal de fibra, del inglés Fibre Channel, es una tecnología de red utilizada principalmente para redes de almacenamiento, disponible primero a la velocidad de 1 Gb/s, y posteriormente a 2, 4 y 8 Gb/s. A pesar de su nombre, la señalización del Canal de Fibra puede funcionar tanto sobre pares de cobre, como sobre cables de fibra óptica. Es una solución más cara pero de mayor rendimiento que la anterior.
7.2 Unidades de cinta Son dispositivos de tipo secuencial utilizados antiguamente como memoria auxiliar, pero que ahora se utilizan fundamentalmente como dispositivos de copia de seguridad. La secuencialidad obliga a recorrer uno a uno todos los datos hasta llegar al deseado. Existen diferentes tipos en el mercado como son los siguientes: DAT (Digital Audio Tape): se encuentra a mitad de camino entre las unidades de cinta de nivel de entrada, como Travan y los productos de gama alta como DLT y AIT. Cada cartucho DAT compacto, que contiene una cinta de 4 mm de ancho, almacena unos 2 GB (DDS-1), 4 GB (DDS-2), 12 GB (DDS-3), 20 GB (DDS-4) o más, según el grado de compresión de los archivos. La velocidad está comprendida entre 6 MB/minuto y 150 MB/minuto.
Página 40 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
VXA: ofrecen nueva tecnología de cinta fiable y relativamente económica para entornos de tamaño pequeño y mediano. VXA formatea los datos en paquetes, funciona a velocidad variable y lee información varias veces con una simple pasada de cinta. Con capacidad de almacenamiento entre 20 y 66 GB y velocidades de hasta 360 MB/minuto, la unidad VXA-1 proporciona gran flexibilidad a un precio muy rentable. La última versión comercial es VXA-3, la cual dispone de una capacidad de 160GB con una velocidad de 24MB/s. DLT (Digital Linear Tape): son unidades de gama alta con gran capacidad y rápidas velocidades de transferencia. Utilizan cartuchos de cinta de 1,27 cm de ancho, disponibles con capacidad de almacenamiento entre 10 y 80 GB (más si se utiliza la función de compresión de hardware incorporada). En la actualidad tiene capacidades de 160 GB con velocidades de transferencia de hasta 300 MB/minuto con un ordenador rápido y archivos grandes.
LTO (Linear Tape Open): son unidades de cinta de gran velocidad que se han desarrollado gracias a la colaboración entre HP, IBM y Seagate. Existen versiones hasta LTO-4, las cuales pueden almacenar hasta 800 GB a velocidades de hasta 120 MB por segundo.
Página 41 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Si el volumen de información es muy grande, no cabrá en una única cinta, por lo que se deberá realizar el cambio de la misma para poder proseguir. Dado el horario a que se suelen realizar las copias no resulta demasiado cómodo. Para evitarlo se utilizan librerías robóticas que realizan los cambios de cinta de forma automática. Se puede observar una en el siguiente enlace web. http://www-03.ibm.com/systems/storage/tape/ts3310/tour_popup.html
7.3 Discos de estado sólido Un disco de estado sólido (SSD, solid state disk) es un dispositivo de almacenamiento de datos que usa memoria no volátil (NAND) tales como flash, o memoria volátil como la SDRAM, para almacenar datos, en lugar de los platos giratorios encontrados en los discos duros convencionales. Aunque técnicamente no son "discos", estos dispositivos son llamados así porque son usados típicamente como reemplazo para las unidades de disco en situaciones donde los dispositivos convencionales no son prácticos. Los discos híbridos están basados en la memoria volátil como la SDRAM, típicamente incorporan una batería interna y sistemas de respaldo de disco para asegurar la persistencia de datos. Si la potencia se pierde por cualquier razón, la batería podría mantener la unidad encendida lo suficiente para copiar todos los datos de la memoria RAM al disco de respaldo. Después de la restauración de energía, los datos son copiados de vuelta del disco de respaldo a la RAM y el SSD continua su operación normal. Sin embargo, la mayoría de los fabricantes usan memoria flash no volátil para crear alternativas más compactas y fuertes a los SSD basados en DRAM. Estos SSD basados en flash, también conocidos como discos flash, no requieren baterías, permitiendo a los fabricantes replicar tamaños estándar del disco duro (1.8 pulgadas, 2.5 pulgadas. y 3.5 pulgadas). Además, la no volatilidad permite a los SSD flash mantener memoria incluso tras una perdida repentina Página 42 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 de energía, asegurando la permanencia de los datos. Al igual que los SSD DRAM, los SSD flash son extremadamente rápidos al no tener partes móviles, eliminando el tiempo de búsqueda, latencia y otros retardos electromecánicos inherentes a los discos duros convencionales. Aunque los SSD flash son significativamente más lentos que los SSD DRAM. Los discos de estado sólido son especialmente útiles en una computadora que ya llego a máximo de memoria RAM. Por ejemplo, algunas arquitecturas x86 tienen 4GB de límite, pero esto puede ser extendido efectivamente colocando un SDD como archivo de intercambio (swap). Estos SSD no proporcionan tanta rapidez de almacenamiento como la memoria RAM principal debido al cuello de botella (Bottleneck) del bus que los conecta, pero aun así mejoraría el rendimiento de colocar el archivo de intercambio en una unidad de disco duro tradicional. Ventajas: Arranque más rápido Mayor rapidez de lectura - En algunos casos, dos o más veces que los discos duros más rápidos. Baja latencia de lectura y escritura, cientos de veces más rápido que los discos mecánicos. Menor consumo de energía y producción de calor - Resultado de no tener partes mecánicas. Sin ruido, la misma carencia de partes mecánicas los hace completamente silenciosos En el pasado los SSD basados en flash estaba limitados a un número dado de ciclos de lectura/escritura, pero la moderna tecnología flash y de corrección de errores permite a los SSD basados en flash operar varios años sin fallar. Seguridad permitiendo una muy rápida "limpieza" de los datos almacenados. El rendimiento de los SSD es constante a través del almacenamiento entero. El tiempo de "búsqueda" constante, y el rendimiento no se deteriora mientras el medio se llena Menor peso Desventajas: Precio, los precios de las memorias flash son considerablemente más altos por gigabyte que los de los discos convencionales. Menor velocidad en operaciones I/O secuenciales - Los discos duros mas recientes presentas tasas de transferencia en lecturas secuenciales de hasta 150 MBytes/s mientras que los SDD tan solo llegan alrededor de los 100MBytes/s. Menor tiempo de vida confiable - Los discos duros basados en Flash tienen ciclos de lectura y escritura limitados (entre 100.000 y 300.000 los modelos convencionales y entre 1 y 5 millones los modelos de alta duración), mientras que los discos duros pueden durar hasta una década sin fallos mecánicos. Esto es significativo debido a que en muchos sistemas, los discos son leídos regularmente miles de veces en cortos periodos de tiempo. Sistemas de ficheros especiales así como nuevos diseños de Firmware resolverían el problema extendiendo la zona de lectura/escritura sobre todo el dispositivo en lugar de concentrarlo en una única zona. Menor recuperación, después de un fallo mecánico los datos son completamente perdidos pues la celda es destruida, mientras que en un disco duro normal que sufre daño mecánico los datos son frecuentemente recuperables usando ayuda de expertos. Página 43 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Vulnerabilidad contra ciertos tipo de efectos - Incluyendo perdida de energía abrupta (especialmente en los SSD basado en DRAM), campos magnéticos y cargas estáticas comparados con los discos duros normales (que almacenan los datos dentro de una Jaula de Faraday).
Chasis abierto de un disco duro tradicional de 2.5" (izquierda). Interior de un dispositivo de estado sólido (centro). Aspecto de un dispositivo SSD indicado especialmente para ordenadores portátiles (derecha).
Otro tipo de soluciones más avanzadas son las que propone la compañía FusionIO
Se trata de discos de estado sólido que se ubican en una tarjeta de expansión con interfaz PCIExpress. Más características en www.fusionio.com
7.4 Almacenamiento en red 7.4.1 NAS NAS (del inglés Network Attached Storage) es el nombre dado a una tecnología de almacenamiento dedicada a compartir la capacidad de almacenamiento a través de una red Página 44 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 (normalmente TCP/IP), haciendo uso de un Sistema Operativo optimizado para dar acceso con los protocolos CIFS, NFS, FTP o TFTP. Generalmente, los sistemas NAS son dispositivos de almacenamiento específicos a los que se accede desde los equipos a través de protocolos de red (normalmente TCP/IP). También se podría considerar que un servidor Windows que comparte sus unidades por red es un sistema NAS, pero la definición suele aplicarse a sistemas específicos. Los protocolos de comunicaciones NAS son basados en ficheros por lo que el cliente solicita el fichero completo al servidor y lo maneja localmente, están por ello orientados a información almacenada en ficheros de pequeño tamaño y gran cantidad. Los protocolos usados son protocolos de compartición de ficheros como NFS, Microsoft Common Internet File System (CIFS). Muchos sistemas NAS cuentan con uno o más dispositivos de almacenamiento para incrementar su capacidad total. Normalmente, estos dispositivos están dispuestos en RAIDs (Redundant Arrays of Independent Disks) o contenedores de almacenamiento redundante. NAS es muy útil para proveer de almacenamiento centralizado a ordenadores clientes en entornos con grandes cantidades de datos. NAS puede habilitar sistemas fácilmente y con bajo costo con balance de carga, tolerancia a fallos y servidor web para proveer servicios de almacenamiento. El crecimiento del mercado potencial para NAS es el mercado de consumo donde existen grandes cantidades de datos multimedia. Clientes Servidores Red LAN
3U Dispositivo NAS
Se trata de servidores especializados en el almacenamiento, con su procesador y memoria. Los discos internamente pueden disponer de interfaces IDE, SATA o SCSI
Página 45 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 7.4.2 SAN El anterior modelo de almacenamiento tiene sus limitaciones en entornos con mayores necesidades de velocidad en el almacenamiento, ya que utilizan la red convencional de la empresa para transmitir la información y genera un tráfico importante en ésta. Para entornos más complejos nace SAN, la cual presenta una red dedicada exclusivamente para el almacenamiento. En este tipo los dispositivos se conectan a la red convencional, y además a la red de almacenamiento mediante enlaces de alta velocidad. Para el sistema operativo este almacenamiento, que realmente está en red, lo visualiza como local, a pesar de que puede estar a kilómetros de distancia (no hay que olvidar que los enlaces son de fibra). Componentes Principalmente se identifican tres componentes: a) En un extremo están los hosts, los cuales disponen de una tarjeta de conexión de fibra. Esta tarjeta es especial, ya que el sistema no la reconoce como una tarjeta de red de fibra, sino como un una unidad de almacenamiento, se suele denominar HBA. Incluso puede configurarse la opción de que el host arranque desde la SAN. Los principales fabricantes son: Emulex, Qlogic y LSI Logic.
b) En el otro extremo están los dispositivos de almacenamiento como cabinas de disco, unidades de cinta, librerías robóticas, … Normalmente se ubican en un rack diferente al de los servidores. Puede tratarse de discos con interfaz SATA, SAS, SCSI o Fiber Channel, dependerá del modelo del fabricante. También disponen de funcionalidades para crear RAID. c) El tercer elemento son los dispositivos de conexión, switches de fibra fundamentalmente que conectan las tarjetas (HBA) de los hosts con las cabinas discos duros, las cuales llevan incorporadas las conexiones de fibra Página 46 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Funcionamiento Por una parte disponemos de un rack donde se ubican los discos duros, los cuales pueden agruparse en varios conjuntos de tipo RAID. En el mismo rack se ubican los switches de fibra (para mejorar la disponibilidad suelen duplicarse). Mediante enlaces de fibra, o incluso cobre las tarjetas de los servidores se conectan a los switches, los cuales ponen en contacto a ambos extremos. Desde una consola se decide que parte de los discos corresponde a que servidor, es decir, el servidor solamente utiliza la parte de los discos que le han sido asignados, nada más. Como se indico anteriormente, los discos son vistos como locales por los servidores. Las copias de seguridad pueden realizarse directamente desde el rack donde se ubican los discos conectando una librería robótica con cintas a los switches de fibra. De esta forma se mejora la velocidad,puesto que los datos no circulan por la red y además se descarga a los servidores de esta tarea, ya que la copia se realiza directamente desde los dispositivos de almacenamiento a las unidades de cinta. Para mejorar la disponibilidad del sistema se suelen utilizar enlaces dobles entre servidores y switches, y entre éstos y los discos. Además se alternan para evitar que un fallo en un switch haga caer el sistema. Es decir, un servidor se conectará con dos enlaces, uno a cada switch, de la misma forma lo harán los discos. De esta manera si un switch fallase, tendríamos un camino alternativo hasta los datos. Ventajas Administración centralizada de la información Facilidad para implementar soluciones de alta disponibilidad y planes de recuperación Alta capacidad y rendimiento Facilidad de escalado Los discos pueden ubicarse a 10 km de los servidores, en el caso de la fibra, o a 30m en caso del cobre. Actualmente las redes de fibra conectan a velocidades 1, 2, 4, o 8 Gbps
Página 47 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Clientes
Switches de fibra Red SAN Servidores
Cabinas de disco y Librería de cintas 3U
Red LAN
3U
3U
Vista delantera de una SAN
Página 48 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Vista trasera de una SAN
8 Servidores
Un rack es un bastidor destinado a alojar equipamiento electrónico, informático y de comunicaciones. Sus medidas están normalizadas para que sea compatible con equipamiento de cualquier fabricante. Los racks son un simple armazón metálico con un ancho normalizado de 19 pulgadas, mientras que el alto y el fondo son variables para adaptarse a las distintas necesidades. El armazón cuenta con guías horizontales donde puede apoyarse el equipamiento, así como puntos de anclaje para los tornillos que fijan dicho equipamiento al armazón. En este sentido, un rack es muy parecido a una simple estantería. Verticalmente, los racks se dividen en regiones de 1.75 pulgadas de altura. En cada región hay tres pares de agujeros siguiendo un orden simétrico. Esta región es la que se denomina altura o "U". Siendo lo normal que existan desde 4U de altura hasta 46U de altura. Es decir que un rack de 41U ó 42U por ejemplo nunca puede superar los 2000mm de altura externa. Con esto se consigue que en una sala los racks tengan dimensiones prácticamente iguales aun siendo de diferentes fabricantes. La profundidad del bastidor no está normalizada, ya que así se otorga cierta flexibilidad al equipamiento. No obstante, suele ser de 600, 800 o incluso 1000 milímetros. Existen también racks de pared que cumplen el formato 19" y cuenta con fondos de 300, 400, y 500 mm totales siendo muy útiles para pequeñas instalaciones. Página 49 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
8.1 Tipos 8.1.1 Torre Presentan un formato similar a la torre de una estación de trabajo, si bien suelen ser más grandes y bastante más pesados, puesto que incorporan fuentes de alimentación redundantes y una gran cantidad de ventiladores para mantener el equipo bien refrigerado. Algunas marcas, como HP, disponen de kits especiales para que este tipo de servidores, más baratos pero más grandes, se puedan incluir en un rack. Este tipo de servidores pueden ser bastante voluminosos y con pesos que fluctúan desde 50 a 75 Kg, por lo que se debe de tener cuidado al colocarlos en un rack.
8.1.2 Rack Existen servidores que se diseñan especialmente para ubicarse en un rack. En ellos también se ubican otros complementos como bandejas para monitores, teclado y ratón. Este tipo de servidores tiene poca altura y aprovechan la superficie del rack para extenderse en profundidad (parecen bandejas). De esta forma se aprovecha mejor el espacio. Disponen de unas guías que pueden desplazar el equipo hacía afuera mientras sigue en funcionamiento. En las siguientes direcciones web pueden contemplarse algunos ejemplos.
Página 50 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Algunos ejemplos de estos servidores se pueden encontrar en las siguientes direcciones web http://h10010.www1.hp.com/wwpc/us/en/en/WF04a/15351-15351-3328412241644-241475.html http://h10010.www1.hp.com/wwpc/us/en/en/WF25a/15351-15351-3328412241644-241475-3579703.html http://h71016.www7.hp.com/html/interactive/dl385g5/model.html?buyNowLink =default&quickspecs=default&jumpid=re_R2849_3d/SRV/dl385g5|ProdPage|fl ash http://www-3.ibm.com/systems/data/flash/systemx/hardware/rack/x3350/tour/
En los Racks habitualmente se incorpora un switch de teclado y ratón para aprovechar el espacio en el rack e instalar solamente una bandeja con el teclado, ratón y monitor TFT plegable (al estilo de un portátil).
8.1.3 Blade Los servidores blade están diseñados para su montaje en bastidores al igual que otros servidores. La novedad estriba en que los primeros pueden compactarse en un espacio más pequeño gracias a sus principios de diseño. Cada servidor blade es una delgada "tarjeta" que contiene únicamente microprocesador, memoria y buses. Es decir, no son directamente utilizables ya que no disponen de fuente de alimentación ni tarjetas de comunicaciones. Además, depende del fabricante y del modelo, incorporan un disco donde se instala el sistema Página 51 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 operativo. Los datos se ubican en cabinas externas de discos o en almacenamiento en red (NAS o SAN). Estos elementos más voluminosos se desplazan a un chasis que se monta en el bastidor ocupando únicamente de cuatro (4U) a seis alturas (6U). Cada chasis puede albergar del orden de dieciséis "tarjetas" o servidores blade (según fabricante). El chasis lleva integrados los siguientes elementos, que son compartidos por todos los servidores: Fuente de alimentación: redundante y hot-plug (cambio en caliente). Ventiladores o elementos de refrigeración. Conmutador de red redundante con el cableado ya hecho, lo que simplifica su instalación. Interfaces de almacenamiento. En particular, es habitual el uso de redes SAN (Storage Area Network) de almacenamiento.
Además, estos servidores suelen incluir utilidades software para su despliegue automático. Por ejemplo, son capaces de arrancar desde una imagen del sistema operativo almacenada en disco. Es posible arrancar una u otra imagen según la hora del día o la carga de trabajo, etc. Algunas ventajas son: Son más baratos, ya que requiere menos electrónica y fuentes de alimentación para el mismo número de servidores. También consumen menos energía, detalle importante teniendo en cuenta la reducción de costes para la empresa Ocupan menos espacio, debido a que es posible ubicar dieciséis servidores donde habitualmente solo caben cuatro. Son más simples de operar, ya que eliminan la complejidad del cableado y se pueden gestionar remotamente. Son menos propensos a fallos ya que cada servidor blade no contiene elementos mecánicos. Son más versátiles, debido a que es posible añadir y quitar servidores sin detener el servicio. Estos sitios web muestran algunos ejemplos de estos servidores. En IBM http://www-03.ibm.com/systems/es/bladecenter/hardware/chassis/blades/index.html En HP http://h18004.www1.hp.com/products/blades/components/c-class-components.html
Página 52 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
8.2 Funcionalidades Los servidores disponen de diferentes tecnologías que mejoran su rendimiento, fiabilidad y disponibilidad frente a equipos de sobremesa. A continuación se relacionan algunas de ellas. No todas las tecnologías tienen que estar en cualquier servidor. Cambio en caliente o hot swap: es la capacidad de la que disponen algunos equipos de cambiar piezas en marcha sin perjuicio del equipo. Podemos cambiar discos o tarjetas mientras que el equipo funciona y sin perjuicio del resto del sistema. Algunas placas base permiten la incorporación de varios procesadores, diseñados para el trabajo conjunto, como por ejemplo la gama Xeon de Intel. Pueden disponer de varias fuentes de alimentación de cambio en caliente, de esta manera podemos conseguir que el equipo funcione a pesar de un fallo en la fuente. El cambio de la fuente estropeada se realiza en caliente también. La refrigeración es primordial en este tipo de equipos, por ello se cuida la ubicación de los ventiladores y se aumenta el número de los mismos. El número de ventiladores es mayor que en un equipo de sobremesa. Disponen de la posibilidad de obtener el control remoto a nivel de hardware, es decir podemos ver como arranca el equipo desde la BIOS. Suelen incluir chips o tarjetas que se conectan a la red y permiten gestionar el equipo desde el mismo arranque. Con los programas de gestión remota se consigue el control del equipo al arrancar el sistema operativo. Suelen incluir indicadores de estado para visualizar rápidamente el estado del equipo y poder determinar rápidamente alguna avería como: fallo de una fuente de alimentación, fallo de un disco, fallo de la red, de un módulo de memoria, … Además incorporan la capacidad de instalar gran cantidad de memoria, especialmente necesaria si se conecta una gran cantidad de usuarios.
Página 53 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
9 Alta disponibilidad Podemos definir la disponibilidad como la cantidad de tiempo que un sistema permanece en funcionamiento. Los sistemas críticos se suelen denominar 24x7, es decir 24 horas los 7 días de la semana, a esto se refiere el término alta disponibilidad. Estos sistemas suelen referirse a ellos como sistemas tolerantes a fallos puesto que disponen de elementos y técnicas redundantes que permiten continuar con el funcionamiento del sistema a pesar de fallar algunos de sus componentes. La escalabilidad es la propiedad deseable de un sistema, una red o un proceso, que indica su habilidad para, o bien manejar el crecimiento continuo de trabajo de manera fluida, o bien para estar preparado para hacerse más grande sin perder calidad en los servicios ofrecidos. En general, también se podría definir como la capacidad del sistema informático de cambiar su tamaño o configuración para adaptarse a las circunstancias cambiantes. Por ejemplo, un sistema de procesamiento y transacción en línea o un sistema administrador de base de datos escalable pueden ser actualizados para poder procesar más transacciones añadiendo por medio de nuevos procesadores, dispositivos y almacenamiento que se pueden implementar fácil y transparentemente sin apagarlos. Por otro lado, podemos decir que una aplicación de software es escalable, si al incrementar los procesadores donde se ejecuta, el rendimiento crece proporcionalmente. Por el contrario, decimos que una aplicación no es escalable si su rendimiento no "escala" o crece con el incremento de los procesadores.
9.1 RAID Se trata de un sistema de almacenamiento informático que usa múltiples discos duros entre los que distribuye o replica los datos para obtener tolerancia a fallos, es decir, si falla un disco el sistema continúa funcionando. Disponibilidad: tiempo que un sistema permanece en funcionamiento. Existen dos posibilidades para implementarlo: Con la implementación por software, el sistema operativo gestiona los discos del conjunto a través de una controladora de disco normal. El núcleo es el encargado de realizar las operaciones de cálculo para guardar la información. Una implementación de RAID basada en hardware requiere al menos una controladora RAID específica, ya sea como una tarjeta de expansión independiente o integrada en la placa base, que gestione la administración de los discos y efectúe los cálculos de paridad vía hardware.
La elección de los diferentes niveles de RAID va a depender de las necesidades del usuario en lo que respecta a factores como seguridad, velocidad, capacidad, coste, etc. Cada nivel de RAID ofrece una combinación específica de tolerancia a fallos (redundancia), rendimiento y coste, diseñadas para satisfacer las diferentes necesidades de almacenamiento. La mayoría de los niveles RAID pueden satisfacer de manera efectiva sólo uno o dos de estos criterios. No hay un nivel de RAID mejor que otro; cada uno es apropiado para determinadas aplicaciones y Página 54 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 entornos informáticos. De hecho, resulta frecuente el uso de varios niveles RAID para distintas aplicaciones del mismo servidor. Los diferentes tipos de RAID son los siguientes: RAID 0: distribuye los datos equitativamente entre dos o más discos sin información de paridad o redundancia, es decir, no ofrece tolerancia al fallo. El RAID 0 se usa normalmente para incrementar el rendimiento. Se pueden utilizar discos de diferentes tamaños, aunque no es recomendable, sin embargo el tamaño será la suma de capacidad del más pequeño. Ejemplo: si unimos un disco de 300GB y uno de 100GB, el tamaño del conjunto de discos será de 200GB, es decir, para el sistema es como si tuviésemos dos discos de 100GB.
RAID 1: crea una copia exacta (o espejo) de un conjunto de datos en dos o más discos (array). Esto resulta útil cuando el rendimiento en lectura y la disponibilidad es más importante que la capacidad. Un RAID 1 puede estar leyendo simultáneamente dos datos diferentes en dos discos diferentes, por lo que su rendimiento se duplica. Al escribir, el conjunto se comporta como un único disco, dado que los datos deben ser escritos en todos los discos del RAID. Tiene la ventaja de tener una réplica exacta de los dos discos, sin embargo se desperdicia la mitad de la capacidad para almacenar información. Se suele utilizar para las particiones donde se instala el sistema operativo.
Página 55 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
RAID 2: divide los datos a nivel de bits en lugar de a nivel de bloques y usa un código de Hamming para la corrección de errores. Éste es el único nivel RAID original que actualmente no se usa RAID 3: usa división a nivel de bytes con un disco de paridad dedicado. El RAID 3 se usa rara vez en la práctica
RAID 4: usa división a nivel de bloques con un disco de paridad dedicado. Prácticamente no se utiliza.
Página 56 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
RAID 5: usa división de datos a nivel de bloques distribuyendo la información de paridad entre todos los discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia. En el gráfico de ejemplo anterior, una petición de lectura del bloque A1 sería servida por el disco 0. Una petición de lectura simultánea del bloque B1 tendría que esperar, pero una petición de lectura de B2 podría atenderse concurrentemente ya que sería servida por el disco 1. Al leer datos no se leen los bloques de paridad, salvo que se produzca un error de CRC, por el contrario cada vez que se escribe sí se recalcula el bloque de paridad (ralentiza las escrituras). De la misma forma, si falla un disco del conjunto, los bloques de paridad de los restantes discos son combinados matemáticamente con los bloques de datos de los restantes discos para reconstruir los datos del disco que ha fallado al vuelo. Requiere al menos tres discos para ser implementado, y el número máximo, en teoría, es ilimitado. Si se estropean dos discos el RAID queda inutilizado. Este tipo de RAID mejora en el aprovechamiento del espacio para albergar información, puesto que ((nº discos -1) / nº discos) de la suma total de las capacidades de los discos se utilizan para información y el resto para control. En el RAID 1 se utiliza 1/2 para ambos. En el caso de un fallo del sistema cuando hay escrituras activas, la paridad de una división (stripe) puede quedar en un estado inconsistente con los datos. Si esto no se detecta y repara antes de que un disco o bloque falle, pueden perderse datos debido a que se usará una paridad incorrecta para reconstruir el bloque perdido en dicha división. Esta potencial vulnerabilidad se conoce a veces como «agujero de escritura». Son comunes el uso de caché no volátiles y otras técnicas para reducir la probabilidad de ocurrencia de esta vulnerabilidad.
Página 57 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
RAID 6: se trata de una mejora del RAID 5, en este caso dedica dos bandas para información de control, de esta manera podemos conseguir mayor tolerancia a fallos puesto que permite el fallo de dos discos, y el sistema de discos sigue funcionando. Si bien se trata de un sistema complejo y que dedica más espacio a información de control que el RAID 5. Se necesita un mínimo de 4 discos. La cantidad de información aprovechable es de nº discos – 2 / nº discos. RAID 01: primero se crean dos conjuntos RAID 0 (dividiendo los datos en discos) y luego, sobre los anteriores, se crea un conjunto RAID 1 (realizando un espejo de los anteriores). La ventaja de un RAID 0+1 es que cuando un disco duro falla, los datos perdidos pueden ser copiados del otro conjunto de nivel 0 para reconstruir el conjunto global. Sin embargo, añadir un disco duro adicional en una división, es obligatorio añadir otro al de la otra división para balancear el tamaño del conjunto. RAID 10: es una división de espejos. El RAID 10 es a menudo la mejor elección para bases de datos de altas prestaciones, debido a que la ausencia de cálculos de paridad proporciona mayor velocidad de escritura. En cada RAID 1 pueden fallar todos los discos salvo uno sin que se pierdan datos RAID 50: a veces llamado también RAID 5+0, combina la división a nivel de bloques de un RAID 0 con la paridad distribuida de un RAID 5, siendo pues un conjunto RAID 0 dividido de elementos RAID 5. JBOD: aunque la concatenación de discos (también llamada JBOD, de Just a Bunch Of Drives, ‘Sólo un Montón de Discos’) no es uno de los niveles RAID numerados, sí es un método popular de combinar múltiples discos duros físicos en un solo disco virtual. Como su nombre indica, los discos son meramente concatenados entre sí, de forma que se comporten como un único disco. En este sentido, la concatenación es como el proceso contrario al particionado: mientras éste toma un disco físico y crea dos o más unidades lógicas, JBOD usa dos o más discos físicos para crear una unidad lógica. Al consistir en un conjunto de discos independientes (sin redundancia), puede ser visto como un primo lejano del RAID 0, sin embargo JBOD es usado a veces para combinar varias unidades pequeñas (obsoletas) en una unidad mayor con un tamaño útil, mientras que en el RAID 0 todos los discos deben ser de igual tamaño. Una ventaja de JBOD sobre RAID 0 es que, en caso de fallo de un disco, en RAID 0 suele producirse la pérdida de todos los datos del conjunto, mientras en JBOD sólo se pierden los datos Página 58 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 del disco afectado, conservándose los de los restantes discos. Sin embargo, JBOD no supone ninguna mejora de rendimiento. Todas las implementaciones pueden soportar el uso de uno o más discos de reserva (hot spare), que no son más que discos preinstalados que son automáticamente añadidos al RAID tras el fallo de un disco del RAID. Esto reduce el tiempo del período de reparación al acortar el tiempo de reconstrucción del RAID.
Operaciones de una controladora RAID Las controladoras RAID normalmente trabajan con dos tipos de objetos, el primero son los discos físicos individuales, y el segundo son los arrays o conjuntos de discos: Crear: crea el array o disco virtual y añade los discos físicos al mismo. Disponemos de diferentes tipos de RAID en función del número de discos que disponemos y las características de la controladora. Los discos utilizados no pueden pertenecer a otro RAID. Initialize o inicializar: reinicia el array. Esta operación conlleva una pérdida de datos, por tanto cuidado al realizarla puesto que borra todos los datos. Rebuild o reconstruir: en caso de problema de un disco físico del array, podemos cambiarlo por otro y reconstruirlo para que no pierda su fiabilidad. Esta operación no conlleva pérdida de datos. Añadir: permite la adición de un nuevo disco a un RAID ya creado Eliminar: permiten eliminar un RAID ya existente. Los datos que se encuentren en el mismo se perderán. También se puede utilizar para eliminar discos físicos de un RAID. Migrar: algunas controladoras permiten realizar algunas migraciones de un tipo de RAID a otro, por ejemplo, si tenemos un RAID 1 y disponemos de un disco físico nuevo, podríamos pasar a un RAID 5. Se suelen utilizar para ampliar espacio en disco. No hay pérdida de datos. Tiene ciertas limitaciones y dependen de la controladora, por lo que se debe de consultar el manual de la misma. Reset: borra toda a configuración de la controladora y se pierde toda la información de cualquier RAID configurado en ella.
9.2 Cluster Se trata de de agrupar ordenadores para que funcionen de forma conjunta en la resolución de problema. Existen tres tipos de ellos: Clusters de proceso: destinados a proveer gran capacidad de computación a través del procesamiento en paralelo. Son usados principalmente en centros de cálculo, Página 59 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 proyectos científicos o simulaciones financieras. Se trata de una solución más económica que los grandes supercomputadores con múltiples procesadores. A cada componente del cluster se le denomina nodo. En este tipo de clusters existe un nodo principal que se encarga de distribuir las tareas entre el resto de nodos del cluster.
Clusters de balanceo de carga: diseñados para absorber gran cantidad de sesiones concurrentes. Distribuye las solicitudes de los usuarios entres los nodos que conforman el cluster. Suelen utilizarse en entornos donde se reciben gran cantidad de peticiones, como por ejemplo grandes sitios web o de correo. Permite apartar nodos del cluster para tareas de mantenimiento o por problemas en el mismo. No existe un nodo principal, sino que siguen un algoritmo para saber si aceptan peticiones o no. Existe una red paralela solamente entre los nodos del cluster para comprobar el estado del resto de nodos, para ello lanzan un paquete llamado heartbeat. Clusters de tolerancia a fallos: enfocados a seguir ofreciendo servicio a pesar de posibles fallos hardware. Se utilizan en combinación con la redundancia en el almacenamiento. Al fallar un nodo del cluster se traspasan o balancean los servicios que ejecutaba el nodo, de esta forma, a pesar del fallo de un nodo, los servicios siguen en funcionamiento para el cliente. Existen dos tipos: o Por software: en este caso un servicio del sistema operativo es el encargado de balancear los servicios. Todos los nodos deben ser exactamente iguales en cuanto a su configuración hardware. Al igual que en el cluster de balanceo de carga, existe una red interna por la cual circulan los paquetes de heartbreak. Los datos residen en una ubicación externa accesible para ambos servidores (cabina de discos externa o SAN), en ella se almacena un recurso compartido llamado quórum en el que se almacena la configuración y el log del cluster. Funcionamiento: los dos servidores, con una configuración hardware igual, están funcionando y continuamente se envían información de control; toda la información de configuración se almacena en el recurso compartido o quórum. Si se produce un fallo el servicio de cluster lo detecta e indica al nodo que queda que asuma los servicios del nodo estropeado, esto lo puede realizar Página 60 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
o
porque la configuración se encuentra en el quórum. El balanceo de servicios no es inmediato puede tardar entre 10 y 60 segundos. Para que una aplicación sea tolerante a fallos debe estar escrita pensando en que funcionará en el cluster puesto que la configuración debe guardarse en el quórum. Por hardware: este tipo de hardware son más caros que los anteriores, sobre todo teniendo en cuenta que el balanceo de servicios se realiza de forma inmediata. En este caso todos los nodos ejecutan los mismos servicios de forma simultánea, en caso de avería la ejecución sigue en uno de ellos. Para que el sistema operativo no tenga problemas en su ejecución, este tipo de clusters establece una capa de software entre el hardware y el sistema operativo, de esta forma para el sistema operativo se presenta como si tuviera una máquina con un procesador, memoria, etc, aunque realmente dispone de varias máquinas que proporcionan la tolerancia a fallos. Esta capa de hardware intermedia, plantea algunas consideraciones sobre la instalación y actualización del sistema operativo. Previa a la instalación del sistema, se debe instalar esta capa intermedia que es propietaria de la marca específica del hardware, además el sistema operativo no debe actualizarse automáticamente, pues los parches deben de ser probados previamente por el fabricante. Las aplicaciones no deben reescribirse. Algunos ejemplos de estos clusters son:
10 Resolución de averías 10.1 Programas diagnóstico En ocasiones suele ser útil la ayuda de algún tipo de software que pueda acceder al hardware y realice tests que comprueben el funcionamiento de éste. Para este cometido existen varias alternativas: DoctorPc Ultimate BootCD Hirens Boot Si bien es cierto que no entrarían exactamente dentro de esta categoría, existen una serie de programas llamados benchmarks que nos ayudan en la medición de las prestaciones de nuestro hardware. Existen principalmente dos tipos de benchmarks:
10.2 Troubleshooting a.
El ordenador no enciende. Pasos a seguir A veces se queda enganchado algún bus y el equipo no arranca para solucionar el problema se puede actuar de la siguiente forma: se quita el cable de alimentación y se aprieta el botón de arranque para que se reiniciar los buses. En estos casos puede suceder que algún dispositivo bloque el bus, por lo que es conveniente despinchar las tarjetas PCI, la tarjeta gráfica e incluso la memoria y encender el ordenador. Página 61 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Comprobar que los cables que conectan el botón de encendido a la placa base se hallan correctamente ubicados Mirar si el ventilador de la fuente de alimentación funciona, en caso afirmativo, el problema es de la placa base. En caso negativo, normalmente será la fuente de alimentación Comprobar el estado de los condensadores cercanos al procesador, si se encuentran deformados, algo abombados, la placa es la responsable b.
El ordenador enciende pero pita y no arranca ni la BIOS Normalmente se produce por un fallo de la tarjeta gráfica, comprobar que se encuentre correctamente conectada Puede producirse también por un fallo en la memoria, en este caso es conveniente despinchar la memoria y volver a colocarla módulo a módulo por si hubiese uno estropeado Resetear la BIOS por si fuera alguna incompatibilidad. Si funciona, sería conveniente actualizar la BIOS También podría ser el slot de la tarjeta gráfica o de memoria en la placa base
c.
No se observa nada por pantalla Primero cambiar el monitor por si fuera éste Problema de tarjeta gráfica También podría ser placa base, para ello resulta conveniente resetear la BIOS, despinchar memoria y la tareta gráfica.
d.
No detecta el disco duro Problema del disco, por si acaso mirar los jumpers de maestro/esclavo Problema de la placa base Infrecuente, pero podría ser el cable que conecta el disco a la placa
e.
El ordenador hace ruido Bien puede ser el ventilador del procesador o de la fuente de alimentación, sino se está seguro es conveniente parar el ventilador del procesador y comprobar si el ruido desaparece
f.
El ordenador arranca pero al poco tiempo se reinicia Un problema puede ser por el calentamiento del procesador al no funcionar el ventilador del mismo Página 62 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Si se monta el procesador, puede ocurrir que no se coloque una pasta que viene con el mismo. Esta pasta se introduce entre el procesador y el disipador y actúa como intermediario para evacuar el calor producido por el procesador Podría se problema de la placa base g. Averías aleatorias. Estas averías son aquellas que se producen sin motivo aparente y espaciadas en el tiempo de forma continua, puede sucederse 3 veces durante el día o tardar varios días en reincidir. Estas averías pueden ser por motivos de software o hardware. En caso de fallo hardware pueden producirse por múltiples factores: Fallo de placa base, suele ser lo más común Fallos en la fuente de alimentación Problemas de memoria Problemas de disco duro Mal anclaje de la placa base a la carcasa Problemas del procesador, suele ser lo más infrecuente
11 Sala servidores El diseño de un centro de proceso de datos comienza por la elección de su ubicación geográfica. Una vez seleccionada ésta, es necesarios encontrar unas dependencias adecuadas para su finalidad
11.1 Condiciones estancia Las condiciones de la estancia dependerán en gran medida las características de la empresa:
Tamaño de la empresa Ubicación de la misma Distribución geográfica Tamaño e importancia del departamento de informática
Las condiciones mínimas que debería recoger la sala de ordenadores son las siguientes: Buena instalación eléctrica Mantener a una temperatura constante la sala, es decir, que disponga de un buen sistema de refrigeración. La temperatura recomendable está entre 21º y 23º, si bien se recomienda una temperatura constante de 22,3º No ubicarla en zonas inundables, ni en zonas donde pasen tuberías cerca, por las posibles fugas Se encuentre cerrada y el acceso a la misma este controlador Otras condiciones que serían necesarias en un centro de proceso de datos medio-grande son las siguientes: Página 63 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011
Falsos techos y/o falso suelo por el cual pasará toda la instalación de red Instalación de alarmas Óptima instalación eléctrica Controladores de temperatura Acceso restringido a la sala.
11.2 SAI En una sala de ordenadores es un elemento muy importante, por ello se dedica un apartado. Sistema de Alimentación Ininterrumpido (UPS: Uninterruptible Power Suplí en inglés) es un dispositivo que gracias a sus baterías, puede proporcionar energía eléctrica tras un apagón a todos los dispositivos que tenga conectados. Otra de las funciones de las UPS es la de mejorar la calidad de la energía eléctrica que llega a los aparatos, filtrando subidas y bajadas de tensión, especialmente los picos que se pueden generar en la red eléctrica y que pueden estropear el equipo. También limpian la señal del ruido eléctrico. La unidad de potencia para configurar una UPS es el Volt Amper (VA), que es potencia aparente consumida por el sistema. Para calcular cuanta energía requiere el equipo, busca el consumo en la parte trasera del aparato o en el manual del usuario en vatios, multiplica la cantidad de vatios (Watts) por 1.6. Además de la potencia que se necesita, otro de los parámetros típicos es la duración de la batería, es decir, cuánto tiempo aguantará el SAI tras una caída de la red eléctrica. Otro punto importante a tener en cuenta es el peso de estos aparatos debido a las baterías que incorporan. Resulta ventajoso colocarlos cercanos al suelo para evitar problemas. Los grandes, incluso necesitan reforzar el suelo para evitar que se hunda el suelo, ya que hablamos de toneladas de peso.
Por ejemplo: este pequeño SAI de 350VA de la marca APC tiene una duración de baterías de 5 minutos a pleno rendimiento con un peso de 6 kilos. Las características se pueden encontrar en www.apc.com
Página 64 de 65
DOCUMENTACIÓN Fundamentos de hardware 1º CS - ASIR 2011 Otro ejemplo de un SAI para un rack podría ser el siguiente modelo de APC
Es de 3000VA y puede estar hasta 5 minutos en marcha con una potencia de consumo de 2700 vatios. Pesa 44 kilos Recomendación: en la instalación de un rack resulta conveniente instalar los SAI en la parte de abajo para dar mayor estabilidad al rack.
Cabe destacar que además incorporan puertos serie o USB para conectarlos al ordenador, en el cual se instala un programa que detecta si la red eléctrica ha caído, y en caso afirmativo, apagará el ordenador al llegar a un tanto por ciento de batería consumida. Este tanto por ciento es configurable en el ordenador. Un ejemplo de SAI para una red entera sería como el que se muestra en la figura con una capacidad para 160000 vatios durante 8 minutos y un peso cercano a las 3 toneladas.
Página 65 de 65