Ar A r q u i t ect ec t u r a IBM IB M Bl B l adec ad ecen entt er Revisión Técnica Cone on ectiv ct ivid ida ad, Open Open Fabr Fabric ic Manager nager
Ing. Carlos Etchart ys em x e ec n a uppor
[email protected]
Líde Líd er en Densidad Enter rise
3
Líde Líd er en Densidad Enter rise
3
IBM Bla Bl adeC deCe ent nter er E Chass Chassis is
USB port
Opt Optical drive
Diske skette drive
Handles
Front of L ight Path Diagnostics Panel Panel
7U
28”
14 bays for support up to 14 blades
Slide 4
Updated 09/30/08
Slot for service reference card
Weight: 99 pounds Up to 240 pounds (populated)
BladeCenter E Líder en Densidad Enterprise A un costo promedio de u$s1,000 por metro cuadrado de Datacenter… esto importa!
Haga Menos en Mas Espacio 0.625U por Blade
Haga Mas en Menos Espacio 0.5U por Blade
10U, 16 Blades 7U, 14 Blades
64 BL490c blades en 42U
84 HS22 blades en 42U
31% más servers HS22 en un rack de 42U con IBM BladeCenter!
5
Los Diferenciadores de IBM
Protección de la inversión del Cliente
6
Un chassis para cada necesidad - Protección de la Inversión .
“
BladeCenter T
BladeCenter E 2002-2010
2002-2004
2001-2002
HP BLe
”
BladeCenter H BladeCenter HT BladeCenter S 2006-2010+
2004-2006 HP p-Class
2006 - … HP c-Class
HP BH7800
HP BH7800 HP p-class
Duró tal vez 1 año Casi 1.5 años Nuevo HP p-class
2002
2003
2004
Nuevo HP c-class HP BH5700 (Telco)
2005
2006
2007
2008
Los Diferenciadores de IBM
So orte Multi-Plataforma
8
Soporte Multi-Plataforma HS12
HS22
LS22
Most affordable and green blade for singlethreaded apps
“No Compromise” Enterprise Blade
High performance computing blade
1 Socket Proc: Xeon QC Mem: 6 DIMM / 24GB
2 Socket Proc: Xeon QC Mem: 12 DIMM / 96GB
Key Features •2 hot-swap HDDs •SAS/SATA/SSD •Optional battery backed cache
2 Socket Proc: Opteron QC Mem: 8 DIMM / 32GB
Key Features • • • •
LS42
2 HS HDDs with choice of SAS or SSD Maximum memory on a blade Embedded hypervisor Battery-backed cache option
Key Features • 2P, 8 DIMMs, & 2HDDs in 30mm • Memory booster for lower latency
J S12 Express
Innovative ,click-n-scale Exceptional value AIX, enterprise application Linux or IBN i blade built blade server on POWER6
2 - 4 Socket Proc: Opteron QC Mem: 16 DIMM / 64GB
•E-mail / Collaboration •Hosted Client •Web Serving
• Virtualization • E-mail/Collaboration • Hosted Client •
Sample Applications • HPC • Research • Modeling
Cons. / DB
Cons. / DB
Cons. / DB
Ent. Perf.
Ent. Perf.
Ent. Perf.
Bus. App.
Bus. App.
Infr. App.
9
Sample Applications
• • • •
HS12
Infr. App.
HS22
LS22
• Virtualization • Server consolidation • Database •
• Small database • Application serving • Perfect for SMB with
LS42
AIX, SLES or Red Hat Linux Advanced POWER Virtualization Ethernet
Sample Applications
Ent. Perf.
Key Features
AIX, i5/OS, Linux • PowerVM virtualization EnergyScale • DDR2 memory
Sample Applications
Cons. / DB
2 Socket Proc: IBM POWER6 Mem: 4 DIMM / 32GB
Key Features
(hypervisor-ready) Sample Applications
Commercial AIX and Linux application server built on POWER6
1 Socket Proc: IBM POWER6 Mem: 8 DIMM / 32GB
Key Features • Only blade that can scale from 2P, 30mm to 4P, 60mm • Pay-as-you-grow
J S22 Express
Sample Applications • Virtualization • J AVA and web serving • HPC
• Supported in all chassis Cons. / DB
Cons. / DB
Ent. Perf.
Ent. Perf.
JS12 Bus. App.
Bus. App.
Bus. App.
Bus. App.
Infr. App.
Infr. App.
Infr. App.
Infr. App.
JS22
Power 6, Broadband Cell Processor, UltraSPARC T2 Disponible Ahora. Solamente IBM lo tiene.
IBM BladeCenter QS22
Blade basado en el último rocesado Cell/Broadband En ine 7x más rápido que los servers standard de la industria Standard HPC - Life Science, Financial, Math benchmarks Utilizado standalone o en conjunto con otros blades . Precisión doble en punto flotante Hasta 32GB de RAM
QS22
Cell/B.E.
Más Opciones, Más Flexibilidad. Blade.org – Claramente a la Vanguardia
Themis T2BC Blade Server
UltraSPARC T2 server funciona en cualquier BladeCenter chassis mp ca mover un o ars wor oa s a a e en e – Elimina la necesidad de portar aplicaciones Solaris a una arquitectura nueva Corre aplicaciones UltraSPARC bajo Solaris 10 – ue e corre ap cac ones o ar s o con gra on ss s an Compatible con Sun management
10
IBM BladeCenter PN41
Deep Packet Inspection (DPI) Características del producto
a e en er es un blade altamente programable, de alta performance, capaz de ayudar a generar revenue, controlar costos y protege la infraestructura de red – todas estas iniciativas claves en los ambientes de telecomunicaciones obierno. Este nuevo blade combina las poderosas capacidades de BladeCenter con la performance , control de red líder en la industria.
Resumen del Hardware
11
Procesamiento y control Full Layer 7 Aplicaciones de gestión de servicios y seguridad ofrecidas por Cloudshield y terceros Visibilidad completa del tráfico de red en función de la aplicación y del usuario Desarrollo rápido de aplicaciones en un entorno de desarrollo integrado y basado en Eclipse Lenguaje de desarrollo abierto RAVE
Exploración completa de carga útil (Inspección profunda de paquetes (DPI)) Capacidad de programación por el usuario sca a a e opera o Fiabilidad en línea Velocidad de procesamiento del DPI de hasta 20 Gbps por Blade Captura, redireccionamiento y reescritura selectivas del tráfico de red Diversos Blades en el mismo chasis Compatible con interfaces de red de área local (LAN) y red de área más amplia (WAN)
Los Diferenciadores de IBM Líder en Densidad Enterprise Protección de la inversión del Cliente Soporte Multi-Plataforma Alta Disponibilidad Empresarial
12
Ud. Pondría 80 o más servers en un chassis con múltiples Upper midplane
server
Redundant switch modules
Lower
Redundant signal connectors
Un Concepto Fundamental: El Midplane Redundante Slide 13
Updated 01/19/08
Blade server
= Sin Puntos únicos de Falla (SPoF)
BladeCenter Protege las Aplicaciones Críticas de su Negocio
IBM provee conexiones de I/O y power duales en todos los chasis y para todos los blades
Muchos competidores fallan en proveer este tipo de protección
Ud. conectaría su servidor rackeable empresarial a una única PDU o un único switch?
BL490c G6
Competidores — Sin redundancia ,
IBM BladeCenter — Redundacia completa ,
HP BL460c/BL465c
Todos l os Bl ades IBM H, L, J, Q
RIGHT
HP BL480c/BL685c No redundancy for slots 2 & 3 (Pink)
BladeCenter proteje las operaciones críticas de su negocio a rtua zac n genera a neces a
em s
en e ar ware
IBM BladeCenter = RAS completo
Fuentes de poder, ventiladores, switches, AMM redundantes y hot-swap Cuatro (4) cableados completamente separados y redundantes para las fuentes de poder. onec ores re un an es es e e alimentación y E/S
a e a m -pane para
NINGÚN PUNTO ÚNICO DE FALLA Si el conector de power o el de I/O tiene algún problema, el server se cae PUNTOS ÚNICOS DE FALLA
Sin Redundancia Único I/O, Unico Power
Redundancia Completa Dual I/O, Dual Powe
HS22 15
BL490c G6
Midplane del chassis HP c-class – Una mirada detallada
Un solo conector de power, un solo conector de datos , un solo bus de power Claramente esto es una conexión sin redundancia y por lo tanto, puntos únicos de falla
OK, los blades tienen cuatro conectores de power…pero donde abajo?? Un cable positivo +un cable negativo =1 . Claramente esto es un única conexión y un punto de falla único
Los chassis IBM BladeCenter están construídos para durar ,
Todas las fuentes de poder están conectadas al mismo bus
Los servers de volumen de 1U y 2U están diseñados con un único bus de power – una falla puede – Los blades tienen otra necesidad porque hay tantos componentes que dependen de que el chassis esté funcionando en línea. Un esquema de redundancia N+1 no es suficiente disponibilidad cuuando se depende del chassis para 14/16/32/ ó más servers
c Single Single Single Single
Single Power Bus
A Feed
Supply 1
Supply 2
Supply 3
Supply 4
Supply 5
Supply 6
N+1 Power Domain Connection to Supply Power Bus Point of Failure
B Feed
– Una falla en cualquier fuente de poder puede viajar a través del bus de power y poner en corto al complejo completo de fuentes de alimentación, llevando a una falla catastrófica
18
BladeCenter está diseñado para durar a e en er es
se a o en un es n a m s a o que a ompe enc a
BladeCenter está basado en verdadera topología N+N y tiene 2 sistemas de distribución de alimentación N+N
El Dominio 1 tiene dos fuentes que no están interconectadas de modo que las fallas no pueden viajar desde la fuente 1 a la fuente 3– Yo puedo perder una fase o una fuente por cualquier causa y el chassis continúa operando sin disrupción. El Dominio 2 repite este mismo esquema A Feed
A Feed
Supply 1
Supply 2
Power Bus 1 Domain 1
a e en er
Two N+N Power Domains Two Connections to Supply Two Power Bus Twice the protection
Domain 2
B Feed
B Feed Supply 3
–
19
Supply 4
o e e e un anc ca para prote er e s stema e owntme
IBM BladeCenter .
20
Ethernet Server Connectivity Module
Fibre Channel OFM
Gigabit Ethernet Switch Modules Fiber & Copper Models
OFM
Intelligent Pass-Thru Module 4Gb and 8Gb Models
InfiniBand Cisco InfiniBand Switch OFM
InfiniBand Bridge
SAN Switch Modules 4Gb 10 port model 4Gb or 8Gb 20 port models
OFM
Ethernet or Fiber Channel Models
Pass-Thru Catalyst Ethernet Switch Modules Gigabit and 10Gb Models
OFM
4Gb SAN Switch Modules 10 and 20 port models
OFM
BladeCenter S Serial Pass-Thru Module OFM
4Gb Fibre Channel Switch Modules
L2/3 Gb Ethernet Switch Module Fibre & Copper Models
OFM
10 and 20 port models
OFM
Copper Pass-Thru Module
SAS OFM
L2/3 1/10Gb Uplink Switch Module
Layer 2-7 Gb Switch Module
Slide 21
Updated 09/29/08
OFM
SAS Connectivity Module
Intelligent Copper Pass-Thru Module
BladeCenter S SAS RAID Controller Module
Optical Pass-Thru Module
OFM
OFM
Opciones Ethernet del Portfolio Open Fabric
Nortel L2/3 Copper Gigabit Ethernet Switch Module for IBM BladeCenter
IBM Server Connectivity Module
Cisco Catalyst Switch Mo u e 3012 or IBM BladeCenter
22
Nortel L2/3 Fibre Gigabit Ethernet Switch Module for IBM BladeCenter
Nortel L2/7 Gigabit Ethernet Switch Module for IBM BladeCenter
IBM Intelligent Copper Pass Thru Module
Cisco Catalyst Switch Mo u e 3110g or IBM BladeCenter
Cisco Catalyst Switch Mo u e 3110x or IBM BladeCenter
Nortel 1/10Gb Uplink Ethernet Switch Module for IBM BladeCenter
Nortel 10Gb Ethernet High-Speed Switch Module for IBM BladeCenter
Switches Cisco Catalyst para IBM BladeCenter 10G Virtual Blade Switch • 1x10GE uplin k • o u es spon es a rav s e sco •2 conectores de stacking •10Gb Uplink Switch c on Stacking (3110x)
• 4xGE uplinks - 4xRJ45 • 2 conectores para stacking •1 Gb Switch con Stacking (3110g)
Entry Level GE Switch • 4xGE uplinks - 4xRJ45 •1Gb Switch s in capacidad de Stacking (3012)
Software:
- IP Base incluído en cada part number - IP Servic es & Adv IP Servic es dispon ible para VBS Switches (cargo extra)
23
BNT L2/3 Gigabit Ethernet Switch Module
6 RJ -45 uplinks (Copper model) 6 low-cost SFP fiber u links Fiber model 14 internal downlinks 40 Gbps full-duplex bandwidth per switch Rich Layer 2 and Layer 3 features including:
VLANs Spanning Tree Rapid Spanning Tree Multiple Spanning Tree Uplink Failure Detection
24
Layer 3 filtering QOS queuing
High-Availability Securit features SNMP v1/2/3 support
Part Numbers Copper: 32R1860 Fiber: 32R1861
BNT Layer 2-7 Ethernet Switch Module
25
Layer 2 - 7 functionality Load Balancing Unique High-Availability Integrated Firewall A lication Virtualization Content Intelligence L4: 65,000sess/sec. , . Power: 40W
Part Numb er: 32R1859
BNT 1/10G Ethernet L2/L3 Switch •Exceptional investment protection
•1G today to 10G tomorrow •Stacking firmware planned • Feature rich design •14 1Gb internal ports for blade servers unc ona y •u •Six 1Gb ports – copper RJ45 •Three 10Gb ports use SFP+ transceivers • •Can have all 1G and 10G ports active •Fits in all BladeCenter chassis & MSIM
Part Number: 44W4404
26
BNT 10GE Switch BNT L2-3 10 Gb Ethernet Switch Module (10Gb ESM)
6-port 10GE fiber XFP uplinks +1-port 1GE RJ -45 management 14-port 10GE to server blades Complete Software
Layer 2 Switching Layer 3 Routing QoS, & Security features BladeCenter H Choice of AOS CLI, industry-standard CLI or browser interfaces Stacking Ability for simplified management
BladeCenter HT
Power: 61W
27
IBM Logo Products
Server Connectivity Module
28
Intelligent Copper Pass-Thru Module
High-Speed I/O Module Portfolio Ethernet
Interconnect
10Gb Ethernet High-Speed Switch Module
InfiniBand IBM Multi-Switch Interconnect Module (MSIM)
4X InfiniBand Pass-Thru Module
4X InfiniBand Switch Module
Slide
Updated 01/27/08
Blade I/O Adapter with Connectors for High-Speed Bays
10Gb Ethernet Overview Productos Líderes
os o er ngs
2 Port 10Gb card: 44W4466 4 port 10Gb card: 44W4465
Su ortados en BCH BCHT Tecnología:
CFFh form factor; PCI-Express interface Basado en 57710 Broadcom ASIC Reduced Media Independ ent Interface (RMII): Higher port density Lower power & cost Can be combined with CFFv ethernet or FC cards for additional flexibility.
Full BOFM Support
30
10Gb en BladeCenter H Switch único para administrar múltiples cargas de trabajo: 1Gb/10Gb/Convergence! 10Gb
BNT 10 Port 10Gb Convergence Ready switch
31
10Gb en BladeCenter hace la transición más fácil! Dos opciones para cubrir las necesidades de Clientes en ancho de banda y redundancia
Enables High speed bays 7 & 9 in a e en er Up to 6 IO port combinations
Enables High Speed Bays 7,8,9&10 in a e en er Up to 40Gb Bandwidth per Blade Up to 8 IO port combinations
32
Opciones Fiber Channel del Portfolio Open Fabric
Brocade 20-port 4Gb SAN Switch Module for IBM BladeCenter
QLogic 20-port 8Gb Fibre Channel Switch Module for IBM BladeCenter
33
Brocade 10-port 4Gb SAN Switch Module for IBM BladeCenter
QLogic 20-port 8Gb Intelligent Pass-thru Module for IBM BladeCenter
QLogic 20-port 4Gb Fibre Channel Switch Module for IBM BladeCenter
Cisco Systems 20-port 4Gb Fibre Channel
Cisco Systems 10-port 4Gb Fibre Channel
IBM BladeCenter
IBM BladeCenter
QLogic 10-port 4Gb Fibre Channel Switch Module for IBM BladeCenter
QLogic 4Gb Intelligent Pass-thru Module for IBM BladeCenter
NPIV – Simplifies your BladeCenter SAN NPIV-enabled switches
Full-fabric SAN switch modules
Qlogic IPM, Brocade Access Gateway
Lowest total cost—more complete data center inte ration
Reduces Interoperability and scalability issues Reduces SAN governance concerns Requires a lower number of external cables, SFPs and Fibre Channel switch ports Provides port speeds up to 4Gb/s
Supports full switch ecosystem to address potential for switch interoperability issues
Supports full set of security, diagnostics, performance measurement, and management features
Requires the lowest number of external cables, SFPs and Fibre Channel switch ports
Provides port speeds up to 4Gb/s
34
Qlogic 8GB FC Switch/Intelligent PassThru Module
IPM / Full Fabric Switch – Puertos Externos Dispositivos de 8 Gb/s soportados en todos los puertos externos o os os c ass s
. BC (14 Internos)
4 Gb/s
BCH (14 Internos)
Legacy I/O slots 3 & 4 -- 4 Gb/s MSIM slots 8 & 10 -- 8 Gb/s
BCS (6 Internos)
4 Gb/s
35
IBM BladeCenter Open Fabric Manager Simplifique Dramáticamente Todas las Conexiones de I/O !
Blade 1 a e 2
Advanced Management MACMAC MAC 1 22 MAC 3 WWN WWN WWN 1 2WWN 2 3 Module VLAN A
Any w c Cisco, BNT, SCM, PassThrus
Blade 14
36
VLAN C VLAN D
HP Virtual Connect no escala – los chassis no son concientes uno del otro
HP Virtual Connect es proprietario – sin soporte para Cisco, BNT, pass-thru de bajo costo
HP Virtual Connect es costoso – tanto como $25K más!
Virtual Connect ofrece funcionalidad limitada – SAN solo funciona con NPIV
BladeCenter Open Fabric Manager
37
Open Fabric Manager Failover A Través del Data Center ce
vance
pen a r c
anager en sus
1) Blade x falla en el chassis 6
38
a e en ers ex s en es
Open Fabric Manager Failover A Través del Data Center ce
vance
pen a r c
anager en sus
a e en ers ex s en es
2) Ejecuta el plan de acción de Failover pool
1) Blade x falla en chassis 6
39
Open Fabric Manager Failover A Través del Data Center Utilice Advanced O en Fabric Mana er en sus BladeCenters existentes
2) Ejecuta el Plan de Acción de Failover Pool
1) Blade x falla en el chassis 6
3) Blade y en el chassi s 40 recibe los parámetros de I/O del blade x
Funciona a través de pools de 100 chassis – 1400 blades 40
IBM BladeCenter H: 8 conexiones de I/O por bahía Dos bahías para fuentes de poderhotswap redundantes de 2900 watts con PFA y tres ventiladores reemplazables en cada una Frente del Panel de Light Path Diagnostics
9U
Hot-swap media tray con DVD, dos puertos USB, anel Li ht Path Diagnostics
14 bahías para suportar hasta 14 blades Slot para tarjeta de referencia de servicio
Slide
Updated 01/19/08
Dos bahías para fuentes opcionales de poder hot-swap redundantes de 2900 watts con PFA y tres ventiladores reemplazables en cada una
IBM BladeCenter H Entrada de poder redundante
Bahías para switches de alta velocidad
Entrada de poder redundante
Switch module bay 1 (dedicado
Módulo de Administración vanza a o swap (AMM) Switch module bay 3 (or bridge slot)
Slot dedicado para módulo bridge
Switch module bay 2
Módulo redundante opc ona e Administración Avanzada Hotswap (AMM)
ethernet) Slot dedicado para módulo bridge
Switch module ba 4 or brid e slot)
Light Path Diagnostics panel Conector serial múltiple Ventiladores Hot-swap redundantes con PFA
Slide
Updated 01/19/08
Bahías para switches de alta velocidad
Arquitectura BladeCenter – Vista fabric 1x Los switches de bahías 1 y 2 son siempre Gb Eth, Los switches de pueden ser Eth, FC, IB, SAS, u otros según se requiera
1
2
3
4
Cada línea representa una interfaz balanceada de 4 -, RX+/- que es agnóstica en cuanto a protocolo
Las tarjetas de expansión de I/O 1x adicionan los puertos 3 y 4 a los blade servers y conectan a los switches 3 & 4 respectivamente
BladeCenter H: High Speed fabric view
Cada línea representa
9 8 7
10
. Cada lane es una interfaz balanceada de 4 cables de TX+/-, RX+/- la cual es protocol-agnostic. Capacidad por lane es 10Gb.
El nuevo HS22 HS22 Hardware Overview Internal USB (Embedded Hypervisor)
RAID 5 Opcional c/ battery-backed write-back cache Conectores duales y redundantes de I/O
2x Intel Xeon 5500 Processor s (Nehalem EP)
2x IO Expansion Slots
(SAS, SATA o Estado Sólido) 45
12x VLP DDR3 Memory (96GB Max / 1333MHz Max)
Un Ejemplo de Protección de la Inversión: El nuevo HS22 se pue e ns a ar en e c ass s a e en er que compr en noviembre de 2002 Consumo de la CPU Performance (95W)
Standard & Basic (80W) Low-voltage (60W)
#total de HS22 y otros Blades en slots 1-6 del blades soportados chassis (Power Domain 1)
Blades en slots 7-14 del chassis (Power Domain 2)
11
5 blades de cualquier tipo
6 blades de cualquier tipo
12
6 no HS22
6 HS22
12
5 blades de cualquier tipo
7 de cualquier tipo
13
6 no HS22
7 HS22
13
6 blades de cualquier tipo
7 blades de cualquier tipo
14
6 HS22
8 no HS22
La matriz de comptibilidad completa puede encontrase online en http://www-03.ibm.com/systems/x/hardware/configtools.html.
46
CPU
47
Procesado Xeon 5500 Uso
Caracteristicas
Rendimiento Top to Bottom † Performance ††
Advanced
Advanced
6.4 GT/s QPI 8M Cache DDR3 1333 Turbo +3
+82%
up to 13%
Standard
Standard
5.86 GT/s QPI 8M Cache Turbo +2 HT
Frequency QuickPath Basic
as c
. 4M Cache DDR3 800
up to
ur o oos Hyper-Threading
Relative performance
48
CPU Cache
Modo Turbo del Intel Nehalem EP Rated Speed
001101 10101010
Core
Actual Power
Core
00001101 10101010 101 00001101 10101010
Core
00001101 10101010
49
Core
Max Power
Veloc. CPU
Consumo
Las CPUs típicamente operan a una frecuencia máxima fija sin importar la carga de trabajo Para las cargas de trabajo más demandantes, la CPU opera cerca de su límite máximo de potencia
Modo Turbo del Intel Nehalem EP Rated Speed
001101 10101010
Core
Core
Actual Power
POTENCIA LIBRE
00001101 10101010 101 00001101 10101010
Core
00001101 10101010
50
Core
Max Power
Veloc. CPU
Consumo
Sin embargo, la mayoría de las aplicaciones permite que la CPU opere debajo de su máximo consumo. Si algunos cores están ociosos también puede aparecer potencia libre.
Modo Turbo del Intel Nehalem EP Rated Speed
001101 10101010
Core
Core
MODO TURBO
00001101 10101010 101 00001101 10101010
Core
00001101 10101010
51
Actual Power
Max Speed
Core
Veloc. CPU
Max Power
Consumo
El Modo Turbo aumenta la velocidad de la CPU para utilizar cualquier potencia disponible
Modo Turbo del Intel Nehalem EP Rated Speed
001101 10101010
Core
Core
MODO TURBO
00001101 10101010 101 00001101 10101010 00001101 10101010
52
Actual Power
Max Speed Core
Veloc. CPU
Max Power
Consumo
El Modo Turbo aumenta la velocidad de la CPU para utilizar cualquier potencia disponible Con menos cores activos y mas potencia disponible, la CPU puede alcanzar frecuencias aún mayores.
Modo Turbo Intel Nehalem EP 3.46 GHz
Basic
(80W)
Stnd.
(80W)
Adv.
(95W) +3
3.33 GHz +3
+2
+3
+2
+1
+2
+1
3.20 GHz 3.06 GHz .
z +2
2.80 GHz +2 2.66 GHz 2.53 GHz 2.40 GHz 2.26 GHz
+2
+1
+1
+1
+1
1C/2C turbo 3C turbo
2.13 GHz 2.00 GHz 1.86 GHz DC
53
4C turbo Base Freq
Memoria
54
Memoria en el HS22 - Suporta la nueva tecnología de memoria DDR3 Menor voltaje de operación (1.5V vs 1.8V para DDR2) Mayor velocidad que DDR2 (spec es 800, 1066, 1333MHz) - Directamente conecta a la CPU via QPI link 3 canales por CPU, 2 DIMMs por canal (max. 12 DIMMs con 2 CPUs) Debe instalarse un mínimo de dos DIMMs
Intel ® Xeon ® processor
-
(técnicamente 1 DIMM por CP U es aceptable) Debe contener un módulo DIMM ó un filler en todos los zócalos DIMM
- Cada conector DIMM soporta: - 1 GB (x8 Low Power) and 2GB Single Rank - 2GB Dual Rank (post-GA) - 4 GB Dual Rank - 8GB Dual Rank (post-GA) PC3-8500 CL7 VLP ECC DDR3-1066 RDIMMs - 8 GB Dual Rank (post-GA) La capacidad máxima es 96GB a 1066MHz (12 x 8GB) La velocidad de la memoria en el sistema depende del tipo .
55
DIMM Slot
Canal de Memoria
CPU
HS22: Velocidad de la Memoria DDR3 a 1333MHz QPI speed: 6.4 GT/s
Memory speed: 1333MHz
Intel ® Xeon® processor 5500
Memory speed: 1333MHz
Intel ® Xeon ® processor 5500
QPI s eed: 6.4GT/s
QPI s eed: 6.4GT/s Intel ® 5500 chipset
Objetivo: Maximizar la performance de la memoria del servidor:
A velocidades de memoria de 1333MHz, los procesadores Intel están limitados a un único DIMM (dual or single rank) por canal de memoria:
56
CPU SKUs X5550 y superiores Número total de DIMMs DDR3 a través de 3 canales en una configuración de sistema DP =6 DIMMs Capacidad total de memoria (usando 8GB dual rank DIMMs) =48GB , corriendo a 1333MHz
HS22: Velocidad de la Memoria DDR3 a 1066MHz QPI speed: 5.86 GT/s
Memory speed: 1066MHz
Intel ® Xeon® processor 5500
QPI s eed: 5.86 GT/s
Memory speed: 1066MHz
Intel ® Xeon ® processor 5500
QPI s eed: 5.86 GT/s ® Intel 5500 chipset
Objetivo: Maximizar la performance de la memoria del servidor: –
,
A velocidades de memoria de 1066MHz, los procesadores Intel están limitados a dos DIMMs (dual or single rank) por canal de memoria: – CP U SKUs X5520 y superior – Número total de DIMMs DDR3 a través de 3 canales en una confi uración de un sistema DP =12 DIMMs – La capacidad total de memoria (usando DIMMs de 8GB dual rank ) =96GB , corriendo a 1066MHz 57
HS22 – Canales de memoria y DIMM ‘ranks’
Los canales son como tener 3 carriles en una autopista, cada carril puede tener varios autos (DIMMs). Cuanto mas canales (carriles) mejor. Pero tener más ranuras DIMM por canal lentifica el tráfico, de la misma forma en que muchos autos tratan de avanzar por una carretera congestionada. 3 DIMMs por canal baja la performance desde un máximo de 1333Mhz a 800Mhz a me or per ormance se a en en o carr es cana es con au o po carr .
DATA
UN DIMM EN CANAL DOS
DATA
UN DIMM EN CANAL TRES n
58
po cana
HS22 – Canales de memoria y DIMM ‘ranks’
Más autos en un carril de autopista (más DIMMs en el canal de memoria) lentifican la performance. La máxima performance de 1333Mhz solo se obtiene con un único DIMM de memoria en el canal, y utilizando los DIMMs más rápidos y el SKU de CPU que soporta 1333Mhz. Intel Nehalem SKUs X5550, X5560, X5570 soportan 1333Mhz. s necesaro a ancea a e ecc n e , con gurac n e memora y po e .
DATA
DATA
DOS DIMMS EN CANAL DOS
DATA
UN DIMM EN CANAL TRES emp o e , y
59
s po cana
HS22 Mejores Prácticas para instalación de Memoria gunas cons erac ones: er ormance, apac a , onsumo, on a
a , os o
Consideraciones para Máxima Performance 1. Siempre poblar ambos procesadores con iguales cantidades de memoria para asegurar un sistema 2. 3. 4. 5. 6. 7.
Siempre poblar los 3 canales de memoria de cada procesador con igual capacidad de memoria Asegurar que se pone un número par de ranks por canal. Usar Dual-rank DIMM’s siempre que sea posible. Para performance óptima de 1333MHz, poner 6 DIMMs dual rank (3 por procesador). Para performance óptima de 1066MHz , poner 12 DIMMs dual rank (6 por procesador). Con las reglas precedentes, no es posible tener performance optimizada con 4GB, 8GB, 16GB..128GB. Con 3 canales de memoria y reglas de interleaving , se debe configurar sistemas con , , , , , , , .
Consideraciones para Consumo de Energía 1. Menos DIMMs mas grandes (por ejemplo 6 x4GB DIMMs vs. 12 x 2GB DIMMs tendrán generalmente menores requerimientos de consumo. . x DIMMs generalmente consumen menos energ a que DIMMs de tamaño equivalente de tipo x4
Confiabilidad 1. Menos DIMMs más grandes (por ejemplo 6 x4GB DIMMs vs. 12 x 2GB DIMMs son generalmente más confiables. 2. Los controladores de memoria Nehalem-EP soportan tecnología chip kill con DIMMs x4, pero no con DIMMs x8 sin utilizar lockstep mode.
60
Balanceando el servidor Need to balance CPU SKU with Memory configuration and Memory DIMM type. The Faster the CPU core, the faster the memory you need. You don’t need more RAM, remember Harpertown has 4 core too….it’s about keeping the cores busy. Customer risks are;
A paper specification / configuration than does not perform Paying a higher price for a CPU SKU and not getting full performance (too many DIMMs) ay ng a g er pr ce or a an no ge ng u per ormance (wrong DIMMs type) Paying a higher price for Memory DIMMs (single rank), not getting performance due to CPU SKU choice Adding value to 18 DIMM socket servers, when they are “excess baggage” since they will be a performance bottleneck.
Number DIMMs DIMM speed
61
CPU SKU
Cost
Nehalem puede soportar hasta 18 ranuras DIMM, pero eso no quiere decir que sea una buena idea! 18 DIMMs de 8GB dual rank ó quad rank sobrecargarían los canales de memoria.
…
La ÚNICA forma de conseguir 144GB es con costosos DIMMs de 8GB single rank. Sin embargo, el sistema va a tene una performance de memoria de 800MHz (la mínima posible).
IBMBladeCenter BladeCenter| CONFIDENTIAL | CONFIDENTIAL 62 IBM
Administración
63
System x & BladeCenter , El mismo stack de administración
Integrated Management Module (IMM) Unified Extensive Firmware Interface (UEFI)
IBM Systems Director 6.1
Componentes de hardware comunes
Embedded hypervisor o -swap ar r ves Integrated storage controller Integrated Gigabit Ethernet Trusted Platform Module 64
El legado de BIOS BIOS (Basic Input/Output System) se lanzó por primera vez en 1981 con el PC IBM y está en uso aún hoy día en la mayoría de las plataformas x86. BIOS es muy estable pero tiene muchas de las de 1980.
BIOS empezó como una pieza de código de 8K que inicializaba el chipset y proveía servicios simples. Ha crecido para incluir hoy en día: • Funcionalidad RAS Enterprise • Escalabilidad High End • iSCSI • Blade Open Fabric Manager (BOFM) • Active Energy Manage
65
Uni nifified ed Ext Exte ens nsii bl ble e Fir irmw mwa are Int Inte erf rface ace (UE UEF FI) Mas funciona funcionalida lidad, d, me mejor jor inte interfa rfazz de usua usuario, rio, administra dministración ción
vendors can add more more features features in their options options (e.g., (e.g., IP v6) v6) - Adapter vendors faster updates updates as new features features are introduced introduced - Modular designs allows fast
Sopor Sop ortte UEF UEFII OS Wi n d o w s 2008
Ho y
RHEL 6
1Q10
-
Mejorr in Mejo intter erfa fazz de usu usuar ario io - Replaces ctrl key sequences with a more intuitive human interface
Prior operating operating system versions will will operate in legacy BIOS mode
Moves ad ada tor and and iS iS CSI CS I conf confii uratio ation n in into F1 set setu - Moves - Creates event logs that are more easily decipherable
Admin Adm inist istra ración ción mas fá fácil cil - Eliminates “beep” codes; all errors can now be covered by Lightpath - Reduces the number of error messages and eliminates out-dated errors - UEFI settings can be managed both in-band and out of band
ommon across a new 66
x
servers
Integrated Management Module (IMM)
Máss ca Má carract cte eríst ístiica cass de administ strraci ción ón est stá ánda a meno co cost sto o
-
F unci uncion onal alid idad ad BMC / RSA-II RS A-II Controlad ontrolador or de video video
-
SuperIO
Hardw Har dwar are e común común a trav través és de tod todas as las pl plat ataf afor orm mas -
Un fir firm mware are de de IMM a lica lica a tod todos os los serv server erss IMM puede puede actual actualizar izar el firm firmw ware de ot otros compon component entes es del server. server.
Benefi Bene ficios cios ad adicio iciona nales: les: -
No requiere requiere drive drivers rs IBM especial especiales es Logging ogging de errores errores mejorado ejorado Configurable onfigurable en modo modo in band y out of band band
USB 1.1/2.0 Devices Super I/O Crypto AES
BMC I/O
Video Video Controller Comp.
om n a rav s e o os os nuevos servers 67
CPU Core
DDR2 Memory Controller
x
ToolsCenter a a or o r m a e er r am en e n as e Encontr ncontra ar y Apre Aprende nder r
m n s r ac n
c es e
, Deployment
-
• S erverg erverguid uide e / Serv S erverg erguid uide e Script cripting Toolkit • Start Now Advisor
Updates
-
• Update Express System Packs
Diagnostics
-
• D namic S stem Anal sis
Configuration
-
• Advance Settings Utility
C onfigurat uration ion Manager Manager • S torage Config
as er o ear earn an use easy to to use use webpage with with links to all tools • Single, easy • Common look and feel across tool set
Abilit to scri scri t tools usin usin comm common comm command line line int interface erface • Abilit
68
om n a rav s e o os os nuevos servers!
x
IBM S stems Director 6.1 Administración mas sencilla y eficiente -
-
-
-
-
, Access anywhere with a consistent, web-based user interface , - and integrated help The broad portfolio of s ystems managed by a single tool can reduce staff training and operational expenses Monitoring and managing of energy usage can lower costs through more efficient use of available energy Integration of virtual and physical infrastructure management can decrease administrative costs
Ahorro de costos utilizando IBM Systems Director 6.1 para administrar grandes cantidades de servers físicos y virtuales puede llegar a 34.5% para servers Windows y 43.8% para servers Linux x86
om n a rav s e o os os nuevos 69
x
Storage
70