arquitectura y configuracion en ibm blade center revision tecnica conectividad y open fabric

79
Arquitectura IBM Bladecenter Revisión Técnica Conectividad, Open Fabric Manager Ing. Carlos Etchart S t Fi ld T hil S t System x Field Technial Support [email protected]

Upload: luis-nicolas-vasquez-percovich

Post on 02-Dec-2015

135 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Arquitectura IBM BladecenterRevisión TécnicaConectividad, Open Fabric Manager

Ing. Carlos EtchartS t Fi ld T h i l S tSystem x Field Technial [email protected]

Page 2: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Los Diferenciadores de IBMLos Diferenciadores de IBM

Líder en Densidad EnterpriseLíder en Densidad Enterprise

3

Page 3: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

IBM BladeCenter E Chassis Optical drive Diskette driveUSB port Handles

Front of Light Path Diagnostics Panel

7U

28”

Slide 4Updated 09/30/08

14 bays for support up to 14 blades

Slot for service reference card

Weight: 99 pounds Up to 240 pounds (populated)

Page 4: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BladeCenter E Líder en Densidad EnterpriseA un costo promedio de u$s1,000 por metro cuadrado de Datacenter… esto importa!

Haga Menos en Mas Espacio0.625U por Blade

Haga Mas en Menos Espacio0.5U por Blade

10U, 16 Blades7U, 14 Blades

64 BL490c blades en 42U 84 HS22 blades en 42U

31% más servers HS22 en un rack de 42U con IBM BladeCenter!

5

Page 5: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Los Diferenciadores de IBM

Líder en Densidad Enterprise

Protección de la inversión del Cliente

Líder en Densidad Enterprise

6

Page 6: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Un chassis para cada necesidad - Protección de la InversiónVs el enfoque de la competencia: “Tecnología Informática Descartable”Vs. el enfoque de la competencia: Tecnología Informática Descartable

BladeCenter E 2002-2010

BladeCenter T BladeCenter H2006-2010+

BladeCenter HT BladeCenter S

2002-2004 2004-2006 2006 - …

2001-2002

HP BH7800

HP BLe HP p-Class HP c-Class

HP BH7800HP p-class

Duró tal vez 1 añoCasi 1.5 años

XNuevo HP p-class

HP BH5700 (Telco)Nuevo HP c-class X

2002 2003 2004 2005 2006 2007 2008

Page 7: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Los Diferenciadores de IBM

Líder en Densidad EnterpriseLíder en Densidad Enterprise

Protección de la inversión del Cliente

Soporte Multi-Plataforma

Protección de la inversión del Cliente

p

8

Page 8: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Soporte Multi-PlataformaHS12 HS22 LS22 LS42 JS12 Express JS22 Express

Most affordable and green blade for single-

threaded apps “No Compromise” Enterprise Blade High performance

computing blade

Innovative ,click-n-scale enterprise application

blade server

Exceptional value AIX, Linux or IBN i blade built

on POWER6

Commercial AIX and Linux application server

built on POWER6

1 Socket 2 Socket 2 Socket 2 - 4 Socket 1 Socket 2 Socket

Proc: Xeon QCMem: 6 DIMM / 24GBHDD: 2 HS

Proc: Xeon QCMem: 12 DIMM / 96GBHDD: 2 HS

Proc: Opteron QCMem: 8 DIMM / 32GBHDD: 2

Proc: Opteron QCMem: 16 DIMM / 64GBHDD: 2

Proc: IBM POWER6Mem: 8 DIMM / 32GBHDD: 2

Proc: IBM POWER6Mem: 4 DIMM / 32GBHDD: 1HDD: 2 HS HDD: 2 HS HDD: 2 HDD: 2 HDD: 2 HDD: 1

Key Features Key Features Key Features Key Features Key Features Key Features

• 2 hot-swap HDDs• SAS/SATA/SSD• Optional battery backed

cache• Max mem per socket

• 2 HS HDDs with choice of SAS or SSD• Maximum memory on a blade• Embedded hypervisor• Battery-backed cache option• iBMC

• 2P, 8 DIMMs, & 2HDDs in 30mm

• Memory booster for lower latency

• Fast 800MHz memory

• Only blade that can scale from 2P, 30mm to 4P, 60mm

• Pay-as-you-grow• Internal USB port

• AIX, i5/OS, Linux• PowerVM virtualization• EnergyScale• DDR2 memory

• AIX, SLES or Red Hat Linux

• Advanced POWER Virtualization

• Integrated Virtual• Max mem per socket • iBMC • Fast 800MHz memory • Internal USB port (hypervisor-ready)

• Integrated Virtual Ethernet

Sample Applications Sample Applications Sample Applications Sample Applications Sample Applications Sample Applications

• E-mail / Collaboration• Hosted Client• Web Serving

• Virtualization• E-mail/Collaboration• Hosted Client• Web Serving

• HPC• Research• Modeling

• Virtualization• Server consolidation• Database• Business Intelligence

• Small database• Application serving• Perfect for SMB with

the BladeCenter S

• Virtualization• JAVA and web serving• HPC

• Web Serving • Business Intelligence the BladeCenter S• Supported in all

chassis

Cons. / DB

Ent. Perf.

Bus. App.

Cons. / DB

Ent. Perf.

Bus. App.HS22

Cons. / DB

Ent. Perf.

Bus. App.

LS22

Cons. / DB

Ent. Perf.

Bus. App.

LS42

Cons. / DB

Ent. Perf.

Bus. App.JS12

Cons. / DB

Ent. Perf.

Bus. App.

JS22

9

pp

Infr. App. HS12

pp

Infr. App.

pp

Infr. App.

pp

Infr. App.

pp

Infr. App.

pp

Infr. App.

Page 9: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Power 6, Broadband Cell Processor, UltraSPARC T2

QS22

Disponible Ahora. Solamente IBM lo tiene.

IBM BladeCenter QS22 Blade basado en el último procesador Cell/Broadband Engine p g7x más rápido que los servers standard de la industria

Standard HPC - Life Science, Financial, Math benchmarks Utilizado standalone o en conjunto con otros bladesSoportado por Linux standard OS (RHEL 5 2) Cell/B.E.Soportado por Linux standard OS (RHEL 5.2)Precisión doble en punto flotanteHasta 32GB de RAM

Más Opciones, Más Flexibilidad. Blade.org – Claramente a la Vanguardia

Themis T2BC Blade ServerUltraSPARC T2 server funciona en cualquier BladeCenter chassisSi lifi S S l i kl d l Bl d C tSimplifica mover Sun Solaris workloads al BladeCenter

–Elimina la necesidad de portar aplicaciones Solaris a una arquitecturanueva

Corre aplicaciones UltraSPARC bajo Solaris 10P d li i S l i 8 9 Mi ti A i t t

10

–Puede correr aplicaciones Solaris 8 o 9 con Migration Assistant Compatible con Sun management

Page 10: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

IBM BladeCenter PN41 Deep Packet Inspection (DPI)Análisis en tiempo real de tráfico de red

Características del producto Procesamiento y control Full Layer 7

Análisis en tiempo real de tráfico de red

El IBM Bl d C t ® PN41

Aplicaciones de gestión de servicios y seguridad ofrecidas por Cloudshield y terceros

Visibilidad completa del tráfico de red en función de la aplicación y del usuario

El IBM BladeCenter® PN41 es un blade altamente programable, de alta performance, capaz de ayudara generar revenue, controlar

Desarrollo rápido de aplicaciones en un entorno de desarrollo integrado y basado en Eclipse

Lenguaje de desarrollo abierto RAVE

costos y proteger la infraestructurade red – todas estas iniciativasclaves en los ambientes de telecomunicaciones y gobierno.

Resumen del Hardware Exploración completa de carga útil (Inspección profunda de

paquetes (DPI)) Capacidad de programación por el usuario

E l bilid d d l dy gEste nuevo blade combina laspoderosas capacidades de BladeCenter con la performance de CloudShield® un servicio de

Escalabilidad del operador Fiabilidad en línea Velocidad de procesamiento del DPI de hasta 20 Gbps por

Blade Captura, redireccionamiento y reescritura selectivas del tráfico de CloudShield®, un servicio de

control de red líder en la industria.de red

Diversos Blades en el mismo chasis Compatible con interfaces de red de área local (LAN) y red de

área más amplia (WAN)11

Page 11: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Los Diferenciadores de IBM

Líder en Densidad Enterprise

Protección de la inversión del Cliente

Soporte Multi-Plataforma

Alta Disponibilidad Empresarial

12

Page 12: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Ud. Pondría 80 o más servers en un chassis con múltiples puntos únicos de falla ?puntos únicos de falla ?

Upper midplane

Blade

Redundant switch modules

Bladeserver

Lower midplanemidplane

Redundant signal connectors

Bladeserver

Los chassis IBM son Clase Empresarial

Un Concepto Fundamental:

Slide 13Updated 01/19/08

Los chassis IBM son Clase Empresarial = Sin Puntos únicos de Falla (SPoF)El Midplane Redundante

Page 13: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BladeCenter Protege las Aplicaciones Críticas de su Negocio IBM provee conexiones de I/O y power duales en todos los chasis y para todos los blades

Muchos competidores fallan en proveer este tipo de protección

Ud. conectaría su servidor rackeable empresariala una única PDU o un único switch?

IBM BladeCenter —Redundacia completa

I/O dual power dual

Competidores —Sin redundancia

I/O único único power

BL490c G6

I/O dual, power dual I/O único, único power

HP BL460c/BL465c

RIGHT

HP BL480c/BL685cNo redundancy for slots 2 & 3 (Pink)

Todos los Blades IBM H, L, J, Q

Page 14: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BladeCenter proteje las operaciones críticas de su negocioL Vi t li ió l id d d á RAS l h d

IBM BladeCenter = RAS completo

Fuentes de poder, ventiladores, switches, AMM

La Virtualización genera la necesidad de más RAS en el hardware

redundantes y hot-swap

Cuatro (4) cableados completamente separados y redundantes para las fuentes de poder.

C t d d t d d l bl d l id l Conectores redundantes desde el blade al mid-plane paraalimentación y E/S

NINGÚN PUNTO ÚNICO DE FALLA HP usa 1 power & 1 conector de I/O desde el blade al mid plane HP usa 1 power & 1 conector de I/O desde el blade al mid-plane Si el conector de power o el de I/O tiene algún problema, el server

se cae

PUNTOS ÚNICOS DE FALLA Redundancia CompletaDual I/O, Dual PowerSin Redundancia

Único I/O, Unico Power

15BL490c G6

HS22

Page 15: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Midplane del chassis HP c-class – Una mirada detallada Un solo conector de power, un solo conector de datos, un solo bus de power Claramente esto es una conexión sin redundancia y por lo tanto, puntos únicos de falla

OK, los blades tienencuatro conectores de power…pero dondeconectan los dos deconectan los dos de abajo??

Un cable positivo + un cable negativo = 1 conexión de powerconexión de power.

Claramente esto es un única conexión y un punto de falla único(Single Point of Failure)(Single Point of Failure)

Page 16: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Los chassis IBM BladeCenter están construídos para durarHP tiene múltiples puntos únicos de falla incluyendo la arquitectura de alimentación

Todas las fuentes de poder están conectadas al mismo bus Los servers de volumen de 1U y 2U están diseñados con un único bus de power – una falla puede

bajar un solo server en esta topología la mayoría de los clientes acepta esto

HP tiene múltiples puntos únicos de falla, incluyendo la arquitectura de alimentación

bajar un solo server en esta topología – la mayoría de los clientes acepta esto

Los blades tienen otra necesidad porque hay tantos componentes que dependen de que el chassis esté funcionando en línea. Un esquema de redundancia N+1 no es suficiente disponibilidad cuuandose depende del chassis para 14/16/32/ ó más servers

HP 7000HP c7000Single N+1 Power DomainSingle Connection to SupplySingle Power BusSingle Point of Failure

Single Power Bus

A Feed B FeedSupply

1Supply

2Supply

3Supply

4Supply

5Supply

6

17

– Una falla en cualquier fuente de poder puede viajar a través del bus de power y poner en corto al complejo completo de fuentes de alimentación, llevando a una falla catastrófica

Page 17: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

18

Page 18: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BladeCenter está diseñado para durarBl d C t tá di ñ d tá d á lt l C t i

BladeCenter está basado en verdadera topología N+N y tiene 2 sistemas de distribución de alimentación N+N

BladeCenter está diseñado en un estándar más alto que la Competencia

El Dominio 1 tiene dos fuentes que no están interconectadas de modo que las fallas no pueden viajar desde la fuente 1 a la fuente 3– Yo puedo perder una fase o una fuente por cualquier causa y el chassis continúa operando sin disrupción.

El Dominio 2 repite este mismo esquemaA Feed A Feed

IBM Bl d C tPower Bus 1

Supply1

Supply2

IBM BladeCenterTwo N+N Power DomainsTwo Connections to SupplyTwo Power BusTwice the protection

Power Bus 2

Domain 1 Domain 2

El D bl d R d d i t j l i t d d ti

B Feed B Feed

Supply3

Supply4

Power Bus 2

19

– El Doble de Redundancica para protejer el sistema de downtime

Page 19: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

IBM BladeCenterEl Mayor Ecosistema de Switches de la IndustriaEl Mayor Ecosistema de Switches de la Industria.

20

Page 20: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Ethernet Fibre Channel InfiniBand

Cisco InfiniBand SwitchServer Connectivity Module Intelligent Pass-Thru Module4Gb and 8Gb ModelsOFM OFM

InfiniBand BridgeEthernet or Fiber Channel Models

Gigabit Ethernet Switch ModulesFiber & Copper Models

SAN Switch Modules4Gb 10 port model

4Gb or 8Gb 20 port models

Pass-Thru

OFM OFM

4Gb SAN Switch Modules10 and 20 port models

Catalyst Ethernet Switch ModulesGigabit and 10Gb Models OFM OFM

BladeCenter S SerialPass-Thru Module

OFM

L2/3 Gb Ethernet Switch ModuleFibre & Copper Models

4Gb Fibre Channel Switch Modules10 and 20 port models Copper Pass-Thru ModuleOFM

OFM

SAS

L2/3 1/10Gb Uplink Switch ModuleOFM SAS Connectivity Module

Intelligent CopperPass-Thru Module OFM

Slide 21

Layer 2-7 Gb Switch ModuleOptical Pass-Thru Module

Updated 09/29/08

OFM OFM BladeCenter S SAS RAID Controller Module

Page 21: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Opciones Ethernet del Portfolio Open Fabric

Nortel L2/3 Copper Gigabit EthernetSwitch Module forIBM BladeCenter

Nortel L2/3 Fibre Gigabit EthernetSwitch Module forIBM BladeCenter

Nortel L2/7 Gigabit EthernetSwitch Module forIBM BladeCenter

Nortel 10Gb Ethernet High-Speed Switch Module forIBM BladeCenter

Nortel 1/10Gb Uplink Ethernet Switch Module for IBM BladeCenter

IBM Server

Connectivity Module IBM Intelligent CopperPass Thru Module

Cisco Catalyst Switch M d l 3012 f

Cisco Catalyst Switch M d l 3110 f

Cisco Catalyst Switch M d l 3110 f

22

Module 3012 for IBM BladeCenter

Module 3110g for IBM BladeCenter

Module 3110x for IBM BladeCenter

Page 22: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Switches Cisco Catalyst para IBM BladeCenter3 switches para satisfacer diferentes necesidades3 switches para satisfacer diferentes necesidades

10G Virtual Blade Switch• 1x10GE uplink

X2 M d l di ibl t é d Ci• X2 Modules disponibles a través de Cisco •2 conectores de stacking•10Gb Uplink Switch con Stacking (3110x)

GE Virtual Blade SwitchGE Virtual Blade Switch• 4xGE uplinks - 4xRJ45• 2 conectores para stacking•1 Gb Switch con Stacking (3110g)

Entry Level GE Switch• 4xGE uplinks - 4xRJ45•1Gb Switch sin capacidad de Stacking (3012)

Software: - IP Base incluído en cada part number- IP Services & Adv IP Services disponible

23

para VBS Switches (cargo extra)

Page 23: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BNT L2/3 Gigabit Ethernet Switch Module

6 RJ-45 uplinks (Copper model) 6 low-cost SFP fiber uplinks (Fiber model)6 low cost SFP fiber uplinks (Fiber model) 14 internal downlinks 40 Gbps full-duplex bandwidth per switch Rich Layer 2 and Layer 3 features including:

VLANs Spanning Tree Rapid Spanning Tree Multiple Spanning Tree Uplink Failure Detection

Layer 3 routing Layer 3 routing Layer 3 filtering QOS queuing

High-Availability Security featuresSecurity features SNMP v1/2/3 support Part Numbers

Copper: 32R1860Fiber: 32R1861

24

Page 24: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BNT Layer 2-7 Ethernet Switch Module

4 ports copper 4-ports copper Layer 2 - 7 functionality Load Balancing Unique High-Availability Integrated Firewall Application Virtualizationpp Content Intelligence L4: 65,000sess/sec. L7: 28 000sess/sec L7: 28,000sess/sec. Power: 40W Part Number: 32R1859

25

Page 25: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BNT 1/10G Ethernet L2/L3 Switch

• Exceptional investment protection • 1G today to 10G tomorrow• Stacking firmware planned

• Feature rich design• 14 1Gb internal ports for blade servers

f ll L2/L3 f ti lit• full L2/L3 functionality•Six 1Gb ports – copper RJ45•Three 10Gb ports use SFP+ transceivers

Smaller and less costly than XFP• Smaller and less costly than XFP• Can have all 1G and 10G ports active • Fits in all BladeCenter chassis & MSIM

• Extremely cost effective• Extremely cost effective

Part Number: 44W4404

26

Page 26: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BNT 10GE Switch

BNT L2-3 10 Gb Ethernet Switch Module (10Gb ESM) 400 Gbps, 595 Million Packets/Sec400 Gbps, 595 Million Packets/Sec 6-port 10GE fiber XFP uplinks

+ 1-port 1GE RJ-45 management 14-port 10GE to server blades Complete Software

Layer 2 Switching Layer 3 Routing

Includes robust High Availability Part # 39Y9267 Includes robust High Availability QoS, & Security features

Choice of AOS CLI, industry-standard CLI or browser interfaces Stacking Ability for simplified management

BladeCenter H BladeCenter HT

Part # 39Y9267

Power: 61W

27

Page 27: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

IBM Logo Products

Server ConnectivityModule

Intelligent Copper Pass-Thru Module

28

Page 28: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Ethernet InterconnectHigh-Speed I/O Module Portfolio

10Gb Ethernet High-Speed Switch Module

InfiniBandIBM Multi-Switch Interconnect Module (MSIM)

4X InfiniBand Pass-Thru Module

4X InfiniBand Switch Module Blade I/O Adapter with Connectors for High-Speed Bays

Slide 29

Updated 01/27/08

Page 29: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

10Gb Ethernet Overview

D ff i

Productos Líderes

Dos offerings 2 Port 10Gb card: 44W4466 4 port 10Gb card: 44W4465

Suportados en BCH y BCHTp y Tecnología:

CFFh form factor; PCI-Express interface Basado en 57710 Broadcom ASIC Reduced Media Independent Interface (RMII):

Higher port density Lower power & cost

Can be combined with CFFv ethernet or FC cards for additional flexibility. Full BOFM Support

30

Page 30: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

10Gb en BladeCenter H

10Gb

1Gb

Switch único para administrar múltiples cargas de trabajo: 1Gb/10Gb/Convergence!

1Gb

BNT 10 Port 10Gb Convergence Ready switch

Converged Traffic

g y

31

Converged Traffic

Page 31: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

10Gb en BladeCenter hace la transición más fácil!

Enables High speed bays 7 & 9 in Bl d C t H/HT

Enables High Speed Bays 7,8,9&10 in Bl d C t H/HT

Dos opciones para cubrir las necesidades de Clientes en ancho de banda y redundancia

BladeCenter H/HT Up to 6 IO port combinations

BladeCenter H/HT Up to 40Gb Bandwidth per Blade Up to 8 IO port combinations

32

Page 32: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Opciones Fiber Channel del Portfolio Open Fabric

Brocade 20-port 4Gb SAN Switch Module for

IBM BladeCenter

Brocade 10-port 4Gb SAN Switch Module for

IBM BladeCenter

QLogic 20-port 8Gb Intelligent Pass-thru Module for

IBM BladeCenter

QLogic 20-port 8Gb Fibre Channel

Switch Module forIBM BladeCenter

QLogic 4Gb Intelligent Pass-thru Module for

IBM BladeCenter

QLogic 20-port 4Gb Fibre Channel

Switch Module forIBM BladeCenter

QLogic 10-port 4Gb Fibre Channel

Switch Module forIBM BladeCenter

Cisco Systems 10-port 4Gb Fibre Channel Switch Module for

Cisco Systems 20-port 4Gb Fibre Channel Switch Module for

33

Switch Module forIBM BladeCenter

Switch Module forIBM BladeCenter

Page 33: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

NPIV – Simplifies your BladeCenter SAN

Qlogic IPM, Brocade Access Gateway Lowest initial cost (Qlogic IPM)

NPIV-enabled switches Full-fabric SAN switch modules Lowest total cost—more complete

data center integration Lowest initial cost (Qlogic IPM) Reduces Interoperability and scalability

issues Reduces SAN governance concerns

data center integration

Supports full switch ecosystem to address potential for switch interoperability issues

Requires a lower number of external cables, SFPs and Fibre Channel switch ports

Provides port speeds up to 4Gb/s

Supports full set of security, diagnostics, performance measurement, and management featuresea u es

Requires the lowest number of external cables, SFPs and Fibre Channel switch ports

Provides port speeds up to 4Gb/s

34

Page 34: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Qlogic 8GB FC Switch/Intelligent PassThru Module

IPM / Full Fabric Switch – Puertos Externos Dispositivos de 8 Gb/s soportados en todos los puertos externos

T d l h i Todos los chassis

BladeCenter Chassis Veloc Max soportada en puertos internosBladeCenter Chassis Veloc. Max soportada en puertos internos

BC (14 Internos) 4 Gb/s

BCH (14 Internos) Legacy I/O slots 3 & 4 -- 4 Gb/sMSIM slots 8 & 10 -- 8 Gb/s

BCS (6 Internos) 4 Gb/s

35

Page 35: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

IBM BladeCenter Open Fabric Manager

MAC 1MAC 2 MAC 3MAC 2Advanced

Management

Simplifique Dramáticamente Todas las Conexiones de I/O !

Any S itch

VLAN A

VLAN B

WWN 1WWN 2WWN 3Blade

1

WWN 2

Bl d

gModule

Switch Cisco, BNT, SCM, Pass-

Thrus

VLAN B

VLAN CBlade

Blade 2

HP Virtual Connect no escala – los chassis no son concientes uno del otro

VLAN D

Blade 14

HP Virtual Connect es proprietario – sin soporte para Cisco, BNT, pass-thru de bajo costo

HP Virtual Connect es costoso – tanto como $25K más!

Virtual Connect ofrece funcionalidad limitada – SAN solo funciona con NPIV

36

Page 36: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BladeCenter Open Fabric Manager

37

Page 37: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Open Fabric Manager Failover A Través del Data CenterUtili Ad d O F b i M Bl d C t i t tUtilice Advanced Open Fabric Manager en sus BladeCenters existentes

1) Blade x falla en el chassis 6

38

Page 38: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Open Fabric Manager Failover A Través del Data Center Utili Ad d O F b i M Bl d C t i t tUtilice Advanced Open Fabric Manager en sus BladeCenters existentes

2) Ejecuta el plan de acción de Failover pool

1) Blade x falla en chassis 6

39

Page 39: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Open Fabric Manager Failover A Través del Data Center Utilice Advanced Open Fabric Manager en sus BladeCenters existentesp g

2) Ejecuta el Plan de Acción de Failover Pool

1) Blade x falla en el chassis 6 3) Blade y en el chassis 40 recibelos parámetros de I/O del blade x

40

Funciona a través de pools de 100 chassis – 1400 blades

Page 40: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

IBM BladeCenter H: 8 conexiones de I/O por bahíaDos bahías para

fuentes de poder hot-swap redundantes de 2900 watts con PFA y

tres ventiladoresreemplazables en cada

unauna

9U

Frente del Panel de Light Path Diagnostics

Hot-swap media tray con DVD, dos puertos

USB, y panel Light , y p gPath Diagnostics

14 bahías parasuportar hasta 14 blades

Slot para tarjeta de referencia de servicio

Dos bahías parafuentes opcionales de

poder hot-swap redundantes de 2900 watts con PFA y tres

ventiladoresreemplazables en cada

Slide 41

Updated 01/19/08

una

Page 41: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

IBM BladeCenter H Entrada de poderredundante

Entrada de poderredundanteBahías para switches de alta velocidad

Switch module bay 1 (dedicadoethernet)

Módulo de AdministraciónA d H tethernet)

Slot dedicadopara módulobridge

Avanzada Hot-swap (AMM)

Switch module bay 3 (or bridge

slot)

Móduloredundante

i l d

Switch module bay 2 (dedicado

Switch module bay 4 (or bridge

opcional de AdministraciónAvanzada Hot-

swap (AMM)

(dedicadoethernet)

Slot dedicadopara módulobridge

bay (o b dgeslot)Light Path

Diagnostics panel

Conectorserial múltiple

Slide 42

Bahías para switches de alta velocidadVentiladores Hot-swap redundantes con PFA

Updated 01/19/08

Page 42: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Arquitectura BladeCenter – Vista fabric 1xCada línearepresenta unainterfazbalanceada de 4 cables de TX+/

Los switches de bahías 1 y 2 son siempre Gb Eth, Los switches de

bahías 3 y 4 cables de TX+/-, RX+/- que esagnóstica en cuanto a protocolo

bahías 3 y 4 pueden ser Eth,

FC, IB, SAS, u otros según se

requiera

2 3 41

Las tarjetas de expansión de I/O 1x adicionan los puertos 3 y 4 a los blade servers y conectan a los switches 3 & 4 respectivamente

Page 43: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

BladeCenter H: High Speed fabric view Cada línearepresenta cuatro lanescuatro lanes. Cada lane es una interfaz balanceada de 4 cables de TX+/-, 8

910

RX+/- la cual es protocol-agnostic.Capacidad por lane es 10Gb.

7

Page 44: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

HS22 Hardware OverviewRAID 5 Opcionalc/ battery-backedwrite-back cache

El nuevo HS22

Internal USB(Embedded Hypervisor)

Conectores duales y redundantesde I/O

write back cache

2x Intel Xeon 5500 Processors(Nehalem EP)

2x IO Expansion Slots(1x CIOv + 1x CFFh)

2x bahías de disco hot swap 12x VLP DDR3 Memory

(1x CIOv + 1x CFFh)

45

2x bahías de disco hot-swap (SAS, SATA o Estado Sólido) (96GB Max / 1333MHz Max)

Page 45: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Un Ejemplo de Protección de la Inversión: El nuevo HS22 se d i t l l h i Bl d C t ó

Consumo de la CPU # total de HS22 y otros Blades en slots 1-6 del Blades en slots 7-14 del

puede instalar en el chassis BladeCenter que compró en noviembre de 2002

blades soportados chassis (Power Domain 1) chassis (Power Domain 2)Performance (95W) 11 5 blades de cualquier tipo 6 blades de cualquier tipo

12 6 no HS22 6 HS22

13 5 HS22 8 no HS2213 5 HS22 8 no HS22

Standard & Basic (80W) 12 5 blades de cualquier tipo 7 de cualquier tipo

13 6 no HS22 7 HS22

Low-voltage (60W) 13 6 blades de cualquier tipo 7 blades de cualquier tipo

La matriz de comptibilidad completa puede encontrase online en http://www-03.ibm.com/systems/x/hardware/configtools.html.

14 6 HS22 8 no HS22

46

Page 46: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

CPU

47

Page 47: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Procesador Xeon 5500RendimientoUso Caracteristicas

Top to Bottom Performance†

††Advanced

Advanced6.4 GT/s QPI

8M CacheDDR3 1333Turbo +3

HT

+82%+82%

Standard

HT

5.86 GT/s QPI8M Cache

DDR3 1066

up to13%

Differentiation:

Standard

Basic

DDR3 1066Turbo +2

HT

4 8 GT/s QPI up to 39%

Differentiation:

Frequency

QuickPath

CPU Cache

T boBoost

Basic

Basic 4.8 GT/s QPI4M CacheDDR3 800

39% TurboBoost

Hyper-Threading

48

Relative performance

Page 48: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Modo Turbo del Intel Nehalem EP

001101 10101010

RatedSpeed

Core 0

Core 1

ActualPower

00001101 10101010

0101 00001101 10101010

1 00001101 10101010

0 1

Core 3

Core 2 Veloc. CPU Consumo

MaxPower

1 00001101 10101010 32

Las CPUs típicamente operan a una frecuencia máxima fija sin importar la carga de trabajo

Para las cargas de trabajo más demandantes, la CPU opera cercade su límite máximo de potencia

49

Page 49: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Modo Turbo del Intel Nehalem EP

001101 10101010 Core 0

Core 1

POTENCIA LIBRE

ActualPower

RatedSpeed

00001101 10101010

0101 00001101 10101010

1 00001101 10101010

0 1

Core 3

Core 2 Veloc. CPU Consumo

MaxPower

1 00001101 10101010 32

Sin embargo, la mayoría de las aplicaciones permite que la CPU opere debajo de su máximo consumo.

Si algunos cores están ociosos también puede aparecer potencialibre.

50

Page 50: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Modo Turbo del Intel Nehalem EP

001101 10101010 Core 0

Core 1

ActualPower

MODOTURBO

RatedSpeed

00001101 10101010

0101 00001101 10101010

1 00001101 10101010

0 1

Core 3

Core 2 Veloc. CPU Consumo

MaxPower

MaxSpeed

1 00001101 10101010 32

El Modo Turbo aumenta la velocidad de la CPU para utilizarcualquier potencia disponible

51

Page 51: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Modo Turbo del Intel Nehalem EP

001101 10101010 Core 0

Core 1

ActualPower

MODOTURBO

RatedSpeed

00001101 10101010

0101 00001101 10101010

1 00001101 10101010

0 1

Core 3 Veloc. CPU Consumo

MaxPower

MaxSpeed

1 00001101 10101010 3

El Modo Turbo aumenta la velocidad de la CPU para utilizarcualquier potencia disponible

Con menos cores activos y mas potencia disponible, la CPU puede alcanzar frecuencias aún mayores.

52

Page 52: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Modo Turbo Intel Nehalem EP

3.33 GHz

3.46 GHzAdv. (95W)

+3

Stnd. (80W)Basic (80W)

2 93 GHz

3.06 GHz

3.20 GHz

+3

+1

+3

+1

+2

+2

+2

2.66 GHz

2.80 GHz

2.93 GHz

+2 +1

+2 +1

2.40 GHz

2.53 GHz

1C/2C turbo+1

+2 +1

2.00 GHz

2.13 GHz

2.26 GHz

4C turbo

3C turbo

53

1.86 GHz DC Base Freq

Page 53: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Memoria

54

Page 54: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Memoria en el HS22- Suporta la nueva tecnología de memoria DDR3 Menor voltaje de operación (1.5V vs 1.8V para DDR2) Mayor velocidad que DDR2 (spec es 800, 1066, 1333MHz)

- Directamente conecta a la CPU via QPI link 3 canales por CPU, 2 DIMMs por canal (max. 12 DIMMs

con 2 CPUs) Debe instalarse un mínimo de dos DIMMs

- Se trata de un statement de soporte solamenteIntel® Xeon®

processor 5500Se trata de un statement de soporte solamente

(técnicamente 1 DIMM por CPU es aceptable) Debe contener un módulo DIMM ó un filler en todos los

zócalos DIMM- Cada conector DIMM soporta: PC3 10600 CL9 VLP ECC DDR3 1333 RDIMMs

5500

PC3-10600 CL9 VLP ECC DDR3-1333 RDIMMs - 1 GB (x8 Low Power) and 2GB Single Rank- 2GB Dual Rank (post-GA)- 4 GB Dual Rank- 8GB Dual Rank (post-GA) DIMM Slot

Canal de Memoria CPU

( ) PC3-8500 CL7 VLP ECC DDR3-1066 RDIMMs

- 8 GB Dual Rank (post-GA) La capacidad máxima es 96GB a 1066MHz (12 x 8GB) La velocidad de la memoria en el sistema depende del tipo

de CPU y del # de DIMMs colocados

55

de CPU y del # de DIMMs colocados.

Page 55: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

HS22: Velocidad de la Memoria DDR3 a 1333MHzQPI

speed: 6.4 GT/s

Memory speed:

1333MHz

Memory speed:

1333MHz

Intel® Xeon®

processor 5500

Intel® Xeon®

processor 5500

QPI speed:

QPI speed:

Objetivo: Maximizar la performance de la memoria del servidor: La velocidad máxima del canal de memoria soportable es DDR3 corriendo a 1333MHz

p6.4GT/s

Intel® 5500 chipset

p6.4GT/s

La velocidad máxima del canal de memoria soportable es DDR3 corriendo a 1333MHz A velocidades de memoria de 1333MHz, los procesadores Intel están limitados a un único DIMM

(dual or single rank) por canal de memoria: CPU SKUs X5550 y superiores Número total de DIMMs DDR3 a través de 3 canales en una configuración de sistema DP = 6 DIMMs

56

Capacidad total de memoria (usando 8GB dual rank DIMMs) = 48GB, corriendo a 1333MHz

Page 56: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

HS22: Velocidad de la Memoria DDR3 a 1066MHzQPI

speed: 5.86 GT/s

Memory speed:

1066MHz

Memory speed:

1066MHz

Intel® Xeon®

processor 5500

Intel® Xeon®

processor 5500

QPI speed:

QPI speed:p

5.86 GT/sIntel® 5500 chipset

p5.86 GT/s

Objetivo: Maximizar la performance de la memoria del servidor: – Llenando completamente con dual rank DIMMs la velocidad del canal de memoria DDR3 es 1066MHzLlenando completamente con dual rank DIMMs, la velocidad del canal de memoria DDR3 es 1066MHz

A velocidades de memoria de 1066MHz, los procesadores Intel están limitados a dos DIMMs (dual or single rank) por canal de memoria:– CPU SKUs X5520 y superior

– Número total de DIMMs DDR3 a través de 3 canales en una configuración de un sistema DP = 12 DIMMs

57

g

– La capacidad total de memoria (usando DIMMs de 8GB dual rank) = 96GB, corriendo a 1066MHz

Page 57: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

HS22 – Canales de memoria y DIMM ‘ranks’y

Los canales son como tener 3 carriles en una autopista, cada carril puede tener varios autos (DIMMs). Cuanto mas canales (carriles) mejor.

Pero tener más ranuras DIMM por canal lentifica el tráfico, de la misma forma en quemuchos autos tratan de avanzar por una carretera congestionada.

3 DIMMs por canal baja la performance desde un máximo de 1333Mhz a 800Mhz

L j f d t i d 3 il ( l ) 1 t il La mejor performance se da teniendo 3 carriles (canales) con 1 auto por carril.

UN DIMM EN CANAL UNODATA UN DIMM EN CANAL UNO

UN DIMM EN CANAL DOS

DATA

DATA

U DIMM l

UN DIMM EN CANAL TRESDATA

58

Un DIMM por canal

Page 58: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

HS22 – Canales de memoria y DIMM ‘ranks’y

Más autos en un carril de autopista (más DIMMs en el canal de memoria) lentifican la performance.

La máxima performance de 1333Mhz solo se obtiene con un único DIMM de memoria en el canal, y utilizando los DIMMs más rápidos y el SKU de CPU que soporta 1333Mhz.

Intel Nehalem SKUs X5550, X5560, X5570 soportan 1333Mhz.

E i b l l l ió d CPU fi ió d i ti d DIMM Es necesario balancear la elección de CPU, configuración de memoria y tipo de DIMM.

TRES DIMMS EN CANAL UNODATADATADATA TRES DIMMS EN CANAL UNO

DOS DIMMS EN CANAL DOS

DATADATADATA

DATADATA

Ej l d 1 2 3 DIMM l

UN DIMM EN CANAL TRESDATA

59

Ejemplo de 1, 2 y 3 DIMMs por canal

Page 59: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

HS22 Mejores Prácticas para instalación de MemoriaAl id i P f C id d C C fi bilid d C t

Consideraciones para Máxima Performance 1. Siempre poblar ambos procesadores con iguales cantidades de memoria para asegurar un sistema

NUMA balanceado

Algunas consideraciones: Performance, Capacidad, Consumo, Confiabilidad, Costo

NUMA balanceado2. Siempre poblar los 3 canales de memoria de cada procesador con igual capacidad de memoria3. Asegurar que se pone un número par de ranks por canal.4. Usar Dual-rank DIMM’s siempre que sea posible.5. Para performance óptima de 1333MHz, poner 6 DIMMs dual rank (3 por procesador).6. Para performance óptima de 1066MHz , poner 12 DIMMs dual rank (6 por procesador).7. Con las reglas precedentes, no es posible tener performance optimizada con 4GB, 8GB,

16GB..128GB. Con 3 canales de memoria y reglas de interleaving , se debe configurar sistemas con 6GB 12GB 18GB 24GB 48GB 72GB 96GB etc6GB, 12GB, 18GB, 24GB, 48GB, 72GB, 96GB, etc.

Consideraciones para Consumo de Energía1. Menos DIMMs mas grandes (por ejemplo 6 x4GB DIMMs vs. 12 x 2GB DIMMs tendrán generalmente

menores requerimientos de consumo.2 8 í2. x8 DIMMs generalmente consumen menos energía que DIMMs de tamaño equivalente de tipo x4

Confiabilidad1. Menos DIMMs más grandes (por ejemplo 6 x4GB DIMMs vs. 12 x 2GB DIMMs son generalmente más

confiables.

60

2. Los controladores de memoria Nehalem-EP soportan tecnología chip kill con DIMMs x4, pero no con DIMMs x8 sin utilizar lockstep mode.

Page 60: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Balanceando el servidor Need to balance CPU SKU with Memory configuration and Memory DIMM type. The Faster the CPU core, the faster the memory you need. You don’t need more

RAM, remember Harpertown has 4 core too….it’s about keeping the cores busy.g y Customer risks are;

A paper specification / configuration than does not perform Paying a higher price for a CPU SKU and not getting full performance (too many DIMMs)

P i hi h i f CPU SKU d t tti f ll f ( DIMM t ) Paying a higher price for a CPU SKU and not getting full performance (wrong DIMMs type)

Paying a higher price for Memory DIMMs (single rank), not getting performance due to CPU SKU choice Adding value to 18 DIMM socket servers, when they are “excess baggage” since they will be a

performance bottleneck.

CPU SKUNumber DIMMs

DIMM speed Cost

61

Page 61: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Problemas con el teórico máximo de 144GBProblemas con el teórico máximo de 144GB Nehalem puede soportar hasta 18 ranuras DIMM, pero eso no quiere

decir que sea una buena idea! A mayor número de DIMMs mas lenta es la performance de la memoria A mayor número de DIMMs mas lenta es la performance de la memoria 18 DIMMs de 8GB dual rank ó quad rank sobrecargarían los canales de

memoria.NO va a funcionar NO va a funcionar…

La ÚNICA forma de conseguir 144GB es con costosos DIMMs de 8GB single rank.

Sin embargo, el sistema va a tener una performance de memoria de 800MHz (la mínima posible).

IBM BladeCenter | CONFIDENTIAL62 IBM BladeCenter | CONFIDENTIAL

Page 62: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Administración

63

Page 63: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

System x & BladeCenterComponentes comunes valor únicoComponentes comunes, valor único

El mismo stack de administración Integrated Management Module (IMM)

Unified Extensive Firmware Interface (UEFI)

ToolsCenterToolsCenter

IBM Systems Director 6.1

Componentes de hardware comunes Embedded hypervisor

H t h d d i Hot-swap hard drives

Integrated storage controller

Integrated Gigabit Ethernet

64

Trusted Platform Module

Page 64: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

El legado de BIOSg

BIOS (Basic Input/Output System) se lanzó porprimera vez en 1981 con el PC IBM y está en usoaún hoy día en la mayoría de las plataformas x86.

BIOS es muy estable pero tiene muchas de laslimitaciones impuestas por los diseños de hardware

BIOS empezó como una pieza de código de 8K queinicializaba el chipset y proveía servicios simples.

limitaciones impuestas por los diseños de hardware de 1980.

Ha crecido para incluir hoy en día: • Funcionalidad RAS Enterprise• Escalabilidad High End• iSCSI• Blade Open Fabric Manager (BOFM)

65

• Active Energy Manager

Page 65: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Unified Extensible Firmware Interface (UEFI)Mas funcionalidad, mejor interfaz de usuario, administraciónmas sencillamas sencilla

Más funcionalidadMás funcionalidad- Adapter vendors can add more features in their options (e.g., IPv6)

- Modular designs allows faster updates as new features are introduced

- Fully backwards compatible with legacy BIOS

Soporte UEFI OSWindows 2008 Hoy

SLES 11 2Q09Fully backwards compatible with legacy BIOS

Mejor interfaz de usuario- Replaces ctrl key sequences with a more intuitive human interface

- Moves adaptor and iSCSI configuration into F1 setup

SLES 11 2Q09

RHEL 6 1Q10Prior operating system versions will

operate in legacy BIOS modep g p

- Creates event logs that are more easily decipherable

Administración mas fácil- Eliminates “beep” codes; all errors can now be covered by Lightpath

- Reduces the number of error messages and eliminates out-dated errors

- UEFI settings can be managed both in-band and out of band

C ll IBM 86 !

66

Common across all new IBM x86 servers!

Page 66: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Integrated Management Module (IMM)

Combina múltiples funciones en un único chip

Más características de administración estándar a menor costo

Combina múltiples funciones en un único chip- Funcionalidad BMC / RSA-II

- Controlador de video

- Presencia Remota/función cKVM (usualmente una opción separada de $159) IMMPresencia Remota/función cKVM (usualmente una opción separada de $159)

- SuperIO

Hardware común a través de todas las plataformas- Un firmware de IMM aplica a todos los servers

Super I/O

CPU Core

USB 1.1/2.0 Devices

IMM

p

- IMM puede actualizar el firmware de otros componentes del server.

Beneficios adicionales:- No requiere drivers IBM especiales

Crypto AES

VideoComp.

VideoController

DDR2 Memory

Controller

BMC I/O

- Logging de errores mejorado

- Configurable en modo in band y out of band

C ú t é d t d l IBM 86!

67

Común a través de todos los nuevos servers IBM x86!

Page 67: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

ToolsCenterPl t f d H i t d Ad i i t ió Fá il dPlataforma de Herramientas de Administración Fáciles de Encontrar y AprenderConsolidate tools into a small integrated suiteConsolidate tools into a small, integrated suite- Deployment

• Serverguide / Serverguide Scripting Toolkit

• Start Now Advisor

- Updates• Update Express System Packs

- Diagnostics• Dynamic System AnalysisDynamic System Analysis

- Configuration• Advance Settings Utility

• Storage Configuration Manager

E i t l dEasier to learn and use• Single, easy to use webpage with links to all tools• Common look and feel across tool set• Ability to script tools using common command line interface

C ú t é d t d l IBM 86y p g

68

Común a través de todos los nuevos IBM x86 servers!

Page 68: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

IBM Systems Director 6.1IBM Systems Director 6.1Administración mas sencilla y eficiente

Simplified deployment installation and update process- Simplified deployment, installation and update process

- Access anywhere with a consistent, web-based user interface

- Easy-to-learn new tasks with intuitive wizards, tutorialsEasy to learn new tasks with intuitive wizards, tutorialsand integrated help

- The broad portfolio of systems managed by a single tool can reduce staff training and operational expenses

- Monitoring and managing of energy usage can lower costs through more efficient use of available energy

- Integration of virtual and physical infrastructure management can decrease administrative costsg

Ahorro de costos utilizando IBM Systems Director 6.1 para administrar grandes cantidades de servers físicos y virtuales puede llegar a 34.5% para servers Windows y 43.8% para servers Linux x86

C ú t é d t d l IBM 86

69

Común a través de todos los nuevos IBM x86

Page 69: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Storage

70

Page 70: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Storage Direct-attach RAID 0, 1, 1E para BladeCenter Sg p3

12 4

4

Note: RAID engine is colored RED; RAID 0, 1, 1E is done using on-board RAID of HS12, HS21 XM, and HS22. All other blades need the SAS Expansion Card (39Y9190) as the RAID engine

P/N Description Q

1. 7870 BladeCenter HS22Note: All HS and LS servers supported

1 to 6

Expansion Card (39Y9190) as the RAID engine

5 5

2. 43W4068 SAS Connectivity Card (CIOv) for IBM BladeCenterNote: Use compatible SAS adapter for blade server

1 per server

3. 8886 BladeCenter S 1

4. 39Y9195 IBM BladeCenter SAS Connectivity Module 1 or 2

5. 43W3581 IBM BladeCenter S 6-Disk Storage Module 1 or 2

71

5. 43W3581 IBM BladeCenter S 6 Disk Storage Module 1 or 2

Page 71: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Storage Direct-attach RAID 5 para BladeCenter S3

142

4

Note: RAID engine is colored RED; RAID 0, 1, 5, 10 is done on ServeRAID MR10ie (46C7167), DSMs are zone-able, so individual disks can be assigned to blades EXP3000 is not zone-able so entire EXP3000

5can be assigned to blades, EXP3000 is not zone-able, so entire EXP3000 has to assigned to one blade. SAS tape can be zoned to any blade

P/N Description Q

1. 7870 BladeCenter HS12 or HS22Note: On HS12, add SAS adapter for external disks

1 to 6 5 5

2. 46C7167 ServeRAID-MR10ie (CIOv) Controller Note: On HS12, add SAS adapter for external disks

1 per server

3. 8886 BladeCenter S 1

4. 39Y9195 IBM BladeCenter SAS Connectivity Module 1 or 2

72

5. 43W35811727

IBM BladeCenter S 6-Disk Storage ModuleIBM System Storage EXP3000

1 or 21 per server

Page 72: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Storage Direct-attach RAID 5 para BladeCenter E, H, HT3

1 42

4

Note: RAID engine is colored RED; RAID 0, 1, 5, 10 is done on ServeRAID MR10ie (46C7167), EXP3000 is not zone-able, so entire EXP3000 has to assigned to one blade SAS tape can be zoned to any

5EXP3000 has to assigned to one blade. SAS tape can be zoned to any blade

P/N Description Q

1. 7870 BladeCenter HS12 or HS22Note: On HS12, add SAS adapter for external disks

1 to 8

5

, p

2. 46C7167 ServeRAID-MR10ie (CIOv) Controller Note: On HS12, add SAS adapter for external disks

1 per server

3. Multiple BladeCenter E, H, T, HT 1

4. 39Y9195 IBM BladeCenter SAS Connectivity Module 1 or 2

5

5

73

5. 1727 IBM System Storage EXP3000 1 per server5

Page 73: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Storage SAN RAID 5 para BladeCenter S hasta 12 HDD3

12 4

4

Note: RAID engine is colored RED; RAID 0, 1, 5, 10 is done on SAS RAID Controller Module (43W3584), Tape products are supported via SPORE currently and will be supported via ServerProven on April 30th

P/N Description Q

1. 7870 BladeCenter HS22Note: All HS and LS servers supported

1 to 6

SPORE currently, and will be supported via ServerProven on April 30th.

5 5

2. 43W4068 SAS Connectivity Card (CIOv) for IBM BladeCenterNote: Use compatible SAS adapter for blade server

1 per server

3. 8886 BladeCenter S 1

4. 43W3584 IBM BladeCenter S SAS RAID Controller Module 2 required

5. 43W3581 IBM BladeCenter S 6-Disk Storage Module 1 or 2

74

5. 43W3581 IBM BladeCenter S 6 Disk Storage Module 1 or 2

Page 74: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

SAN RAID 5 (SAS) para E, H, HT hasta 48 discos( ) p3

1 42

4

Note: RAID engine is done on DS3200, SAS tape can be zoned to any blade 5 7

P/N Description Q

1. 7870 BladeCenter HS22Note: All HS and LS servers supported

1 to 14

2. 43W4068 SAS Connectivity Card (CIOv) for IBM BladeCenterNote: Use compatible SAS adapter for blade server

1 per server6

3. Multiple BladeCenter E, H, T, HT 1

4. 39Y9195 IBM BladeCenter SAS Connectivity Module 1 or 2

5. 1726-22X IBM System Storage DS3200 (Dual Controller) 1

6 1727 Optional IBM System Storage EXP3000 (Dual ESM) 1 to 3

6

6

75

7. 39R6536 DS3000 Partition Expansion License 16

Page 75: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

SAN RAID 5 (iSCSI) para todos los chassis - 48 discos3

1 42

4

Note: RAID engine is done on DS33005 7

P/N Description Q

1. 7870 BladeCenter HS22Note: All HS and LS servers supported

1 to 14

2. 44W4475 Ethernet Expansion Card (CIOv) for IBM BladeCenterNote: Use compatible Ethernet adapter for blade server

1 per server6

3. Multiple BladeCenter S, E, H, T, HT 1

4. Multiple Any BNT or IBM Ethernet Switch module 1 or 2

5. 1726-32X IBM System Storage DS3300 (Dual Controller) 1

6 1727 Optional IBM System Storage EXP3000 (Dual ESM) 1 to 3

6

6

76

7. 39R6536 DS3000 Partition Expansion License 16

Page 76: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

SAN RAID 5 (FC) para todos chassis hasta 48 discos( ) p3

1 42

4

Note: RAID engine is done on DS34005 7

P/N Description Q

1. 7870 BladeCenter HS22Note: All HS and LS servers supported

1 to 14

2. 46M6065 QLogic 4Gb Fibre Channel Expansion Card (CIOv) Note: Use compatible Fibre adapter for blade server

1 per server6

3. Multiple BladeCenter S, E, H, T, HT 1

4. Multiple Any Brocade, QLogic or Cisco Fibre Switch module 1 or 2

5. 1726-42X IBM System Storage DS3400 (Dual Controller) 1

6 1727 Optional IBM System Storage EXP3000 (Dual ESM) 1 to 3

6

6

77

7. 39R6536 DS3000 Partition Expansion License 16

Page 77: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

El Blade Server LS22/42

78

Page 78: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

LS42…Nuevos modelos al precio de servers de 2 CPUs con la capacidad de escalar a 4 CPUs en cualquier momentoesca a a C Us e cua qu e o e to

Que hay de nuevo:

Nuevos Procesadores + Unica Arquitectura Escalable IBM 2+2

Ultimos procesadores quad core de la serie 8000 anunciados por AMD Precio especial 2+2 que sólo IBM puede proveer. Un cliente puede comenzar con

un LS42 con 2 CPUs al precio de un blade de 2 CPUs estándar y escalar muyfacilmente a 4 CPUs en sólo 20 segundos si su negocio crecefacilmente a 4 CPUs en sólo 20 segundos si su negocio crece.

2+2= Compre un blade LS42 con 2 CPUs

….al precio de un LS22

l fá il t d é

2P MPE 4P LS422P LS42 +

y escale fácilmente después….

Solo IBM puede brindar esto

79

Page 79: Arquitectura y Configuracion en IBM Blade Center Revision Tecnica Conectividad y Open Fabric

Muchas Gracias!

Ing. Carlos EtchartS t Fi ld T h i l S t

81

System x Field Technial [email protected]