adeguamento tecnologico sala server distrettuale perugia · distrettuale di perugia a cura di...
TRANSCRIPT
Capitolato tecnico Pagina 1
Adeguamento Tecnologico Sala Server Distrettuale di Perugia
A cura di Fiumicelli Dott. Massimiliano
Situazione attuale La Sala Server Distrettuale di Perugia è sita in P.zza Matteotti N.1 al Primo Piano ed eroga numerosi servizi
circondariali e Distrettuali.
Attualmente sono presenti :
N. 20 Server con S.O. Host Vmware ESX
N. Marca/Modello N. CPU
Tipo CPU RAM Gb
N. ETH (gigabit)
N.HBA (4Gb)
12 Sun Fire x4200 M2 2 AMD Opteron 2218 16 4 2
2 HP Proliant DL580 G5
2 Intel Xeon E7330 16 5 2
2 HP Proliant DL380 G5
2 Intel Xeon E5310 8 4 2
1 Sun Fire x5260 2 Intel Xeon X5260 32 6 2
2 Olidata 2 AMD Opteron 265 8 4 0
1 FS PRIMERGY TX300 S3
1 Intel Xeon X5160 8 4 0
N. 5 sistemi di Storage
N. 1 SUN StorageTek 6140 con 2 teste ciascuna con 2 HBA da 4GB ed N. 11 HD da 500 Gb Sata + N.
5 HD da 300Gb FC
N. 1 Storage NetApp 2040 con 1 Testa con 2 HBA da 4 GB e N. 12 HD da 300Gb SAS
N. 1 Storage NetApp FAS 270 con 1 testa con 1 HBA da 2 GB utilizzato come ISCSI Storage
N. 1 Storage HP StorageWorks MSA 2000 2012 doppio controller con 6 HD da 300 GB SAS
N.1 Storage HP StorageWorks MSA 1000 Singolo controller n. 6 HD da 146 gb
N. 4 Switch FC che realizzano la SAN
N. 2 Switch Brocade SW200E con 16 porte
N.2 Switch HP StorageWorks 4/10q FC switch 10 porte 1/2 GB
N. 1 Sistema di BackUP
N. 1 Tape Library TandBerg StorageLibrary T40+ con doppia scheda FC.
Adeguamento tecnologico Sala Server Distrettuale Perugia
Capitolato Tecnico Pagina 2
Schema logico
1
2
3
4
5
6
FANSTATUS
Power Supply 1 Power Supply 2
Catalyst 6500 SERIES
Cisco Systems, Inc.
RUNIN
STA
LL
SWITCH MUST BE IN OFF "O" POSITION TO INSTALL/
REMOVE POWER SUPPLY. FASTENER MUST BE FULLY
ENAGED PRIOR TO OPERATING POWER SUPPLY.
100-240 V ~16A60/50 Hz
INPUTOK
FANOK
OUTPUTFAIL
1 2
INPUT 1
100-240 V ~16A60/50 Hz
INPUT 2
0
Cisco Systems, Inc.
RUNIN
STA
LL
SWITCH MUST BE IN OFF "O" POSITION TO INSTALL/
REMOVE POWER SUPPLY. FASTENER MUST BE FULLY
ENAGED PRIOR TO OPERATING POWER SUPPLY.
100-240 V ~16A60/50 Hz
INPUTOK
FANOK
OUTPUTFAIL
1 2
INPUT 1
100-240 V ~16A60/50 Hz
INPUT 2
0
WS-SUP32-10GE-P3B
CATALYST 6500 SUPERVISOR ENGINE 32
SYSTEM
STATU
S
ACTIV
E
PWR
MG
MT
EJECT
DISK 0CONSOLEPORT 2PORT 1
LINK 1
LINK 2
RESET
TX RX TX RX
LINK
USB 2.0
PORT 3
WS-SUP32-10GE-P3B
CATALYST 6500 SUPERVISOR ENGINE 32
SYSTEM
STATU
S
ACTIV
E
PWR
MG
MT
EJECT
DISK 0CONSOLEPORT 2PORT 1
LINK 1
LINK 2
RESET
TX RX TX RX
LINK
USB 2.0
PORT 3
WS-X6724-SFP24 PORT GIGABIT ETHERNET SFP
STATUS
1 2 3 4 21 22 23 2417 18 19 2013 14 15 169 10 11 125 6 7 8
STATUS
WS-X6748-GE-TX47
48
37
38
35
36
25
26
23
24
13
14
11
12
1
2
4 8 P O R T
12119 107 85 63 41 2 242321 2219 2017 1815 1613 14 363533 3431 3229 3027 2825 26 484745 4643 4441 4239 4037 38
10/100/1000
GE MOD
FABRIC ENABLED
RJ45
STATUS
WS-X6748-GE-TX47
48
37
38
35
36
25
26
23
24
13
14
11
12
1
2
4 8 P O R T
12119 107 85 63 41 2 242321 2219 2017 1815 1613 14 363533 3431 3229 3027 2825 26 484745 4643 4441 4239 4037 38
10/100/1000
GE MOD
FABRIC ENABLED
RJ45
Cisco Catalyst 6506 - DataCenter
WS-SUP32-10GE-3B
WS-SUP32-10GE-3B
WS-X6724-SFP
WS-X6748-GE-TX
WS-X6748-GE-TX
FANSTATUS
1
2
3
4
5
6
7
8
9
Power Supply 1 Power Supply 2
Catalyst 6500 SERIES
Cisco Systems, Inc.
RUNIN
STA
LL
SWITCH MUST BE IN OFF "O" POSITION TO INSTALL/
REMOVE POWER SUPPLY. FASTENER MUST BE FULLY
ENAGED PRIOR TO OPERATING POWER SUPPLY.
100-240 V ~16A60/50 Hz
INPUTOK
FANOK
OUTPUTFAIL
1 2
INPUT 1
100-240 V ~16A60/50 Hz
INPUT 2
0
Cisco Systems, Inc.
RUNIN
STA
LL
SWITCH MUST BE IN OFF "O" POSITION TO INSTALL/
REMOVE POWER SUPPLY. FASTENER MUST BE FULLY
ENAGED PRIOR TO OPERATING POWER SUPPLY.
100-240 V ~16A60/50 Hz
INPUTOK
FANOK
OUTPUTFAIL
1 2
INPUT 1
100-240 V ~16A60/50 Hz
INPUT 2
0
WS-SUP32-10GE-P3B
CATALYST 6500 SUPERVISOR ENGINE 32
SYSTEM
STATU
S
ACTIV
E
PWR
MG
MT
EJECT
DISK 0CONSOLEPORT 2PORT 1
LINK 1
LINK 2
RESET
TX RX TX RX
LINK
USB 2.0
PORT 3
WS-SUP32-10GE-P3B
CATALYST 6500 SUPERVISOR ENGINE 32
SYSTEM
STATU
S
ACTIV
E
PWR
MG
MT
EJECT
DISK 0CONSOLEPORT 2PORT 1
LINK 1
LINK 2
RESET
TX RX TX RX
LINK
USB 2.0
PORT 3
STA
TUS
WS-X6704-10GE
4 PORT 10 GIGABIT ETHERNET
LINK 1
LINK 2
LINK3
LINK 4
PORT1
TX RX
PORT2
TX RX
PORT3
TX RX
PORT4
TX RX
STATUS
WS-X6748-GE-TX47
48
37
38
35
36
25
26
23
24
13
14
11
12
1
2
4 8 P O R T
12119 107 85 63 41 2 242321 2219 2017 1815 1613 14 363533 3431 3229 3027 2825 26 484745 4643 4441 4239 4037 38
10/100/1000
GE MOD
FABRIC ENABLED
RJ45
WS-X6724-SFP24 PORT GIGABIT ETHERNET SFP
STATUS
1 2 3 4 21 22 23 2417 18 19 2013 14 15 169 10 11 125 6 7 8
Cisco Catalyst 6509 - Core
WS-SUP32-10GE-3B
WS-SUP32-10GE-3B
WS-X6724-SFP
WS-X6748-GE-TX
WS-X6704-10GE
CAMPUS LAN
10GEGE
FC 2/4G
LAN
SAN
Storage Array
Bracade sw200eBracade sw200e
Switch 4210 PWR 9-Port3CR17341-91
PWR
D/S
A/L
4
8
10/100/1000Base-T 100/1000Base-X
9/10 9/10 LINK
9/10 ACT
Console
Mode
10/100Base-TX
1
5
Switch 4210 PWR 9-Port3CR17341-91
PWR
D/S
A/L
4
8
10/100/1000Base-T 100/1000Base-X
9/10 9/10 LINK
9/10 ACT
Console
Mode
10/100Base-TX
1
5
Storage Array
HP StorageWorks
4/10q
HP StorageWorks
4/10q
Farm02
Farm01
Come si può notare il DataCenter è realizzato in modo classico con un apparato Cisco Catalist 6506 "Access
Layer" (al quale sono attestati tutti i server) connesso ad un Cisco Catalist 6509 "Core/Distribution Layer"
con un singolo link 10G in Fibra Ottica.
La rete SAN FC viene realizzata mediante l'utilizzo di una coppia di switch Brocade per la prima Farm e da
una modesta coppia di switch HP per la seconda Farm.
Tali switch FC realizzano due reti SAN-FC non interconnesse tra loro.
Dal punto di vista software si utilizza l'Hypervisor VmWare per realizzare l'intera infrastruttura di virtualizzazione dei server di produzione. Tutte le Macchine Virtuali in produzione utilizzano un Sistema Operativo Microsoft (windows 2003 server e windows server 2008) alcuni a 32 bit altri a 64 bit. Il totale delle VM in produzione è circa 90. I server fisici sono dotati di Hypersisor ESX ma con differenti versioni (dalla Esx 3.5 update 4 alla versione 4.0 fino alla 4.1). Sono presenti 2 Virtual Center (uno fisico ed uno virtuale) per la gestione delle due differenti Farm VmWare. Inoltre è presente un Server fisico dedicato alla gestione del sistema di backup.
Adeguamento tecnologico Sala Server Distrettuale Perugia
Capitolato Tecnico Pagina 3
Adeguamento tecnologico Sala Server Distrettuale Perugia
Capitolato Tecnico Pagina 4
I server Esx sono organizzati in 4 cluster distinti: sono stati raggruppati per tipologia di CPU ma anche per versione omogenea di Sistema ESX. In tutti i cluster si utilizzano HA e DRS. Ogni storage è collegato in FC ai nodi di un solo cluster con le opportune configurazioni di Zoning. Per necessità di spazio lo storage SUN Storagetek 6140 viene utilizzato da entrambe le farm.
Adeguamento tecnologico Sala Server Distrettuale Perugia
Capitolato Tecnico Pagina 5
Criticità rilevate Dall'analisi svolta sono emerse le seguenti criticità:
1) La BackBone di Campus (Core Layer) non risulta ridondata: il Catalist 6509 risulta essere un Single
point of failure;
2) La rete dedicata ai server (Access layer) non risulta ridondata: il Catalist 6506 risulta essere un
Single point of failure;
3) Ridotta espandibilità della SAN: gli switch Brocade risultano avere tutte le porte impegnate;
4) Ridotta espandibilità degli Storage: lo spazio storage non è più sufficiente a coprire le necessità di
archiviazione;
5) Basse Performance: soprattutto la Farm02 risente della scarsa qualità degli switch FC di HP
certamente non più idonei e della vetustà degli storage StorageWorks Msa 1000 ed MSA 2000
sempre di HP. Il sovraccarico della SUN Storagetek 6140 rallenta anche la Farm01.
6) Gestione delle risorse HW non ottimizzata: dal fatto che le due Farm sono completamente distinte
e disconnesse non è possibile bilanciare il carico in modo opportuno;
7) Difficoltà di gestione: Differenti sistemi di gestione per LAN, SAN e Storage. Le due farm Esx non
sono uniformi né in termini di HW né in termini di versione di sistema operativo Host (risultano
presenti esx 3.5, esx 4.0, esx 4.1).
Finalità progettuali Vista la situazione attuale il presente progetto vuole dare una risposta alle criticità rilevate proponendo
una soluzione innovativa che permetta una completa fault-tollerance in ogni area dell'infrastruttura di rete
(Campus, Accesso, SAN), una maggiore scalabilità, performance più elevate ed una più facile gestione
dell'intera infrastruttura.
Adeguamento tecnologico Sala Server Distrettuale Perugia
Capitolato Tecnico Pagina 6
La soluzione Proposta
Infrastruttura di Rete
Il progetto prevede l’utilizzo di apparati di nuova generazione, appartenenti alla famiglia Cisco Nexus, che
abilitano l’utilizzo diffuso di connettività 10 Gigabit Ethernet e consentono un’adozione immediata alle
tecnologie “Data Center Bridging” (DCB), per la convergenza delle reti dati e storage.
All’interno delle Hypervisor nel prodotto VMware vSphere 4.1 sarà utilizzato il “Virtual Switch” Cisco Nexus
1000, che completa le funzionalità di virtualizzazione del prodotto VMware. Cisco Nexus 1000 consente la
gestione diretta dello switching all’interno del Sistema Operativo virtuale di VMware, gestisce la
profilazione delle VM e dei livelli di sicurezza, creando un ambiente facilmente gestibile e configurabile.
Integrandosi con VMware vCenter, Nexus 1000 permette di facilitare gli eventi di “migrazione” (p.es.
vMotion) di una macchina virtuale, mantenendone intatte le caratteristiche di rete, e riportando il controllo
dello strato switching a chi gestisce l’infrastruttura, piuttosto che i server.
FANSTATUS
1
2
3
4
5
6
7
8
9
Power Supply 1 Power Supply 2
Catalyst 6500 SERIES
Cisco Systems, Inc.
RUNIN
STA
LL
SWITCH MUST BE IN OFF "O" POSITION TO INSTALL/
REMOVE POWER SUPPLY. FASTENER MUST BE FULLY
ENAGED PRIOR TO OPERATING POWER SUPPLY.
100-240 V ~16A60/50 Hz
INPUTOK
FANOK
OUTPUTFAIL
1 2
INPUT 1
100-240 V ~16A60/50 Hz
INPUT 2
0
Cisco Systems, Inc.
RUNIN
STA
LL
SWITCH MUST BE IN OFF "O" POSITION TO INSTALL/
REMOVE POWER SUPPLY. FASTENER MUST BE FULLY
ENAGED PRIOR TO OPERATING POWER SUPPLY.
100-240 V ~16A60/50 Hz
INPUTOK
FANOK
OUTPUTFAIL
1 2
INPUT 1
100-240 V ~16A60/50 Hz
INPUT 2
0
WS-SUP32-10GE-P3B
CATALYST 6500 SUPERVISOR ENGINE 32
SYSTEM
STATU
S
ACTIV
E
PWR
MG
MT
EJECT
DISK 0CONSOLEPORT 2PORT 1
LINK 1
LINK 2
RESET
TX RX TX RX
LINK
USB 2.0
PORT 3
WS-SUP32-10GE-P3B
CATALYST 6500 SUPERVISOR ENGINE 32
SYSTEM
STATU
S
ACTIV
E
PWR
MG
MT
EJECT
DISK 0CONSOLEPORT 2PORT 1
LINK 1
LINK 2
RESET
TX RX TX RX
LINK
USB 2.0
PORT 3
STA
TUS
WS-X6704-10GE
4 PORT 10 GIGABIT ETHERNET
LINK 1
LINK 2
LINK3
LINK 4
PORT1
TX RX
PORT2
TX RX
PORT3
TX RX
PORT4
TX RX
STATUS
WS-X6748-GE-TX47
48
37
38
35
36
25
26
23
24
13
14
11
12
1
2
4 8 P O R T
12119 107 85 63 41 2 242321 2219 2017 1815 1613 14 363533 3431 3229 3027 2825 26 484745 4643 4441 4239 4037 38
10/100/1000
GE MOD
FABRIC ENABLED
RJ45
WS-X6724-SFP24 PORT GIGABIT ETHERNET SFP
STATUS
1 2 3 4 21 22 23 2417 18 19 2013 14 15 169 10 11 125 6 7 8
Cisco Catalyst 6509
WS-SUP32-10GE-3B
WS-SUP32-10GE-3B
WS-X6724-SFP
WS-X6748-GE-TX
WS-X6704-10GE1
2
3
4
5
6
FANSTATUS
Power Supply 1 Power Supply 2
Catalyst 6500 SERIES
Cisco Systems, Inc.
RUNIN
STA
LL
SWITCH MUST BE IN OFF "O" POSITION TO INSTALL/
REMOVE POWER SUPPLY. FASTENER MUST BE FULLY
ENAGED PRIOR TO OPERATING POWER SUPPLY.
100-240 V ~16A60/50 Hz
INPUTOK
FANOK
OUTPUTFAIL
1 2
INPUT 1
100-240 V ~16A60/50 Hz
INPUT 2
0
Cisco Systems, Inc.
RUNIN
STA
LL
SWITCH MUST BE IN OFF "O" POSITION TO INSTALL/
REMOVE POWER SUPPLY. FASTENER MUST BE FULLY
ENAGED PRIOR TO OPERATING POWER SUPPLY.
100-240 V ~16A60/50 Hz
INPUTOK
FANOK
OUTPUTFAIL
1 2
INPUT 1
100-240 V ~16A60/50 Hz
INPUT 2
0
WS-SUP32-10GE-P3B
CATALYST 6500 SUPERVISOR ENGINE 32
SYSTEM
STATU
S
ACTIV
E
PWR
MG
MT
EJECT
DISK 0CONSOLEPORT 2PORT 1
LINK 1
LINK 2
RESET
TX RX TX RX
LINK
USB 2.0
PORT 3
WS-SUP32-10GE-P3B
CATALYST 6500 SUPERVISOR ENGINE 32
SYSTEM
STATU
S
ACTIV
E
PWR
MG
MT
EJECT
DISK 0CONSOLEPORT 2PORT 1
LINK 1
LINK 2
RESET
TX RX TX RX
LINK
USB 2.0
PORT 3
WS-X6724-SFP24 PORT GIGABIT ETHERNET SFP
STATUS
1 2 3 4 21 22 23 2417 18 19 2013 14 15 169 10 11 125 6 7 8
STATUS
WS-X6748-GE-TX47
48
37
38
35
36
25
26
23
24
13
14
11
12
1
2
4 8 P O R T
12119 107 85 63 41 2 242321 2219 2017 1815 1613 14 363533 3431 3229 3027 2825 26 484745 4643 4441 4239 4037 38
10/100/1000
GE MOD
FABRIC ENABLED
RJ45
STATUS
WS-X6748-GE-TX47
48
37
38
35
36
25
26
23
24
13
14
11
12
1
2
4 8 P O R T
12119 107 85 63 41 2 242321 2219 2017 1815 1613 14 363533 3431 3229 3027 2825 26 484745 4643 4441 4239 4037 38
10/100/1000
GE MOD
FABRIC ENABLED
RJ45
Cisco Catalyst 6506
WS-SUP32-10GE-3B
WS-SUP32-10GE-3B
WS-X6724-SFP
WS-X6748-GE-TX
WS-X6748-GE-TX
CISCO NEXUS 5596UP
STAT
ID
17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 481 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
Cisco Nexus 2148T
1GE Fabric Extender
STAT
ID 45 46 47 48 1 2 3 4
1/10 GIGABIT ETHERNET 1/2/4/8G FIBRE CHANNEL
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16N55-M16UP
CISCO NEXUS 5596UP
STAT
ID
17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 481 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
Cisco Nexus 2148T
1GE Fabric Extender
STAT
ID 45 46 47 48 1 2 3 4
1/10 GIGABIT ETHERNET 1/2/4/8G FIBRE CHANNEL
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16N55-M16UP
4 x 10GE
FC 4 GFC 4 G
NEXUS 5596
NEXUS 2248 TP
NEXUS 5596
NEXUS 2248 TP
GE GE
Storage Array (FC o FCoE)
NEW NetApp FAS 3210
10GEGE
FC 4/8G
CORE
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
Cisco Nexus 2148T
1GE Fabric Extender
STAT
ID 45 46 47 48 1 2 3 4
NEXUS 2248 TP1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
Cisco Nexus 2148T
1GE Fabric Extender
STAT
ID 45 46 47 48 1 2 3 4
NEXUS 2248 TP
FC 8 G
4 x 10GE4 x 10GE
4 x 10GE
5 x GE
Come si può notare si è scelta una soluzione Cisco in quanto si integra con l'Hardware già esistente
preservando gli investimenti già fatti dall'Amministrazione. Tale soluzione inoltre ci permette di soddisfare
tutti i requisiti progettuali risolvendo tutte le criticità inerenti all'infrastruttura di rete sopra esposte.
Adeguamento tecnologico Sala Server Distrettuale Perugia
Capitolato Tecnico Pagina 7
Nel dettaglio, spostando il Catalist 6506 dal Datacenter al Core ed unendolo al Catalist 6509 già presente,
otteniamo la Fault-Tollerance per quanto riguarda la rete di Campus.
Nella Sala Server andremo ad acquistare n. 2 switch Cisco Nexus 5596 che ci garantiscono, insieme ai 4
switch Nexus 2248, la completa integrazione della rete Lan con la SAN in FC realizzando di fatto un unica
infrastruttura modulare, largamente performante, scalabile e soprattutto con un unica piattaforma di
gestione.
La soluzione proposta abilita di fatto l'infrastruttura, sin da subito, all'utilizzo del protocollo FCoE e quindi
realizza la convergenza del trasporto dati e storage.
Infrastruttura Storage
Per quanto riguarda l'infrastruttura di storage si dovrà acquistare un nuovo performante hardware e la scelta è caduta su NetApp. Anche in questo caso la valutazione è stata dettata degli investimenti precedenti, dal requisito di facilità di gestione (unica piattaforma di gestione per tutti gli storage presenti) e dall'apertura verso lo standard FCoE. Lo Storage NetApp FAS 3210 da noi scelto soddisfa tutti i requisiti.
Infrastruttura di virtualizzazione
Per quanto riguarda l'infrastruttura di virtualizzazione si intende realizzare un unica FARM VmWare
VSphere 4.1 up 1 (ultima versione) come meglio illustrato nella Fig.
Vcenter Server 4.1 up 1
Vcenter DB-Server
Vcenter UpDate Manager Server
ADMIN-Cluster (DRS-HA)
VmWare Esxi 4.1 update 1
VmWare Esxi 4.1 update 1
INTEL-Cluster (DRS-HA)
VmWare Esxi 4.1 update 1
VmWare Esxi 4.1 update 1
VmWare Esxi 4.1 update 1
Server01 Server02 Server03
Server04 Server05 Server06
Server07 Server08 Server09
ServerXX ServerXX ServerXX
AMD-Cluster (DRS-HA)
VmWare Esxi 4.1 update 1
VmWare Esxi 4.1 update 1
VmWare Esxi 4.1 update 1
Server01 Server02 Server03
Server04 Server05 Server06
Server07 Server08 Server09
ServerXX ServerXX ServerXX
Storage Pool
LUN Cluster ADMIN
LUN Cluster INTEL
LUN Cluster AMD
Per prima cosa si dovrà costruire un Cluster destinato a contenere tutte le VM di Gestione (Vsphere Center
4.1 up1, Vcenter UpDate Manager e un db-Server per i DataBase di VmWare).
Adeguamento tecnologico Sala Server Distrettuale Perugia
Capitolato Tecnico Pagina 8
Al fine di uniformare tutti server fisici all'ultima versione dell'Hypervisor si utilizzerà la versione VmWare
ESXi 4.1 up 1 che dovrà quindi essere installata su tutti i server presenti.
Si costruiranno poi due grandi cluster: uno per i server INTEL e l'altro contenente tutti i server AMD.
Tali cluster verranno configurati con HA e DRS e saranno messe a disposizione delle LUN specifiche e
dedicate dal Pool di Storage per le VM.
Questa configurazione ci permetterà di avere una maggiore semplicità di gestione ma soprattutto una
maggiore flessibilità, scalabilità ed un utilizzo ottimizzato delle risorse Hardware rispondendo
perfettamente agli obiettivi posti.