mercoledì 19 dicembre 2007

Le diverse facce della virtualizzazione

SearchCIO.it - 19 Dicembre 2007

Dalla partizione dei server, alla gestione delle applicazioni, passando per l'infrastruttura. La sfida è fornire strumenti di gestione unificata.


Giorgio Fusari

Dalle più o meno collaudate tecniche di partizione dell'hardware, alle moderne suite software per la gestione centralizzata del data center: in entrambi i casi la virtualizzazione ha l'obiettivo di presentare le risorse in modo tale che gli utenti o le applicazioni possano gestirle o utilizzarle nel modo migliore, cioè quello più vantaggioso ed efficiente a seconda dei casi, invece che nella sola modalità imposta dalle caratteristiche fisiche dell'hardware o dalla sua collocazione geografica.



Si tratta di un settore in forte crescita: Idc prevede in crescita il numero di server virtualizzati con un trend medio annuo del 55%, per arrivare a 1,1 milioni di unità vendute in Europa nel 2011, che rappresentano il 52% dei previsti 2 milioni e 197.000 server venduti in tale periodo. Un numero che equivale a 5,4 milioni di server logici. Sempre secondo queste previsioni, in Europa occidentale il fatturato proveniente dalle vendite di server virtualizzati crescerà dai 948 milioni di dollari del 2006 a 5,5 miliardi di dollari nel 2011.



Cos'è la virtualizzazione?

Il termine indica la capacità di creare una versione non fisica, cioè un'immagine, di un dispositivo o una risorsa. Si può, quindi, virtualizzare un server, un'unità di memorizzazione, una rete o anche un sistema operativo.



In quest'ultimo caso le risorse possono essere suddivise in vari ambienti di esecuzione (Virtual execution environment - Vee) dei diversi processi. Un semplice esempio di virtualizzazione può essere anche il partizionamento di un'unità disco fisica (hard disk) in due unità logiche separate (logical disk).



In tutti i casi, sia che si tratti di virtualizzare le infrastrutture di storage, i server, le applicazioni o quant'altro, l'utente è in grado d'interagire con le risorse virtuali, così come se stesse operando direttamente su quelle fisiche.



Partizionare le Cpu

Le tecniche di virtualizzazione eseguite direttamente sull'hardware, ad esempio sui microprocessori, sono già abbastanza consolidate. Le operazioni di partizionamento della Cpu possono essere effettuate, a seconda delle caratteristiche e funzionalità del prodotto, sfruttando le possibilità fornite dall'hardware o intervenendo sul firmware della macchina.



Virtualizzare una Cpu permette di avere, ad esempio, più Cpu virtuali mappate su una stessa Cpu fisica: tipicamente si fa quando occorre creare un “time sharing” della capacità elaborativa del processore fra più sistemi operativi. Questi ultimi, in tal caso, sono gli utenti ai quali viene presentata un'immagine del processore reale.



Inoltre, la Cpu virtuale non deve necessariamente possedere le stesse caratteristiche di quella fisica. È possibile, ad esempio, implementare una Cpu virtuale Intel su un Cpu fisica Risc, con un'operazione di emulazione. Su un unico sistema di elaborazione fisico, sia esso un server o un personal computer, si può quindi decidere di installare e far funzionare contemporaneamente sistemi operativi diversi, come ad esempio Windows e Linux.



«I vari sistemi operativi così installati e funzionanti - spiega Andrea Toigo, business solution specialist di Intel Italia - sono in grado di operare, come se avessero, ognuno, accesso esclusivo alle risorse hardware fisiche». E ciò grazie a piattaforme di virtualizzazione conosciute nel settore sotto i nomi di virtual machine monitor (Vmm) o hypervisor. Inoltre, aggiunge Toigo, usando i processori Intel di ultima generazione come Xeon o Core 2 Duo, si possono sviluppare Vmm e hypervisor in maniera molto piú semplice, con la possibilitá di utilizzare anche sistemi operativi a 64 bit.



Il server si fa virtualizzato

Virtualizzare un server allarga ulteriormente la capacità di gestione. «In questo caso - osserva Alberto Bullani, regional manager per l'Italia di Vmware - si attua la trasformazione di un server fisico - cioè un oggetto con un suo preciso ingombro e un determinato consumo di energia elettrica - in un file, che mantiene le stesse proprietà del server di partenza». Realizzato in questo modo, un server virtuale risulta composto da tutto lo stack applicativo originale, ossia Bios, sistema operativo e applicazioni, fornendo all'It elevata flessibilità e ottimizzazione delle risorse disponibili. Infatti, sullo stesso server fisico si possono eseguire diversi server virtuali con sistemi operativi tra loro eterogenei e separati.



Uno dei vantaggi più importanti è la semplificazione dell'infrastruttura It, che comporta un significativo miglioramento nella gestione dei sistemi, nella messa in opera di nuovi server, virtuali e non più fisici, nella possibilità di rispondere in tempi estremamente rapidi a nuove esigenze di business. I risparmi più evidenti, invece, sono quelli dovuti alla dismissione di server fisici, alla cancellazione dei relativi canoni di manutenzione, al risparmio di corrente elettrica e di “floor space” nel data center.



L'impatto sull'infrastruttura

Virtualizzare comporta, però, anche qualche impatto sull'infrastruttura It aziendale. «Se dal punto di vista dell'utente delle applicazioni non ci sono cambiamenti e il passaggio risulta “trasparente” - precisa Toigo - sull'infrastruttura e su chi la gestisce qualche cambiamento si verifica. Gli amministratori It devono mutare un po' il loro approccio, tenendo presente che viene a mancare l'associazione 1:1 tra macchina logica e fisica». Quindi non valgono piú i criteri di dimensionamento dei server adottati fino a oggi, ma è necessario valutare quale possa essere il rapporto “server virtuale-server fisico“ per la propria realtá aziendale.



Un altro punto importante riguarda i meccanismi di creazione e migrazione delle macchine virtuali, che devono consentire un utilizzo bilanciato delle risorse fisiche, in modo da garantire comunque sistemi di sicurezza in grado di ridurre, se non annullare, i tempi di fermo-macchina che possono verificarsi nel caso di un malfunzionamento dell'hardware.



Inoltre, si tratta anche di mantenere inalterate le performance. «L'innovazione tecnologica in questo settore - commenta Andrea Rossi, country manager di Novell Italia - consiste, tecnicamente, nella capacità di ottenere prestazioni in ambito virtuale che siano paragonabili a quelle ottenute con hardware fisico. Sul piano delle prove da affrontare per il futuro, la prima vera sfida è la gestione del parco macchine virtuali, che riducono sì il numero di macchine fisiche, ma richiedono, comunque, un'amministrazione complessa. L'altra sfida importante è data dall'esistenza di diverse tecnologie di virtualizzazione. Ecco perché occorrono strumenti di gestione indipendenti da queste ultime».



Infatti, se è vero che, lato hardware, i meccanismi e le tecniche di virtualizzazione stanno facendosi sempre più sofisticati, è anche vero che la proliferazione di server, Cpu, storage e altre risorse virtuali può causare all'It manager non poche difficoltà di gestione. Si rendono, quindi, necessari anche prodotti e componenti software che lo mettano in grado di “riassemblare“ tutte le risorse virtuali e fisiche del data center e di amministrarle con semplicità ed efficienza, abbattendo i confini fra le isole di sistemi virtualizzati, creati con singole tecnologie o piattaforme.



«Ad esempio - spiega Giorgio Richelli, consulente e specialista It all'interno del Systems & Technology Group di Ibm Italia - per creare un nuovo volume logico su un sistema di storage virtualizzato, non mi devo preoccupare di dove prendere i blocchi o su quale sottosistema dischi verranno collocati». Il volume logico si può, infatti, creare aggregando lo spazio disco di unità fisiche dislocate in sale macchine o luoghi diversi. Senza virtualizzazione, invece, il compito è molto più oneroso.



Le suite di gestione integrata servono anche a non perdere il controllo in ambienti molto complessi ed eterogenei, dove sono presenti risorse fisiche di vari vendor: in pratica, quando si verifica un malfunzionamento su un determinato volume virtuale, deve essere sempre possibile riprendere il filo e risalire in fretta all'errore, vedendo se è dovuto all'avaria di un'unità disco fisica, di cui occorre poi individuare la precisa collocazione nel data center. E questo, spiega, è fondamentale anche per risolvere il vero problema degli utenti, che è snellire e automatizzare il più possibile le procedure di provisioning delle varie risorse e servizi It all'interno dell'organizzazione, per concentrarsi meglio sugli aspetti che riguardano i cambiamenti e l'evoluzione del business.

SHARE THIS

Author:

Independent writing and editing professional

0 Commenti:

Commenta questo post