I layer software di astrazione dell’hardware sono sempre più diffusi nelle nostre infrastrutture: tutto è iniziato anni fa con e gli hypervisor (CPU e RAM), ora c’è l’ondata degli storage totalmente virtualizzati (di nuova generazione, 100% scale-out e magari VSA) e la prossima frontiera sarà la virtualizzazione del network (Nicira ed Embrane sono solo due esempi). Siete pronti?

Perché il software… una breve storia

Il primo Hypervisors x86 è stato pensato per virtualizzare un PC in un PC, soprattutto per lo sviluppo, poi è cresciuto sul lato server fino a diventare il primo strato di software sui server comodity x86.
Le prime infrastrutture virtualizzate erano comunque per lo sviluppo o per far girare servizi tier 2 ma, anno dopo anno, le cose sono velocemente cambiate.
La virtualizzazione dei server ha quindi mostrato il sui primi limiti quando i numeri sono saliti: le grandi infrastrutture soffrivano il costo del management dello storage, pessima utilizzazione di risorse storage, prestazioni e scalabilità.
L’unica via per risolvere il problema è stata quella di sviluppare “virtualization friendly storage” attraverso una forte integrazione software e un maggiore uso di commodity hardware. Infatti, i sistemi storage più virtualizzati sono quelli che meglio si integrano con questo tipo di infrastrutture.
Risolto un problema, un altro ne è comparso immediatamente dopo: la rete! Ora si possono gestire tonnellate di VM su uno strato di storage praticamente trasparente, si possono muovere le VM (e il relativo storage) avanti e indietro fra infrastrutture diverse senza interruzioni di servizio, il provisioning e il management sono semplici e il rapporto Sysadmin/VM+TB gestiti è migliorato tantissimo… almeno fino a quando non c’è bisogno di andare a toccare il network.
Al momento, la virtualizzazione del network è ancora ad uno stadio abbastanza basico (a parte per alcune soluzioni molto costose), questo succede anche nei più sofisticati hypervisor e, ogni volta che c’è da mettere le mani sul network per riconfigurarlo si ha a che fare con cavi, firewalls, software di management decisamente complessi, ecc, ecc. Nei grandi Datacenter puoi fare il provisioning di VM e storage in pochi minuti ma poi c’è il rischio concreto di dover aspettare (anche giorni) prima di vedere lo strato di rete configurato come ti serve.

Il cloud aggrava il problema

Se si pensa ad alcuni dei pilastri del cloud, come automazione e self provisioning, è facile farsi un’idea di quanto possa diventare un problema serio avere a che fare con un network tradizionale.
Quando aggiungi lo strato cloud sopra una infrastruttura parzialmente virtualizzata corri il rischio di costruire una ferrari con le ruote di una cinquecento: è probabile che andrai forte ma solo fino a quando la strada sarà dritta… qualcuno si ricorderà ancora oggi il famoso slogan “la potenza è nulla senza il controllo”!
Il problema diventa ancora più serio nelle grandi aziende e in quegli ISP che hanno dei DC grandi come campi di calcio.

L’infrastruttura di prossima generazione

Il sentiero è già stato tracciato da Server e storage, ora tocca al network. Ho già menzionato alcuni pionieri in questo campo ma sono sicuro che presto vedremo diversi player nuovi… I fornitori tradizionali di apparati network non ne saranno felici ma questo è quello che succederà.
Una infrastruttura fatta con hardware commodity al 100%, costruita con mattocini standard e cementati da uno strato di virtualizzazione è l’obiettivo di molti ISP e grandi clienti. Alla fine, lo strato di network si ridurrà progressivamente a stupidi switch livello 2 molto veloci e tutta l’intelligenza si sposterà negli hypervisor costringendo i vendor a fare gare solo sul prezzo, come adesso è per i server e presto anche per lo storage.

Le conseguenze

Durante l’ultimo HP discover ho letto da qualche parte un messaggio del tipo “nel 2020 la maggior parte delle aziende non avrà più un dipartimento IT”. Forse il messaggio è un po esagerato, non sono sicuro che le aziende andranno ad eliminare il dipartimento IT (anche se lo considero uno degli scenari possibili in diversi casi), però è molto probabile che molte di queste non possederanno più un Datacenter fisico. Le ragioni che spingeranno le aziende ad utilizzare un cloud 100% privato costruito su infrastrutture pubbliche non saranno solo il prezzo competitivo ma anche l’elasticità e le funzionalità che altrimenti non sarebbero possibili in una piccola infrastruttura.
Con la possibilità di costruire un Private cloud reale (un DC totalmente virtualizzato), pagato in funzione del consumo, molte SMB adotteranno lo IaaS invece di un DC interno, specialmente le piccole. Naturalmente poi, le SMB andranno anche verso SaaS e PaaS, ma sono sicuro che un po di Legacy rimarrà comunque e il IaaS sarà l’unica via.

Nota finale

L’infrastruttura tradizionale, così come la conosciamo oggi, morirà lentamente e con quel paradigma moriranno anche le vostre infrastrutture tradizionali. Dall’altra parte una infrastruttura totalmente virtualizzata potrebbe risultare poco conveniente per una SMB che non potrebbe neanche godere dell’economia di scala: l’unica via per loro sarà l’IaaS.
Posso anche immaginare che, mano a mano che queste nuove tecnologie di virtualizzazine miglioreranno, le vendite hardware tradizionali avvarranno un calo proporzionale.
Alla fine, penso che anche i più ostinati dei rivenditori/S.I. saranno costretti a rivedere i loro modelli di business… al 2020 mancano 8 anni, saranno sufficienti per cambiare la testa di certi operatori IT?