I layer software di astrazione dell’hardware sono sempre più diffusi nelle nostre infrastrutture: tutto è iniziato anni fa con e gli hypervisor (CPU e RAM), ora c’è l’ondata degli storage totalmente virtualizzati (di nuova generazione, 100% scale-out e magari VSA) e la prossima frontiera sarà la virtualizzazione del network (Nicira ed Embrane sono solo due esempi). Siete pronti?
Perché il software… una breve storia
Il primo Hypervisors x86 è stato pensato per virtualizzare un PC in un PC, soprattutto per lo sviluppo, poi è cresciuto sul lato server fino a diventare il primo strato di software sui server comodity x86.
Le prime infrastrutture virtualizzate erano comunque per lo sviluppo o per far girare servizi tier 2 ma, anno dopo anno, le cose sono velocemente cambiate.
La virtualizzazione dei server ha quindi mostrato il sui primi limiti quando i numeri sono saliti: le grandi infrastrutture soffrivano il costo del management dello storage, pessima utilizzazione di risorse storage, prestazioni e scalabilità.
L’unica via per risolvere il problema è stata quella di sviluppare “virtualization friendly storage” attraverso una forte integrazione software e un maggiore uso di commodity hardware. Infatti, i sistemi storage più virtualizzati sono quelli che meglio si integrano con questo tipo di infrastrutture.
Risolto un problema, un altro ne è comparso immediatamente dopo: la rete! Ora si possono gestire tonnellate di VM su uno strato di storage praticamente trasparente, si possono muovere le VM (e il relativo storage) avanti e indietro fra infrastrutture diverse senza interruzioni di servizio, il provisioning e il management sono semplici e il rapporto Sysadmin/VM+TB gestiti è migliorato tantissimo… almeno fino a quando non c’è bisogno di andare a toccare il network.
Al momento, la virtualizzazione del network è ancora ad uno stadio abbastanza basico (a parte per alcune soluzioni molto costose), questo succede anche nei più sofisticati hypervisor e, ogni volta che c’è da mettere le mani sul network per riconfigurarlo si ha a che fare con cavi, firewalls, software di management decisamente complessi, ecc, ecc. Nei grandi Datacenter puoi fare il provisioning di VM e storage in pochi minuti ma poi c’è il rischio concreto di dover aspettare (anche giorni) prima di vedere lo strato di rete configurato come ti serve.
Il cloud aggrava il problema
Se si pensa ad alcuni dei pilastri del cloud, come automazione e self provisioning, è facile farsi un’idea di quanto possa diventare un problema serio avere a che fare con un network tradizionale.
Quando aggiungi lo strato cloud sopra una infrastruttura parzialmente virtualizzata corri il rischio di costruire una ferrari con le ruote di una cinquecento: è probabile che andrai forte ma solo fino a quando la strada sarà dritta… qualcuno si ricorderà ancora oggi il famoso slogan “la potenza è nulla senza il controllo”!
Il problema diventa ancora più serio nelle grandi aziende e in quegli ISP che hanno dei DC grandi come campi di calcio.
L’infrastruttura di prossima generazione
Il sentiero è già stato tracciato da Server e storage, ora tocca al network. Ho già menzionato alcuni pionieri in questo campo ma sono sicuro che presto vedremo diversi player nuovi… I fornitori tradizionali di apparati network non ne saranno felici ma questo è quello che succederà.
Una infrastruttura fatta con hardware commodity al 100%, costruita con mattocini standard e cementati da uno strato di virtualizzazione è l’obiettivo di molti ISP e grandi clienti. Alla fine, lo strato di network si ridurrà progressivamente a stupidi switch livello 2 molto veloci e tutta l’intelligenza si sposterà negli hypervisor costringendo i vendor a fare gare solo sul prezzo, come adesso è per i server e presto anche per lo storage.
Le conseguenze
Durante l’ultimo HP discover ho letto da qualche parte un messaggio del tipo “nel 2020 la maggior parte delle aziende non avrà più un dipartimento IT”. Forse il messaggio è un po esagerato, non sono sicuro che le aziende andranno ad eliminare il dipartimento IT (anche se lo considero uno degli scenari possibili in diversi casi), però è molto probabile che molte di queste non possederanno più un Datacenter fisico. Le ragioni che spingeranno le aziende ad utilizzare un cloud 100% privato costruito su infrastrutture pubbliche non saranno solo il prezzo competitivo ma anche l’elasticità e le funzionalità che altrimenti non sarebbero possibili in una piccola infrastruttura.
Con la possibilità di costruire un Private cloud reale (un DC totalmente virtualizzato), pagato in funzione del consumo, molte SMB adotteranno lo IaaS invece di un DC interno, specialmente le piccole. Naturalmente poi, le SMB andranno anche verso SaaS e PaaS, ma sono sicuro che un po di Legacy rimarrà comunque e il IaaS sarà l’unica via.
Nota finale
L’infrastruttura tradizionale, così come la conosciamo oggi, morirà lentamente e con quel paradigma moriranno anche le vostre infrastrutture tradizionali. Dall’altra parte una infrastruttura totalmente virtualizzata potrebbe risultare poco conveniente per una SMB che non potrebbe neanche godere dell’economia di scala: l’unica via per loro sarà l’IaaS.
Posso anche immaginare che, mano a mano che queste nuove tecnologie di virtualizzazine miglioreranno, le vendite hardware tradizionali avvarranno un calo proporzionale.
Alla fine, penso che anche i più ostinati dei rivenditori/S.I. saranno costretti a rivedere i loro modelli di business… al 2020 mancano 8 anni, saranno sufficienti per cambiare la testa di certi operatori IT?
Tutta questa “complicazione”, è dovuta al fatto che “gente di Server” non ha idea di come gestire una infrastruttura di Rete… ma gente di Rete lo sa fare, e senza nessun problema… proprio su DCI sono stati fatti i miracoli, bisogna solo avere gente con le pa…
Secondo me, cose come SDN potranno essere il futuro, ma sicuramente non sono una necessità, almeno fino a prova contraria… poi vedo qualche nota che parla di prestazioni, ma non sono sicuro che si riferisca alla infrastruttura di Rete, anche perché difficilmente sarebbe possibile dimostrare che una Rete virtualizzata possa essere più performante di una rete Fisica, sopratutto in un campo dove tutto “dipende”…
Ma secondo te quali sono i “problemi” di una attuale infrastruttura Fisica? e come una infrastruttura Virtuale potrebbe risolvere questi problemi?
Scusami se difendo a spada tratta le infrastrutture di rete tradizionali, ma sono contrario al fatto che questa Rete Virtualizzata sia una necessità, mi sembra invece soltanto una moda del tipo “la virtualizzazione dei Server è andata alla grande, ora facciamolo anche con la Rete”… ma… perché?
Francesco,
se vai a vedere i clienti che aziende come Nicira stanno presentando ti rendi conto che quando si parla di grandi (molto grandi) infrastrutture di rete le cose sono decisamente complicate (http://nicira.com/en/customers)… e questi clienti hanno gente che di network ne sa!
detto questo ho proprio fatto un appunto sul fatto che se l’azienda o il provider non sono sufficientemente grandi non riuscirebbero a trarre vantaggio da queste soluzioni (quando parlo di sufficientemente grandi intendo nell’ordine delle migliaia di VM, centinaia di TB, migliaia di porte ethernet).
E’ per questo che in futuro aziende piccole e medie, che vorranno avere vantaggi ma che non se li potranno permettere, dovranno invece usare infrastrutture fatte da grandi provider: fatte meglio, più sicure e più semplici da usare.
Non tutti lo faranno, ovviamente rimarrà chi ha convinzioni diverse o magari ha un ambiente IT così statico che non ha interesse a cambiare.
Tutto lo stack infrastrutturale si sta “commoditizzando” e quindi anche il network è destinato a diventare un pezzo di ferro stupido: costa di meno ed è meno vincolante.
l’intelligenza va spostata più in alto proprio per poter sviluppare al massimo innovazione (è già successo sul lato server e poi storage). Sicuramente conosci openflow (http://www.openflow.org/ e http://openvswitch.org/ …che poi molti dei contributi arrivano proprio da aziende come nicira), i primi switch hardware stanno uscendo… l’obiettivo finale è quello di avere switch virtuali basati su tecnologie come openflow su cui viene implementata l’intelligenza.
il problema di una infrastruttura fisica, in generale, è la rigidità. se crei reti 100% flat e poi tutta la topologia di rete la fai a livello software puoi costruire reti di ogni tipo e grado di complessità senza doverti preoccupare di quello che c’è sotto con la garanzia di poterle riconfigurare in minuti invece che giorni se necessario… immagina solo se tu sei un utente finale e vuoi creare un DC virtuale.
In ogni caso non cambia nulla, a parte per il rivenditore del ferro costoso e proprietario, il sysadmin/netadmin deve essere capace di fare le cose come le faceva prima: che il DC sia fisico o virtuale le cose le devi capire e saper fare, è solo che non devi più smaneggiare al freddo con server, storage, switch e cavi. 🙂
ciao,
E
“non devi più smaneggiare al freddo con server, storage, switch e cavi”? beh, la rivoluzione non è così radicale come si può pensare… non è proprio tutto virtuale come vSwitch, ma comunque dal punto di vista fisico non cambierà proprio nulla, ci saranno sempre Switch come prima, posizionati come prima e con lo stesso numero di porte, ci saranno cavi come prima e tutto come prima… l’unica differenza è che l’intelligenza non risiederà sui singoli Switch, ma su dei maxi Controller… che non potranno mica fare i miracoli, tipo che in due secondi cambi la topologia di rete, perché gli Switch saranno comunque vincolati fisicamente, e saranno sempre collegati con dei cavi fisici a dei Server fisici, e questo non potrà cambiare mai!
Io non vedo la differenza anche in caso di grandissimi ambienti, un vantaggio può essere il costo, e la possibilità (mitica) di prendere hardware commodity, o magari prendere un vecchio PC, mettergli un certo Linux (gratis) e fargli fare da Switch, ma tu pensi che grandissime aziende comprino hardware mediocri per risparmiare invece che hardware eccellenti, hi-throughput, non blocking ecc…?
Francesco,
Ovviamente il primo collegamento lo devi fare, ma saranno switch l2 senza intelligenza con collegamenti standard (sempre uguali)… Tutto il resto (compresi fw, load balancer, ecc. Ecc, ecc.) è fatto via software: scala di più ed è più semplice da gestire.
Quindi si potranno comprare HW sempre più economici e in configurazioni standard.
Quando vidi la demo di Nicira rimasi impressionato e mi resi veramente conto che con questo tipo di strumenti sarebbe possibile disegnare architetture al estremamente piatte e semplici.
Uno dei grandi vantaggi che vedo è proprio quello di poter gestire tenant completamente separati che comprendono ogni tipo di apparato di rete con qualsiasi tipo di configurazione/topologia virtuale senza compromessi! (e istanziarli in minuti invece che ore/giorni)
Ovviamente ci sono dei trade off ma dov’è che non ci sono? 😉
So che il discorso è lungo e non vorrei continuare a ripetermi, l’attenzione dell’industria è molto forte e per ora sono prodotti di nicchia ma vedo che quando su parla di problemi di network e potenziale virtualizzazione molti clienti sono interessati a capire di più…
Tutta questa “complicazione”, è dovuta al fatto che “gente di Server” non ha idea di come gestire una infrastruttura di Rete… ma gente di Rete lo sa fare, e senza nessun problema… proprio su DCI sono stati fatti i miracoli, bisogna solo avere gente con le pa…
Secondo me, cose come SDN potranno essere il futuro, ma sicuramente non sono una necessità, almeno fino a prova contraria… poi vedo qualche nota che parla di prestazioni, ma non sono sicuro che si riferisca alla infrastruttura di Rete, anche perché difficilmente sarebbe possibile dimostrare che una Rete virtualizzata possa essere più performante di una rete Fisica, sopratutto in un campo dove tutto “dipende”…
Ma secondo te quali sono i “problemi” di una attuale infrastruttura Fisica? e come una infrastruttura Virtuale potrebbe risolvere questi problemi?
Scusami se difendo a spada tratta le infrastrutture di rete tradizionali, ma sono contrario al fatto che questa Rete Virtualizzata sia una necessità, mi sembra invece soltanto una moda del tipo “la virtualizzazione dei Server è andata alla grande, ora facciamolo anche con la Rete”… ma… perché?
Francesco,
se vai a vedere i clienti che aziende come Nicira stanno presentando ti rendi conto che quando si parla di grandi (molto grandi) infrastrutture di rete le cose sono decisamente complicate (http://nicira.com/en/customers)… e questi clienti hanno gente che di network ne sa!
detto questo ho proprio fatto un appunto sul fatto che se l’azienda o il provider non sono sufficientemente grandi non riuscirebbero a trarre vantaggio da queste soluzioni (quando parlo di sufficientemente grandi intendo nell’ordine delle migliaia di VM, centinaia di TB, migliaia di porte ethernet).
E’ per questo che in futuro aziende piccole e medie, che vorranno avere vantaggi ma che non se li potranno permettere, dovranno invece usare infrastrutture fatte da grandi provider: fatte meglio, più sicure e più semplici da usare.
Non tutti lo faranno, ovviamente rimarrà chi ha convinzioni diverse o magari ha un ambiente IT così statico che non ha interesse a cambiare.
Tutto lo stack infrastrutturale si sta “commoditizzando” e quindi anche il network è destinato a diventare un pezzo di ferro stupido: costa di meno ed è meno vincolante.
l’intelligenza va spostata più in alto proprio per poter sviluppare al massimo innovazione (è già successo sul lato server e poi storage). Sicuramente conosci openflow (http://www.openflow.org/ e http://openvswitch.org/ …che poi molti dei contributi arrivano proprio da aziende come nicira), i primi switch hardware stanno uscendo… l’obiettivo finale è quello di avere switch virtuali basati su tecnologie come openflow su cui viene implementata l’intelligenza.
il problema di una infrastruttura fisica, in generale, è la rigidità. se crei reti 100% flat e poi tutta la topologia di rete la fai a livello software puoi costruire reti di ogni tipo e grado di complessità senza doverti preoccupare di quello che c’è sotto con la garanzia di poterle riconfigurare in minuti invece che giorni se necessario… immagina solo se tu sei un utente finale e vuoi creare un DC virtuale.
In ogni caso non cambia nulla, a parte per il rivenditore del ferro costoso e proprietario, il sysadmin/netadmin deve essere capace di fare le cose come le faceva prima: che il DC sia fisico o virtuale le cose le devi capire e saper fare, è solo che non devi più smaneggiare al freddo con server, storage, switch e cavi. 🙂
ciao,
E
“non devi più smaneggiare al freddo con server, storage, switch e cavi”? beh, la rivoluzione non è così radicale come si può pensare… non è proprio tutto virtuale come vSwitch, ma comunque dal punto di vista fisico non cambierà proprio nulla, ci saranno sempre Switch come prima, posizionati come prima e con lo stesso numero di porte, ci saranno cavi come prima e tutto come prima… l’unica differenza è che l’intelligenza non risiederà sui singoli Switch, ma su dei maxi Controller… che non potranno mica fare i miracoli, tipo che in due secondi cambi la topologia di rete, perché gli Switch saranno comunque vincolati fisicamente, e saranno sempre collegati con dei cavi fisici a dei Server fisici, e questo non potrà cambiare mai!
Io non vedo la differenza anche in caso di grandissimi ambienti, un vantaggio può essere il costo, e la possibilità (mitica) di prendere hardware commodity, o magari prendere un vecchio PC, mettergli un certo Linux (gratis) e fargli fare da Switch, ma tu pensi che grandissime aziende comprino hardware mediocri per risparmiare invece che hardware eccellenti, hi-throughput, non blocking ecc…?
Francesco,
Ovviamente il primo collegamento lo devi fare, ma saranno switch l2 senza intelligenza con collegamenti standard (sempre uguali)… Tutto il resto (compresi fw, load balancer, ecc. Ecc, ecc.) è fatto via software: scala di più ed è più semplice da gestire.
Quindi si potranno comprare HW sempre più economici e in configurazioni standard.
Quando vidi la demo di Nicira rimasi impressionato e mi resi veramente conto che con questo tipo di strumenti sarebbe possibile disegnare architetture al estremamente piatte e semplici.
Uno dei grandi vantaggi che vedo è proprio quello di poter gestire tenant completamente separati che comprendono ogni tipo di apparato di rete con qualsiasi tipo di configurazione/topologia virtuale senza compromessi! (e istanziarli in minuti invece che ore/giorni)
Ovviamente ci sono dei trade off ma dov’è che non ci sono? 😉
So che il discorso è lungo e non vorrei continuare a ripetermi, l’attenzione dell’industria è molto forte e per ora sono prodotti di nicchia ma vedo che quando su parla di problemi di network e potenziale virtualizzazione molti clienti sono interessati a capire di più…
ok sul networking mi prude il naso =)
[rant mode on]
L’argomento SDN e network stack virtualization sono spesso erroneamente/volutamente confusi/sovrapposti dai vendor..ma sono collegati come lo possono essere i layers osi niente di piu’:
a voler esser precisi c’e’ poco di hypervisor gnostico nelle SDN/openflow giacche’ semmai ci si dovrebbe rifere ai vari NVGRE, VXLAN VM-FEX etc che si inseriscono in quel contesto come potrebbe essere la oramai dimentica (nell’era dello stack TCP/IP) distinzione tra sublayer L2 MAC e LCC. Ad ogni modo il fuffa-marketing e’ meglio digeribile se _OGNI_ datasheet,brochure,ecc contine almeno un paio di occorennze delle parole hypervisor,virtual,cloud,flexible yadda yadda
[rant mode off]
Io sono piu’ “scettico” in parte sul metodo,in parte sul fine e soprattutto sul presunto target ed i tempi..ma tant’e’ che a seconda del vendor di turno si oscilla dal tuo giustamente cauto “nicchia” a “only DC” a “panacea”!
Resta indubbio che le SDN sono la giusta direzione per infondere intelligenza adattativa basata sui flow “realtime” piuttosto che l’attuale se snapshot od pre-engineered, iniettandola se tutti i livelli fisici o virtuali che siano – core,distr,access – e direzioni – nord-sud est-west..ma aihme’ quel futuro per ora imho sara’ quasi sicuramente appannaggio delle hyperscales dei DC “ultra-consolidati”, magari multitenant, magari cloud, ma anche no perche’ fatti di bricks ultra densi,perche’ non tutti siamo Google, Amazon , Facebook ecc e possiamo permetterci di perfezionare in casa un controller/director openflow per dover “semplicemente” ovviare al provisioning di QoS,VLAN,etc;
perche’ questo e’ il succo da cui sta partendo il trend: il provisioning rapido e ottimizzato di VLAN, QoS ent-to-end in reti ridondate (flat magari) che sia possibilmente non soggetto all’errore umano e magari adattativo, non tanto imho dall’hypervisor in su, ma quanto per dare intelligenza alla buona vecchia “rete” dall’hypervison in giu’…poi che il cloud/virtualizzazione funga da catalizzatore of course.
Tolta la nicchia di NICIRA, e per certi versi Embrane, le SDN nel breve hanno molti problemini di gioventu’:
1) non le vedo cosi’ commodity come prezzo, nel senso che il prezzo lo faranno i controllers ora pochi (NEC e ?) con ampie possibilita’ di vendor locking alla faccia dell’idea di API open (OpenFlow) multi vendor
2) I big sono li’ ai preliminari soft di marketing:
CISCO: cisco one -> one big bright “future”
HP : very flexy fuffa con sw procurve openflow ma zero controller
JUNIPER: big is bette.. CLOS di qua e di la’ ma per ora SDN timido
BROCADE: il piu’ interessante imho con l’approccio ibrido operativo ora
DELL: MIA
poi ci sono gli outsiders: bigswitch,nec,ecc molto marketing anche bei prodotti ma mancano i case che facciano da trainante
3) il terrore di dovere far trouble-shooting (quali tools?) e maintenance oltre ai bachi dei firmware pure a quelli su vasta scala che verrebbero introdotti nel sw dei controllers
A conclusione di questo “papiro” ho piacere a citare questi tre post di persone ben piu’ “blasonate” di me che trovo un po’ la summa del discorso attuale =)
http://etherealmind.com/openflow-might-lower-capex-while-sdn-will-increase-opex/
http://highscalability.com/blog/2012/6/4/openflowsdn-is-not-a-silver-bullet-for-network-scalability.html
http://blog.ioshints.info/2012/05/openflow-google-brilliant-but-not.html
Mandi!
Antonio
Antonio,
come per tutti i nuovi segmenti di mercato, l’innovazione non la portano i big ma le startup (è per questo che ho citato Nicira ed Embrane)… poi magari i big se le compreranno quando le idee si fanno più chiare. 😉
concordo che non è oggi e, al momento, si pensa solo a grandi DC “ultradensi”… è tutto immaturo e molto deve essere fatto.
ma anche VMware quando era partita non ci credeva nessuno e anche molte startup di storage non erano nessuno… poi i grandi se le sono comprate per avere uno storage di nuova generazione a portafoglio… ormai il mondo va così.
E
>>come per tutti i nuovi segmenti di mercato, l’innovazione non la portano i big ma le startup
Sono solo parzialmente d’accordo con te in questo caso, nel senso che d’accordo sul versante storage target/backend” (passami il termine per disk arrays) od applicativo/software le startup (o spin-in) sono volani, ma qui nel networking “crudo” coi suoi protoclli,prensunti standard ed rfc varie le cose cambiano per varie ragioni:
penso alle resistenze degli addetti ai lavori (retooling,know-how,ecc) ad affidarsi ad un qualcosa di pure-play software (i bachi IOS&Co ecc gia’ baastano) ma soprattutto per l’installato che fa inerzia da massa critica (e remuneritava per le smartnet =) alla Cisco)..ma anche al fatto non secondario che seduti ai tavoli di IEEE & company ci stanno i bigs che si bisticciano per tirare acqua al proprio mulino e lasciando le startups a giocare con le “loro” drafts!
Sono anni che continuamo a destreggiarci cercando di coniugare due problemi grossi come ridondanza+ECMP multi-link e “appiattimento” delle nostre topologie facendo baruffa tra (m)LACP,MSTP,ecc. ognuno “variabile” da vendor a vendor, sognando qualcosa che assomigli a mpls portato alla grande massa…ma gli standard son li’ che languono da 802.1AQbg/Qbh..qualcuno ricorda nomi TRILL,SPB,DCB e per restare in ambito “virtual” EVB,VEPA,VN-Link,VN-Tag,ecc
Ti diro’ di piu’, io confido molto in openflow perche’ appunto significa un salto vero finalmente (anche se carpiato=) e non solo per la parte access layer (che siano pNIC o vNIC, vdSW,ecc) ma anche per il resto della topologia c’ha da diventare (!!) flat per espletare appieno il concetto di fabric se no siam sempre li ad arrabbatarci,anzi peggio visto che ora il traffico e’ piu’ est-west che nord-sud.. a piagne!!
Certo per Nicira&co e’ piu’ facile innovare partendo da layer gia’ software come gli hypervisors ed aggiungendo un overlay (intelligente!!) ma e’ piu’ difficile che questo overlay vengano accettati/implementati a 360° per ricomprendere tutto il resto della topologia/casistica/traffico che gira in un infrastruttura di rete.
Quindi son i bigs che devono far diventare questa fuffa di marketing qualcosa di tangibile perche’ aihme la necessita’ c’e’ ma io ora vedo solo fuffa..
Per concludere penso che quello che vedremo prima di virtualizzare l’intero network stack sara’ convergere verso uno pseudo standard “classico” al flattening della topologia&ECMP per avere quella dannata fabric “agnostica” dove NVGRE,VXLAN,VN-Link,VEPA,whatsever possano attecchire! e gia’ questo sara’ un’impresa lunga 🙁
Mandi,
Antonio
p.s.
wow son proprio logorroico ma questi argomenti stuzzicano =)
Antonio,
il tuo commento è largamente condivisibile ma voglio aggiungere che l’innovazione non si fa solo sui protocolli (dove ai tavoli giusti ci sono i “lobbisti” del caso) ma spesso anche su come si fanno le cose.
Ci sono esempi interessanti in tutti i campi ma rimanendo nel networking penso che aziende che stanno facendo la differenza e che piano piano acquistano quote di mercato e diventano sempre più presenti ce ne siano.
faccio solo i primi due esempi che mi vengono in mente: Arista (switch superveloci) o Palo Alto (un nuovo modo di vedere il firewall)… i protocolli che usano sono standard è che hanno cambiato il modo di ragionare, e ce ne sono altre molto interessanti.
E’ per questo che rimango sempre affascinato da aziende che fanno cose nuove (e qui ritorno ai nicira e agli embrane), perché ci credono e perché magari le loro idee sono buone.
Purtroppo i big tendono sempre a mantenere le loro posizioni di dominanza, la base installata e a sfruttare gli investimenti che hanno fatto in passato… al loro posto lo farebbero anche gli altri.
insomma, tutto questo per dire che tutti i big tendono a sminuire le innovazioni perché non gli convengono, poi quando sono costretti saltano sul carro e se ne fanno paladini 🙂
ciao,
E
ok sul networking mi prude il naso =)
[rant mode on]
L’argomento SDN e network stack virtualization sono spesso erroneamente/volutamente confusi/sovrapposti dai vendor..ma sono collegati come lo possono essere i layers osi niente di piu’:
a voler esser precisi c’e’ poco di hypervisor gnostico nelle SDN/openflow giacche’ semmai ci si dovrebbe rifere ai vari NVGRE, VXLAN VM-FEX etc che si inseriscono in quel contesto come potrebbe essere la oramai dimentica (nell’era dello stack TCP/IP) distinzione tra sublayer L2 MAC e LCC. Ad ogni modo il fuffa-marketing e’ meglio digeribile se _OGNI_ datasheet,brochure,ecc contine almeno un paio di occorennze delle parole hypervisor,virtual,cloud,flexible yadda yadda
[rant mode off]
Io sono piu’ “scettico” in parte sul metodo,in parte sul fine e soprattutto sul presunto target ed i tempi..ma tant’e’ che a seconda del vendor di turno si oscilla dal tuo giustamente cauto “nicchia” a “only DC” a “panacea”!
Resta indubbio che le SDN sono la giusta direzione per infondere intelligenza adattativa basata sui flow “realtime” piuttosto che l’attuale se snapshot od pre-engineered, iniettandola se tutti i livelli fisici o virtuali che siano – core,distr,access – e direzioni – nord-sud est-west..ma aihme’ quel futuro per ora imho sara’ quasi sicuramente appannaggio delle hyperscales dei DC “ultra-consolidati”, magari multitenant, magari cloud, ma anche no perche’ fatti di bricks ultra densi,perche’ non tutti siamo Google, Amazon , Facebook ecc e possiamo permetterci di perfezionare in casa un controller/director openflow per dover “semplicemente” ovviare al provisioning di QoS,VLAN,etc;
perche’ questo e’ il succo da cui sta partendo il trend: il provisioning rapido e ottimizzato di VLAN, QoS ent-to-end in reti ridondate (flat magari) che sia possibilmente non soggetto all’errore umano e magari adattativo, non tanto imho dall’hypervisor in su, ma quanto per dare intelligenza alla buona vecchia “rete” dall’hypervison in giu’…poi che il cloud/virtualizzazione funga da catalizzatore of course.
Tolta la nicchia di NICIRA, e per certi versi Embrane, le SDN nel breve hanno molti problemini di gioventu’:
1) non le vedo cosi’ commodity come prezzo, nel senso che il prezzo lo faranno i controllers ora pochi (NEC e ?) con ampie possibilita’ di vendor locking alla faccia dell’idea di API open (OpenFlow) multi vendor
2) I big sono li’ ai preliminari soft di marketing:
CISCO: cisco one -> one big bright “future”
HP : very flexy fuffa con sw procurve openflow ma zero controller
JUNIPER: big is bette.. CLOS di qua e di la’ ma per ora SDN timido
BROCADE: il piu’ interessante imho con l’approccio ibrido operativo ora
DELL: MIA
poi ci sono gli outsiders: bigswitch,nec,ecc molto marketing anche bei prodotti ma mancano i case che facciano da trainante
3) il terrore di dovere far trouble-shooting (quali tools?) e maintenance oltre ai bachi dei firmware pure a quelli su vasta scala che verrebbero introdotti nel sw dei controllers
A conclusione di questo “papiro” ho piacere a citare questi tre post di persone ben piu’ “blasonate” di me che trovo un po’ la summa del discorso attuale =)
http://etherealmind.com/openflow-might-lower-capex-while-sdn-will-increase-opex/
http://highscalability.com/blog/2012/6/4/openflowsdn-is-not-a-silver-bullet-for-network-scalability.html
http://blog.ioshints.info/2012/05/openflow-google-brilliant-but-not.html
Mandi!
Antonio
Antonio,
come per tutti i nuovi segmenti di mercato, l’innovazione non la portano i big ma le startup (è per questo che ho citato Nicira ed Embrane)… poi magari i big se le compreranno quando le idee si fanno più chiare. 😉
concordo che non è oggi e, al momento, si pensa solo a grandi DC “ultradensi”… è tutto immaturo e molto deve essere fatto.
ma anche VMware quando era partita non ci credeva nessuno e anche molte startup di storage non erano nessuno… poi i grandi se le sono comprate per avere uno storage di nuova generazione a portafoglio… ormai il mondo va così.
E
>>come per tutti i nuovi segmenti di mercato, l’innovazione non la portano i big ma le startup
Sono solo parzialmente d’accordo con te in questo caso, nel senso che d’accordo sul versante storage target/backend” (passami il termine per disk arrays) od applicativo/software le startup (o spin-in) sono volani, ma qui nel networking “crudo” coi suoi protoclli,prensunti standard ed rfc varie le cose cambiano per varie ragioni:
penso alle resistenze degli addetti ai lavori (retooling,know-how,ecc) ad affidarsi ad un qualcosa di pure-play software (i bachi IOS&Co ecc gia’ baastano) ma soprattutto per l’installato che fa inerzia da massa critica (e remuneritava per le smartnet =) alla Cisco)..ma anche al fatto non secondario che seduti ai tavoli di IEEE & company ci stanno i bigs che si bisticciano per tirare acqua al proprio mulino e lasciando le startups a giocare con le “loro” drafts!
Sono anni che continuamo a destreggiarci cercando di coniugare due problemi grossi come ridondanza+ECMP multi-link e “appiattimento” delle nostre topologie facendo baruffa tra (m)LACP,MSTP,ecc. ognuno “variabile” da vendor a vendor, sognando qualcosa che assomigli a mpls portato alla grande massa…ma gli standard son li’ che languono da 802.1AQbg/Qbh..qualcuno ricorda nomi TRILL,SPB,DCB e per restare in ambito “virtual” EVB,VEPA,VN-Link,VN-Tag,ecc
Ti diro’ di piu’, io confido molto in openflow perche’ appunto significa un salto vero finalmente (anche se carpiato=) e non solo per la parte access layer (che siano pNIC o vNIC, vdSW,ecc) ma anche per il resto della topologia c’ha da diventare (!!) flat per espletare appieno il concetto di fabric se no siam sempre li ad arrabbatarci,anzi peggio visto che ora il traffico e’ piu’ est-west che nord-sud.. a piagne!!
Certo per Nicira&co e’ piu’ facile innovare partendo da layer gia’ software come gli hypervisors ed aggiungendo un overlay (intelligente!!) ma e’ piu’ difficile che questo overlay vengano accettati/implementati a 360° per ricomprendere tutto il resto della topologia/casistica/traffico che gira in un infrastruttura di rete.
Quindi son i bigs che devono far diventare questa fuffa di marketing qualcosa di tangibile perche’ aihme la necessita’ c’e’ ma io ora vedo solo fuffa..
Per concludere penso che quello che vedremo prima di virtualizzare l’intero network stack sara’ convergere verso uno pseudo standard “classico” al flattening della topologia&ECMP per avere quella dannata fabric “agnostica” dove NVGRE,VXLAN,VN-Link,VEPA,whatsever possano attecchire! e gia’ questo sara’ un’impresa lunga 🙁
Mandi,
Antonio
p.s.
wow son proprio logorroico ma questi argomenti stuzzicano =)
Antonio,
il tuo commento è largamente condivisibile ma voglio aggiungere che l’innovazione non si fa solo sui protocolli (dove ai tavoli giusti ci sono i “lobbisti” del caso) ma spesso anche su come si fanno le cose.
Ci sono esempi interessanti in tutti i campi ma rimanendo nel networking penso che aziende che stanno facendo la differenza e che piano piano acquistano quote di mercato e diventano sempre più presenti ce ne siano.
faccio solo i primi due esempi che mi vengono in mente: Arista (switch superveloci) o Palo Alto (un nuovo modo di vedere il firewall)… i protocolli che usano sono standard è che hanno cambiato il modo di ragionare, e ce ne sono altre molto interessanti.
E’ per questo che rimango sempre affascinato da aziende che fanno cose nuove (e qui ritorno ai nicira e agli embrane), perché ci credono e perché magari le loro idee sono buone.
Purtroppo i big tendono sempre a mantenere le loro posizioni di dominanza, la base installata e a sfruttare gli investimenti che hanno fatto in passato… al loro posto lo farebbero anche gli altri.
insomma, tutto questo per dire che tutti i big tendono a sminuire le innovazioni perché non gli convengono, poi quando sono costretti saltano sul carro e se ne fanno paladini 🙂
ciao,
E
Oddio, sarò antico, ma in 20 anni ne ho viste di queste sparate! In genere si risolvono in bolle di sapone, sono congetture marketing che non attecchiscono, sono governate da player che dimenticano spesso che ci sono forti resistenze a ritenere che tutto quello che è mio possa essere “esposto” chissadove e a disposizione di chissachi.
La rivoluzione secondo me sono le tecnologie e i principi che il cloud esprime e che l’enterprise assorbirà velocemente.
Faccio un esempio semplice di un servizio cloud semplice: Dropbox. Non credo che aziende serie possano adottarlo come sistema all’interno dei processi di produzione, ma è innegabile che la tecnologia ha dei vantaggi enormi. Vedo più uno scenario dove le aziende si doteranno di tecnologie e servizi basati su queste aspirazioni.
Personalmente, agli operatori o alle aziende esterne posso affidare le mie foto del cane, non i documenti strategici che tengono in piedi la mia attività.
Capitolo a parte è quello sul network, è chiaro che chi scrive non ha uno scenario completo delle tecnologie datacenter moderne. Quindi evito di commentare.
Fabio,
parto dalla fine del tuo commento sul chi scrive “non ha conoscenze sulle tecnologie moderne”: può essere, ma sai, detto da uno che lavora per uno di quei vendor che potenzialmente subiscono di più dalla “commoditizzazione” del network ha un peso relativo. (é comunque sempre bene presentarsi prima di fare un commento, almeno chi legge sa gli interessi che ci sono dietro e danno il giusto peso alle affermazioni: http://www.linkedin.com/in/fabioloiacono ) ;)ma poi, riguardo al resto del commento e dell’articolo, cosa centra Dropbox??? è un servizio nato per il consumer (anche se poi spesso lo trovo usato di soppiatto anche in aziende)…Però è vero che in molti (ad esempio anche la stessa VMware con project octopus) stanno lavorando a prodotti simili ma con caratteristiche enterprise. In tutte le aziende il mobile computing sta diventano una realtà importantissima e non è che gli utenti possono mandarsi delle mail per poter gestire i file (quantomeno inefficiente). Servizi dropbox like sono una richiesta sempre più pressante nelle aziende e lo vorrebbero integrato con il resto dell’infrastruttura (il difficile sta li).ciao,E
Oddio, sarò antico, ma in 20 anni ne ho viste di queste sparate! In genere si risolvono in bolle di sapone, sono congetture marketing che non attecchiscono, sono governate da player che dimenticano spesso che ci sono forti resistenze a ritenere che tutto quello che è mio possa essere “esposto” chissadove e a disposizione di chissachi.
La rivoluzione secondo me sono le tecnologie e i principi che il cloud esprime e che l’enterprise assorbirà velocemente.
Faccio un esempio semplice di un servizio cloud semplice: Dropbox. Non credo che aziende serie possano adottarlo come sistema all’interno dei processi di produzione, ma è innegabile che la tecnologia ha dei vantaggi enormi. Vedo più uno scenario dove le aziende si doteranno di tecnologie e servizi basati su queste aspirazioni.
Personalmente, agli operatori o alle aziende esterne posso affidare le mie foto del cane, non i documenti strategici che tengono in piedi la mia attività.
Capitolo a parte è quello sul network, è chiaro che chi scrive non ha uno scenario completo delle tecnologie datacenter moderne. Quindi evito di commentare.
Fabio,
parto dalla fine del tuo commento sul chi scrive “non ha conoscenze sulle tecnologie moderne”: può essere, ma sai, detto da uno che lavora per uno di quei vendor che potenzialmente subiscono di più dalla “commoditizzazione” del network ha un peso relativo. (é comunque sempre bene presentarsi prima di fare un commento, almeno chi legge sa gli interessi che ci sono dietro e danno il giusto peso alle affermazioni: http://www.linkedin.com/in/fabioloiacono ) ;)ma poi, riguardo al resto del commento e dell’articolo, cosa centra Dropbox??? è un servizio nato per il consumer (anche se poi spesso lo trovo usato di soppiatto anche in aziende)…Però è vero che in molti (ad esempio anche la stessa VMware con project octopus) stanno lavorando a prodotti simili ma con caratteristiche enterprise. In tutte le aziende il mobile computing sta diventano una realtà importantissima e non è che gli utenti possono mandarsi delle mail per poter gestire i file (quantomeno inefficiente). Servizi dropbox like sono una richiesta sempre più pressante nelle aziende e lo vorrebbero integrato con il resto dell’infrastruttura (il difficile sta li).ciao,E
Enrico,
a distanza di quattro anni ho riletto questo mio post e i miei commenti: io non ho cambiato idea nel frattempo (solo gli stolti non lo fanno mai). Lo scenario non è molto cambiato, il cloud annaspa (Microsoft ha dovuto regalare il pacchetto office da scaricare per farlo “partire”), la connettività in Italia rimane un vero limite, sia come affidabilità che come banda. La sensazione è che le tecnologie cloud servono solo a far guadagnare di più ai grandi player (Microsoft, Oracle, Amazon ecc…) e distruggere i piccoli (e creativi) fornitori di soluzioni innovative.
Per quanto riguarda l’SDN sicuramente è tanto visionaria, rimane ancora molto acerba e nessuno che io conosca (ammetto che potrebbe essere un mio limite) ha programmi seri per metterla in produzione (a parte qualche carrier o qualche big-player visionario), inoltre i costi di implementazione e manutenzione sono enormi (ho avuto qualche esperienza in merito). Senza contare poi che alcuni player di questo mercato (es. VMWare) propone soluzioni proprietarie alternative, creando ulteriore confusione.
Ricordo una chimera simile alle tecnologie sopracitate nel passato: l’ATM, sembrava la panacea di tutti i mali, era stupenda e avanzatissima (ancora adesso molti vendor si stanno scapicollando per far fare ai propri prodotti quello che ATM faceva nativamente quasi 30 anni fa), poi però… nessuna l’ha capita veramente, è rimasta relegata ai carrier, gli unici che veramente possono investire tanti soldi per avere un ritorno in più di 5 anni.
Vediamo, aspettiamo, spero tanto in futuro di poter cambiare idea, ma per il momento niente mi ha veramente convinto che queste tecnologie abbiamo un reale vantaggio ECONOMICO per gli utenti, perché questo (a mia sindacabilissima opinione) è il vero motore del successo di una tecnologia, le altre sono mode!
Non so cosa risponderti. quello che dici è semplicemente incredibile. Amazon AWS sta crescendo ad un ritmo tale che quest’anno fatturerà 10 miliardi di dollari. Microsoft ha raddoppiato il numero di utenti Office365 in pochi mesi e il suo business cloud sta crescendo a dismisura. Tutti i vendor stanno soffrendo sulla parte hardware e guadagnando sempre di più sulle soluzioni software-defined (l’ultimo bilancio di VMware riporta chiaramente che le soluzioni VSAN e NSX sono quelle che stanno crescendo di più ed è quello su cui punta l’azienda per mantenere alto il fatturato). La maggior parte degli utenti finali che conosco ha già adottato soluzioni di Office sul cloud (includo anche Google in questo caso), Sync&Share e altre cose del genere. Nutanix e tutti gli altri fornitori di sistemi hyper-convergenti stanno screscendo ad un ritmo sfrenato…
In Italia? io ho avuto 100Mbit a casa circa un mese fa (ok, 60 reali, ma va bene comunque). La maggior parte della città in cui abito (Rimini, città di provincia) è ora raggiunta dalla fibra da almeno un operatore ed un secondo dovrebbe iniziare prima della fine dell’anno. Il 4G c’è da tanto tempo. La maggior parte dei clienti stanno adottando soluzioni cloud di un qualche tipo (non solo office). per esempio Il mio commercialista è da due anni solo con applicazioni SaaS (e diciamo che non è che siano brillantissimi sul lato informatico del loro lavoro). Certo, la connettività non c’è ovunque? ma è vero anche che, come dice un mio amico, è pieno di “imprenditori” che girano con il Porsche Cayenne (magari ne hanno due se ne hanno dato una all’amante…) che quando gli chiedono di portare un gigabit in azienda allo stesso costo della rata del Cayenne dicono che non possono spendere quelle cifre.
Potrei continuare per tanto tempo, non so che visibilità hai del mercato ma è ovvio che cloud e software-defined sono la direzione che stanno prendendo un po tutti…