Chi legge questo blog abitualmente lo sa bene, lo storage “un tanto al Kg” è una di quelle cose che odio profondamente! Però oggi voglio scrivere del perché,raramente , mi piego anche io alle “cause di forza maggiore”.
A volte ci si sutpisce come aziende come Nexenta o Coraid (tanto per fare un paio di nomi a caso) riescano a crescere così tanto, in ambiti dove c’è grandissima necessità di storage, quando la maggior parte del mercato sta spingendo verso storage sempre più sofisticato ed efficiente… ecco il mio punto di vista.
Chilogrammi e Quintali
Stiamo portando avanti alcuni progetti da clienti che devono espandere la loro infrastruttura per qualche centinaio di TB (numeri che fino a poco tempo fa sembravo irraggiungibili). Il problema è sempre legato alla crescita indiscriminata dei dati e a nuovi progetti che, anche se non si possono definire Big Data nel vero senso della parola, sono decisamente importanti dal punto di vista di occupazione spazio e hanno ritmi di crescita vertiginosi (con crescite anche del 100% anno su anno). Spesso non è neanche un problema di performance o di affidabilità (nel senso di SLA/uptime) ma è più lo spazio che conta.
Una constatazione
Se è vero che questi clienti stanno vivendo questa proliferazione di dati è vero anche che, in molti casi, non usano (o usano male), le features messe a disposizione dagli storage moderni. Vuoi per ignoranza, vuoi per pigrizia o anche solo perché l’efficienza si paga da qualche altra parte (sia nel costo di acquisto che di cultura necessaria ad usarla). A volte poi, le famose “features” sono efficienti solo sulla carta perché implementate male e, nel mondo reale, introducono limiti e costrizioni che ne rendono l’uso complicato o il risultato poco predicibile.
Evitare ulteriori complessità
Ecco, proprio quello che ho appena scritto è uno dei fattori: “keep it simple”. Lo storage che queste aziende sta andando a gestire è molto superiore a quanto erano abituati. Se poi aggiungiamo che l’infrastruttura, problematiche e le applicazioni che vanno sopra a questo sono anch’esse nuove (basti pensare a Big Data, archiving e compliance, ecc), più si mantiene basso il livello di difficoltà più sarà facile che i progetti vadano a buon fine (è brutto dirlo ma è così). “Ad ottimizzare si farà sempre in tempo” (cit.), sempre che ne valga la pena e che il business che sta dietro a queste necessità ne abbia bisogno!
La crisi economica non aiuta
Fare di più con meno (denaro), è un classico di questi tempi. Il problema è anche da ricercarsi nella crisi, il TCA ha molto più peso del TCO (ok, lo so, mi fa impressione pensarlo.. ma in molti casi lo è sempre stato). In pratica ti tagliano il budget ma devi gestire più dati, la visibilità è sempre più scarsa quindi si fa fatica a fare piani per un ROI in termini di TCO. Le risorse (umane) poi sono sempre poche e i tempi di risposta pretesi in azienda si accorciano sempre più. Quindi le strada che rimane è una: Molti, sporchi e subito! (mi riferisco ai TB, ovviamente)
Nota finale
Centiania di TB non sono un problema che hanno tutti, almeno non ancora oggi, ma è ovvio che anche in caso di numeri più piccoli non si fa fatica a trovare ragionamenti di questo tipo. Sono comunque cicli, è un cane che si morde la coda: mi rendo conto che lo storage cresce più di quanto si riesca ad ottimizzarlo e così mi rivolgo a qualcuno che mi da di più a meno, poi però dovrò trovare un modo per ottimizzarlo perché il TCO aumenta… e così via!
Le mie idee non sono cambiate, anzi sono ogni giorno più convinto di quello che dico riguardo allo storage efficiente e al TCO, ma non sono un talebano e a volte bisogna guardare in faccia alla realtà e scegliere il male minore.