mercoledì 18 dicembre 2013

Innovazione nella Sanità

Come possiamo innovare in Sanità?

Ci sono alcune considerazioni interessanti, a valle della recente ricerca di mercato di IDC sull’ IT in Sanità in Europa.

Un primo aspetto, in base al report, riguarda la qualità ed efficacia della cura, un aspetto fondamentale che guida gli investimenti IT in innovazione. In un momento economico difficile, non si parla più solo di costi da ridurre. Si cerca piuttosto di trasformare l’esperienza dei pazienti, garantire la sostenibilità del sistema, aspetti che, di conseguenza, portano ad una ottimizzazione delle spese.


Dal mio punto di vista questo è estremamente interessante, osservando come l’innovazione viene implementata in molti paesi, in Europa.


lunedì 16 dicembre 2013

L’integrazione del Software Defined Storage di EMC (ViPR) in ambienti Private Cloud Multi-Cloud OS / Multi-Hypervisor

Nell’ambito del Private Cloud, ed in particolare relativamente al livello infrastrutturale (IaaS) , l’architettura di virtualizzazione prevalente fino a qualche tempo fa prevedeva l’uso di un singolo Cloud OS / Hypervisor rappresentato nella quasi totalità dei casi dalla suite VMWare.
Questo perché VMWare è stata ed è tuttora, senz’alcun ombra di dubbio, la piattaforma di virtualizzazione dominante del mercato in quanto l’unica ad avere le funzionalità di tipo Enterprise richieste dai clienti e necessarie all’erogazione dei servizi IT nel Private Cloud.
Sotto la spinta del movimento Open Source I trend di mercato stanno modificando questo scenario e Cloud-OS nuovi/alternativi stanno emergendo e crescendo in termini di maturità tecnologica.
Lo studio di Wikibon ,sintetizzato nella slide sottostante, illustra quantitativamente questo trend che coinvolge con differenti motivazioni e strategie il 51% dei clienti intervistati rappresentati da coloro che per vari motivi (economici o al fine di perseguire strategie dual/multi vendor anti lock-in) mostrano interesse nell’avere due piattaforme di virtualizzazione all’interno del loro DC.
 
MultiHypervisorStrategy -Figure1
 
Questi “Nuovi/Alternativi” Cloud-OS, pur non avendo raggiunto il livello maturità di VMWare, iniziano ad affermarsi in determinati ambienti IT, essenzialmente quelli non critici, come valide alternative all’erogazione di servizi IT nel Private Cloud.

venerdì 13 dicembre 2013

SCALE - OUT NAS: ISILON porta lo storage nel futuro (parte 2)

Nella prima parte, abbiamo illustrato i principi su cui è fondato il sistema EMC ISILON. Il paradigma dello Scale-Out, realizzato attraverso l’adozione di un’architettura cluster (invece del tradizionale approccio controller-array) e l’implementazione di un sistema operativo in grado di virtualizzare tutte le risorse hardware,  non sarebbe completamente realizzato senza una modalità innovativa ed efficiente di protezione dei dati.  OneFS aggrega le funzionalità di RAID Management, Volume Management e File System in un unico livello software che svincola definitivamente le esigenze di protezione dei dati dal livello fisico e consente agli storage manager di gestire i dati, non l'infrastruttura.

N+M: PROTEZIONE DEI DATI OLTRE I CONFINI DEL RAID


Big Data non significa soltanto grandi quantità di dati, ma anche dati che sono continuamente modificati,  che si espandono continuamente e un tasso di obsolescenza molto più accelerato del normale: il RAID è un meccanismo troppo statico e oneroso dal punto di vista dell’overhead per essere considerato ottimale. 

Il livello tradizionale di protezione dei file (mirroring e FEC) è sempre stato definito a livello fisico, mediante la creazione dei gruppi RAID, indipendentemente dal ciclo di vita dei dati. E’ possibile però che uno stesso dataset abbia una criticità maggiore in una certa fase della sua vita rispetto a un’altra o che nuove policy aziendali richiedano una modifica non prevista al livello di protezione dei dati. In un array basato sul RAID, questo significherebbe onerose e rischiose operazioni di migrazione dei dati e ricostruzione dei gruppi RAID, oppure acquisto di nuovo spazio disco.

EMC ISILON implementa invece un meccanismo proprietario estremamente flessibile, in cui l’elemento atomico del gruppo di protezione non è più il singolo disco, ma il nodo, e che consente di riconfigurare il livello di protezione online a seconda delle esigenze e senza più necessità di migrazione dati. 

Tale meccanismo è chiamato N+M. I vantaggi del N+M sono immediatamente comprensibili, se paragonato al RAID:

Feature

N+M

RAID

Fault Tolerance

Fino a 4 failure (N+4)

Fino a 2 failure (RAID 6)

Flessibilità

Livello modificabile a caldo (SW level)

Non modificabile a caldo  
(HW level)

Granularità

File Level (SW)

Raid Group Level (HW)

Efficienza vs Scalabilità

Variabile (a parità di protezione, l’efficienza aumenta con la dimensione del cluster)

Fissa (a parità di protezione, aumentando la capacità bisogna creare nuovi gruppi RAID )


Sebbene N+M sia in qualche modo paragonabile al RAID, è importante ricordare che mentre il failure, nel RAID, è riferito ad uno o due dischi all'interno di un RAID Group, per ISILON, un failure è riferito a un NODO, quindi fino a 36 dischi di uno stesso nodo che possono contemporaneamente essere offline senza alcun impatto sulla disponibilità dei dati. L’implementazione della protezione N+M è molto semplice.


                    Ogni volta che un client scrive un file in un cluster ISILON, questo è suddiviso in blocchi da 128 KB

                    Per ogni N di questi blocchi, il sistema calcola M blocchi di parità, sempre da 128 KB

                    Gli N+M blocchi risultanti costituiscono una stripe (o protection group)

                    La stripe viene scritta sui dischi, un blocco per nodo ( * )

                    Il procedimento viene ripetuto fino all’esaurimento della dimensione complessiva del file

( * )  La massima estensione di una stripe è 20 blocchi, di cui al massimo 16 di dati e i restanti di parità. Ogni blocco di una stessa stripe viene scritto su un nodo diverso, perciò per cluster inferiori ai 20 nodi N+M è uguale al numero dei nodi del cluster, mentre per cluster più grandi, la stripe sarà scritta al massimo su venti dei nodi che compongono il cluster.

Nell'immagine seguente, è riportato l'esempio di un file che viene scritto con una doppia protezione in un cluster composto da 6 nodi (N=4, M=2) . Nella pratica, il nodo che ha in carico la sessione di file sharing si occupa di dividere il file, calcolare la parità ed inviare infine i blocchi agli altri nodi.


Per file più piccoli di 128 KB, il risultato della procedura N+M è un mirroring, quindi, di fatto, i file di piccole dimensioni vengono mirrorati (OneFS supporta nativamente anche il mirroring da 2x a 8x). Ovviamente, OneFS gestisce e ottimizza file la cui dimensione non sia multiplo di 128 KB, ma la spiegazione di come siano trattati i casi particolari di striping(incluse le configurazioni N+M:b) esula dallo scopo di questo post. Il grande vantaggio dell’algoritmo N+M è che N e M sono numeri configurabili a seconda delle esigenze, con l’unico vincolo che N sia maggiore M, quindi, per esempio, la doppia parità è applicabile solo a cluster con un numero di nodi uguale o superiore a 5 e così via. Il valore di M (cioè del numero di fault tollerati) varia da 1 a 4 . M = 1 corrisponde a una protezione a singola parità (protezione equivalente a quella del RAID 5) mentre M = 2 corrisponde a una protezione a doppia parità (protezione equivalente a quella del RAID 6).Il livello di protezione può essere definito su base file o cartella e può essere modificato a caldo, svincolandosi pertanto definitivamente dalla quantità e dalla configurazione dei dischi sottostanti.

Vale la pena sottolineare il fatto che M = 3 e M = 4 sono livelli di protezione non raggiungibili con i tradizionali RAID e pertanto da nessun altro sistema.

Ultime due considerazioni: la distribuzione dei blocchi in cui il file è suddiviso su un numero ampio di nodi ha due conseguenze dirette molto importanti: innanzitutto, un nodo non è mai un Single Point of Failure per la disponibilità e l'integrità dei dati, perchè un file in nessun caso può risiedere interamente su un unico nodo; in secondo luogo, l'utilizzo bilanciato di tutti i nodi evita la creazione di hot spot e consente al sistema di lavorare in maniera efficiente, sia dal punto di vista delle prestazioni che da quello dell'utilizzo della capacità.

Alcuni esempi pratici:

CLUSTER di 3 NODI, protezione a singola parità: N+M diventa 2+1 (ovvero il file viene suddiviso in stripe composte da 3 blocchi di 128 KB, di cui due di dati e una di parità). L’efficienza dello storage è 67%.

CLUSTER di 8 NODI, protezione a singola parità: N+M diventa 7+1 (ovvero il file viene suddiviso in stripe composte da 8 blocchi di 128 KB, di cui sette di dati e una di parità). L’efficienza dello storage è 87%.

CLUSTER di 8 NODI, protezione a doppia parità: N+M diventa 6+2 (ovvero il file viene suddiviso in stripe composte da 8 blocchi di 128 KB, di cui sei di dati e due di parità). L’efficienza dello storage è 75%.

Cluster di 18 NODI, protezione a singola parità: N+M diventa 16+1 (ovvero il file viene suddiviso in stripe composte da 17 blocchi di 128 KB, di cui sedici di dati e una di parità). In questo caso, ogni file sarà suddiviso su un diverso sottoinsieme di nodi, in modo che l’occupazione complessiva dei nodi sia sempre bilanciata. L’efficienza dello storage è 88%.

Cluster di 20 NODI, protezione a quadrupla parità: N+M diventa 16+4 (ovvero il file viene suddiviso in stripe composte da 20 chunk di 128 KB, di cui sedici di dati e quattro di parità). L’efficienza dello storage è 80%

Nota Bene: Gli esempi riportano casi molto semplici in cui un solo algoritmo di protezione è stato definito per tutto il cluster, per cui è molto semplice calcolare l’efficienza. Vale la pena ricordare che si può applicare una diversa protezione a diversi sottoinsiemi di dati nello stesso filesystem, pertanto l’efficienza, seppure sempre crescente al crescere del numero dei nodi, non risulta più immediatamente calcolabile a priori.

mercoledì 11 dicembre 2013

XtremIO: Garbage Collection? No, Grazie!

Il minimo da sapere.

Durante il  lancio il 14 novembre, per XtremIO, è stato affermato che non dispone di eventuali processi di Garbage Collection (da qui in avanti detto G.C.) a livello di sistema.   Questo però è stato interpretato  da alcune persone come se XtremIO fosse in qualche modo impermeabile alla necessità di G.C. Ovviamente non è possibile, tutti i dischi flash richiedono la procedura di G.C.  Ciò che conta è dove e come la G.C. è effettuata.  Con XtremIO, dovendo garantire prestazioni sempre coerenti e prevedibili, il processo di G.C.
viene gestito in maniera nuova e unica.

Quindi come mai XtremIO non richiede G.C. a livello di sistema, mantenendo prestazioni costanti e prevedibili?

... prima dobbiamo essere d'accordo sulla definizione di cosa è e cosa fà la G.C. 


Con un disco tradizionale i nuovi dati possono essere scritti proprio sopra quelli esistenti, nel senso che la testina cerca solo la posizione da sovrascrivere e ri-magnetizza con il nuovo contenuto. Con i dischi flash, i dati esistenti devono prima essere cancellati (un'operazione molto lenta) e quindi i nuovi dati possono essere "riprogrammati" in quelle celle. A peggiorare le cose c'è che non si può semplicemente cancellare esattamente ciò che si desidera. Immaginate di avere un "erase block" di 256 KB, per modificare solo 8K dell'intero blocco, si dovranno leggere tutti i 256KB, poi bufferizzarli, poi cancellare o modificare gli 8K, poi i 256KB aggiornati possono essere scritti sulla cella.

Questo viene anche detto "write amplification" (wikipedia > Write_amplification) e poiché i dischi flash hanno comunque un numero finito di cicli di Write , questo non và troppo bene, no?

... e per capire perché, dobbiamo tornare un pò indietro nella storia. 


giovedì 5 dicembre 2013

XtremIO & Database: Sfruttare nuovi modi per risparmiare sui costi dei database


Uno dei casi di utilizzo più interessanti di XtremIO è quello relativo al cost saving nel mondo dei DB.
Analizziamo brevemente la situazione attuale: i
n molti degli ambienti IT di oggi, con storage “tradizionali”, i database non possono operare in piena efficienza e offrire il rapporto costi/prestazioni che i clienti richiedono. I requisiti di cui i DB oggi hanno bisogno sono: una bassa latenza, elevate performance e throughput adeguato. Avere un ambiente a bassa latenza diventa estremamente vantaggioso quando è combinato con altre importanti funzionalità evolute.

In questo breve documento, verranno analizzati degli aspetti quali cloning, facilità di utilizzo e licencing e il loro significato per il cost saving nel modo dei DB.


Prima di iniziare vogliamo introdurre alcuni concetti utili per capire meglio alcuni ragionamenti presenti nel documento; “service time” & “wall-clock-time”.

“Service time”: quando un processo (DB) deve aspettare per interagire con lo storage, il “wall-clock-time” viene sprecato, ciò significa perdita di denaro e di tempo che non può essere recuperato.

Il “wall-clock-time” fa riferimento al tempo effettivo necessario ad un host per completare un determinato compito. È la somma di tre termini, tempo di CPU, tempo diI/O più il ritardo di comunicazione sul canale (ad esempio, se i dati sono sparsi su più macchine). A differenza del tempo di CPU, che misura solo il tempo durante il quale il processore sta lavorando attivamente su un certo compito, il “wall-clock-time” misura il tempo totale per il completamento del processo. 
La differenza tra i due consiste nel tempo trascorso a causa di ritardi programmati o in attesa di risorse che devono diventare disponibili, nel nostro caso, la componente storage.

mercoledì 4 dicembre 2013

SCALE - OUT NAS: ISILON porta lo storage nel futuro (parte 1)


Scale-Out non è solo un termine di marketing, sebbene sia usato spesso impropriamente. La “scalabilità orizzontale” indica la capacità di un sistema storage di far crescere in maniera lineare e organica tutte le proprie componenti: la capacità, le risorse computazionali, i collegamenti di front-end, senza far aumentare contestualmente gli OPEX e la complessità dell’architettura (ad esempio con componenti non nativi del sistema), migliorando la gestione, l’efficienza e la resilienza al crescere delle dimensioni del sistema. Solo un sistema progettato e ingegnerizzato sin dal principio in tal senso può realizzare il paradigma Scale-Out senza compromessi.

Gli storage legacy hanno dei limiti architetturali che li rendono estremamente inefficienti nel mondo dei Big Data. Innanzitutto, non sono in grado di scalare agilmente e velocemente: l’architettura a doppio controller, definita retroattivamente “Scale-UP”, crea implicitamente delle “isole” di storage che faticano a interfacciarsi tra loro e richiedono una costante manutenzione (migrazioni, bilanciamenti delle connessioni di front-end…). Sul fronte della protezione, la tecnologia RAID presenta un conto troppo salato da pagare sul piatto del rapporto usable / raw quando le quantità di dati in gioco sono nell’ordine dei PETAbyte (e oltre…) . L’architettura gerarchica controller + array di dischi costringe infine a pianificare gli acquisti con largo anticipo e impedisce un utilizzo intelligente e adattivo delle risorse computazionali.

EMC ISILON vanta un’esperienza decennale nel campo dei Big Data: sebbene faccia parte della famiglia EMC solo da pochi anni, è adottato con successo da oltre un decennio in tutti i Vertical che per primi hanno affrontato la tematica dei Big  Data (si pensi al Vertical dei M&E, con l’esplosione del video in alta risoluzione e del 3D o alla quantità di dati elaborata ed immagazzinata quotidianamente da un qualunque social network).

In questo articolo, introdurremo l’architettura di ISILON evidenziandone in sintesi le caratteristiche principali e le componenti che lo rendono unico nel panorama degli Scale-Out NAS.


lunedì 2 dicembre 2013

Content Delivery : Whatever – Whenever – Wherever - On any device

Siamo entrati nella nuova era del “WWW” che sta per “Whatever – Whenever – Wherever” che ci permette di controllare cosa consumiamo, dove,  quando e su ogni dispositivo.
E come ogni cambiamento d'era, provoca grandi cambiamenti. Uno dei settori più pesantemente impattato è il M&E.
Il  numero di contenuti video sempre maggiore, dei divers formati adatti ai diversi device, di nuovi workflow così come i Could Digital Recorders ed i file con risoluzioni sempre maggiori  (HD, 4K , 8 K) hanno portato questo settore a forti cambiamenti.  Volete un esempio pratico? La Sony ha annunciato che trasmetterà i mondiali  di calcio in Brasile in 4K (ultra HD, dopo il full HD la risoluzione viene espressa per numero di pixel in orrizzontale e non più in verticale) e entro 2016 lancerà i televisori a 8K.
Per chi non è avvezzo con queste sigle qui di seguito l’evoluzione dei vari formati:



Tutte questi contenuti devono essere memorizzati e distribuiti  per permette a tutti noi di poterne usufruirne.  Questo porta ad una trasformazioni in tutti gli ambiti dei worklfows nel Media & Entertainment



venerdì 22 novembre 2013

Hadoop: di cosa si tratta ?

File:Hadoop logo.svg

Cos'è Hadoop ?


La crescita impressionante dei dati osservata negli ultimi anni, e destinata a proseguire nel futuro, ha fatto nascere molti progetti indirizzati a trovare delle soluzioni il più possibile semplici ed economiche per:

  1. Archiviare le informazioni
  2. Eseguire delle elaborazioni su moli di dati fino a poco tempo fa impensabili (decine di Petabytes e più). 

Poiché la gran parte delle informazioni oggi generate è di tipo non strutturato (files), è in questa direzione che molti dei progetti si sono mossi e tra questi anche Hadoop.

Hadoop nasce come progetto per l'analisi distribuita di grandi insiemi di dati attraverso un semplice modello di programmazione.  L'architettura, realizzata in Java, permette di poter scalare da pochi server fino a migliaia di sistemi: ogni server contribuisce con le proprie risorse di calcolo e la propria capacità di memorizzare i dati, e quindi aggiungendo server, chiamati anche "nodi", è possibile far crescere un sistema Hadoop in modo quasi lineare. Benché non vi siano restrizioni specifiche per i nodi, di norma vengono utilizzati dei sistemi x86 standard, il che permette di poter tenere sotto controllo i costi complessivi della soluzione e allo stesso tempo di beneficiare della crescita in termini computazionali di queste architetture.

L'alta affidabilità, e dunque la protezione dei dati, viene realizzata non basandosi sulle caratteristiche hardware dei server, ma bensì a livello software: sono le librerie di Hadoop che si occupano di identificare se e quali componenti presentano un malfunzionamento, ed intervenendo per ripristinare le operazioni (ad esempio creando una nuova copia dei dati contenuti in un server). E' evidente che nella scala dei Petabytes le soluzioni di backup tradizionali non sono utilizzabili, e quindi è proprio la distribuzione dei dati su nodi differenti la chiave per salvaguardare le informazioni anche di fronte ad un guasto di uno dei nodi (Hadoop adotta come standard la scrittura dello stesso dato in tre locazioni differenti).

Le due componenti fondamentali di Hadoop sono quindi
  • Il sistema di gestione distribuita dei dati: l'Hadoop Distributed File System (HDFS)
  • Il sistema di elaborazione parallela dei dati: MapReduce
A fianco a queste componenti fondamentali si trovano altri moduli che aggiungono ulteriori funzionalità alla piattaforma: citiamo a titolo di esempio HBase,  un database distribuito per la gestione strutturata di dati sotto forma di tabelle di grandi dimensioni, e Hive, un modulo pensato per il datawarehousing che rende possibile interagire con i dati di Hadoop con un interfaccia SQL-like. I moduli addizionali si collocano "sopra" HDFS e MapReduce, che sono sempre presenti come fondamenta dell'architettura: ecco quindi che i dati strutturati di HBase sono memorizzati come files in HDFS e le query SQL di Hive sono eseguite da MapReduce.

giovedì 14 novembre 2013

EMC annuncia la disponibilità dell'array all-flash XtremIO

L'unico array con architettura scale-out che massimizza le prestazioni della tecnologia flash senza comprometterne l’efficienza e la durata.


Milano, 14 Novembre 2013 – EMC Corporation (NYSE:EMC) ha annunciato la disponibilità di EMC® XtremIO™, il primo e unico array realizzato per utilizzare in modo efficiente ed innovativo la tecnologia flash, per offrire prestazioni eccezionali, prevedibili e costanti, a fronte di qualsiasi  carico di lavoro dell’applicazione, indipendentemente dalla percentuale di occupazione dell'array stesso. XtremIO si basa su una serie di innovazioni flash davvero uniche: un’architettura scale-out multi-controller con scalabilità lineare, deduplica In linea del dato e una protezione dei dati che è 6 volte più efficiente e 4 volte più veloce dei RAID tradizionali.



mercoledì 13 novembre 2013

L'Universo Digitale: opportunità e sfide per le aziende in un'infografica

Di quanto crescerà l'Universo Digitale nei prossimi anni, e dove ? Quanto (poco) sono protetti i dati? Un'infografica può aiutare a scoprirlo:



Il report completo è disponibile in questa pagina, con numerosi approfondimenti sull'Universo Digitale.
Decisamente consigliata la versione interattiva del report, che permette di navigare in modo molto agile tra le varie sezioni.

martedì 12 novembre 2013

RISOLVERE LE PROBLEMATICHE DI UN MONDO BASATO SUI DATI

La Business Intelligence alla velocità richiesta dal mondo di oggi: i risultati di un Proof Of Concept.


L’aumento vertiginoso dei dati disponibili (Big Data)permette di ottenere una visione più completa di come un mercato si muove, delle opportunità che offre e della economicità o anti-economicità di possibili scelte aziendali.
Conoscere approfonditamente la realtà che circonda la propria azienda permette di avere più prontezza nel prendere decisioni che possono influire sia sull’aumento del fatturato o profitto, sulla razionalizzazione e ottimizzazione dei costi e sulla percezione che ha il mercato e, quindi, sull’evoluzione della proposta di prodotti e servizi.

Alcuni esempi riguardano:
  • Dal punto di vista del Business, e cioè del Top Management delle aziende, è sempre più importante poter prendere decisioni su come muoversi sul mercato, quali prodotti o soluzioni hanno la maggior probabilità di prendere piede (e quindi generare utile) o, viceversa, quali mostrano trend negativi e, quindi, come approntare per tempo piani alternativi.
  • Anche per quanto riguarda l’efficienza interna (in ottica di riduzione dei costi) riuscire a ottimizzare i cicli di produzione, lo stoccaggio delle merci, l’approvvigionamento delle componenti, la conoscenza della mortalità della componentistica e la conseguente efficienza dei magazzini ricambi permettono di aumentare il rapporto costo/guadagno e, soprattutto, aumentare l’immagine verso i propri Clienti/Utenti.
  • La conoscenza dei commenti della comunità dei Clienti, inoltre, è diventata possibile grazie ai Social Network e alla possibilità di analizzare i commenti che vengono fatti (Sentiment Analisys); questo permette di avere una percezione (soprattutto su nuovi prodotti o soluzioni) in tempo reale di quali sono considerati i Plus o Minus e, anche, di conoscere quali sono le caratteristiche che accendono l’immaginario dei Clienti; da queste analisi discendono varie possibilità: da campagne di marketing mirate sui Plus, a dare le giuste priorità alle modifiche e o novità da apportare (Minus) e, anche, ad avere nuove idee su come far evolvere la propria offerta.

venerdì 8 novembre 2013

Tre approcci alla Converged Infrastructure: il punto di vista del Partner System Engineer


Recentemente si parla molto di converged infrastructure. Questo articolo vuole cercare di chiarire cosa si intende e come differiscono i diversi approcci.

Come molti sanno, converged infrastructure o in italiano, infrastruttura convergente non identifica un prodotto, bensì delle soluzioni standardizzate e automatizzate, in grado di semplificare il flusso dei processi, 
ridurre i costi, massimizzare l'efficienza e la flessibilità del business: in definitiva avere un'infrastruttura che renda il provisioning applicativo il più semplice possibile.

L'obiettivo finale vuole essere quello di investire meno tempo possibile nel management infrastrutturale, per potersi concentrare sulle applicazioni, vero motore del business aziendale.

La domanda potrebbe nascere spontanea: abbiamo davvero bisogno di un'infrastruttura convergente? Un approccio tradizionale non risolve già tutti i requisiti infrastrutturali dell'IT?
In questo articolo cercherò di chiarire perché questo approccio, pur non essendo la panacea di tutti i problemi infrastrutturali, è senz'altro vincente per molti clienti, in particolare per quelli della media impresa.

Già qualche anno fa diversi analisti e blog (IDC, Gartner, Wikibon ecc) hanno previsto un'evoluzione nell'approccio all'infrastruttura. Inizialmente l'approccio era soprattutto tradizionale: un cliente acquistava server, storage,
networking e backup, assemblava il tutto e solo successivamente poteva dedicarsi alle proprie applicazioni e ad estrarre conoscenza dai propri dati.


giovedì 7 novembre 2013

VDI ... ESTREEEMO I/O ! - @EMCXtremIO


Il 14 Novembre 2013 un importante annuncio da parte di EMC riguarderà un nuovo prodotto storage destinato a rivoluzionare di nuovo il modo di memorizzare i dati in ambito "block".

Se non vi siete ancora registrati all'evento, fatelo ora qui.

Di cosa sto parlando ? .. Di XTREMIO



XtremIO è stata fondata nel 2009 sulla base di una semplice idea e con i progressi tecnologici nella creazione di memoria non volatile a stato solido (più semplicemente: memoria flash), voleva introdurre  nuove funzionalità per i sistemi di storage aziendali. 
La convinzione degli ingegneri XtremIO è che i miglioramenti delle prestazioni sono solo un degli aspetti benefici migliorativi che possono essere ottenuti adottando una tecnologia diversa da quella dei tradizionali hard disk.

XtremIO, infatti non ha semplicemente adattato uno storage all'utilizzo di dischi Falsh, ma ha realizzato un array  che fin dalla prima accensione avrebbe utilizzato solo dischi Flash. Tutto la sua ingegnerizzazione ruota attorno a questo concetto.
Mentre gli altri prodotti e produttori di "all-in flash Storage" offrono miglioramenti delle prestazioni, XtremIO porta le prestazioni ad un livello completamente nuovo, mettendo argomenti come scalabilità, deduplica in-line, efficienza, facilità d'uso  e la capacità di gestione dei dati  ad un costo fortemente competitivo.

martedì 5 novembre 2013

ScaleIO ECS: il software Provided Storage di EMC

Nel mese di Luglio di quest’anno (2013) EMC ha siglato un accordo per l’acquisizione di ScaleIO, società che ha sviluppato una soluzione pioneristica di software provided storage.
L’acquisizione di ScaleIO è finalizzata al rafforzamento della strategia e del portfolio della EMC Flash Product Division, che già si compone di  PCIe Flash card EMC XtremSF™ (PCIe Flash card),  EMC XtremSW ™ Suite, XtremIO™ (all-Flash array), oltre alle soluzioni Flash-optimized hibrid arrays con i sistemi EMC VMAX ® and EMC VNX ®.

ScaleIO, tramite un approccio basato esclusivamente su software, è in grado di realizzare di creare un pool virtuale di storage server-based, cioè attraverso nodi composti da singoli server. Quest’architettura permette di ottenere elasticità e scalabilità in termini di capacità e performance. ScaleIO utilizza le risorse elaborative e capacitive di ogni server (nodo) e può scalare da decine a migliaia di nodi.

XtremIO presentato il 14 Novembre

XtremIO è la nuovissima soluzione EMC 100% flash scale-out. Per conoscere meglio l'architettura unica di XtremIO e come questo cambierà radicalmente il vostro mondo VDI, gli ambienti virtualizzati e i database registratevi per il lancio ufficiale il 14 novembre: 


lunedì 4 novembre 2013

Upgrade a Oracle 12c con l'opzione multitenant (pluggable database)

Una delle caretteristiche più interessanti e innovative della versione 12c di Oracle è certamente la Multitenant Option, nota anche come Pluggable Database: questa funzionalità permette la creazione di database multipli (PDB) all'interno di un database contentitore (CDB). I PDB condividono le risorse fornite dal CDB quali memoria, processi in background, UNDO, REDO e control files.

Quali sono gli impatti di queste novità per l'infrastruttura Oracle esistente ? Un modo efficace per valutarlo è quello di effettuare la migrazione alla 12c di uno degli ambienti di produzione, creando un "incubatore" separato dalla produzione stessa, nel quale eseguire le verifiche del caso.

Il processo di migrazione da una versione Oracle alla successiva può essere abbastanza complesso: proprio allo scopo di facilitare questa attività, EMC ha da sempre collaborato con Oracle nella realizzazione di soluzioni che sfruttassero le capacità dello storage, in particolare per la replica dei dati dall'ambiente di produzione a quello di test. Nel caso dei sistemi storage Symmetrix VMAX, la soluzione di replica TimeFinder permette di effettuare un offload delle operazioni di replica del database: il server che ospita il database (in altre parole l'ambiente di produzione) non è quindi impattato né per quanto concerne CPU e memoria, né per la componente di I/O. Nel caso poi in cui occorra iniziare una nuova verifica, reinizializzando il database, le funzioni di copia incrementale di TimeFinder permettono di ricreare il nuovo ambiente in tempi estremamente rapidi indipendentemente dalla dimensione del database stesso.

Tutti i dettagli sull'utilizzo di TimeFinder per la migrazione alla versione 12c di Oracle sono contenuti in un recente whitepaper (in inglese) ora disponibile a questo indirizzo: qui sotto l'architettura di alto livello della soluzione descritta



Ulteriori documenti e approfondimenti sulle soluzioni EMC per Oracle sono disponibili nella community Everything Oracle at EMC.


martedì 29 ottobre 2013

Rilasciata la versione 2.0 della XtremSW Cache

Della XtremSW Cache abbiamo già parlato in questo blog: ricordiamo solo che si tratta di una soluzione di caching intelligente che sfrutta la presenza di schede flash  nei server per accelerare le operazioni di lettura, migliorando in modo significativo le prestazioni dell'applicazione.

E' stata recentemente annunciata la versione 2.0 di questa soluzione software, versione che introduce alcune novità molto importanti:

  • Maggiore integrazione con i sistemi storage EMC (VMAX e VNX)
  • Supporto migliorato per VMware vCenter (vMotion)
  • Supporto per Oracle RAC
  • Supporto per AIX 6.1 e 7.0
  • Estensione supporto per schede cache di terze parti 
  • Nuovo ambiente di gestione: XtremSW Management Center
Una delle novità principali, disponibile da questo mese, è il supporto per Oracle RAC: grazie ad un meccanismo di cache coherency distribuita, è possibile configurare fino a otto nodi in modo che possano beneficiare delle eccezionali performance messe a disposizione dalla soluzione XtremeSW (in combinazione con le principali soluzioni di schede flash):


Il supporto con questa release è per Oracle 11g in ambiente Windows, Red Hat Enterprise Linux (RHEL) oppure Oracle Enterprise Linux (OEL), con Oracle Clusterware 11g ed Ethernet Interconnect.

Per tutti i dettagli potete leggere la (nuova) presentazione in italiano disponibile a questo indirizzo e nel datasheet (sempre in italiano) di EMC XtremSW Cache

venerdì 25 ottobre 2013

RecoverPoint: un incredibile strumento di replica

Cominciamo con un pò di storia...

Nel lontano 9 maggio del 2006 EMC acquistò Kashya per un totale di 153 milioni di dollari. I prodotti Kashya furono integrati nella linea di prodotti EMC per la replica dei dati con il nome di RecoverPoint. EMC in passato aveva offerto un prodotto simile chiamato RecoverPoint ma in seguito all’acquisizione di Kashya, EMC annunciò l’interruzione delle vendite del “vecchio”  RecoverPoint in favore dell’introduzione dei nuovi prodotti Kashya. Il “vecchio” RecoverPoint era basato su una tecnologia concessa in licenza da Mendocino Software che comprendeva solo un motore CDP (Continuous Data Protection) per un numero limitato di piattaforme, mentre la tecnologia Kashya, permise ad EMC di fornire funzionalità CRR (Continuous Remote Replication) e CDP (Continuous Data Protection) avanzate per più piattaforme hardware e software.
image

La tecnologia RecoverPoint spiegata in poche parole

RecoverPoint è una soluzione basata su appliance hardware dedicate (un appliance, lo ricordiamo, è un dispositivo progettato per uno specifico ambito applicativo) e su una suite software in grado di supportare grandi quantità di informazioni archiviate in ambienti server di rete e di storage eterogenei.

Grazie ad un’agile tecnologia di suddivisione o splitter, RecoverPoint esegue il mirroring delle operazioni di scrittura su un appliance RecoverPoint che si trova all’esterno del percorso dati primario. Lo splitter può essere configurato come funzione software nel server (totalmente trasparente per le applicazioni), nella rete SAN o direttamente nel sistema storage: la figura sottostante descrive il mirroring delle scritture nel caso in cui lo splitter si trovi nella SAN.
image
Questo approccio fuori banda consente a RecoverPoint di garantire la replica continua, senza influire sulle operazioni di I/O delle applicazioni. Grazie all’approccio alla protezione dei dati basato su rete, RecoverPoint è in grado di ripristinare immediatamente i dati a qualsiasi point in time mediante un registro cronologico (chiamato journaling) che tiene traccia di tutte le modifiche apportate ai dati e identifica gli eventi specifici delle applicazioni.
image

Principali vantaggi della tecnologia Recoverpoint :


  • Replica locale e remota eterogenea per la protezione di tutte le applicazioni, su qualsiasi array, in qualunque posizione (ambiente centrale, sedi remote) 
  • Costi complessivi di gestione contenuti e risparmio grazie alla deduplica WAN, alla riduzione della larghezza di banda, alla funzionalità di replica sincrona su IP, alla compressione del journal e alle tecnologie di consolidamento delle snapshot
  • Ripristino a qualsiasi point-in-time: garanzia di Business Continuity. Tutte le attività tornano rapidamente online grazie alla protezione continua dei dati e ai contrassegni coerenti con le applicazioni, entrambe caratteristiche tipiche di RecoverPoint
  • Supporto delle esigenze delle applicazioni più impegnative, come Oracle e VMware, che richiedono un throughput elevato
  • Protezione dei dati in più uffici remoti grazie alla replica su più siti
  • Scalabilità completa: le soluzioni di disponibilità dei dati ad alta capacità di RecoverPoint possono essere espanse fino a includere 8 RPA (RecoverPoint Appliance) mediante l’utilizzo di più cluster collegati allo stesso array


Famiglia RecoverPoint oggi

RecoverPoint protegge gli host o le applicazioni su qualsiasi array, con ripristino completo dei dati e replica per tra storage anche eterogenei (EMC e/o non EMC) collegati alla SAN. RecoverPoint CDP (Continuous Data Protection) fornisce la protezione locale dei dati, mentre RecoverPoint CRR (Continuous Remote Replication) fornisce la replica remota. Insieme, CDP e CRR forniscono protezione CLR degli stessi dati.
image

Componenti della famiglia RecoverPoint oggi :


  • RecoverPoint/CL offre protezione e replica dei dati CDP, CRR o CLR utilizzando lo splitting intelligente delle scritture basato su fabric, host o array per gli storage array eterogenei (EMC o non EMC)
  • RecoverPoint/EX offre protezione e replica dei dati CDP, CRR o CLR utilizzando lo splitting delle scritture basato su array per più sistemi EMC Symmetrix VMAX da 40K, 20K e 10K; EMC VPLEX Local e VPLEX Remote; EMC serie VNX; EMC Celerra Unified ed EMC CLARiiON serie CX4 e CX3
  • RecoverPoint/SE offre protezione e replica dei dati CDP, CRR o CLR utilizzando lo splitting delle scritture basato su array per gli array serie VNX omogenei ed i sistemi della serie CLARiiON. RecoverPoint/SE offre inoltre la replica unificata dei dati di file e blocchi per la serie VNX
La famiglia RecoverPoint offre quindi una completa protezione dalla perdita di dati causata da eventi comuni quali guasti dei server, danneggiamento dei dati, errori software, virus ed errori degli utenti, nonché da eventi catastrofici che possono determinare l'arresto completo di interi Data Center.

Ultima versione RecoverPoint 4.0

image


Il 30 aprile 2013 EMC ha annunciato pubblicamente la versione 4.0 di questo fantastico software, soluzione che consente il ripristino a qualsiasi point-in-time per ambienti di storage diversificati dentro e tra Data Center. EMC RecoverPoint 4.0 aggiunge i seguenti vantaggi :


  • Supporto di replica su più siti: per aumentare la disponibilità dei dati, EMC RecoverPoint consente di replicare un sito primario fino a quattro siti remoti (1:4). Protegge inoltre i dati all’interno delle filiali con una replica su più siti, dalle filiali a un sito centrale (4:1)


image
  • Soluzione solo software: EMC RecoverPoint può essere ora configurato come soluzione solo software (un vRPA, virtual RecoverPoint Appliance), eseguita su una macchina virtuale VMware per ambienti meno complessi. L’appliance RPA (RecoverPoint Appliance) fisica viene configurata qualora occorra ottenere prestazioni superiori o il supporto di configurazioni su più siti.
  • Ripristino a qualsiasi point-in-time per operazioni VMware SRM (Site Recovery Manager)
  • SRDF insieme a EMC RecoverPoint per replica remota (CDP)
  • Aumento del throughput asincrono a 400 MB/s, grazie all’utilizzo di consistency group distribuiti
  • Aumento della capacità replicata da 300 TB a 2 PB per cluster EMC RecoverPoint
  • Aumento del numero di volumi protetti da 2.000 a 8.000 (8.192) con splitter EMC VPLEX ed EMC VNX
  • Supporto di replica sincrona su IP (rispetto a solo Fibre Channel prima della versione 4.0)
  • Supporto di API RESTful
  • Nuova e intuitiva interfaccia di gestione Unisphere per EMC RecoverPoint
  • I clienti possono eseguire l’upgrade a EMC RecoverPoint/SE

Conclusioni

Spero che le informazioni contenute in questo articolo siano state in grado di chiarire i punti di forza di questa soluzione di replica davvero unica: qui di seguito trovate una serie di documenti che ci sentiamo di consigliare a coloro che desiderassero approndire i temi trattati.

Massimo De Palma - Senior Systems Engineer

Link di  White Paper su RecoverPoint :


Ecco quello che dice Wikipedia su RecoverPoint:
http://en.wikipedia.org/wiki/RecoverPoint

Il mondo del WEB che cosa dice su RecoverPoint:http://virtualgeek.typepad.com/virtual_geek/2013/05/emc-recoverpoint-40virtualized-and-software-defined-for-more-goodness.html
http://www.storagereview.com/emc_announces_updates_to_vmax_and_recoverpoint_40
http://blog.clearpathsg.com/blog/bid/291378/RecoverPoint-4-0-Update-and-Best-Practices

Specification Sheet e data Sheet di RecoverPoint :


Sito EMC:  http://italy.emc.com/index.htm
Seguici su Twitter: @EMCItalia










giovedì 24 ottobre 2013

EMC XtremSW Cache Performance Predictor (XPP)

Introduzione


EMC XtremSW Cache ™ è una soluzione EMC di flash-caching che migliora notevolmente le prestazioni delle applicazioni se abbinato a schede PCIe Flash. Si tratta di una soluzione di caching intelligente che sfrutta la tecnologia Flash implementata su server e il caching write-through per prestazioni dell'applicazione accelerate e protezione dei dati.
XtremSW Cache accelera le “reads” e non penalizza le “writes”, la funzionalità di “write-through” vengono mantenute sullo storage array di back-end per assicurare High Availability, integrità end-to-end, affidabilità dei dati e disaster recovery.
italy.emc.com/storage/xtrem/xtremsw-cache.htm

Come facciamo a prevedere  i benefici dell'utilizzo del SW?
Sarebbe interessante poter predire  come saranno le performance del nostro applicativo se decidessi di utilizzare XtremSW, ma prima di aprire il "borsellino".
... Si è vero, potremmo installare la demo e provarlo, ma occorre organizzarsi: un ambiente e risorse dedicate.
E moltiplicare l'effort per ogni ambiente che vorremmo testare. Invece con un semplice tool possiamo effettuare una simulazione e guardare i report comodamente seduti alla nostra scrivania.


XPP

XPP


L'EMC XtremSW Cache Performance Predictor (XPP) infatti è uno strumento progettato e realizzato per dimostrare i benefici di eventuale utilizzo del SW “EMC XtremSW “ nel proprio ambiente.
Utilizzando un normalissimo “host-side I/O trace” dal sistema operativo del server, lo strumento simula il funzionamento della cache EMC XtremSW e presenta informazioni statistiche.

Ad esempio i dati dal server si potranno raccogliere utilizzando strumenti come “Xperf” e “blktrace”.
“ XPP” poi eseguirà l'analisi dei dati sul server, o su qualsiasi altra macchina.

La versione di “XPP” rilasciata in Q4 2013 potrà anche effettuare la simulazione in Real Time.

Vediamo adesso un po' nel dettaglio come si utilizza ... anzi guardatelo voi direttamente qui sotto o scaricate il video dalla mia area Syncplicity How-to-use EMC XtremSW Cache Predictor Tool :






I risultati possono fornire una previsione/simulazione di miglioramenti possibili e aiutare l’utente nella stesura di un Business-Case che giustifica il costo della transazione rispetto all’utilizzo di tecnologia Falsh.

Un esempio di report lo trovate qui



XPP oggi supporta gli ambienti Windows e Linux:

              • Windows 2008 SP2, 
              • Windows 2008 R2 SP1, 
              • Windows 2012
              • RHEL 5.x 
              • RHEL 6.x

E’ scaricabile gratuitamente per gli utenti registrati al sito
support.emc.com o in alternativa potete chiedere al vostro SE  EMC di riferimento.









RIASSUMENDO …


Previsione sui miglioramenti delle performance ? …
Sulla base di analisi di tracce lato host
Non è richiesta alcuna scheda PCIe o SW a pagamento
Facile da usare e gratuito
Pianificazione e dimensionamento di quale ambiente ? …

Osserva il report ottenuto in dettaglio
Scegli le LUNs più appropriate da accelerare

Qualche documento e link per approfondire :
XtremSW Cache - Panoramica
XtremSW Cache - DataSheet
XtremSW Cache (US List Price)
XtremSW EMC community
XtremSW Tech Overview
XPP - Technical Note






By @dtdavide





martedì 22 ottobre 2013

Le "nuove" applicazioni nel mondo storage e la risposta di EMC

Ho il piacere di essere l’Account Systems Engineer di uno dei principali Gruppi Industriali italiani.
Da questo osservatorio privilegiato posso notare alcuni fenomeni recenti che interessano principalmente il mondo applicativo, ma che hanno già o avranno ricadute a breve sul mondo IT ed in particolare per quanto ci riguarda, sulla componente Storage.
Li elenco di seguito:

  • Microsoft Exchange 2013
  • SAP Hana
  • Oracle & Exadata

Microsoft

Con l’ultima versione di Exchange è particolarmente aggressiva sui Clienti con l’approccio basato su “Server e dischi interni”. L’idea alla base del loro messaggio è semplice : il nuovo Exchange è talmente leggero e prestazionale che non serve avere infrastrutture Storage dedicate (o condivise) tutto puo’ essere tranquillamente gestito da soluzioni a basso costo locali, tanto ci sono meccanismi di replica nativa. La ridondanza è quindi garantita.

La risposta di EMC è ovviamente diversa: la soluzione DAS/dischi interni fa crescere il TCO (Total Cost of Ownership) rispetto a soluzioni SAN e moltiplica inutilmente la quantità di dato oggetto di replica (un recente documento di Wikibon illustra in dettaglio come questo si realizza).

E’ stato infatti dimostrato come nelle soluzioni EMC, siano esse basate su VNX o VMAX, il numero delle copie necessarie per l’affidabilità del dato si riduce drasticamente, grazie alla resilienza delle citate piattaforme Storage (rispettivamente 99,9998% e 99,999%) .

Per raggiungere un elevato livello di Flessibilità e Agilità occorre utilizzare funzionalità di Virtualizzazione, siano esse VMware o Hyper-V, che richiedono ‘Shared Storage’ e che sono sfruttate al meglio nelle configurazioni SAN.

Affidabilità e DR: lo ‘Shared Storage’ abilita anche ad una singola strategia di DR (RecoverPoint è in questo ambito la tecnologia ideale) e permette la consistenza anche tra differenti applicazioni.

A cio’ si aggiunge la possibilità di ottenere un RPO (Recovery Point Objective) ed RTO (Recovery Time Objective) di zero (0), utilizzando la tecnologia VPLEX per avere accessi active/active sia locali che Metro.

Infine da tenere in considerazione che VNX si integra con AppSync e Kroll ItemPoint per ottenere un granulare restore/recovery e che gli Storage Pool di VNX sono uno strumento estremamente semplice e flessibile per gestire le capacità e le crescite degli ambienti Exchange, specialmente quelli medio grandi.

La possibilità di usufruire del medesimo Storage già esistente ed utilizzato da altre applicazioni, aggiungendo il nuovo ambiente Exchange significa un rapido tempo di implementazione e poter beneficiare di soluzioni Storage ad alto valore quali per esempio , il Virtual Provisioning ed il FAST (Fully Automated Storage Tiering) e la FAST Cache (VNX).

In presenza di una nuova infrastruttura Exchange 2013, un altro approccio per competere ed ottenere i migliori risultati di TCO, è quello di posizionare una soluzione basata su multipli VNX di fascia entry ( il VNX5200 o VNX5300), che permettono di ottenere un costo di acquisizione interessante rispetto al sistema di fascia alta VNX (7500, 7600 o 8000) ed al contempo quindi, pur avendo le medesime protezioni ed affidabilità dei sistemi maggiori, hanno un prezzo di ingresso piu’ simile a quello delle architetture proposte da Microsoft /DAS-dischi interni.

Sap Hana

L’evoluzione di SAP verso le applicazioni In-Memory introducono sicuramente notevoli vantaggi prestazionali per il Business.
E’ vero infatti che i valori ottenuti con questa applicazione raggiungono livelli molto interessanti. Per contro, la componente Storage tende a diventare poco significativa e si arriva ad avere piccoli Storage integrati nella Soluzione (tipicamente VNX di fascia bassa), che spesso è “chiusa”, ovvero già definita in modo poco flessibile. In questi sistemi la potenza computazionale CPU / memoria tende ad avere la massima rilevanza.
EMC suggerisce per i Clienti Enterprise, di chiedere a SAP di partecipare al programma per i Clienti chiamato TDI (Tailored DataCenter Integration) .
Scopo di questa iniziativa è quello di certificare la soluzione SAP Hana su piattaforme Storage già presenti presso i Clienti. In questo modo si ottimizzano gli investimenti e si evitano di creare quei “Silos Verticali Applicativi” , il cui proliferare potrebbe creare difficoltà di gestione all’interno dei Data Center.
In questo caso si potrà beneficiare dei vantaggi di Virtual Provisioning, FAST, XtremCache, unitamente alle soluzioni di replica Storage del dato sincrona MirrorView/s o SRDF/S.
A ciò si aggiunge una soluzione di Backup certificata SAP Hana, basata su Data Domain, sistema di deduplica in-line Leader di Mercato (IDC PBBA* Giugno 2013, 58,9%).
La combinazione di questi fattori rende la proposizione EMC estremamente interessante e superiore a quanto offerto dai principali competitor.

Purpose Built Backup Appliance

Per quei Clienti che non possono partecipare al programma TDI, o preferiscono l’approccio “Appliance” con soluzioni Building Block, EMC propone l’ opzione VBlock entry level:


Questa soluzione basata sulla VBlock Converged Infrastructure permette di avere dei sistemi specializzati per SAP Hana (con all’interno sistemi VNX), “Fully Certified”, “Factory Loaded” e pre “Tested”
Completano la famiglia VBlock i sistemi di fascia alta, che arrivano a 9-12 nodi (4.0-5,5 TB) e 13-16 nodi (6.0 – 7.5 TB).

Oracle

Sta cercando aggressivamente di proporre soluzioni “Lock-in” (Exadata in primis), specialmente ai Clienti che hanno ELA/ULA significativi: all’interno del rinnovo delle licenze cercano di vendere o più spesso "regalare" un sistema Exadata.

Per il Cliente questo non è affatto un vantaggio: la soluzione “embedded” Exadata ha significativi punti di sofferenza, tra i quali spicca il tema del backup (e soprattutto del Restore), il Disaster Recovery, l’Affidabilità complessiva, il doversi legare a Release specifiche del Database ed a tecnologie “proprietarie” Lock-in HW e SW.

Invece EMC propone di appoggiare i DB basati su Oracle su piattaforme Storage estremamente
affidabili, sicure, veloci, dotate di meccanismi di backup con deduplica, completamente Open, siano esse VMAX o VNX. Ma ancora prima suggerisce ai Clienti di Virtualizzare e di risparmiare conseguentemente sui costi di Licenze, Operativi ed incrementando cosi’ la flessibilità degli ambienti.

La virtualizzazione degli ambienti Oracle infatti porta almeno 5 vantaggi:
  • Riduzione dei costi associati alle Licenze (ROI)
  • Prestazioni superiori e maggiore efficienza per i DBA
  • Implementazione di nuovi ambienti (Server e Oracle) e dello Storage in pochi minuti
  • Continuous Application Availability (in particolare con VPLEX e RecoverPoint, vedi sotto) multi Site, due o 3 siti.
  • Standardizzazione (Virtualizzazione ed eventualmente soluzione VBlock Converged Infrastructure)
Tecnologicamente FAST e la FAST Cache apportano dei sostanziali benefici prestazionali richiesti, mentre l’ aggiunta della virtualizzazione di VPLEX, è in grado di offrire una superiore flessibilità operativa e di continuità del Business rispetto alle soluzioni Oracle Exadata. Mi riferisco in particolare alla possibilità di ottenere per ambienti Database Mission Critical, livelli di RPO ed RTO = zero, in congiunzione a RecoverPoint per la disponibilità applicativa continua sul 3° Sito.

Conclusioni:

Come emerge da questo sintetico documento, maturato da esperienze reali sul campo, la presenza di nuove proposte applicative potrebbe impattare le tradizionali aree di focalizzazione di EMC, ma in realtà grazie alle Soluzioni che propone è in grado di offrire molto di piu’ rispetto ad approcci poco ottimizzati (Exchange – TCO) ,o troppo esposti sulla parte computazionale/prestazionale e meno sulle infrastrutture Storage (SAP HANA) , o che creano pericolosi “punti di Lock-in proprietari” (Oracle Exadata).
Da sempre invece la missione di EMC è e resta quella di affiancare il Cliente e di supportarlo nell’ottimizzazione di quanto ha già disponibile presso i propri Data Center, offrendo soluzioni all’avanguardia in tema di Virtualizzazione, Alta Affidabilità e Business Continuity, Prestazioni , Backup & Restore deduplicanti.
Inutile dire che avere sempre un’approccio ‘Consultant’ nei confronti dei Clienti permette di apparire seri e credibili anche quando si affrontano argomenti su ambiti non propriamente all’interno della propria sfera di competenza.

Eugenio Manini
eugenio.manini@emc.com