Visualizzazione post con etichetta IDC. Mostra tutti i post
Visualizzazione post con etichetta IDC. Mostra tutti i post

lunedì 6 giugno 2016

EMC DSSD secondo IDC


L’affermazione della terza piattaforma ha richiesto lo sviluppo di nuove architetture storage, quali gli allflash array (AFA) e le infrastrutture iperconvergenti (HCI), che puntano alla risoluzione di numerosi problemi legati a infrastrutture storage di precedente generazione, alle performance, alla crescita dei dati e alla relativa rapidità di incremento dei requisiti di espansione, alla produttività degli amministratori, all'affidabilità e all'efficienza in termini di consumo di energia e spazio. Per molte
aziende è importante supportare all'interno della stessa infrastruttura virtuale consolidata applicazioni di precedente generazione (es. database relazionali, piattaforme di messaggistica/collaborazione e condivisione dei file) e applicazioni di nuova generazione (NGA) . I mercati guidati da questi requisiti sono già piuttosto estesi: secondo IDC, AFA e HCI produrranno ricavi rispettivamente per circa 5,5 e 4 miliardi di dollari entro il 2019. Tale crescita si è verificata nei 5-6 anni successivi all'introduzione di
questi prodotti sul mercato.

Nei prossimi 10 anni, secondo IDC, la terza piattaforma dominerà le decisioni infrastrutturali IT. Le NGA legate a mobility, social media, big data/analytics e cloud stanno aprendo notevoli opportunità di crescita per le imprese più lungimiranti alla ricerca di nuovi clienti e mercati a cui offrire servizi innovativi non esistenti in passato. Una delle caratteristiche chiave delle NGA è la scalabilità: si tratta di applicazioni che richiedono milioni di IOPS e utilizzano set di dati molto estesi che impongono l'utilizzo di un'enorme larghezza di banda e di capacità di archiviazione sull'ordine dei petabyte (PB) e oltre. Le NGA devono spesso gestire un'acquisizione dei dati intensiva, su scala globale e con latenze inferiori a quelle offerte dagli attuali AFA. Molti nuovi clienti e molte opportunità di mercato si basano sulla real-time analytics per trasformare i dati in informazioni in grado di generare valore differenziante. Questo valore giustifica ampiamente una spesa più elevata.

I Big data/analytics offriranno nuove e rivoluzionarie informazioni ad aziende innovatrici, sviluppatori e operatori di mercato, cambiando per sempre il modo in cui il business si proporrà al mercato e venderà i prodotti. Le imprese devono raccogliere e gestire set di dati infinitamente più estesi di quelli gestiti in passato. La velocità è un elemento fondamentale per l'analisi e lo sfruttamento di opportunità transitorie o impossibili da gestire con gli approcci di analisi convenzionali. Entro pochi anni, le aziende incapaci di sfruttare al meglio la real-time analytics o le imprese prive di infrastrutture IT flessibili per una risposta rapida alle opportunità individuate dagli analytics, subiranno un notevole svantaggio competitivo. Le imprese in grado di comprendere l'impatto del passaggio alla terza piattaforma nei mercati AFA e HCI otterranno un chiaro quadro del cambiamento imposto dai big data/analytics alle attuali infrastrutture.
Per gestire i requisiti di real-time analytics nei repository di big data in continua evoluzione, le aziende hanno iniziato a utilizzare gli AFA. Tali sistemi tuttavia sono stati progettati per l'utilizzo di set di dati più piccoli e hanno limitate capacità di adeguamento agli estesi data set dell'era della terza piattaforma. Nello specifico, gli AFA non riescono a gestire al meglio l'acquisizione dei nuovi dati eseguendo allo stesso tempo le richieste dai clienti di real-time analytics. Di conseguenza, gli AFA utilizzati in questi tipi di ambienti richiedono una notevole quantità di lavoro manuale, ovvero la suddivisione dei carichi di lavoro in partizioni e la loro sistribuzione fra diversi sistemi, spesso creando diverse copie dei set di dati già sottoposti a partizionamento. Occorrono diverse copie per ottenere le performance necessarie per il rispetto degli SLA delle applicazioni, aspetto che produce un utilizzo inefficiente della capacità di storage. Inoltre, gli AFA non dispongono della larghezza di banda necessaria per la gestione dei requisiti di estrazione, trasformazione e caricamento (ETL) e del supporto decisionale richiesto da questi ambienti "data at scale". Di conseguenza, amministratori e analisti impiegano molto tempo nella messa a punto di sistemi privi della capacità di gestire questo tipo di dimensioni.

Le architetture di storage emergenti per la gestione di questi requisiti offriranno importanti elementi tecnologici di differenziazione. Innanzitutto, per offrire performance ottimizzate in termini di latenza e throughput occorre potenziare la connessione host fra server e array al fine di supportare latenze costantemente inferiori a 100 microsecondi. La soluzione più immediata consiste nell'espandere il bus interno dei server per adattarsi allo storage condiviso. In seconda istanza, occorre costruire il sistema su memory-based storage media senza i requisiti per soddisfare lo spinning dei dischi. Le tecnologie di memoria emergenti consentono di aumentare l'affidabilità, ridurre il consumo energetico e migliorare la densità dello storage, a patto di sacrificare la compatibilità con le tecnologie di precedente generazione, caratteristiche importanti per la scalabilità. In terza istanza, la piattaforma deve adattarsi contemporaneamente a diversi tipi di dati (strutturati, non strutturati e semi strutturati) , in maniera nativa e senza inefficienze. Per consentire alle imprese di sfruttare al meglio i dati per identificare opportunità, occorrerà utilizzare ogni tipo di dato in modo efficiente e senza alcuna preferenza fra essi. Infine, occorre abbandonare gli attuali stack di I/O relativamente pesanti e adottarne altri dedicati a questa nuova architettura. Molte applicazioni di data analytics vengono scritte in maniera specifica, mentre la disponibilità di un'API in grado di sfruttare uno stack di I/O più snello e dalla latenza inferiore potrà offrire vantaggi agli sviluppatori desiderosi di ottimizzare performance, affidabilità ed efficienza dello storage.


IDC inizia a rilevare la presenza di architetture storage di nuova generazione progettate per rispondere alle esigenze di scalabilità della data analytics. Alla luce delle dimensioni del mercato di big data/analytics dei prossimi anni, la spesa per l'infrastruttura storage per queste tecnologie crescerà più velocemente rispetto a quello che abbiamo visto fare per le architetture di storage emergenti. Il 2016 si preannuncia un anno interessante, considerata la maggiore disponibilità delle soluzioni storage orientate ai big data.

IDC Analyst – Eric Burgener, Research Director, Storage

Per maggiori informazioni www.Italy.emc.com 


lunedì 27 luglio 2015

Il Cloud Backup Secondo EMC




Sempre più spesso si sente parlare di alternative “Off-premise” per la protezione e la conservazione a lungo periodo dei dati di backup.
La gran parte dei fornitori di servizi IT include nell’offerta differenti soluzioni di backup di tipo Cloud, che si classificano per lo più in base alla destinazione d’uso, ovvero dal backup di tipo ‘end-user’, tipicamente proposto in modalità “sub-scription” su base mensile e/o annuale, al backup di livello Enterprise, che si pone l’obiettivo, tra gli altri, di offrire non solo spazio per il salvataggio dei dati, ma anche una soluzione robusta ed affidabile e  di prestazioni adeguate a garantire livelli di servizio tipici dei sistemi di backup aziendali, in particolare nella fase di recupero dati a seguito della perdita parziale o totale delle informazioni (disaster&recovery). Sia i primi che gli ultimi sono per lo più basati sul principio di “deduplica sorgente”, di compressione dei dati o, nel migliore dei casi, da un corretto mix di entrambe. 
Non è però  mia intenzione entrare nel dettaglio tecnico/commerciali e ad una comparazione “features vs. features” delle varie soluzioni,  per le quali esistono ormai numerose ed autorevoli studi degli analisti di mercato specializzati, in grado di guidare l’utente verso la scelta più adeguata (ad es. Gartner, IDC etc.)

L’obiettivo di questo post è descrivere la strategia di EMC inerente la protezione dei dati in cloud, evidenziando dapprima in estrema sintesi cosa intendiamo per Cloud e quindi illustrando perché riteniamo che la nostra strategia di data protection in ambiente Cloud offra la migliore combinazione tra flessibilità, efficienza e garanzia di integrità, nonchè controllo e sicurezza del dato salvato, presente attualmente sul mercato.


“Cloud  Path Strategy” … Ovvero come EMC ti tende la mano mentre attraversi il guado :)

EHC= EMC HYBRID CLOUD

Secondo IDC’s FutureScape Predictions per il 2015, più del 65% delle imprese IT saranno impegnate ad adottare tecnologie di hybrid cloud entro il 2016: muoversi verso qualunque tipo di modello “as-a-service” richiede dei cambiamenti, e le aziende, oltre alla difficoltà di gestire il cambiamento, devono trovare un modo di ridurre i costi di manutenzione delle infrastrutture IT tradizionali, e contestualmente redistribuire I loro investimenti verso l’innovazione per tenere testa alla veloce entrata di nuovi soggetti in competizione sul mercato.


Non deve sorprendere quindi che i nostri clienti si muovano rapidamente verso il modello Cloud (indipendentemene se privato o pubblico). In questo contesto il Controllo e la Protezione di Applicazioni e Dati non sono mai stati così importanti!

Altrettanto importante è avere una chiara “mappa” applicativa che ci aiuti a gestire la complessità nel decidere dove i relativI carichi di lavoro dovrebbero risiedere.
A questo punto è lecito chiedersi perché, nonostante I rischi e le complessità di questa trasformazione IT, ci si stia muovendo con sempre maggiore confidenza verso il Public Cloud. Agilità e capacità di avere immediatamente disponibili nuovi servizi sono le principali risposte, ma una sana gestione IT non può trascurare come questi servizi vengano realizzati, sostenuti e forniti ai nostri clienti finali.

La verità è che ai nostri CIO è ormai noto che le divisioni di business delle loro aziende possono accedere a risorse alternative nel cloud. Tale tendenza è inevitabile, ma per EMC e le aziende il valore del controllo della gestione e della sicurezza dei dati è un elemento imprescindibile di  successo, ed è per questo che abbiamo realizzato un framework completo di soluzioni software ed hardware  integrate in grado di rappresentare un veicolo ed un facilitatore per quelle organizzazioni IT che vogliono accompagnare i propri clienti interni ed esterni verso il le nuove disponibilità del public cloud ottenendo così il duplice vantaggio di flessibilità e controllo.

  Secondo ‘Technology Business Research’  il mercato del private cloud ha una prospettiva di crescita del 35% già nel 2015, una tendenza ancora più rapida  che il public. EMC sta notando come i clienti stiano sempre piu’ adottando soluzioni hybrid cloud – quale giusto equilibrio tra i due approcci –“.


LA VISION di EMC 


Con l’aiuto di EMC i nostri clienti possono disegnare la propria strategia Hybrid Cloud in diversi modi. EMC ha più clienti già in ambito private cloud di qualunque altro vendor. Quale che sia la soluzione che sviluppiamo e forniamo, questa è concepita con questo obiettivo. Tutti i nostri prodotti sono “cloud enabled”. Ad esempio, abbiamo di recente introdotto una nuova soluzione chiamata Cloud Boost. Questa consente ai nostri software di backup, Networker ed Avamar, di effettuare in maniera semplice e diretta il backup dei dati locali diretattamente sul cloud (off-premise). Abbiamo anche introdotto Cloud Array che consente ai nostri clienti di usare spazio residente su cloud pubblico come un ulteriore livello di storage locale. Ultimo ma non meno importante le acquisizioni di cosidette “Born in the Cloud Application” come Spanning. Spanning consente di effettuare il backup ed il recovery in modalita “SaaS” di applicazioni e dati da servizi quali Google Apps, SalesForce e Microsoft Office 365 senza alcuna necessità di avere infrastrutture IT in casa.

Tenendo presente la visione di EMC Hybrid Cloud, nell’ambito delle novità introdotte per la protezione dei dati è utile, infine,  un breve cenno al funzionamento della soluzione “Cloud Boost” ed ai vantaggi immediati a beneficio dei nostri clienti.

Cloud Boost  è una componente software che fa parte integrante dell’offerta EMC Data Protection e rappresenta l’elemento abilitante per hybrid cloud data protection EMC.
CloudBoost è basato sulla tecnologia Maginatic. EMC ha acquisito Maginatics nell’Ottobre del 2014. 
CloudBoost  facilita il trasferimento dei dati in modalità sicura, automatica ed efficiente da private e public cloud.

CloudBoost  di fatto estende in maniera trasparente alla soluzione di data protection esistente verso un cloud storage “scale-out”. In altre parole non una sostituzione di Networker, Avamar o Data Domain ma una estensione delle potenzialità di queste soluzioni leader di mercato verso un contesto di protezione di classe hybrid cloud. Vediamo di seguito come e perché.

E’ noto che Il Cloud è l’alternativa ideale al tape per scopi di conservazione di lungo periodo:
  • Riduzione della complessità: chi vuole ancora gestire tape libraries, lettori, etc?  Inoltre non c’è nessuna sicurezza intrinseca in un singolo tape e quindi è necessario gestire copie multiple per ottenere una protezione che si avvicini a quella del disco Cloud (RAID e/o erasure code).
  • Riduzione dei rischi: il rischio di mantenere una singola copia dei dati su un media tape è fortmente suscettibile al danneggiamento. Che succede se il tape viene smarrito,danneggiato durante il trasporto? O se si surriscalda? O se diviene illegibile dopo essere stato fermo 5-10 anni?
  • Migliore qualità e certezza del restore: un Cloud object storage  offre senza dubbio un miglior RTO (Recovery Time Objective) rispetto al tape il quale può gestire una singola operazione di lettura per volta.
  • Cloud Boost ha costi estremamente vantaggiosi per la conservazione di lungo periodo dei dati.





Davide Codagnone, Account Manager EMC Italia @dtailgn1