Visualizzazione post con etichetta deduplica. Mostra tutti i post
Visualizzazione post con etichetta deduplica. Mostra tutti i post

martedì 7 luglio 2015

DPS User Group: i temi dell'evento

L'evento in pillole


L'evento si è svolto presso il Gran Visconti Palace a Milano con 44 partecipanti tra clienti e partner. I feedback sono stati molto positivi con un particolare interesse sui temi legati al mondo Cloud. La giornata ha visto coinvolti vari speaker dal responsabile della divisione DPS in Italia a vari esperti sui temi della Data Protection.


La Vision

L'apertura dell'evento ha visto protagonista Francesco Isabelli responsabile commerciale della divisione DPS in Italia che ha presentato la vision di EMC ben riassunta nella whiteboard riportata di seguito:


La whiteboard mette in evidenza alcune informazioni raccolte attraverso una ricerca di mercato:

- il 71% dei clienti intervistati non è confidente nella sua strategia di Data Protection
- il 64% dei clienti continua ad oggi ad avere problematiche di data loss
- il 76% dei clienti non ha una strategia di data protection per le applicazioni Cloud

Ripercorrendo le informazioni statistiche di quest'analisi è possibile vedere come la vision di EMC permette di rispondere in modo efficace a tutte queste situazioni:

- le soluzioni di Data Protection di EMC sono leader di mercato e permettono di definire una strategia precisa e sicura per il cliente
- la garanzia sulla protezione del dato attraverso l'utilizzo di EMC Data Domain unico a garantire la restorabilità del dato grazie alla Data Invulnerability Architecture
- l'apertura delle soluzioni al Cloud attraverso Spanning, Mozy e Cloud Boost

L'apertura al mondo Cloud è stato il tema di maggior interesse per i partecipanti che hanno riportato commenti molto positivi sulla strategia EMC.





Data Protection Search e DPA

Tra le novità di EMC world 2015 è stata annunciata la prima release della funzionalità di Data Protection Search basata su elastich search che permette di gestire delle ricerche all'interno dei backup con un interfaccia Google Like. 

Durante l'evento è stata visualizzato un video che spiega l'architettura e fa una demo della soluzione



Sono state illustrate le nuove funzionalità di DPA ed in particolare la root cause analisi che fa un analisi di tutti gli eventi tracciati dal sistema per determinare la possibile causa del fallimento di un backup. Questa nuova funzionalità è veramente unica ed è un esempio reale di applicazione dei big data all'interno del mondo dei backup.



Annunci EMC Data Domain

L'evoluzione in ambito EMC Data Domain è stata annunciata durante EMC World 2015 con i nuovi gioielli di famiglia il modello di punta DD9500 e l'entry level DD2200 con 4TB.





Il modello di punta DD9500 è 1.6 volte più performante rispetto al DD990 e 4 volte più scalabile ( includendo l'archive tier)

Le altre novità molto interessanti sono il progetto Falcon che prevede l'introduzione sul mercato di un EMC Data Domain virtuale software only 







E l'introduzione in ambito protect point del supporto per Oracle RMAN, SAP BR*Tools e DB2:





Spanning, Cloud Boost, Mozy & Recover Point for Virtual machines

Hanno destato molto interesse nella platea le novità relative al Cloud:

- Spanning backup Cloud to Cloud di Office 365, Google Apps e Salesforce

- Cloud Boost che abilita la scrittura in Cloud dei dati di Networker e Avamar
- Un update sulle funzionalità di Mozy


Spanning

Spanning da la possibilità di gestire la protezione delle applicazioni SaaS. In generale le applicazioni SaaS offrono la garanzia della disponibilità dei dati ma non il ripristino di elementi modificati o cancellati erroneamente o in modo fraudolento. Ed è qui che Spanning si inserisce come elemento di garanzia dell'integrità dei dati SaaS.






Cloud Boost

La nuova funzionalità di Cloud Boost aggiunge alla famiglia di soluzioni Data Protection Suite l'opzione di poter scrivere in Cloud i dati di backup. Questo permette di poter valutare uno spazio Cloud a basso costo per la scrittura dei backup long term. Tale opzione permette di gestire in modo più semplice un architettura Tapeless che combina EMC Data Domain per i dati daily e con retention basse e il Cloud per i dati a lunga ritenzione.








Mozy Update

Nello scenario dei BaaS Mozy è un attore rilevante sul mercato e la sua crescita è dovuta alla costante innovazione del prodotto e all'ampiamento degli uses case a cui si applica. Ad oggi la soluzione permette di gestire il backup in Cloud sia delle postazioni di lavoro che di ROBO attraverso le nuove funzionalità di gestione dei backup di macchine Linux, integrazione con VmWare e Hyper-v.





Recover Point for Virtual Machine

Recover Point for Virtual Machine è una soluzione completamente software per la gestione del Disaster Recovery degli ambienti virtuali. Si integra con vCenter e permette di gestire una protezione sia locale che remota delle macchine virtuali indipendente dallo storage e/o protocolli utilizzati nell'infrastruttura.



La soluzione permette di gestire anche un piano di DR con la creazione di workflows di ripartenza delle VM personalizzati.

La soluzione permette di gestire anche un piano di DR con la creazione di workflows di ripartenza delle VM personalizzati.

At the end...

A chiusura della mattinata sono state presentate le roadmap delle soluzioni EMC Data Protection Solution come anteprima dei futuri sviluppi e piani strategici di EMC sull'area Data Protection. Nel primo pomeriggio sono state visualizzate alcune demo, tra cui una demo live di Networker 8.5.

Emanuela Caramagna, Advisory SE – Data Protection & Availability Division Italy

lunedì 15 giugno 2015

EMC DPS User Group: l'evento per i clienti Data Protection EMC

Cos'è il DPS User Group?

Il DPS User Group è un evento che si rivolge esclusivamente ai clienti delle soluzioni di Data Protection EMC; ha l’obiettivo di condividere le novità, la visione e la strategia EMC in ambito di backup, recovery ed availability.

È sì un evento di condivisione delle soluzioni EMC ma soprattutto un momento discussione e confronto di esperienze tra i clienti.

VIDEO - CNHi ha scelto EMC



17 Giugno 2015
  
ore 09.00 - 15.30
Grand Visconti Palace

Milano 

L'agenda propone sessioni dedicate alla visione, alle novità tecnologiche, al dettaglio di alcune soluzioni oltre che interventi di clienti che condivideranno la loro esperienza

I principali argomenti trattati saranno:

DPS Vision: Come proteggere le “vecchie” e le “nuove” applicazioni?
La sessione si pone l’obiettivo di descrivere come EMC affronta la protezione delle applicazioni tradizionalmente presenti nel datacenter e come intende affrontare quelle di nuova generazione nate nel cloud.

Data Protection Index: Come indicizzare, cercare e ripristinare facilmente i miei dati?
La DPS suite si arricchisce di una nuova funzionalità in grado di rendere le attività di ricerca, che normalmente risultano lunghe e difficili, più semplici e veloci.

Le novità di EMC World
Come evolvono le soluzioni presenti nel portafoglio EMC DataProtection e quali novità saranno introdotte?
Panoramica sulle novità DataDomain e l’integrazione con lo storage primario.

Use Case
Come affrontare i nuovi carichi di lavoro intrinsechi ai nuovi modelli di DataCenter (Public/Hybrid Cloud)?
Ecco una panoramica delle soluzioni EMC che permettono di indirizzare queste nuove necessità.

Focus Software Solution
Come poter condividere visibilità e controllo della protezione dei dati tra chi ha la proprietà dell’applicazione e chi ha la proprietà della infrastruttura?
“Data Protection Architecture”: sempre più le componenti dedicate alla protezione del dato devono integrarsi in maniera semplice ed efficace tra di loro e con le applicazioni.
In questa sessione il focus sarà sulle soluzioni software del portafoglio EMC DataProtection, la loro evoluzione e le novità sia in ambito backup che availability.

PARTECIPARE

Per partecipare basta iscriversi tramite il link sottostante





Emanuela Caramagna & Francesco Tripodi

martedì 30 dicembre 2014

L’approccio alla tematica Data Loss Prevention come soluzione di Risk Management

Per affrontare la tematica Data Loss Prevention,  è fondamentale comprendere con quali tipologie di dati si ha a che fare.
Prima di considerare qualsiasi tecnologia, occorre definire una metodologia, stabilire cosa è sensibile per le diverse business unit (processo) e definire ad alto livello le policy per il trattamento delle informazioni. L’obiettivo numero uno deve essere la consapevolezza del livello di rischio cui si è esposti, quindi operare per ridurlo sistematicamente evitando impatti sul business.

Una valutazione del rischio associato alla perdita di dati deve tener conto di tre fattori: identità dell’utente, azione dell’utente e livello di sensibilità del dato. Attraverso una vista completa su dove risiedono i dati all’interno dell’infrastruttura e come si muovono all’interno e verso l’esterno dell’organizzazione, l’azienda può drasticamente ridurre il rischio associato alla perdita di informazioni sensibili.

I business owner dei dati sensibili ed i responsabili di business unit aziendali rivestono un ruolo fondamentale nella definizione delle policy che regolano l’accesso e l’utilizzo dei dati stessi. A questo scopo sono normalmente effettuate delle interviste one-to-one per definire ad alto livello le politiche di trattamento del dato. La tecnologia DLP rappresenta uno strumento che deve semplificare ed automatizzare questo processo, rendendolo più efficiente, ripetibile e governabile.
Un altro passaggio importante consiste nell’educare gli utenti circa le policy aziendali per il trattamento dei dati sensibili e sul rischio delle loro azioni: la tecnologia DLP concorre a questo processo rendendo l’utente parte della soluzione, educandolo in tempo reale a seguito delle violazioni.
Solo a questo punto, sarà possibile attivare l’enforcement dei controlli tecnologici per ridurre ulteriormente il rischio senza impatti sul business e senza gravare sull’operatività dell’IT.


giovedì 7 novembre 2013

VDI ... ESTREEEMO I/O ! - @EMCXtremIO


Il 14 Novembre 2013 un importante annuncio da parte di EMC riguarderà un nuovo prodotto storage destinato a rivoluzionare di nuovo il modo di memorizzare i dati in ambito "block".

Se non vi siete ancora registrati all'evento, fatelo ora qui.

Di cosa sto parlando ? .. Di XTREMIO



XtremIO è stata fondata nel 2009 sulla base di una semplice idea e con i progressi tecnologici nella creazione di memoria non volatile a stato solido (più semplicemente: memoria flash), voleva introdurre  nuove funzionalità per i sistemi di storage aziendali. 
La convinzione degli ingegneri XtremIO è che i miglioramenti delle prestazioni sono solo un degli aspetti benefici migliorativi che possono essere ottenuti adottando una tecnologia diversa da quella dei tradizionali hard disk.

XtremIO, infatti non ha semplicemente adattato uno storage all'utilizzo di dischi Falsh, ma ha realizzato un array  che fin dalla prima accensione avrebbe utilizzato solo dischi Flash. Tutto la sua ingegnerizzazione ruota attorno a questo concetto.
Mentre gli altri prodotti e produttori di "all-in flash Storage" offrono miglioramenti delle prestazioni, XtremIO porta le prestazioni ad un livello completamente nuovo, mettendo argomenti come scalabilità, deduplica in-line, efficienza, facilità d'uso  e la capacità di gestione dei dati  ad un costo fortemente competitivo.

giovedì 12 settembre 2013

Che cos'è la deduplica dei dati ?

Quando si parla di dati deduplicati si fa rifermento ad un insieme di informazioni che sono state sottoposte ad un particolare processo, chiamato appunto deduplica, che consiste nella ricerca all'interno dei dati di sequenze che si ripetano: i dati sono quindi divisi in sequenze (di lunghezza fissa o variabile ma di solito di 8KB o più), e ciascuna sequenza viene confrontata con lo storico delle altre sequenze finora incontrate. Una sequenza che viene incontrata per la prima volta viene quindi salvata in modo completo, mentre le occorrenze successive sono salvate solo come "puntatori" ai dati già salvati, risparmiando quindi lo spazio altrimenti necessario alla (ri)scrittura di informazioni che già erano state memorizzate: questo processo è ovviamente completamente trasparente per gli utenti e le applicazioni che leggono e/o scrivono i dati.

Chi utilizza la deduplica?

La deduplica è ideale per le operazioni ad alta ridondanza quali i backup: ogni volta che si effettua un backup infatti una parte importante delle informazioni salvate risultano immutate rispetto al salvataggio precedente; il processo di deduplica è in grado di individuare questi dati non modificati e memorizzarli conseguentemente solo come puntatori. Il risultato finale è un meccanismo di backup e recovery che risulta veloce, affidabile e a costi molto contenuti anche quando i dati sono mantenuti per 30-90 giorni.

Deduplica inline e off-line

L'operazione di deduplica è particolarmente "intensa" lato CPU: questo costo, che si traduce in un potenziale impatto sulle applicazioni, specie per le operazioni di scrittura, ha dato origine a due modelli di deduplica:

  • deduplica inline: in questo caso il processo di deduplica viene effettuato in real time nel momento in cui i dati vengono creati; in altre parole il dato viene scritto nel sistema di memorizzazione in formato deduplicato e ogni operazione di scrittura è considerata completata solo nel momento in cui la deduplica è avvenuta.
  • deduplica offline (anche detta post-process deduplication): in questo caso i nuovi dati sono inizialmente scritti nell'esatto formato creato dall'applicazione. L'operazione di deduplica viene effettuata solo successivamente da parte di un processo che analizza i dati e li riscrive in modo deduplicato.

Il beneficio maggiore della deduplica inline è che richiede meno spazio di memorizzazione, in quanto i dati sono scritti immediatamente in formato deduplicato: nella deduplica offline si ha invece la necessità di disporre di un area di memorizzazione che comprenda sia i dati in formato non deduplicato, sia i dati deduplicati; per applicare la deduplica non è infatti possibile "rimuovere" gli elementi comuni, ma occorre un intera riscrittura dei dati stessi.

Come detto, essendo il processo di deduplica molto costoso in termini computazionali, il beneficio nell'immediato risparmio di spazio disco deve essere bilanciato dall'impatto in termini operativi: le operazioni di scrittura diventano più lunghe; solo di recente, architetture come XtremIOdisegnate ex novo per l'uso esclusivo di dischi flash, hanno dimostrato di essere capaci di una deduplica inline senza costi "nascosti"; il dibattito tra metodi di deduplica inline e offline è comunque ancora molto acceso.

Benefici della deduplica


Eliminare i dati ridondanti può ridurre significativamente i requisiti di storage, con un evidente impatto sulla capacità complessiva necessaria per memorizzare le informazioni. Poiché il costo dello storage è costantemente in diminuizione, le aziende tipicamente hanno iniziato a mantenere diverse versioni delle stesse informazioni in modo da poter più facilmente riutilizzare il lavoro eseguito in precedenza: queste diverse versioni ovviamente sono degli ottimi candidati per la deduplica, che riduce i costi sia in termini di "spazio disco", sia in termini complessivi di elettricità, condizionamento e floor space.
Oltre all'aspetto "statico" (memorizzazione), il processo di deduplica ha anche un importante impatto "dinamico" in termini di efficienza nell'utilizzo della banda di rete: facendo infatti transitare solo i dati realmente "nuovi" è possibile ridurre sensibilmente tale  traffico; questo risulta particolarmente rilevante negli scenari in cui la "periferia" aziendale deve comunicare con il centro attraverso dei canali a banda limitata. Anche gli scenari di Disaster Recovery possono beneficiare dal processo di deduplica, in quanto ci sono meno dati da fare transitare tra un sito e l'altro: specie nelle dimensioni geografiche questa efficienza nell’uso della banda di rete diventa un elemento critico di valutazione.


Alcune delle soluzioni EMC che utilizzano la deduplica: