lunedì 6 giugno 2016

EMC ECS 2.2



Social, Mobile, Cloud e Big Data stanno rivoluzionando il mercato e apportando nuovo valore al business.

Questo importante cambiamento è reso possibile grazie all’analisi generata dai dati - dati non strutturati e in continua crescita. In questo momento di profonda trasformazione le organizzazioni sono pertanto chiamate a bilanciare la crescita dei dati non strutturati con la continua richiesta di nuove applicazioni.





Con la soluzione Elastic Cloud Storage (ECS) 2.2. è possibile rispondere a queste esigenze, offrendo:



  • Piattaforma multi-protocollo grazie al supporto di S3, Atmos, CAS, Swift, HDFS e NFS
  • La ricerca dei metadati attraverso miliardi di oggetti senza un database dedicato.
  • Protezione del dato sia a livello locale che geografico e accesso active/active in configurazioni multi-sito
  • L’aumento della densità di storage del 33% e l’efficienza del 10%
[if !supportLists]·       [endif]Rispetto dei requisiti di security grazie alla data at rest encrytpion e compliance SEC 17-A4
EMC ECS fornisce una piattaforma di cloud storage software-defined completa per l'infrastruttura di tipo commodity, assicurando facilità di manutenzione, availability e affidabilità di livello enterprise.




Alessandro Luppi, SDS System Engineer - EMC Italia  

EMC DSSD secondo IDC


L’affermazione della terza piattaforma ha richiesto lo sviluppo di nuove architetture storage, quali gli allflash array (AFA) e le infrastrutture iperconvergenti (HCI), che puntano alla risoluzione di numerosi problemi legati a infrastrutture storage di precedente generazione, alle performance, alla crescita dei dati e alla relativa rapidità di incremento dei requisiti di espansione, alla produttività degli amministratori, all'affidabilità e all'efficienza in termini di consumo di energia e spazio. Per molte
aziende è importante supportare all'interno della stessa infrastruttura virtuale consolidata applicazioni di precedente generazione (es. database relazionali, piattaforme di messaggistica/collaborazione e condivisione dei file) e applicazioni di nuova generazione (NGA) . I mercati guidati da questi requisiti sono già piuttosto estesi: secondo IDC, AFA e HCI produrranno ricavi rispettivamente per circa 5,5 e 4 miliardi di dollari entro il 2019. Tale crescita si è verificata nei 5-6 anni successivi all'introduzione di
questi prodotti sul mercato.

Nei prossimi 10 anni, secondo IDC, la terza piattaforma dominerà le decisioni infrastrutturali IT. Le NGA legate a mobility, social media, big data/analytics e cloud stanno aprendo notevoli opportunità di crescita per le imprese più lungimiranti alla ricerca di nuovi clienti e mercati a cui offrire servizi innovativi non esistenti in passato. Una delle caratteristiche chiave delle NGA è la scalabilità: si tratta di applicazioni che richiedono milioni di IOPS e utilizzano set di dati molto estesi che impongono l'utilizzo di un'enorme larghezza di banda e di capacità di archiviazione sull'ordine dei petabyte (PB) e oltre. Le NGA devono spesso gestire un'acquisizione dei dati intensiva, su scala globale e con latenze inferiori a quelle offerte dagli attuali AFA. Molti nuovi clienti e molte opportunità di mercato si basano sulla real-time analytics per trasformare i dati in informazioni in grado di generare valore differenziante. Questo valore giustifica ampiamente una spesa più elevata.

I Big data/analytics offriranno nuove e rivoluzionarie informazioni ad aziende innovatrici, sviluppatori e operatori di mercato, cambiando per sempre il modo in cui il business si proporrà al mercato e venderà i prodotti. Le imprese devono raccogliere e gestire set di dati infinitamente più estesi di quelli gestiti in passato. La velocità è un elemento fondamentale per l'analisi e lo sfruttamento di opportunità transitorie o impossibili da gestire con gli approcci di analisi convenzionali. Entro pochi anni, le aziende incapaci di sfruttare al meglio la real-time analytics o le imprese prive di infrastrutture IT flessibili per una risposta rapida alle opportunità individuate dagli analytics, subiranno un notevole svantaggio competitivo. Le imprese in grado di comprendere l'impatto del passaggio alla terza piattaforma nei mercati AFA e HCI otterranno un chiaro quadro del cambiamento imposto dai big data/analytics alle attuali infrastrutture.
Per gestire i requisiti di real-time analytics nei repository di big data in continua evoluzione, le aziende hanno iniziato a utilizzare gli AFA. Tali sistemi tuttavia sono stati progettati per l'utilizzo di set di dati più piccoli e hanno limitate capacità di adeguamento agli estesi data set dell'era della terza piattaforma. Nello specifico, gli AFA non riescono a gestire al meglio l'acquisizione dei nuovi dati eseguendo allo stesso tempo le richieste dai clienti di real-time analytics. Di conseguenza, gli AFA utilizzati in questi tipi di ambienti richiedono una notevole quantità di lavoro manuale, ovvero la suddivisione dei carichi di lavoro in partizioni e la loro sistribuzione fra diversi sistemi, spesso creando diverse copie dei set di dati già sottoposti a partizionamento. Occorrono diverse copie per ottenere le performance necessarie per il rispetto degli SLA delle applicazioni, aspetto che produce un utilizzo inefficiente della capacità di storage. Inoltre, gli AFA non dispongono della larghezza di banda necessaria per la gestione dei requisiti di estrazione, trasformazione e caricamento (ETL) e del supporto decisionale richiesto da questi ambienti "data at scale". Di conseguenza, amministratori e analisti impiegano molto tempo nella messa a punto di sistemi privi della capacità di gestire questo tipo di dimensioni.

Le architetture di storage emergenti per la gestione di questi requisiti offriranno importanti elementi tecnologici di differenziazione. Innanzitutto, per offrire performance ottimizzate in termini di latenza e throughput occorre potenziare la connessione host fra server e array al fine di supportare latenze costantemente inferiori a 100 microsecondi. La soluzione più immediata consiste nell'espandere il bus interno dei server per adattarsi allo storage condiviso. In seconda istanza, occorre costruire il sistema su memory-based storage media senza i requisiti per soddisfare lo spinning dei dischi. Le tecnologie di memoria emergenti consentono di aumentare l'affidabilità, ridurre il consumo energetico e migliorare la densità dello storage, a patto di sacrificare la compatibilità con le tecnologie di precedente generazione, caratteristiche importanti per la scalabilità. In terza istanza, la piattaforma deve adattarsi contemporaneamente a diversi tipi di dati (strutturati, non strutturati e semi strutturati) , in maniera nativa e senza inefficienze. Per consentire alle imprese di sfruttare al meglio i dati per identificare opportunità, occorrerà utilizzare ogni tipo di dato in modo efficiente e senza alcuna preferenza fra essi. Infine, occorre abbandonare gli attuali stack di I/O relativamente pesanti e adottarne altri dedicati a questa nuova architettura. Molte applicazioni di data analytics vengono scritte in maniera specifica, mentre la disponibilità di un'API in grado di sfruttare uno stack di I/O più snello e dalla latenza inferiore potrà offrire vantaggi agli sviluppatori desiderosi di ottimizzare performance, affidabilità ed efficienza dello storage.


IDC inizia a rilevare la presenza di architetture storage di nuova generazione progettate per rispondere alle esigenze di scalabilità della data analytics. Alla luce delle dimensioni del mercato di big data/analytics dei prossimi anni, la spesa per l'infrastruttura storage per queste tecnologie crescerà più velocemente rispetto a quello che abbiamo visto fare per le architetture di storage emergenti. Il 2016 si preannuncia un anno interessante, considerata la maggiore disponibilità delle soluzioni storage orientate ai big data.

IDC Analyst – Eric Burgener, Research Director, Storage

Per maggiori informazioni www.Italy.emc.com 


martedì 29 marzo 2016

La Protezione dei Dati lontano dal Data Center


L’evoluzione tecnologica delle soluzioni IT di tutte le Organizzazioni ha reso la protezione dei dati sempre più efficace, garantendo la conservazione sicura delle informazioni nel tempo a fronte di eventi catastrofici (come la perdita di un Data Center), di errori umani, di problemi nelle piattaforme hardware e software e di tentativi di frodi. Questo elevato livello di sicurezza è stato ulteriormente esteso e semplificato grazie alle nuove soluzioni cloud, che sono in grado di garantire la conservazione dei dati e la continuità dei servizi senza la necessità di realizzare una propria piattaforma IT.
Questo scenario descritto è però, nella maggior parte dei casi, confinato nello spazio del Data Center, dove ogni Organizzazione conserva i servizi e le informazioni critiche per il proprio business e per svolgere la propria funzione. Eppure esistono dei dati che inevitabilmente nascono, vivono e muoiono al di fuori del Data Center e la cui protezione è spesso rimandata agli utenti finali o ad amministratori IT improvvisati: parliamo delle postazioni di lavoro fisse e mobili (indicate come DT/LT – DeskTop and LapTop) e degli Uffici e delle Sedi Remote (indicate come ROBO – Remote Office, Branch Office).
Il lavoro e i documenti di un Amministratore Delegato, dell’Ufficio Marketing o Legale, della forza vendita di un’azienda, degli uffici e delle filiali di un’Organizzazione, rappresentano spesso dati molto importanti la cui perdita potrebbe avere un impatto negativo sul Business aziendale sia per il valore assoluto dell’informazione che per il tempo necessario per ricrearli.

Troppo spesso il valore di queste informazioni non viene opportunamente quantificato dagli amministratori IT, mentre non è sfuggito agli hackers che hanno ideato dei nuovi malware (ovvero un qualsiasi software creato allo scopo di causare danni a un computer, ai dati degli utenti del computer, o a un sistema informatico su cui viene eseguito) denominati “Ramsonware”.  Questi programmi hanno la capacità di espandersi rapidamente e di cifrare i file presenti sul sistema infetto e sugli apparati di rete da esso raggiungibili, come storage di rete (NAS), dischi esterni e file system cloud (come google drive, syncplicity, onedrive, dropbox, ecc…). Tali file cifrati diventano quindi inutilizzabili e l’unico modo per poterli recuperare è pagare una cifra richiesta (“ramson” ovvero riscatto) da chi ha realizzato il ramsonware.



In realtà la prima forma di ramsonware  è datata 1989 (il tristemente noto trojan "AIDS", chiamato anche "PC Cyborg") ma è dopo il 2013 che questi sistemi criminali di estorsione si sono intensificati con la diffusione di CryptoLocker, un programma grazie al quale si stima che gli hacker hanno incassato 27 milioni di dollari dagli utenti infetti. Questi sistemi si sono ulteriormente evoluti ed è notizia di pochi giorni fa l’individuazione del primo vero ransomware per Mac OS X, chiamato KeRanger, mentre le ultime stime dichiarano che Cryptowall 3.0 ha fruttato l'esorbitante cifra di 325milioni di dollari solo nel 2015.
I ramsonware sfruttano i due anelli più deboli nella catena della sicurezza delle aziende: gli utenti e la non sempre efficiente protezione dei dati presenti nei DTLT e nei ROBO. Infatti, questi virus si propagano utilizzando le pagine web o la posta elettronica degli utenti e una volta infettati i files, richiedono un “riscatto” facendo leva sul fatto che non è possibile recuperare quel file in altro modo (ad esempio un restore da un backup effettuato prima dell’evento).
La difesa da questo tipo di eventi può essere ottenuta mediante l’implementazione e la gestione di piattaforme software di protezione, modificando il comportamento degli utenti e apportando delle opportune modifiche all’architettura di rete e di condivisione delle risorse. In ogni modo, considerando l’elevata diffusione di questi malware, la raccomandazione generale è di fare copie di backup periodiche dei dati presenti su dispositivi fissi e mobili (DTLT) e negli uffici remoti delle organizzazioni.
L’esigenza di protezione dei dati da malware e virus si somma alla necessità delle organizzazioni di proteggere i dati presenti al di fuori del Data Center per ottenere i seguenti benefici:

Gestione centralizzata della protezione dei dati in linea con le politiche applicate nei Data Center

Proteggere i dati remotamente, come soluzione di data recovery, in caso di indisponibilità parziale o completa di un sistema fisso o mobile (DTLT) o di un Ufficio Remoto (ROBO)

Eliminare i costi infrastrutturali e di gestione delle soluzioni locali di backup

Evitare la creazione di backup locali su supporti non sicuri (come chiavette USB, CD-ROM, sistemi cloud non certificati) che possono rappresentare un punto debole in termini della sicurezza dei dati di un’organizzazione

Liberare gli utenti dall’onere di proteggere i propri dati 

Effettuare il backup remoto dei dati presenti su DTLT o su ROBO distribuiti sul territorio nazionale o all’estero e con una disponibilità di banda di rete spesso critica, può essere proibitivo e molto costoso. Le soluzioni offerte da Cloud Pubblici non sempre garantiscono il rispetto dei vincoli normativi, dei requisiti di compliance e della sicurezza e segretezza dei dati di un’Organizzazione.


EMC Avamar è la soluzione di backup in grado di rispondere a tutti i requisiti indicati, utilizzando la minima banda di rete grazie al proprio algoritmo di deduplicazione globale dei dati alla sorgente a blocco variabile. Con Avamar ogni organizzazione può creare la propria soluzione di backup on-premise in grado di indirizzare il backup dei propri Data Center e/o di tutti i dispositivi mobili, fissi e degli uffici remoti.
Avamar, con il suo caratteristico licensing capacitivo, permette di utilizzare in modo unlimited tutte le sue funzionalità avanzate per la protezione dei dati:

Plug-in per il backup a caldo dei principali applicativi (Oracle, MS Exchange, MS SQL, IBM DB2, SAP, ecc…)

Integrazione con i più diffusi hypervisor di virtualizzazione per il backup delle VM in modalità guest-level e in modalità image-level

Servizio web-based per il backup e la restore on-demand dei Desktop/laptop e delle Postazioni di Lavoro

Backup di array NAS

Client di backup compatibili con la maggior parte dei sistemi operativi

Integratazione con le piattaforme di automazione come vRealize Automation

Realizzazione di servizi BAAS (Backup-As-A-Service)


Per maggiori informazioni visita il sito web EMC Italia

Alessio D'Andrea - DPS Sr System Engineer EMC Italia  @Alessioemc



martedì 9 febbraio 2016

EMC Isilon: performance superiori e budget sempre più ristretti



Il 75% delle organizzazioni fatica a gestire la quantità sempre crescente dei dati e dei file non strutturati che vengono continuamente creati.
Che si tratti di gestire costose espansioni di storage di home directory, dei BLOB di SharePoint, dei dati Hadoop, delle applicazioni di sync and share, dei dati di log, dei file video o di altri contenuti analoghi, ogni organizzazione ha l'esigenza di consolidare e semplificare il proprio management.

Scopri come EMC Isilon ti aiuta ad ottimizzare la gestione dei tuoi dati.






EMC offre l’opportunità di raggiungere questi risultati con la tecnologia SCALE-OUT, proponendo una singola architettura storage che garantisce livelli superiori di efficienza, semplicità, resilienza e prestazioni, con standard di servizio superiori e budget sempre più ristretti.








venerdì 22 gennaio 2016

EMC Networker 9 Redefine






Il 30 di Dicembre 2015 EMC ha rilasciato ufficialmente la nuova versione del software enterprise di backup & recovery della famiglia DPS, Networker 9 che permette di dare delle risposte diverse alle nuove esigenze di mercato.
La nuova versione è un salto generazionale nelle possibilità di data protection configurabili all’interno di un software di backup, questo nuovo approccio permette di ottenere performance elevate e gestire operazioni complesse in infrastrutture distribuite in modo semplice ed efficace.
La nuova versione incrementa notevolmente la user experience semplificando le operazioni di configurazione, anche di operazioni complesse, attraverso wizard e pochi passaggi per la creazione dei flussi di backup. 
L’integrazione con EMC Protect point, che permette di scrivere direttamente da VMAX3 a EMC Data Domain e la modalità di Backup Block Base applicata a Exchange e Hyper-v permettono di aumentare le performance dei backup in modo esponenziale riducendo gli impatti sull’applicativo in produzione.
Il nuovo approccio a Policy permette di configurare il software mappando direttamente il backup service catalog aziendale oppure raggruppando i flussi di backup  in base alla logica dei livelli di servizio. 
Per esempio si possono configurare delle policy definite nel seguente modo:
  • Policy Gold: Action 1: EMC Protect point backup con retention 30 giorni, Action 2 copia su EMC Data Domain secondario con retention 60 giorni
  • Policy Silver: Action 1: backup da produzione con EMC DD*Boost e retention 15 giorni, con copia su EMC Data Domain secondario con retention 30 giorni
Le configurazioni rappresentate sia come lista di Action che graficamente con una visione complessiva della sequenza / parallelismo delle Action che verranno applicate alla policy in oggetto.

Un’altra caratteristica di EMC Networker 9 è la possibilità, sempre di più, di delegare le operazioni di restore all’owner dell’applicativo. Quest’approccio, già introdotto nelle precedenti versioni e sviluppato ulteriormente in EMC Networker 9, permette di rendere autonomo il gestore dell’applicazione nel fare le restore, questo grazie all’integrazione di EMC Networker negli strumenti nativi di amministrazione delle varie applicazioni o grazie a un piccolo portale basato su HTML 5 che permette di fare il granular level recovery dei file delle macchine virtuali.


Riassumendo le parole chiave che definiscono la nuova versione di EMC Networker sono semplicità, performance, flessibilità e approccio self service.


Per ulteriori approfondimenti segui il webcast di Networker 9


Di seguito il video con le principali caratteristiche tecniche di Networker 9




Emanuela Caramagna
Advisory SE – Data Protection & Availability Division Italy

lunedì 28 dicembre 2015

EMC GURU U: tutte le novità sulle soluzioni Data Protection di EMC




A dicembre si è svolta a Roma la tappa italiana del GURU U Tour 2015; questo evento ha l’obiettivo di raccontare ai nostri clienti le novità, già disponibili o annunciate, delle soluzioni EMC e condividere con loro il futuro a breve/medio termine delle stesse.



Dopo il benvenuto, Francesco Isabelli (responsabile commerciale della divisione DPS in Italia) ha dato inizio a lavori con la “vision” di EMC sulla “Data Protection”.






Francesco nel suo intervento ha descritto come le tecnologie EMC permettano ai nostri clienti di attuare una reale protezione dei propri dati quando questi siano frutto di applicazioni “classiche” o di applicazioni pensate per nascere e vivere su cloud.
I messaggi che hanno suscitato maggior interesse sono stati fondamentalmente tre:

· Come la strategia EMC sia chiara, definita e in linea con i più futuribili trend di mercato; 

· Come EMC sia in grado di risolvere oggi le problematiche che i vari casi d’uso sollevano;

· Come l’integrazione tra le varie componenti tecnologiche fornisca una reale unica soluzione.



Lo storage deduplicante leader di mercato DataDomain (DD) è il naturale repository del backup grazie alle sue caratteristiche di affidabilità e resilienza; ma non basta:


Per un’efficace protezione del dato è necessario completare il puzzle con soluzioni Software che permettano un adeguato governo, monitoraggio e, allo stesso tempo, abilitanti ai nuovi casi d’uso.



Ecco allora che la Data Protection Suite (DPS), CloudBoost, Mozy e Spanning forniscono i mezzi per completare la strategia di protezione del dato sia per il Datacenter che per il cloud nelle sue varie forme (ibrido, publico o privato).



Data Domain: “What’s New”

Partendo dal repository del backup, le prime novità riguardano la componente HW con l’avvento del DD9500 e dei nuovi cassetti di espansione. 

Questi ultimi diventano più capacitivi e con dimensioni ridotte grazie all’utilizzo di dischi da 3/4TB ed un diverso “form factor” (DS60 Dense Shelf).







Con la nuova release del DDOS è stata introdotta la funzionalità “Online Shelf migration” che, come dice il nome stesso, permette la migrazione dati tra shelf senza interruzione di servizio:

Data
Part







Particolare interesse ha suscitato “Project Falcon” che rende disponibile un DataDomain solo software sotto forma di appliance virtuale.






In questa ultima release sono state inoltre introdotte e migliorate funzionalità che aprono lo stesso DataDomain al cloud quali la “Physical Capacity Measurement” e la “Secure Multi-Tenancy”.






Ultima, ma non per questo meno importante, l’evoluzione di ProtectPoint che vede l’integrazione DataDomain con le famiglie Storage EMC estendersi a Xtremio. 

ProtectPoint, nella sua prima versione, aveva visto protagonista il VMAX3.





A


Avamar: “What’s New”

Le novità introdotte nella nuova versione, vanno in perfetta continuità con la visione EMC rivolta ai nuovi carichi di lavoro e apertura verso il cloud.

Partendo proprio dalla componente di integrazione con il cloud, è disponibile il “Plugin for vRealize Automation” che permette di completare il deploy di VM con la componente backup.







Sono state introdotte evoluzioni nell’integrazione Avamar – DataDomain quando utilizzato in ambienti condivisi quali il cloud pubblico e privato







Ed infine CLOUDBOOST che permette alle applicazioni nate on-permise di utilizzare cloud pubblici o privati per casi d’uso come la “Long Term Retention”.



Torneremo a parlare di CLOUDBOOST nel seguito di questo articolo; adesso passiamo a raccontare le novità introdotte dalla versione 9.0 di Networker. 

Networker: “What’s New” 

NetWorker è l’“Enterprise-Level backup and recovery management software” di EMC che abilita al controllo/gestione centralizzata delle tecnologie utili alla protezione del dato e consente l’integrazione con applicazioni ed infrastrutture di “vecchia e nuova” generazione.




La novità forse più evidente della nuova versione di NetWorker è quella di concatenare più processi nella stessa policy così da poter attuare un vero e proprio Piano di Protezione dei Dati. 

I Data Source ora sono visibili come oggetti che necessitano di protezione attraverso una serie di azioni; le azioni possono essere configurate nel workflow per essere eseguite in parallelo o serialmente e dare vita a very e propri livelli di servizio.



È stato ampliato il supporto della funzionalità “Block Base Backup” a piattaforme Linux, a Microsoft Exchange e Hyper-V. Questa funzionalità permette di accelerare il processo di backup di filesystem sfruttando un image-based backup a livello di volume. I processi incrementali di Backup, usando tecnologie di “changed block tracking”, abilitano quindi gli stessi ad essere veloci e di minimo impatto.





Anche Networker ha beneficiato dell’introduzione di CLOUDBOOST che quindi lo abilita all’utilizzo per “Long Term Retention” di cloud pubblici o privati:






Ultimo argomento trattato in questa sessione è stato l’integrazione tra Networker e ProtectPoint che ricordiamo essere la capacità di effettuare backup direttamente dallo storage primario verso DataDomain




Ora Networker è in grado di orchestrare e centralizzare tutti i backup, compreso ProtectPoint, in un unico catalogo con policy di protezione dei dati automatizzate che includono la pianificazione e la gestione del ciclo di vita del dato protetto.

Come per DataDomain e Avamar, anche per Networker è disponibile la versione pacchettizzata sotto forma di appliance virtuale

Il tuo viaggio verso la Cloud Data Protection

Abbiamo visto come per la Data Protection Suite, il cloud sia l’acceleratore per estenderne le funzionalità; nella sessione dedicata proprio a questo tema se ne sono approfonditi i dettagli.

La protezione dei dati per il cloud ha tre declinazioni:

· “Enabling Data protection for hybrid clouds”

· “Backup-as-a-service In the cloud”

· “Protecting applications born in the cloud”

CloudBoost che ha reso possibile l’estensione verso il cloud delle soluzioni EMC andando di fatto a coprire il caso d’uso rivolto a cloud ibridi.
Mozy è la soluzione EMC in grado di coprire la necessità di avere una soluzione “Backup-as-a-service In the cloud”





L’ultimo scenario, innovativo e difficile da affrontare, è la protezione di applicazioni nate e residenti nel cloud quali possono essere SFDC, Google Apps e Office 365.

Spanning è la soluzione “cloud su cloud” atta proprio a risolvere le difficoltà che questo tipo applicazioni propongono.





L’evento si è chiuso con la presentazione della Roadmap delle soluzioni EMC rivolte alla protezione dei dato che, come potrete comprendere, non è possibile pubblicare.

Francesco Tripodi, Advisory Systems Engineer, DPS | EMC Italia

@tripodi_f