Social, Mobile, Cloud e Big Data stanno rivoluzionando il mercato e apportando nuovo valore al business.
Questo importante cambiamento è reso possibile grazie all’analisi generata dai dati - dati non strutturati e in continua crescita. In questo momento di profonda trasformazione le organizzazioni sono pertanto chiamate a bilanciare la crescita dei dati non strutturati con la continua richiesta di nuove applicazioni.
|
lunedì 6 giugno 2016
EMC ECS 2.2
EMC DSSD secondo IDC
L’affermazione della terza piattaforma ha richiesto lo sviluppo di
nuove architetture storage, quali gli allflash array (AFA) e le infrastrutture
iperconvergenti (HCI), che puntano alla risoluzione di numerosi problemi legati
a infrastrutture storage di precedente generazione, alle performance, alla
crescita dei dati e alla relativa rapidità di incremento dei requisiti di
espansione, alla produttività degli amministratori, all'affidabilità e
all'efficienza in termini di consumo di energia e spazio. Per molte
aziende è importante supportare all'interno della stessa
infrastruttura virtuale consolidata applicazioni di precedente generazione (es.
database relazionali, piattaforme di messaggistica/collaborazione e condivisione
dei file) e applicazioni di nuova generazione (NGA) . I mercati guidati da
questi requisiti sono già piuttosto estesi: secondo IDC, AFA e HCI produrranno
ricavi rispettivamente per circa 5,5 e 4 miliardi di dollari entro il 2019.
Tale crescita si è verificata nei 5-6 anni successivi all'introduzione di
questi prodotti sul mercato.
Nei
prossimi 10 anni, secondo IDC, la terza piattaforma dominerà le decisioni
infrastrutturali IT. Le NGA legate a mobility, social media, big data/analytics
e cloud stanno aprendo notevoli opportunità di crescita per le imprese più
lungimiranti alla ricerca di nuovi clienti e mercati a cui offrire servizi
innovativi non esistenti in passato. Una delle caratteristiche chiave delle NGA
è la scalabilità: si tratta di applicazioni che richiedono milioni di IOPS e
utilizzano set di dati molto estesi che impongono l'utilizzo di un'enorme
larghezza di banda e di capacità di archiviazione sull'ordine dei petabyte (PB)
e oltre. Le NGA devono spesso gestire un'acquisizione dei dati intensiva, su
scala globale e con latenze inferiori a quelle offerte dagli attuali AFA. Molti
nuovi clienti e molte opportunità di mercato si basano sulla real-time
analytics per trasformare i dati in informazioni in grado di generare valore
differenziante. Questo valore giustifica ampiamente una spesa più elevata.
I
Big data/analytics offriranno nuove e rivoluzionarie informazioni ad aziende
innovatrici, sviluppatori e operatori di mercato, cambiando per sempre il modo
in cui il business si proporrà al mercato e venderà i prodotti. Le imprese
devono raccogliere e gestire set di dati infinitamente più estesi di quelli
gestiti in passato. La velocità è un elemento fondamentale per l'analisi e lo
sfruttamento di opportunità transitorie o impossibili da gestire con gli
approcci di analisi convenzionali. Entro pochi anni, le aziende incapaci di
sfruttare al meglio la real-time analytics o le imprese prive di infrastrutture
IT flessibili per una risposta rapida alle opportunità individuate dagli
analytics, subiranno un notevole svantaggio competitivo. Le imprese in grado di
comprendere l'impatto del passaggio alla terza piattaforma nei mercati AFA e
HCI otterranno un chiaro quadro del cambiamento imposto dai big data/analytics
alle attuali infrastrutture.
Per
gestire i requisiti di real-time analytics nei repository di big data in
continua evoluzione, le aziende hanno iniziato a utilizzare gli AFA. Tali
sistemi tuttavia sono stati progettati per l'utilizzo di set di dati più
piccoli e hanno limitate capacità di adeguamento agli estesi data set dell'era
della terza piattaforma. Nello specifico, gli AFA non riescono a gestire al
meglio l'acquisizione dei nuovi dati eseguendo allo stesso tempo le richieste
dai clienti di real-time analytics. Di conseguenza, gli AFA utilizzati in
questi tipi di ambienti richiedono una notevole quantità di lavoro manuale,
ovvero la suddivisione dei carichi di lavoro in partizioni e la loro
sistribuzione fra diversi sistemi, spesso creando diverse copie dei set di dati
già sottoposti a partizionamento. Occorrono diverse copie per ottenere le
performance necessarie per il rispetto degli SLA delle applicazioni, aspetto
che produce un utilizzo inefficiente della capacità di storage. Inoltre, gli
AFA non dispongono della larghezza di banda necessaria per la gestione dei
requisiti di estrazione, trasformazione e caricamento (ETL) e del supporto
decisionale richiesto da questi ambienti "data at scale". Di
conseguenza, amministratori e analisti impiegano molto tempo nella messa a
punto di sistemi privi della capacità di gestire questo tipo di dimensioni.
Le
architetture di storage emergenti per la gestione di questi requisiti
offriranno importanti elementi tecnologici di differenziazione. Innanzitutto,
per offrire performance ottimizzate in termini di latenza e throughput occorre
potenziare la connessione host fra server e array al fine di supportare latenze
costantemente inferiori a 100 microsecondi. La soluzione più immediata consiste
nell'espandere il bus interno dei server per adattarsi allo storage condiviso.
In seconda istanza, occorre costruire il sistema su memory-based storage media
senza i requisiti per soddisfare lo spinning dei dischi. Le tecnologie di
memoria emergenti consentono di aumentare l'affidabilità, ridurre il consumo
energetico e migliorare la densità dello storage, a patto di sacrificare la
compatibilità con le tecnologie di precedente generazione, caratteristiche
importanti per la scalabilità. In terza istanza, la piattaforma deve adattarsi
contemporaneamente a diversi tipi di dati (strutturati, non strutturati e semi
strutturati) , in maniera nativa e senza inefficienze. Per consentire alle
imprese di sfruttare al meglio i dati per identificare opportunità, occorrerà
utilizzare ogni tipo di dato in modo efficiente e senza alcuna preferenza fra essi.
Infine, occorre abbandonare gli attuali stack di I/O relativamente pesanti e
adottarne altri dedicati a questa nuova architettura. Molte applicazioni di
data analytics vengono scritte in maniera specifica, mentre la disponibilità di
un'API in grado di sfruttare uno stack di I/O più snello e dalla latenza
inferiore potrà offrire vantaggi agli sviluppatori desiderosi di ottimizzare
performance, affidabilità ed efficienza dello storage.
IDC
inizia a rilevare la presenza di architetture storage di nuova generazione
progettate per rispondere alle esigenze di scalabilità della data analytics.
Alla luce delle dimensioni del mercato di big data/analytics dei prossimi anni,
la spesa per l'infrastruttura storage per queste tecnologie crescerà più
velocemente rispetto a quello che abbiamo visto fare per le architetture di
storage emergenti. Il 2016 si preannuncia un anno interessante, considerata la
maggiore disponibilità delle soluzioni storage orientate ai big data.
IDC Analyst – Eric Burgener, Research
Director, Storage
Per maggiori informazioni www.Italy.emc.com
martedì 29 marzo 2016
La Protezione dei Dati lontano dal Data Center
L’evoluzione tecnologica
delle soluzioni IT di tutte le Organizzazioni ha reso la protezione dei dati
sempre più efficace, garantendo la conservazione sicura delle informazioni nel
tempo a fronte di eventi catastrofici (come la perdita di un Data Center), di
errori umani, di problemi nelle piattaforme hardware e software e di tentativi
di frodi. Questo elevato livello di sicurezza è stato ulteriormente esteso e
semplificato grazie alle nuove soluzioni cloud, che sono in grado di garantire
la conservazione dei dati e la continuità dei servizi senza la necessità di
realizzare una propria piattaforma IT.
Questo scenario descritto
è però, nella maggior parte dei casi, confinato nello spazio del Data Center,
dove ogni Organizzazione conserva i servizi e le informazioni critiche per il
proprio business e per svolgere la propria funzione. Eppure esistono dei dati
che inevitabilmente nascono, vivono e muoiono al di fuori del Data Center e la
cui protezione è spesso rimandata agli utenti finali o ad amministratori IT improvvisati:
parliamo delle postazioni di lavoro fisse e mobili (indicate come DT/LT –
DeskTop and LapTop) e degli Uffici e delle Sedi Remote (indicate come ROBO –
Remote Office, Branch Office).
Il lavoro e i documenti
di un Amministratore Delegato, dell’Ufficio Marketing o Legale, della forza
vendita di un’azienda, degli uffici e delle filiali di un’Organizzazione,
rappresentano spesso dati molto importanti la cui perdita potrebbe avere un
impatto negativo sul Business aziendale sia per il valore assoluto dell’informazione
che per il tempo necessario per ricrearli.
Troppo spesso il valore
di queste informazioni non viene opportunamente quantificato dagli
amministratori IT, mentre non è sfuggito agli hackers che hanno ideato dei
nuovi malware (ovvero un qualsiasi software creato allo scopo di causare danni
a un computer, ai dati degli utenti del computer, o a un sistema informatico su
cui viene eseguito) denominati “Ramsonware”. Questi programmi hanno la capacità di
espandersi rapidamente e di cifrare i file presenti sul sistema infetto e sugli
apparati di rete da esso raggiungibili, come storage di rete (NAS), dischi
esterni e file system cloud (come google drive, syncplicity, onedrive, dropbox,
ecc…). Tali file cifrati diventano quindi inutilizzabili e l’unico modo per
poterli recuperare è pagare una cifra richiesta (“ramson” ovvero riscatto) da
chi ha realizzato il ramsonware.
In realtà la prima forma
di ramsonware è datata 1989 (il
tristemente noto trojan "AIDS", chiamato anche "PC Cyborg")
ma è dopo il 2013 che questi sistemi criminali di estorsione si sono
intensificati con la diffusione di CryptoLocker, un programma grazie al quale
si stima che gli hacker hanno incassato 27 milioni di dollari dagli utenti
infetti. Questi sistemi si sono ulteriormente evoluti ed è notizia di pochi
giorni fa l’individuazione del primo vero ransomware per Mac OS X, chiamato KeRanger,
mentre le ultime stime dichiarano che Cryptowall 3.0 ha fruttato l'esorbitante
cifra di 325milioni di dollari solo nel 2015.
I ramsonware sfruttano i
due anelli più deboli nella catena della sicurezza delle aziende: gli utenti e la
non sempre efficiente protezione dei dati presenti nei DTLT e nei ROBO. Infatti,
questi virus si propagano utilizzando le pagine web o la posta elettronica
degli utenti e una volta infettati i files, richiedono un “riscatto” facendo
leva sul fatto che non è possibile recuperare quel file in altro modo (ad
esempio un restore da un backup effettuato prima dell’evento).
La difesa da questo tipo
di eventi può essere ottenuta mediante l’implementazione e la gestione di
piattaforme software di protezione, modificando il comportamento degli utenti e
apportando delle opportune modifiche all’architettura di rete e di condivisione
delle risorse. In ogni modo, considerando l’elevata diffusione di questi
malware, la raccomandazione generale è di fare copie di backup periodiche dei
dati presenti su dispositivi fissi e mobili (DTLT) e negli uffici remoti delle
organizzazioni.
L’esigenza di protezione
dei dati da malware e virus si somma alla necessità delle organizzazioni di
proteggere i dati presenti al di fuori del Data Center per ottenere i seguenti
benefici:
Gestione centralizzata della protezione dei dati in linea con le politiche applicate nei Data Center
Proteggere i dati remotamente, come soluzione di data recovery, in caso di indisponibilità parziale o completa di un sistema fisso o mobile (DTLT) o di un Ufficio Remoto (ROBO)
Eliminare i costi infrastrutturali e di gestione delle soluzioni locali di backup
Evitare la creazione di backup locali su supporti non sicuri (come chiavette USB, CD-ROM, sistemi cloud non certificati) che possono rappresentare un punto debole in termini della sicurezza dei dati di un’organizzazione
Liberare gli utenti dall’onere di proteggere i propri dati
Effettuare il backup remoto dei dati presenti su DTLT o su ROBO distribuiti sul territorio nazionale o all’estero e con una disponibilità di banda di rete spesso critica, può essere proibitivo e molto costoso. Le soluzioni offerte da Cloud Pubblici non sempre garantiscono il rispetto dei vincoli normativi, dei requisiti di compliance e della sicurezza e segretezza dei dati di un’Organizzazione.
Gestione centralizzata della protezione dei dati in linea con le politiche applicate nei Data Center
Proteggere i dati remotamente, come soluzione di data recovery, in caso di indisponibilità parziale o completa di un sistema fisso o mobile (DTLT) o di un Ufficio Remoto (ROBO)
Eliminare i costi infrastrutturali e di gestione delle soluzioni locali di backup
Evitare la creazione di backup locali su supporti non sicuri (come chiavette USB, CD-ROM, sistemi cloud non certificati) che possono rappresentare un punto debole in termini della sicurezza dei dati di un’organizzazione
Liberare gli utenti dall’onere di proteggere i propri dati
Effettuare il backup remoto dei dati presenti su DTLT o su ROBO distribuiti sul territorio nazionale o all’estero e con una disponibilità di banda di rete spesso critica, può essere proibitivo e molto costoso. Le soluzioni offerte da Cloud Pubblici non sempre garantiscono il rispetto dei vincoli normativi, dei requisiti di compliance e della sicurezza e segretezza dei dati di un’Organizzazione.
EMC Avamar è la soluzione
di backup in grado di rispondere a tutti i requisiti indicati, utilizzando la
minima banda di rete grazie al proprio algoritmo di deduplicazione globale dei
dati alla sorgente a blocco variabile. Con Avamar ogni organizzazione può
creare la propria soluzione di backup on-premise in grado di indirizzare il
backup dei propri Data Center e/o di tutti i dispositivi mobili, fissi e degli
uffici remoti.
Avamar, con il suo
caratteristico licensing capacitivo, permette di utilizzare in modo unlimited tutte
le sue funzionalità avanzate per la protezione dei dati:
Plug-in per il backup a caldo dei principali
applicativi (Oracle, MS Exchange, MS SQL, IBM DB2, SAP, ecc…)
Integrazione con i più diffusi hypervisor di virtualizzazione per il backup delle VM in modalità guest-level e in modalità image-level
Servizio web-based per il backup e la restore on-demand dei Desktop/laptop e delle Postazioni di Lavoro
Backup di array NAS
Client di backup compatibili con la maggior parte dei sistemi operativi
Integratazione con le piattaforme di automazione come vRealize Automation
Realizzazione di servizi BAAS (Backup-As-A-Service)
Per maggiori informazioni visita il sito web EMC Italia
Alessio D'Andrea - DPS Sr System Engineer EMC Italia @Alessioemc
Integrazione con i più diffusi hypervisor di virtualizzazione per il backup delle VM in modalità guest-level e in modalità image-level
Servizio web-based per il backup e la restore on-demand dei Desktop/laptop e delle Postazioni di Lavoro
Backup di array NAS
Client di backup compatibili con la maggior parte dei sistemi operativi
Integratazione con le piattaforme di automazione come vRealize Automation
Realizzazione di servizi BAAS (Backup-As-A-Service)
Per maggiori informazioni visita il sito web EMC Italia
Alessio D'Andrea - DPS Sr System Engineer EMC Italia @Alessioemc
martedì 9 febbraio 2016
EMC Isilon: performance superiori e budget sempre più ristretti
Il 75% delle organizzazioni fatica a gestire la quantità sempre crescente dei dati e dei file non strutturati che vengono continuamente creati.
Che si tratti di gestire costose espansioni di storage di home directory, dei BLOB di SharePoint, dei dati Hadoop, delle applicazioni di sync and share, dei dati di log, dei file video o di altri contenuti analoghi, ogni organizzazione ha l'esigenza di consolidare e semplificare il proprio management.
Scopri come EMC Isilon ti aiuta ad ottimizzare la gestione dei tuoi dati.
EMC offre l’opportunità di raggiungere questi risultati con la tecnologia SCALE-OUT, proponendo una singola architettura storage che garantisce livelli superiori di efficienza, semplicità, resilienza e prestazioni, con standard di servizio superiori e budget sempre più ristretti.
venerdì 22 gennaio 2016
EMC Networker 9 Redefine
Il 30 di Dicembre 2015 EMC ha rilasciato ufficialmente la nuova versione del software enterprise di backup & recovery della famiglia DPS, Networker 9 che permette di dare delle risposte diverse alle nuove esigenze di mercato.
La nuova versione è un salto generazionale nelle possibilità di data protection configurabili all’interno di un software di backup, questo nuovo approccio permette di ottenere performance elevate e gestire operazioni complesse in infrastrutture distribuite in modo semplice ed efficace.
La nuova versione incrementa notevolmente la user experience semplificando le operazioni di configurazione, anche di operazioni complesse, attraverso wizard e pochi passaggi per la creazione dei flussi di backup.
L’integrazione con EMC Protect point, che permette di scrivere direttamente da VMAX3 a EMC Data Domain e la modalità di Backup Block Base applicata a Exchange e Hyper-v permettono di aumentare le performance dei backup in modo esponenziale riducendo gli impatti sull’applicativo in produzione.
Il nuovo approccio a Policy permette di configurare il software mappando direttamente il backup service catalog aziendale oppure raggruppando i flussi di backup in base alla logica dei livelli di servizio.
Per esempio si possono configurare delle policy definite nel seguente modo:
- Policy Gold: Action 1: EMC Protect point backup con retention 30 giorni, Action 2 copia su EMC Data Domain secondario con retention 60 giorni
- Policy Silver: Action 1: backup da produzione con EMC DD*Boost e retention 15 giorni, con copia su EMC Data Domain secondario con retention 30 giorni
Le configurazioni rappresentate sia come lista di Action che graficamente con una visione complessiva della sequenza / parallelismo delle Action che verranno applicate alla policy in oggetto.
Un’altra caratteristica di EMC Networker 9 è la possibilità, sempre di più, di delegare le operazioni di restore all’owner dell’applicativo. Quest’approccio, già introdotto nelle precedenti versioni e sviluppato ulteriormente in EMC Networker 9, permette di rendere autonomo il gestore dell’applicazione nel fare le restore, questo grazie all’integrazione di EMC Networker negli strumenti nativi di amministrazione delle varie applicazioni o grazie a un piccolo portale basato su HTML 5 che permette di fare il granular level recovery dei file delle macchine virtuali.
Riassumendo le parole chiave che definiscono la nuova versione di EMC Networker sono semplicità, performance, flessibilità e approccio self service.
Per ulteriori approfondimenti segui il webcast di Networker 9
Di seguito il video con le principali caratteristiche tecniche di Networker 9
Emanuela Caramagna
Advisory SE – Data Protection & Availability Division Italy
Advisory SE – Data Protection & Availability Division Italy
lunedì 28 dicembre 2015
EMC GURU U: tutte le novità sulle soluzioni Data Protection di EMC
A dicembre si è svolta a Roma la tappa italiana del GURU U Tour 2015; questo evento ha l’obiettivo di raccontare ai nostri clienti le novità, già disponibili o annunciate, delle soluzioni EMC e condividere con loro il futuro a breve/medio termine delle stesse.
Dopo il benvenuto, Francesco Isabelli (responsabile commerciale della divisione DPS in Italia) ha dato inizio a lavori con la “vision” di EMC sulla “Data Protection”.
Francesco nel suo intervento ha descritto come le tecnologie EMC permettano ai nostri clienti di attuare una reale protezione dei propri dati quando questi siano frutto di applicazioni “classiche” o di applicazioni pensate per nascere e vivere su cloud.
I messaggi che hanno suscitato maggior interesse sono stati fondamentalmente tre:
· Come la strategia EMC sia chiara, definita e in linea con i più futuribili trend di mercato;
· Come EMC sia in grado di risolvere oggi le problematiche che i vari casi d’uso sollevano;
· Come l’integrazione tra le varie componenti tecnologiche fornisca una reale unica soluzione.
Lo storage deduplicante leader di mercato DataDomain (DD) è il naturale repository del backup grazie alle sue caratteristiche di affidabilità e resilienza; ma non basta:
Per un’efficace protezione del dato è necessario completare il puzzle con soluzioni Software che permettano un adeguato governo, monitoraggio e, allo stesso tempo, abilitanti ai nuovi casi d’uso.
Ecco allora che la Data Protection Suite (DPS), CloudBoost, Mozy e Spanning forniscono i mezzi per completare la strategia di protezione del dato sia per il Datacenter che per il cloud nelle sue varie forme (ibrido, publico o privato).
Data Domain: “What’s New”
Partendo dal repository del backup, le prime novità riguardano la componente HW con l’avvento del DD9500 e dei nuovi cassetti di espansione.
Questi ultimi diventano più capacitivi e con dimensioni ridotte grazie all’utilizzo di dischi da 3/4TB ed un diverso “form factor” (DS60 Dense Shelf).
Con la nuova release del DDOS è stata introdotta la funzionalità “Online Shelf migration” che, come dice il nome stesso, permette la migrazione dati tra shelf senza interruzione di servizio:
Data
Part
Particolare interesse ha suscitato “Project Falcon” che rende disponibile un DataDomain solo software sotto forma di appliance virtuale.
In questa ultima release sono state inoltre introdotte e migliorate funzionalità che aprono lo stesso DataDomain al cloud quali la “Physical Capacity Measurement” e la “Secure Multi-Tenancy”.
Ultima, ma non per questo meno importante, l’evoluzione di ProtectPoint che vede l’integrazione DataDomain con le famiglie Storage EMC estendersi a Xtremio.
ProtectPoint, nella sua prima versione, aveva visto protagonista il VMAX3.
A
Avamar: “What’s New”
Le novità introdotte nella nuova versione, vanno in perfetta continuità con la visione EMC rivolta ai nuovi carichi di lavoro e apertura verso il cloud.
Partendo proprio dalla componente di integrazione con il cloud, è disponibile il “Plugin for vRealize Automation” che permette di completare il deploy di VM con la componente backup.
Sono state introdotte evoluzioni nell’integrazione Avamar – DataDomain quando utilizzato in ambienti condivisi quali il cloud pubblico e privato
Ed infine CLOUDBOOST che permette alle applicazioni nate on-permise di utilizzare cloud pubblici o privati per casi d’uso come la “Long Term Retention”.
Torneremo a parlare di CLOUDBOOST nel seguito di questo articolo; adesso passiamo a raccontare le novità introdotte dalla versione 9.0 di Networker.
Networker: “What’s New”
NetWorker è l’“Enterprise-Level backup and recovery management software” di EMC che abilita al controllo/gestione centralizzata delle tecnologie utili alla protezione del dato e consente l’integrazione con applicazioni ed infrastrutture di “vecchia e nuova” generazione.
La novità forse più evidente della nuova versione di NetWorker è quella di concatenare più processi nella stessa policy così da poter attuare un vero e proprio Piano di Protezione dei Dati.
I Data Source ora sono visibili come oggetti che necessitano di protezione attraverso una serie di azioni; le azioni possono essere configurate nel workflow per essere eseguite in parallelo o serialmente e dare vita a very e propri livelli di servizio.
È stato ampliato il supporto della funzionalità “Block Base Backup” a piattaforme Linux, a Microsoft Exchange e Hyper-V. Questa funzionalità permette di accelerare il processo di backup di filesystem sfruttando un image-based backup a livello di volume. I processi incrementali di Backup, usando tecnologie di “changed block tracking”, abilitano quindi gli stessi ad essere veloci e di minimo impatto.
Anche Networker ha beneficiato dell’introduzione di CLOUDBOOST che quindi lo abilita all’utilizzo per “Long Term Retention” di cloud pubblici o privati:
Ultimo argomento trattato in questa sessione è stato l’integrazione tra Networker e ProtectPoint che ricordiamo essere la capacità di effettuare backup direttamente dallo storage primario verso DataDomain
Ora Networker è in grado di orchestrare e centralizzare tutti i backup, compreso ProtectPoint, in un unico catalogo con policy di protezione dei dati automatizzate che includono la pianificazione e la gestione del ciclo di vita del dato protetto.
Come per DataDomain e Avamar, anche per Networker è disponibile la versione pacchettizzata sotto forma di appliance virtuale
Il tuo viaggio verso la Cloud Data Protection
Abbiamo visto come per la Data Protection Suite, il cloud sia l’acceleratore per estenderne le funzionalità; nella sessione dedicata proprio a questo tema se ne sono approfonditi i dettagli.
La protezione dei dati per il cloud ha tre declinazioni:
· “Enabling Data protection for hybrid clouds”
· “Backup-as-a-service In the cloud”
· “Protecting applications born in the cloud”
CloudBoost che ha reso possibile l’estensione verso il cloud delle soluzioni EMC andando di fatto a coprire il caso d’uso rivolto a cloud ibridi.
Mozy è la soluzione EMC in grado di coprire la necessità di avere una soluzione “Backup-as-a-service In the cloud”
L’ultimo scenario, innovativo e difficile da affrontare, è la protezione di applicazioni nate e residenti nel cloud quali possono essere SFDC, Google Apps e Office 365.
Spanning è la soluzione “cloud su cloud” atta proprio a risolvere le difficoltà che questo tipo applicazioni propongono.
L’evento si è chiuso con la presentazione della Roadmap delle soluzioni EMC rivolte alla protezione dei dato che, come potrete comprendere, non è possibile pubblicare.
Francesco Tripodi, Advisory Systems Engineer, DPS | EMC Italia
Iscriviti a:
Post (Atom)