venerdì 8 luglio 2016

Storage Flash per Data Center e Videosorveglianza: combinazione vincente anche per le Medie-imprese


Grazie ai progressi compiuti dall’hardware e dal software per la video sorveglianza, accompagnati da consistenti riduzioni dei costi, qualsiasi impresa dovrebbe dotarsene. Soluzioni nelle quali lo Storage costituisce un elemento critico: meglio saperlo scegliere bene!
I tempi nei quali lo Storage era sinonimo di dischi magnetici in continua rotazione per i quali le caratteristiche principali erano la densità di registrazione e la velocità di rotazione/accesso ai dati stanno avviandosi rapidamente al tramonto. Al di là delle difficoltà di costruzione – sottovuoto, con tolleranze sempre più ridotti e meccanismi sempre più sofisticati – come tutte le unità che hanno componenti in movimento - i dischi magnetici sono soggetti a rotture, anche da sola usura, e per di più consumano parecchi energia, necessaria a gestire la rotazione dei supporti. Così, la comparsa delle tecnologie Flash, che si basano sulla registrazione dei dati su unità di tipo statico, sta rapidamente affermandosi su ogni genere di Device e per uno spettro sempre più ampio di applicazioni.
Di Flash Storage si è parlato e scritto ormai molto. Le memorie Flash sono ormai entrate nel nostro quotidiano: le troviamo nei telefoni cellulari, nelle macchine fotografiche, nei tablet e in una miriade di altre apparecchiature, compresi i riproduttori di musica MP3. Mano a mano che queste tecnologie maturano, ne vengono oltrepassati i limiti di capacità e prestazioni, per cui, grazie anche all’elevata affidabilità, stanno trovando spazio anche nelle unità di più grandi dimensioni, quelle tipiche impiegate nei Data Center, tanto per intenderci...

Flash Storage e SSD: gli alberi e la foresta

La scelta All-Flash
VMAX All Flash e Unity All-Flash: Esempi di applicazione dello Storage Flash nei Data Center

In termini tecnici, possiamo dire che le memorie Flash costituiscono la base per i “Solid State Drive (SSD)”, ma anche per gli “Enterprise Flash Drive (EFD)”. Di fatto, equivalgono a dei circuiti integrati che combinano svariati “Chip Flash” che operano in modo integrato dando vita alle unità di Flash Storage percepite come entità uniche di memorizzazione di dati. Spaziamo così dalle chiavette USB, a intere batterie di Flash Storage in grado di raggiungere e superare le capacità misurabili in Terabyte.
Rispetto ai classici Hard Disk, non avendo elementi in movimento – ovvero in rotazione, al di là del braccino di lettura dei dati – le unità basate su Flash Storage risultano molto più performanti, affidabili e parche nei consumi di energia. Un vero salto di qualità rispetto al passato.
Naturalmente, le unità Flash costano di più – al Gb – di quelle tradizionali, così come i classici Hard Disk hanno un costo di memorizzazione dei dati più elevato di quello delle vecchie unità a nastro. C’è di fatto una correlazione tra velocità e prezzo, per cui in logica di bilanciamento del rapporto costi/prestazioni in alcuni casi viene data vita a combinazioni dette di “Hybrid Storage” nelle quali i tradizionali Hard Disk operano in abbinamento ad unità di Flash Storage. La tendenza è tuttavia orientarsi sempre di più verso soluzioni “All-Flash”, grazie alle continue riduzioni dei costi di questo genere di unità, che si aggiungono al miglioramento dell’affidabilità e della gestibilità dell’insieme. Da qui, la nascita dell’innovativa architettura detta “Rack-scale Flash”, frutto di un’intelligente combinazione tra unità Flash, in grado di operare in modo strettamente abbinato ai processori dei sistemi, con drastiche riduzioni dei tempi di latenza – attraverso l’impiego di specifici protocolli di comunicazione - e considerevoli incrementi del throughput complessivo.
Due esempi concreti possono aiutare a comprendere il significato e la portata dell’uso di Storage di tipo Flash all’interno dei Data Center.
Il primo è offerto da VMAX All Flash, soluzione di EMC espressamente riprogettata di recente per soddisfare le esigenze dei più sofisticati Data Center. In estrema sintesi, alcuni dei valori che se ne possono ricavare sono:

·   Scalabilità fino 4 PetaByte con tempi di risposta di circa 500 microsecondi.
·   Possibilità di consolidare in un unico ambiente i dati provenienti dai  Mainframe IBM, così come dagli Open System.
·   Affidabilità del 99.9999%.

Unity All-Flash – anch’esso di EMC – nasce invece per il mondo delle medie imprese, ovvero dei sistemi così detti “Midrange”, avendone alcune caratteristiche molto particolari:

·   Semplicità di installazione – meno di 2 minuti – usando semplici interfacce di tipo Web (in HTML5).
·  Architettura basata su Linux, estremamente scalabile, facilmente replicabile e integrabile con le applicazioni VMware, Microsoft, OpenStack e molte altre ancora.
·  Molto conveniente, grazie ad un accurato bilanciamento tra tutte le componenti e ad un prezzo di base alla portata di qualsiasi impresa.

Nella figura, la gamma dei modelli disponibili, con prestazioni che vanno da 150 Driver per 480 Terabyte, a 500 Driver per 3 Petabyte.

Per maggiori informazioni visita il nostro sito web


lunedì 4 luglio 2016

Infrastrutture #Iperconvergenti, cuore dei #Data-Center di Nuova Generazione



Infrastrutture #Iperconvergenti, cuore dei #Data-Center di Nuova Generazione Le #Hyperconverged Infrastructure (#HCI) costituiscono il cuore dei #Data-Center di nuova generazione. Si basano su innovative Appliance autonome dotate di capacità di elaborazione, Storage e di interconnessione, gestite come nodi di una rete di componenti virtuali riconfigurabili a piacere. Si tratta di un innovativo superamento del concetto di Cluster di Server, che recepisce i miglioramenti introdotti dalla virtualizzazione e dal diffondersi dei servizi Cloud.
L’insieme di questi nodi è in grado di assicurare prestazioni e affidabilità nettamente superiori a qualsiasi altra architettura IT precedente.
Il primo  Software-Defined Data Center (SDDC) integrato del mercato Per realizzare infrastrutture HCI si utilizzano Appliance di nuova generazione, capaci di scalare dalle capacità di base a livelli in grado di soddisfare le esigenze di qualsiasi Enterprise. Di conseguenza, risultano molto flessibili e richiedono investimenti ripartibili nel tempo in funzione delle esigenze dell’impresa e dei suoi utenti. Di fatto, ridotti impegni finanziari e accelerati ritorni degli investimenti.
Facili da gestire, queste Appliance sono già arrivate alla seconda generazione. La prima, che faceva capo alla famiglia VSPEX BLUE, si basava sulla combinazione tra le piattaforme vSpheVMware, Virtual SAN di EMC e altre componenti specializzate per l’elaborazione dei dati e la gestione della rete.
Di fatto, ha rappresentato il primo Software-Defined Data Center (SDDC) integrato ad apparire sul mercato.
La nuova Generazione di Software-Defined Data Center (SDDC) integrati: abbassati gli Entry Point, elevata la scalabilità Rispetto alla precedente, la nuova generazione di Appliance per Software-Defined Data Center risulta molto più flessibile, permettendo di usufruire delle nuove architetture in configurazioni adatte anche alle piccole e medie imprese, costituite persino da un unico nodo, mentre nel contempo ha ampliato le capacità di gestire grandi quantità di nodi, risultando così idonea a supportare numeri davvero consistenti di utenti.
Per rendere più semplice e affidabile la gestione dei Data Center così realizzati, le nuove Appliance sono state dotate di numerose funzioni Software estremamente utili. Tra queste:
1. La capacità di deduplicare e comprimere i dati, con risparmi di spazio che arrivano anche al 50%.
2. Maggiori capacità di condivisione dei dati tra utenti e tra applicazioni.
3. Elevata granularità nella crescita delle configurazioni.
Le Appliance VxRail Un buon esempio di Appliance per le Hyperconverged Infrastructure ci è offerto dall’attuale famiglia di Appliance di EMC e VMware chiamata VxRail. Espressamente progettata per i Data Center delle piccole e medie imprese, è corredata di numerose componenti Software che ne semplificano la configurazione e la gestione. Inoltre, per ottimizzare le prestazioni e ridurre al massimo i consumi energetici, utilizza ovunque possibile -e prudente – dischi Flash, in combinazione con i tradizionali Hard Disk
I due aspetti più interessanti fanno tuttavia capo all’estrema flessibilità che connota la famiglia VxRail:
- Disponibile nei modelli 60 (l’Entry Point), 120, 160, 200 è in grado di supportare da qualche centinaio di utenti, a svariate decine di migliaia, con fino a 8 Terabyte di Storage per nodo!
- Dotate di alcune specifiche funzioni e del supporto degli standard del settore (iSCSI, CIFS, NFS...), le Appliance VxRail risultano particolarmente indicate per allestire Hybrid Cloud, in contesti privati o pubblici, per gestire particolari applicazioni o anche come integrazione per i servizi di Backup dei Data Center già esistenti.
Stando ai dati pubblicati dalla società di analisi del mercato IT Enterprise Strategy Group (ESG -

www.esg-global.com), è già il 70% dei responsabili IT ad aver adottato o ad aver inserito nei propri piani Appliance per realizzare le nuove Hyperconverged Infrastructure. E’ quindi sicuramente giunto il momento di approfondirne la conoscenza ed i potenziali benefici d’uso.

Per maggiori informazioni ascolta il nostro webcast 

lunedì 6 giugno 2016

EMC ECS 2.2



Social, Mobile, Cloud e Big Data stanno rivoluzionando il mercato e apportando nuovo valore al business.

Questo importante cambiamento è reso possibile grazie all’analisi generata dai dati - dati non strutturati e in continua crescita. In questo momento di profonda trasformazione le organizzazioni sono pertanto chiamate a bilanciare la crescita dei dati non strutturati con la continua richiesta di nuove applicazioni.





Con la soluzione Elastic Cloud Storage (ECS) 2.2. è possibile rispondere a queste esigenze, offrendo:



  • Piattaforma multi-protocollo grazie al supporto di S3, Atmos, CAS, Swift, HDFS e NFS
  • La ricerca dei metadati attraverso miliardi di oggetti senza un database dedicato.
  • Protezione del dato sia a livello locale che geografico e accesso active/active in configurazioni multi-sito
  • L’aumento della densità di storage del 33% e l’efficienza del 10%
[if !supportLists]·       [endif]Rispetto dei requisiti di security grazie alla data at rest encrytpion e compliance SEC 17-A4
EMC ECS fornisce una piattaforma di cloud storage software-defined completa per l'infrastruttura di tipo commodity, assicurando facilità di manutenzione, availability e affidabilità di livello enterprise.




Alessandro Luppi, SDS System Engineer - EMC Italia  

EMC DSSD secondo IDC


L’affermazione della terza piattaforma ha richiesto lo sviluppo di nuove architetture storage, quali gli allflash array (AFA) e le infrastrutture iperconvergenti (HCI), che puntano alla risoluzione di numerosi problemi legati a infrastrutture storage di precedente generazione, alle performance, alla crescita dei dati e alla relativa rapidità di incremento dei requisiti di espansione, alla produttività degli amministratori, all'affidabilità e all'efficienza in termini di consumo di energia e spazio. Per molte
aziende è importante supportare all'interno della stessa infrastruttura virtuale consolidata applicazioni di precedente generazione (es. database relazionali, piattaforme di messaggistica/collaborazione e condivisione dei file) e applicazioni di nuova generazione (NGA) . I mercati guidati da questi requisiti sono già piuttosto estesi: secondo IDC, AFA e HCI produrranno ricavi rispettivamente per circa 5,5 e 4 miliardi di dollari entro il 2019. Tale crescita si è verificata nei 5-6 anni successivi all'introduzione di
questi prodotti sul mercato.

Nei prossimi 10 anni, secondo IDC, la terza piattaforma dominerà le decisioni infrastrutturali IT. Le NGA legate a mobility, social media, big data/analytics e cloud stanno aprendo notevoli opportunità di crescita per le imprese più lungimiranti alla ricerca di nuovi clienti e mercati a cui offrire servizi innovativi non esistenti in passato. Una delle caratteristiche chiave delle NGA è la scalabilità: si tratta di applicazioni che richiedono milioni di IOPS e utilizzano set di dati molto estesi che impongono l'utilizzo di un'enorme larghezza di banda e di capacità di archiviazione sull'ordine dei petabyte (PB) e oltre. Le NGA devono spesso gestire un'acquisizione dei dati intensiva, su scala globale e con latenze inferiori a quelle offerte dagli attuali AFA. Molti nuovi clienti e molte opportunità di mercato si basano sulla real-time analytics per trasformare i dati in informazioni in grado di generare valore differenziante. Questo valore giustifica ampiamente una spesa più elevata.

I Big data/analytics offriranno nuove e rivoluzionarie informazioni ad aziende innovatrici, sviluppatori e operatori di mercato, cambiando per sempre il modo in cui il business si proporrà al mercato e venderà i prodotti. Le imprese devono raccogliere e gestire set di dati infinitamente più estesi di quelli gestiti in passato. La velocità è un elemento fondamentale per l'analisi e lo sfruttamento di opportunità transitorie o impossibili da gestire con gli approcci di analisi convenzionali. Entro pochi anni, le aziende incapaci di sfruttare al meglio la real-time analytics o le imprese prive di infrastrutture IT flessibili per una risposta rapida alle opportunità individuate dagli analytics, subiranno un notevole svantaggio competitivo. Le imprese in grado di comprendere l'impatto del passaggio alla terza piattaforma nei mercati AFA e HCI otterranno un chiaro quadro del cambiamento imposto dai big data/analytics alle attuali infrastrutture.
Per gestire i requisiti di real-time analytics nei repository di big data in continua evoluzione, le aziende hanno iniziato a utilizzare gli AFA. Tali sistemi tuttavia sono stati progettati per l'utilizzo di set di dati più piccoli e hanno limitate capacità di adeguamento agli estesi data set dell'era della terza piattaforma. Nello specifico, gli AFA non riescono a gestire al meglio l'acquisizione dei nuovi dati eseguendo allo stesso tempo le richieste dai clienti di real-time analytics. Di conseguenza, gli AFA utilizzati in questi tipi di ambienti richiedono una notevole quantità di lavoro manuale, ovvero la suddivisione dei carichi di lavoro in partizioni e la loro sistribuzione fra diversi sistemi, spesso creando diverse copie dei set di dati già sottoposti a partizionamento. Occorrono diverse copie per ottenere le performance necessarie per il rispetto degli SLA delle applicazioni, aspetto che produce un utilizzo inefficiente della capacità di storage. Inoltre, gli AFA non dispongono della larghezza di banda necessaria per la gestione dei requisiti di estrazione, trasformazione e caricamento (ETL) e del supporto decisionale richiesto da questi ambienti "data at scale". Di conseguenza, amministratori e analisti impiegano molto tempo nella messa a punto di sistemi privi della capacità di gestire questo tipo di dimensioni.

Le architetture di storage emergenti per la gestione di questi requisiti offriranno importanti elementi tecnologici di differenziazione. Innanzitutto, per offrire performance ottimizzate in termini di latenza e throughput occorre potenziare la connessione host fra server e array al fine di supportare latenze costantemente inferiori a 100 microsecondi. La soluzione più immediata consiste nell'espandere il bus interno dei server per adattarsi allo storage condiviso. In seconda istanza, occorre costruire il sistema su memory-based storage media senza i requisiti per soddisfare lo spinning dei dischi. Le tecnologie di memoria emergenti consentono di aumentare l'affidabilità, ridurre il consumo energetico e migliorare la densità dello storage, a patto di sacrificare la compatibilità con le tecnologie di precedente generazione, caratteristiche importanti per la scalabilità. In terza istanza, la piattaforma deve adattarsi contemporaneamente a diversi tipi di dati (strutturati, non strutturati e semi strutturati) , in maniera nativa e senza inefficienze. Per consentire alle imprese di sfruttare al meglio i dati per identificare opportunità, occorrerà utilizzare ogni tipo di dato in modo efficiente e senza alcuna preferenza fra essi. Infine, occorre abbandonare gli attuali stack di I/O relativamente pesanti e adottarne altri dedicati a questa nuova architettura. Molte applicazioni di data analytics vengono scritte in maniera specifica, mentre la disponibilità di un'API in grado di sfruttare uno stack di I/O più snello e dalla latenza inferiore potrà offrire vantaggi agli sviluppatori desiderosi di ottimizzare performance, affidabilità ed efficienza dello storage.


IDC inizia a rilevare la presenza di architetture storage di nuova generazione progettate per rispondere alle esigenze di scalabilità della data analytics. Alla luce delle dimensioni del mercato di big data/analytics dei prossimi anni, la spesa per l'infrastruttura storage per queste tecnologie crescerà più velocemente rispetto a quello che abbiamo visto fare per le architetture di storage emergenti. Il 2016 si preannuncia un anno interessante, considerata la maggiore disponibilità delle soluzioni storage orientate ai big data.

IDC Analyst – Eric Burgener, Research Director, Storage

Per maggiori informazioni www.Italy.emc.com 


martedì 29 marzo 2016

La Protezione dei Dati lontano dal Data Center


L’evoluzione tecnologica delle soluzioni IT di tutte le Organizzazioni ha reso la protezione dei dati sempre più efficace, garantendo la conservazione sicura delle informazioni nel tempo a fronte di eventi catastrofici (come la perdita di un Data Center), di errori umani, di problemi nelle piattaforme hardware e software e di tentativi di frodi. Questo elevato livello di sicurezza è stato ulteriormente esteso e semplificato grazie alle nuove soluzioni cloud, che sono in grado di garantire la conservazione dei dati e la continuità dei servizi senza la necessità di realizzare una propria piattaforma IT.
Questo scenario descritto è però, nella maggior parte dei casi, confinato nello spazio del Data Center, dove ogni Organizzazione conserva i servizi e le informazioni critiche per il proprio business e per svolgere la propria funzione. Eppure esistono dei dati che inevitabilmente nascono, vivono e muoiono al di fuori del Data Center e la cui protezione è spesso rimandata agli utenti finali o ad amministratori IT improvvisati: parliamo delle postazioni di lavoro fisse e mobili (indicate come DT/LT – DeskTop and LapTop) e degli Uffici e delle Sedi Remote (indicate come ROBO – Remote Office, Branch Office).
Il lavoro e i documenti di un Amministratore Delegato, dell’Ufficio Marketing o Legale, della forza vendita di un’azienda, degli uffici e delle filiali di un’Organizzazione, rappresentano spesso dati molto importanti la cui perdita potrebbe avere un impatto negativo sul Business aziendale sia per il valore assoluto dell’informazione che per il tempo necessario per ricrearli.

Troppo spesso il valore di queste informazioni non viene opportunamente quantificato dagli amministratori IT, mentre non è sfuggito agli hackers che hanno ideato dei nuovi malware (ovvero un qualsiasi software creato allo scopo di causare danni a un computer, ai dati degli utenti del computer, o a un sistema informatico su cui viene eseguito) denominati “Ramsonware”.  Questi programmi hanno la capacità di espandersi rapidamente e di cifrare i file presenti sul sistema infetto e sugli apparati di rete da esso raggiungibili, come storage di rete (NAS), dischi esterni e file system cloud (come google drive, syncplicity, onedrive, dropbox, ecc…). Tali file cifrati diventano quindi inutilizzabili e l’unico modo per poterli recuperare è pagare una cifra richiesta (“ramson” ovvero riscatto) da chi ha realizzato il ramsonware.



In realtà la prima forma di ramsonware  è datata 1989 (il tristemente noto trojan "AIDS", chiamato anche "PC Cyborg") ma è dopo il 2013 che questi sistemi criminali di estorsione si sono intensificati con la diffusione di CryptoLocker, un programma grazie al quale si stima che gli hacker hanno incassato 27 milioni di dollari dagli utenti infetti. Questi sistemi si sono ulteriormente evoluti ed è notizia di pochi giorni fa l’individuazione del primo vero ransomware per Mac OS X, chiamato KeRanger, mentre le ultime stime dichiarano che Cryptowall 3.0 ha fruttato l'esorbitante cifra di 325milioni di dollari solo nel 2015.
I ramsonware sfruttano i due anelli più deboli nella catena della sicurezza delle aziende: gli utenti e la non sempre efficiente protezione dei dati presenti nei DTLT e nei ROBO. Infatti, questi virus si propagano utilizzando le pagine web o la posta elettronica degli utenti e una volta infettati i files, richiedono un “riscatto” facendo leva sul fatto che non è possibile recuperare quel file in altro modo (ad esempio un restore da un backup effettuato prima dell’evento).
La difesa da questo tipo di eventi può essere ottenuta mediante l’implementazione e la gestione di piattaforme software di protezione, modificando il comportamento degli utenti e apportando delle opportune modifiche all’architettura di rete e di condivisione delle risorse. In ogni modo, considerando l’elevata diffusione di questi malware, la raccomandazione generale è di fare copie di backup periodiche dei dati presenti su dispositivi fissi e mobili (DTLT) e negli uffici remoti delle organizzazioni.
L’esigenza di protezione dei dati da malware e virus si somma alla necessità delle organizzazioni di proteggere i dati presenti al di fuori del Data Center per ottenere i seguenti benefici:

Gestione centralizzata della protezione dei dati in linea con le politiche applicate nei Data Center

Proteggere i dati remotamente, come soluzione di data recovery, in caso di indisponibilità parziale o completa di un sistema fisso o mobile (DTLT) o di un Ufficio Remoto (ROBO)

Eliminare i costi infrastrutturali e di gestione delle soluzioni locali di backup

Evitare la creazione di backup locali su supporti non sicuri (come chiavette USB, CD-ROM, sistemi cloud non certificati) che possono rappresentare un punto debole in termini della sicurezza dei dati di un’organizzazione

Liberare gli utenti dall’onere di proteggere i propri dati 

Effettuare il backup remoto dei dati presenti su DTLT o su ROBO distribuiti sul territorio nazionale o all’estero e con una disponibilità di banda di rete spesso critica, può essere proibitivo e molto costoso. Le soluzioni offerte da Cloud Pubblici non sempre garantiscono il rispetto dei vincoli normativi, dei requisiti di compliance e della sicurezza e segretezza dei dati di un’Organizzazione.


EMC Avamar è la soluzione di backup in grado di rispondere a tutti i requisiti indicati, utilizzando la minima banda di rete grazie al proprio algoritmo di deduplicazione globale dei dati alla sorgente a blocco variabile. Con Avamar ogni organizzazione può creare la propria soluzione di backup on-premise in grado di indirizzare il backup dei propri Data Center e/o di tutti i dispositivi mobili, fissi e degli uffici remoti.
Avamar, con il suo caratteristico licensing capacitivo, permette di utilizzare in modo unlimited tutte le sue funzionalità avanzate per la protezione dei dati:

Plug-in per il backup a caldo dei principali applicativi (Oracle, MS Exchange, MS SQL, IBM DB2, SAP, ecc…)

Integrazione con i più diffusi hypervisor di virtualizzazione per il backup delle VM in modalità guest-level e in modalità image-level

Servizio web-based per il backup e la restore on-demand dei Desktop/laptop e delle Postazioni di Lavoro

Backup di array NAS

Client di backup compatibili con la maggior parte dei sistemi operativi

Integratazione con le piattaforme di automazione come vRealize Automation

Realizzazione di servizi BAAS (Backup-As-A-Service)


Per maggiori informazioni visita il sito web EMC Italia

Alessio D'Andrea - DPS Sr System Engineer EMC Italia  @Alessioemc



martedì 9 febbraio 2016

EMC Isilon: performance superiori e budget sempre più ristretti



Il 75% delle organizzazioni fatica a gestire la quantità sempre crescente dei dati e dei file non strutturati che vengono continuamente creati.
Che si tratti di gestire costose espansioni di storage di home directory, dei BLOB di SharePoint, dei dati Hadoop, delle applicazioni di sync and share, dei dati di log, dei file video o di altri contenuti analoghi, ogni organizzazione ha l'esigenza di consolidare e semplificare il proprio management.

Scopri come EMC Isilon ti aiuta ad ottimizzare la gestione dei tuoi dati.






EMC offre l’opportunità di raggiungere questi risultati con la tecnologia SCALE-OUT, proponendo una singola architettura storage che garantisce livelli superiori di efficienza, semplicità, resilienza e prestazioni, con standard di servizio superiori e budget sempre più ristretti.