Visualizzazione post con etichetta Data Lake. Mostra tutti i post
Visualizzazione post con etichetta Data Lake. Mostra tutti i post

martedì 9 febbraio 2016

EMC Isilon: performance superiori e budget sempre più ristretti



Il 75% delle organizzazioni fatica a gestire la quantità sempre crescente dei dati e dei file non strutturati che vengono continuamente creati.
Che si tratti di gestire costose espansioni di storage di home directory, dei BLOB di SharePoint, dei dati Hadoop, delle applicazioni di sync and share, dei dati di log, dei file video o di altri contenuti analoghi, ogni organizzazione ha l'esigenza di consolidare e semplificare il proprio management.

Scopri come EMC Isilon ti aiuta ad ottimizzare la gestione dei tuoi dati.






EMC offre l’opportunità di raggiungere questi risultati con la tecnologia SCALE-OUT, proponendo una singola architettura storage che garantisce livelli superiori di efficienza, semplicità, resilienza e prestazioni, con standard di servizio superiori e budget sempre più ristretti.








mercoledì 11 novembre 2015

Ecco RIPTIDE la nuova versione di EMC ISILON Cloudpools EMC IsilonSD Edge and Onefs.Next

É il momento di parlare di una soluzione per gestire l’intero ciclo di vita dei dati,  questa soluzione chiamata EMC Isilon OneFS Riptide risolve il problema di come gestire la crescita esponenziale dei dati,  permettendo alle aziende di affrontare questa sfida potendo contare su un’infrastruttura scalabile linearmente, agile, semplice da usare e pronta a gestire molteplici applicazioni attraverso tutti i principali protocolli (NFS, SMB, HTTP, HDFS, SWIFT, RestAPI, FTP, NDMP)

Proviamo a definire quali sono le sfide da affrontare e con quali risorse, partendo dal concetto di Big Data che va correlato alle famose  “3V”  velocità,  varietà e volume di dati che vengono prodotti ogni minuto, ogni ora, ogni giorno grazie a Internet e all’ecosistema di dispositivi attualmente disponibili.
In passato la maggior parte dei dati tradizionali era strutturato, o ben organizzato in database mentre adesso con l’avvento della tecnologia digitale e di Internet  siamo in presenza di una vera rivoluzione che genera una mole di dati non strutturati che hanno necessità di essere contenuti e distribuiti in File Server, nei Device NAS (Network Attached Storage), negli Application Server, nel cloud, e anche nei portali aziendali creando così molteplici Silos di informazioni non correlate e di difficile gestione.



La nuova versione di EMC Isilon risolvere questi e altri problemi permettendo di consolidare in un unico filesystem, scalabile fino a 50PB, anche i dati degli uffici periferici e contemporaneamente permettere lo spostamento degli stessi nel cloud pubblico o privato.
Un nuovo concetto di software defined scale-out permette di gestire i dati nelle sedi periferiche, consolidando i contenuti verso i DC centralizzati in maniera semplice e scalabile




Un ulteriore importante funzionalità è la possibilità di spostare i file in automatico verso un tier di spazio poco pregiato nel cloud privato o pubblico senza la necessità di apparati esterni alla soluzione ma integralmente gestito dal codice di EMC Isilon. Questa funzionalità permette di mantenere in linea e analizzare i dati storici che in precedenza venivano spostati su tape ed estrarne così informazioni e valori per la crescita del business aziendale ma senza il proliferare dello spazio su apparati pregiati.


Se vuoi maggiori approfondimenti su Isilon 8.0 clicca qui per guardare il webcast

Andrea Ugo Gallo - System Engineer - NAS Specialist  - EMC Italia

venerdì 28 novembre 2014

Devi affrontare un Progetto Big Data?


Premessa


Uno dei termini più diffusi ed attuali nel modo è senza dubbio “Big Data”. Per i non addetti al settore, Big Data è un termine onnicomprensivo per indicare una raccolta di insieme di dati così grande e complessa da non poter essere elaborata con le tradizionali applicazioni di analisi dei dati.

Con la crescita vertiginosa della rete mondiale di interconnessione e della quantità di informazioni che su di essa circolano, la quantità di dati fruibili e potenzialmente archiviabile è enorme o lo diventerà in breve tempo. Spesso sono informazioni destrutturate e tali da rendere inefficienti i classici sistemi di indagine e interrogazione delle banche dati.