venerdì 13 giugno 2014

Un approccio innovativo per la risposta agli incidenti di sicurezza

Come tutti coloro che si occupano di sicurezza informatica, siamo tenuti a conoscere cosa dobbiamo proteggere (ossia quella che è la nostra mission) e contro chi o cosa stiamo «combattendo» per meglio organizzare le nostre difese.

Lo scenario delle minacce che ci troviamo a fronteggiare oggi non è cambiato (in meglio) nel corso degli ultimi mesi, anzi tutti i fenomeni più rilevanti e pericolosi si sono evoluti e inaspriti sia in termini qualitativi che quantitativi. Le statistiche ad esempio ci dicono che gli attacchi mirati sono in continua crescita:
  • La distribuzione degli stessi che tiene sempre meno conto della dimensione dell’organizzazione
  • Il rischio di essere sotto attacco sia di per sé molto alto come valore assoluto
  • Le campagne di attacco sono sempre più precise e durature
  • La componente accidentale (ossia dovuta alla dis-educazione dell’utente) predominante nel passato, è ora superata da tutte quelle forme che coinvolgono un intervento esterno (hacker, hacktivism, cyber-crime, ecc).
Ci si trova quindi di fronte ad un bivio nel fronteggiare tale scenario e rispondere efficacemente agli incidenti che ne possono derivare:
  • Lavorare con lo stesso approccio che si utilizza per difendersi dalle minacce tradizionali (queli erano virus, spam, ecc) in cui la sicurezza assume un ruolo per lo più di IT Operations (ossia gestire le credenziali, imporre i cambi password, monitorare i dispositivi, ecc.), con attenzione (e budget) rivolti per lo più a tecnologie preventive con un attitudine reattiva alle minacce a cui si è soggetti
  • Oppure, data la natura sostanzialmente differente delle minacce attuali e il forte impatto negativo sul business che esse possono avere, adottare un approccio differente, in cui la sicurezza ha un ruolo proattivo, le competenze e gli strumenti per rispondere agli incidenti informatici, con attenzione rivolta all’analisi, all’investigazione, alla detection e con capacità di generare e far leva su dati di intelligence a beneficio dell’intera organizzazione. Un vero e proprio strumento a supporto del business aziendale.
image
Per fare tale passo, che necessariamente rappresenta un salto di qualità e maturità per molte organizzazioni, ogni singola persona, le tecnologie che esse utilizzano e il modo stesso di lavorare deve adattarsi al dinamico e sempre più complesso panorama delle minacce che ci si trova a fronteggiare. Alcune organizzazioni hanno quindi già avuto modo di instituire, come naturale evoluzione, una sorta di «centro di controllo» specializzato ad individuare, investigare e rimediare incidenti di cyber-security a cui si fa riferimento a seconda dei casi come SOC o CIRC. Tuttavia è sempre importante ricordare che il SOC non si traduce necessariamente nell’immagine che abbiamo in testa di una stanza piena di videowall (e persone).

Anche un singolo individuo che lavora diversamente e che persegue questo nuovo approccio di cui abbiamo parlato può di per sé aiutare a fronteggiare il preoccupante scenario delle minacce descritto in precedenza.

Nell’articolo successivo, analizzeremo l’importanza di coordinare all’unisono Persone, Processi e Tecnologie al fine di rispondere agli Incidenti di Sicurezza in modo veloce, efficace e coerente.

Davide Veneziano – RSA Security Analytics Pre Sales Consultant
Francesco Gelo – RSA Pre Sales Consultant

https://blogs.rsa.com/category/advanced-security/

mercoledì 11 giugno 2014

Verso la Software-Defined Enterprise



Come gestire la complessità delle architetture IT oggi?
Come amministrare sistemi monolitici cresciuti nel tempo senza una governance?

In questo webinar verranno illustrati nuovi approcci per indirizzare al meglio queste problematiche, grazie all'utilizzo di sistemi ingegnerizzati che permettono di trasformare applicazioni, server e reti in astrazioni software e che nel contempo consentono ai direttori IT di creare data center adattivi e flessibili.

L'idea è fare una completa astrazione di tutti i componenti del data center dell'hardware sottostante in modo che le risorse IT possano essere realmente fruite come servizi on-demand personalizzabili.

Quest'approccio si declina in 4 macrotemi che saranno analizzati nel corso del webinar:
Software-Defined Data Center (SDDC)
Hybrid Cloud
End User Computing
Automazione dell'IT
L'evento sarà moderato da Vincenzo Zaglio, Giornalista di ICT4Executive, e vedrà la partecipazione di Stefano Mainetti, Co-Direttore Scientifico dell'Osservatorio Cloud & ICT as a Service del Politecnico di Milano, di Dario Regazzoni, Presales Manager di EMC e di Luca Zerminiani, System Engineering Manager di VMware.

Il Webinar si terrà il 18 Giugno dalle ore 12.00 alle 13.15.
Registrati

Per ulteriori informazioni contattare
Andrea Negroni - email: andrea.negroni@ict4executive.it - tel. 02 87069481

martedì 10 giugno 2014

Una survery su Big data e decision-making

Quanto possono essere rilevanti i Big Data per la vostra azienda ? EMC ha condotto una survey e per il 79% degli intervistati l'utilizzo dei Big Data è in grado di abilitare migliori decisioni strategiche. L'infografica qui sotto riassume i risultati della survey: per tutti i dettagli vi rimandiamo al blog di Bill Shmarzo



venerdì 6 giugno 2014

Dalla parte delle Applicazioni! "DDBoost for Enterprise Application".

A partire da quest'anno EMC attraverso la sua divisione "DPAD - Data Protection Availability Division" specializzata nella protezione del dato, ha lanciato sul mercato "DDBoost for Enterprise Application".

Seguendo i vari post e blog specializzati reperibili in rete, il significato di questo annuncio spesso si "traduce" come semplice possibilità di delegare agli amministratori delle applicazioni aziendali, il controllo completo della protezione dei propri dati. Tale protezione è garantita dalle scritture su di un sistema Data Domain con il vantaggio di poter utilizzare gli strumenti di gestione del backup/recovery specializzati e forniti a corredo con le applicazioni stesse. Un esempio fra tutti e universalmente noto è 'Oracle RMAN' che riprenderò più avanti nell'articolo.

mercoledì 4 giugno 2014

La Protezione dei Dati in XtremIO - XtremIO Data Protection (XDP)



Nel presente articolo parleremo della protezione dei dati in XtremIO (XtremIO Data Protection o XDP) descrivendo anche i vantaggi di questo particolare e unico schema di protezione raid.

XDP è un algoritmo brevettato di protezione dei dati sugli SSD (Solid State Disks) che protegge contro i guasti nei flash drive e, come vedrete, XDP ha diverse proprietà esclusive che permettono a XtremIO di  fare alcune cose piuttosto sofisticate.



XDP è il terzo dei quattro pilastri tecnologici unici di XtremIO. XDP offre la capacità di massimizzare lo spazio utilizzabile nell’array, fornisce una superiore durata dei supporti flash e permette di ottenere prestazioni superiori a qualsiasi altro tipo di algoritmo RAID. Il presente articolo descrive a grandi linee quali sono stati gli obiettivi di progettazione di questo schema di protezione facendo prima un rapido aggiornamento sulle attuali tecnologie RAID in modo da poter capire meglio  come funziona XDP.


DSSD - la rivoluzione Flash non è finita

Uno degli annunci dell’ultimo EMC World 2014 di Las Vegas (i contenuti dell’evento sono ancora disponibili online qui: http://www.emcworld.com/virtual/index.htm) è l’intezione di acquisire la start-up DSSD entro il mese di Giugno, per inserirla come unità indipendente all’interno della Divisione “Emerging Technology Products”.

DSSD è una società fondata nel 2010 da Jeff Bonwick e Bill Moore (entrambi veterani della Silicon Valley e tra i creatori del File System ZFS), con alle spalle Andy Bechtolsheim (già co-fondatore di Sun Microsystems) che mira a proporre un approccio completamente nuovo allo storage Flash.

Le idee alla base di quanto sviluppato da DSSD possono essere riassunte nei tre punti seguenti:
1)    gli attuali protocolli di accesso allo Storage sono stati ideati e perfezionati per i dischi magnetici, non per le memorie Flash
2)    questi protocolli non cosentono di sfruttare al meglio le caratteristiche dei dispositivi a Flash ed in particolare impediscono di raggiungere le prestazioni erogabili teoricamente da essi
3)    ripensando da zero l’architettura per gestire le operazioni di IO verso i dispositivi Flash è possibile abbattere di ordini di grandezza i tempi di accesso ai dati