Ogni giorno due miliardi e mezzo di persone si connettono alla rete producendo una mole di dati pari a 2,5 quintalioni di byte. Nell’ultimo biennio i dati immessi nella rete sono inoltre cresciuti moltissimo: il 90% del totale infatti è stato creato in questo periodo. Basti pensare che si possono immagazzinare dati in diversi modi: postando uno status su un social network, pubblicando un post sul proprio blog oppure effettuando un acquisto online.
A causa della crescita repentina di questi dati, il neologismo Big Data si è diffuso velocemente, anche se non tutti sanno bene cosa significhi. Si tratta della raccolta in grandissimi data set (insiemi di dati su un relativo argomento) di tutte le informazioni che vengono emesse nella rete.
I Data Set si sviluppano su tre dimensioni: velocità, volume e varietà. Con velocità definiamo la capacità di un dato di fluire nei centri di elaborazione in modo veloce, permettendoci analisi in tempi ristretti. Con volume, invece, intendiamo la somma delle dimensioni dei vari dati che compongono un data set, mentre la varietà dipende dalle fonti di provenienza dei dati (immagini jpg, file di log, ecc.). I big data sono perciò dei grandi data set che, date le ingenti dimensioni, sono analizzabili solo con strumenti speciali. Sono molto importanti perchè possono essere utilizzati non solo per la ricerca economico/finanziaria, bensì anche in altri ambiti, come ad esempio quello scientifico.
Pensiamoci bene: se studiamo minuziosamente una mole enorme di dati, saremo in grado di percepire anche quelle relazioni difficilmente rilevabili, scoprendo sempre di più dalle informazioni che quotidianamente vengono immesse nella rete. Possiamo anche capire come sta andando un prodotto sul mercato da come ne parlano gli utenti di tutto il mondo.
La gestione di un progetto dedicato ai big data, però, non è per nulla semplice. Se i dipartimenti IT e business non sono completamente allineati in un progetto ben definito difficilmente trarranno vantaggi dall’utilizzo dei dati. A volte l’accessibilità degli stessi è molto limitata, anche a causa della legislazione: si sta tentando di risolvere la situazione con i cookie, con cui l’utente dà il consenso sapendo che i dati verranno trattati. Un altro fattore che può generare insuccesso è dovuto al fatto che si tratta pur sempre di qualcosa ancora troppo “nuovo” per essere sfruttato in maniera costruttiva.
Il potenziale dell’analisi dei big data è stato tuttavia percepito da tempo negli USA, mentre in Europa fin’ora la diffusione all’interno delle aziende è stata limitata. Si prevede però un’accelerazione nel 2014: più di un terzo delle organizzazioni si sono dichiarate interessate ad incentrare i propri sforzi per l’uso consapevole dei big data.
E in Italia? Se pensiamo alla popolazione intesa come “numeri”, possiamo stimare che per circa 60 milioni di persone, la parola “big” riferita alla raccolta dati risulta quasi esagerata. Questo non significa che questo tipo di analisi non possa servire alle nostre aziende, al contrario, formare esperti nella catalogazione e lettura dei dati, può essere molto utile anche per noi. È pertanto fondamentale imparare a gestire ed estrarre informazioni dai “big” data che spesso sono già in nostro possesso. Solo questo li renderà utili anche in Italia.