Big data analytics

Da Wikipedia, l'enciclopedia libera.
Jump to navigation Jump to search
BDA

Big data analytics è il processo di raccolta e analisi di grandi volumi di dati per estrarre informazioni nascoste. Associati a sofisticate analisi di business, i big data hanno il potenziale di dare alle imprese intuizioni sulle condizioni di mercato, sul comportamento dei clienti, rendendo l’attività decisionale più efficace e veloce rispetto alla concorrenza. Oggi sono fornite diverse tecnologie e tecniche di analisi per scoprire patterns nascosti e connessioni tra i dati. Essi si discostano dalle tradizionali soluzioni di business intelligence perché operano sui big data e pertanto richiedono un’elaborazione più lenta e meno efficiente.

Esso permette di conoscere anticipatamente cosa accadrà. Ciò rientra nell’analisi predittiva, poiché se abbiamo un modello e abbiamo dati storici a sufficienza possiamo determinare cosa succederà in un futuro prossimo (una tendenza) con basi o fondamenti statistici. Sulla base di queste previsioni è possibile intervenire sul futuro mediante un'analisi prescrittiva, ovvero si vanno a cercare le condizioni affinché un certo evento accada.

Quindi, i big data rappresentano il nuovo strumento che rende "misurabile" la società. Spingono verso una nuova scienza dei dati, in grado di misurare e, in prospettiva, prevedere crisi economiche, epidemie, diffusione di opinioni, distribuzione delle risorse economiche, bisogni di mobilità.[1]

Storia[modifica | modifica wikitesto]

Per molti anni si è parlato di Big Data, ma solo recentemente molte organizzazioni hanno compreso la loro importanza. Catturare l’innumerevole mole di dati, che viene condivisa ogni giorno nel proprio business, permette ad un’azienda di analizzare ed estrarre informazioni significative e talvolta vitali per le proprie decisioni. Inizialmente, prima ancora che il termine “Big Data” venisse usato, le attività commerciali erano basate su semplici analisi numeriche per scoprire informazioni e andamenti nascosti. Oggi invece le informazioni sono recuperate da enormi volumi di dati, dove l’analisi, ormai diventata veloce, permette di anticipare le scelte future in modo più accurato.

Descrizione[modifica | modifica wikitesto]

Definizione e caratteristiche[modifica | modifica wikitesto]

Si tratta di un processo di Business Intelligence adattato ai Big Data. Sono, quindi, necessari strumenti automatici che possano aiutare i manager ed i responsabili dell'azienda a prendere le decisioni giuste per massimizzare i profitti ed evitare gli sprechi dovuti a scelte sbagliate, soprattutto negli ultimi anni in cui la crisi economica lascia ancora meno margini per gli errori.

La presenza di dati non strutturati, rende necessario un diverso approccio nell’analisi che differisce dai tradizionali sistemi di gestione delle basi di dati. In questo contesto bisogna disporre di architetture software predisposte alla gestione di grossi volumi di dati, capaci di elaborazioni parallele su sistemi cluster. Tecnologie emergenti come Hadoop, MapReduce e NoSQL databases.

I principali obiettivi della Big Data analytics sono:

  • Ridurre i costi: sono introdotte nuove tecnologie per ridurre i costi di gestione e analisi di grandi volumi di dati.
  • Velocità: le analisi condotte devono essere capaci di produrre un risultato in breve tempo, oggi si fa sempre più riferimento ad analisi real time.
  • Precisione: potendo disporre di grosse quantità di dati possono essere condotte analisi più accurate.

Attraverso questi obiettivi è possibile anticipare il futuro con la conoscenza dei dati raccolti nel passato ed individuare nuove opportunità di guadagno.

Differenze con la business intelligence[modifica | modifica wikitesto]

La crescente maturità del concetto dei Big Data mette in evidenza le differenze con la Business Intelligence, in materia di dati e del loro utilizzo:

  • la Business Intelligence utilizza la statistica descrittiva con dati ad alta densità di informazione per misurare cose, rilevare tendenze, ecc., utilizza cioè dataset limitati, dati puliti e modelli semplici per scoprire cosa è successo e perché è successo;[2]
  • i Big Data utilizzano la statistica inferenziale e concetti di identificazione di sistemi non lineari[3] per dedurre leggi (regressioni, relazioni non lineari ed effetti causali) da grandi insiemi di dati[4], e per rivelare rapporti e dipendenze ed effettuare previsioni di risultati e comportamenti[3][5], in altre parole utilizzano dataset eterogenei (non correlati tra loro), dati raw e modelli predittivi complessi.[2][6]

Note[modifica | modifica wikitesto]

  1. ^ (EN) Dino Pedreschi, Siamo tutti pollicini digitali, 2012. URL consultato il 30 giugno 2017.
  2. ^ a b I Big Data vi parlano. Li state ascoltando? (PDF), EMC Corporation, 2012. URL consultato il 17 luglio 2017.
  3. ^ a b (EN) Stephen A. Billings, Nonlinear system identification: NARMAX methods in the time, frequency, and spatio-temporal domains, New York, Wiley, 23 settembre 2013, ISBN 978-1119943594.
  4. ^ (FR) Pierre Delort, Big data Paris 2013, su andsi.fr. URL consultato il 25 giugno 2017.
  5. ^ (FR) Pierre Delort, Big Data car Low-Density Data? La faible densité en information comme facteur discriminant, su lecercle.lesechos.fr. URL consultato il 25 giugno 2017.
  6. ^ Mario Rasetti e Emanuela Merelli, The Topological Field Theory of Data: a program towards a novel strategy for data mining through data language, in Journal of Physics: Conference Series, vol. 626, Torino, IOP Publishing Ltd, 2015, DOI:10.1088/1742-6596/626/1/012005. URL consultato il 25 giugno 2017.

Bibliografia[modifica | modifica wikitesto]

  • Arshdeep Bahga, Vijay Madisetti, Big Data Science & Analytics: A Hands-On Approach, ISBN 978-0996025539, VPT, 2016
  • Alessandro Rezzani, Big Data Analytics. Il manuale del data scientist, ISBN 978-8891621856, Apogeo Education, 2017

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]