I 10 Trend Tecnologici Strategici di Gartner per il 2025
4 Novembre 2024
I termini “Big Data” e “Data Analytics” sono diventati parole d’ordine popolari negli ultimi anni. Ma molti che usano questi termini non comprendono effettivamente cosa significano, quali sono le capacità e limitazioni implicate, o che valore reale possono avere tutte queste informazioni.
In questo articolo, forniremo un’introduzione di base al concetto di Big Data, nonché al concetto più pratico di analisi dei dati. Argomenteremo anche che i Big Data, pur essendo uno strumento potente, non sono necessariamente vitali per ogni progetto di analisi dei dati. Discuteremo quindi alcune delle insidie più comuni che le aziende incontrano nell’analisi dei dati. Infine, esamineremo il processo di base su come strutturare al meglio un processo di analisi dei dati per evitare tali insidie e per ottenere il massimo dalle risorse di dati disponibili.
Prima di parlare dei modi più corretti di condurre “Data Analytics”, è importante capire il vero significato di Big Data. Il termine Big Data potrebbe trarre in inganno, perché una traduzione letterale porterebbe a pensare che si riferisca semplicemente all’enorme quantità di dati che oggi abbiamo a disposizione. Questa però è una definizione riduttiva del termine.
Se è vero che la quantità di dati oggi disponibile è inimmaginabile, il concetto a cui ci si riferisce quando si parla di Big Data o Rivoluzione Big Data è la capacità che oggi esiste di elaborare, analizzare e trarre applicazioni oggettive da tutte queste informazioni, suggerendo pattern e modelli di interpretazione fino ad ora impensabili.
Questa possibilità è data dagli algoritmi capaci di trattare una mole così immensa di dati in un tempo ridotto e con poche capacità computazionali.
Le informazioni che oggi, con un algoritmo e un semplice laptop, possono essere elaborate nel giro di qualche ora, fino a poco tempo fa avrebbero richiesto molto tempo e computer super costosi.
Questa è la rivoluzione Big Data.
La rivoluzione Big Data è da tempo entrata nelle nostre vite, anche se non ce ne accorgiamo distintamente. Facciamo alcuni esempi pratici.
L’uso dei Big Data in ambito marketing si ritrova nei cosiddetti metodi di raccomandazione, come quelli usati da Netflix o Amazon per proporre offerte d’acquisto mirate a uno specifico utente. Questo può avvenire con scientifica precisione perché tutti i dati di navigazione di un utente, dagli acquisti eseguiti, ai prodotti ricercati o valutati, permettono di suggerire i prodotti e i servizi più adatti per quella persona, quelli che sicuramente attireranno la sua attenzione. Ed è così che gli algoritmi riescono a “scoprire” anche se una donna è in stato di gravidanza, in base alle sue ricerche effettuate e a proporle offerte e prodotti che potrebbero servirle.
Big Data permette addirittura di scovare inusuali associazioni: secondo alcune ricerche di data mining, infatti, le persone che comprano feltrini per mobili sarebbero più inclini a regolare i propri debiti entro i tempi stabiliti, rappresentando i clienti ideali per gli istituti di Credito.
Nella vita quotidiana troviamo tantissime altre applicazioni per i Big Data.
Pensiamo ad esempio al dispiegamento delle forze di polizia nei luoghi e nei momenti in cui i reati hanno più probabilità di verificarsi.
Oppure allo studio delle associazioni tra qualità dell’aria e salute.
O ancora all’analisi genomica per migliorare la resistenza alla siccità nelle varianti di cereali.
Per capire la portata della potenza dei Big Data, basti pensare che nel già lontano 2008 Google era riuscito a prevedere la presenza di focolai di influenza nei territori degli Stati Uniti, più velocemente di quanto non sia riuscito a fare il Ministero della Salute monitorando i record di ammissione ospedaliera delle strutture sanitarie pubbliche e private.
Era solo il 2008, e da allora siamo andati avanti anni luce.
Merriam-Webster definisce la statistica come “una branca della matematica che si occupa della raccolta, analisi, interpretazione e presentazione di masse di dati numerici”. La statistica è un concetto chiave alla base dei big data e dell’analisi dei dati. L’idea è di utilizzare un sottoinsieme dell’universo globale di dati per trarre conclusioni su quell’universo di dati. Ad esempio, è possibile raccogliere misurazioni del peso di alcune persone nel tentativo di stimare il peso medio di tutte le persone. Come vedremo, questo esempio apparentemente semplice diventa però molto più complesso a seconda delle caratteristiche dei dati.
Le caratteristiche dei dati determineranno se e come è possibile utilizzare determinati dati in un progetto di analisi dei dati. Il NIST (National Institute of Standards and Technology) elenca quattro caratteristiche principali che i dati devono avere – volume, velocità, varietà e variabilità – a cui Cary, società di Data Analytics con sede nella Carolina del Nord, aggiunge una quinta caratteristica, ovvero la veridicità.
VOLUME: Questa caratteristica può essere interpretata sia come una benedizione che come una maledizione e si riferisce al numero di data points. L’accesso a data points apparentemente infiniti può significare la possibilità di identificare le caratteristiche del consumatore e i suoi probabili comportamenti con un grado di precisione incredibile, ma i costi dell’architettura per l’elaborazione di tali dati aumentano con il volume.
VELOCITA’: strettamente correlata al volume, questa caratteristica considera la velocità con cui i dati sono o possono essere raccolti.
VARIETA’: i dati sono disponibili in varie forme. Ad esempio, le preferenze dei consumatori possono essere misurate rivedendo le indagini sui consumatori, monitorando le ricerche online o monitorando le decisioni di acquisto.
VARIABILITA’: la variabilità si riferisce alle variazioni dei dati nel tempo. Queste modifiche possono includere la velocità con cui i dati scorrono, il formato dei dati o i dati stessi.
VERIDICITA’: i dati provenienti da fonti diverse possono essere più o meno affidabili. Ad esempio, i consumatori potrebbero segnalare preferenze che non corrispondono al loro reale comportamento di acquisto. I dati di vendita di alcune fonti potrebbero essere ambigui o persino intenzionalmente errati. La veridicità si riferisce alla qualità dei dati.
L’analisi dei dati significa letteralmente analizzare i dati disponibili. Può assumere diverse forme, a seconda dell’intento dell’analisi:
La complessità dell’analisi aumenta proporzionalmente da descrittiva a prescrittiva, dove l’analisi prescrittiva è l’obiettivo di business finale più ambizioso. Una domanda descrittiva di analisi dei dati potrebbe essere: “Quanti soldi spende il consumatore medio italiano all’anno per la manutenzione dell’automobile?”
La risposta può essere ottenuta in maniera relativamente facile analizzando una quantità sufficiente di dati sulle abitudini di spesa e tale risposta è utile nella misura in cui aiuta a determinare le dimensioni del mercato disponibile, ma non è necessariamente sufficiente da sola per aiutare nel processo decisionale.
La relativa domanda diagnostica potrebbe essere: “Perché i consumatori spendono questa somma di denaro per la manutenzione dell’automobile? Perché non spendono di più o di meno? ” Ciò richiede di esaminare più da vicino i dati e di stabilire alcune connessioni, come le abitudini di spesa di soggetti appartenenti a determinati gruppi demografici, fasce di reddito o regioni geografiche; o le abitudini di spesa in determinati tipi di manutenzione automobilistica o il volume di spesa con determinate società rispetto ad altre.
Il follow-up predittivo sarebbe: “Quali abitudini di spesa si prevede ci saranno nei prossimi 5 anni da parte dei consumatori italiani per la manutenzione automobilistica?”
Infine, la domanda prescrittiva: “Dato quello che crediamo essere lo stato attuale e futuro del mercato, cosa dovremmo fare?”
Nella nostra analisi ipotetica, una società del settore della manutenzione automobilistica in Italia che si trova di fronte a questa domanda potrebbe decidere di investire più pesantemente in una specifica area del settore, puntare in maniera più diretta a determinati segmenti di mercato, confrontare e seguire le best practicies di concorrenti specifici, o anche abbandonare del tutto il settore.
Ciò che distingue i Big Data da un concetto più generalizzato di un campione di dati è la dimensione e la complessità della gestione di tutti quei dati. I Big Data, per definizione, consistono in enormi quantità di dati che richiedono un’enorme capacità di elaborazione per essere utilizzati in modo efficace.
Un’azienda ha bisogno di Big Data per condurre in modo efficace l’analisi dei dati? Non necessariamente, ma dipende dall’analisi. Le statistiche diventano più accurate all’aumentare della dimensione del set di dati. E rispondere con precisione a domande complesse diventa più facile perchè l’accuratezza delle conclusioni statistiche alla base è più accurata.
Pertanto, un’azienda che ha la necessità di analizzare il tasso di difettosità del suo processo di produzione di materassi negli ultimi tre anni probabilmente non avrà bisogno di sfruttare i Big Data. Tuttavia, se la stessa società desiderasse condurre un’analisi prescrittiva riguardo un business plan per entrare nel mercato di materassi di fascia alta del sud-est asiatico entro un periodo di cinque anni, potrebbe aver bisogno di grandi quantità di dati per garantire che le sue stime e previsioni siano sufficientemente accurate per giustificare il piano d’azione.
Le aziende che desiderano sfruttare l’analisi dei dati devono tener presente una serie di potenziali insidie, ricordando che un’azienda potrebbe arrivare a spendere enormi quantità di tempo, denaro e altre risorse in un progetto di analisi dei dati ottenendone scarso o nessun beneficio, o, peggio ancora, finire col prendere una decisione avventata. Ecco alcuni errori da cui guardarsi.
Nessun obiettivo chiaro: alcune aziende potrebbero vedere i Big Data come una bacchetta magica e l’analisi dei dati come una cura miracolosa per le loro difficoltà e potrebbero pensare: “Se riusciamo ad ottenere i dati, la risposta ci apparirà forte e chiara”. Raccogliere dati da miliardi di data points ed incanalarli in una scatola nera che sputa preziose informazioni non è esattamente il corretto modo in cui avvalersi dell’analisi dei dati. Le aziende che decidono di fare Data Analytics senza un obiettivo chiaro rischiano di spendere risorse significative senza approdare a nessun beneficio tangibile.
Obiettivi troppo pretenziosi: quasi quanto non avere un obiettivo chiaro, anche averne uno troppo ambizioso può essere un’insidia. Le aziende devono considerare le proprie risorse e capacità prima di definire i propri obiettivi di analisi dei dati. Una società con un budget di 5.000 € e un singolo dipendente a tempo pieno assegnato a un progetto pilota di analisi dei dati, realisticamente non può aspettarsi di prevedere le tendenze delle preferenze dei consumatori negli Stati Uniti il prossimo anno. Ma potrebbe riuscire a identificare l’orario di lavoro più e meno produttivo in una delle sue linee di produzione.
Basare le decisioni su dati errati: come discusso in precedenza, l’obiettivo finale dell’analisi dei dati è determinare un corretto corso di azione, dato lo stato attuale e previsto degli affari. Se le decisioni sul corretto corso delle azioni si basano su una valutazione errata della situazione attuale e futura, tali decisioni potrebbero rivelarsi disastrose. Questo è il motivo per cui l’analisi prescrittiva richiede investimenti adeguati nelle risorse necessarie per garantire accurate analisi descrittive, diagnostiche e predittive.
Consci di cosa può andare storto, pensiamo ora a come far funzionare un progetto di analisi dei dati e consideriamo alcuni dei passaggi chiave per strutturare un progetto di Data Analytics efficace.
Stabilire obiettivi chiari. Le aziende che desiderano sfruttare l’analisi dei dati devono avere un’idea chiara di ciò che sperano di ottenere da questa iniziativa. A prescindere che l’analisi sia descrittiva, diagnostica, predittiva o prescrittiva.
Formulare domande chiare. Che si tratti di stimare lo stato attuale del mercato o determinare dove posizionare l’azienda nel corso del prossimo anno, è importante sviluppare chiare domande di base. Ad esempio, per sapere perché i consumatori preferiscono un determinato marchio di materassi, le aziende devono prima scoprire quali marchi preferiscono, quali sono le caratteristiche di tali marchi, quali qualità i consumatori apprezzano rispetto ad altre, etc.
Sviluppare una strategia per rispondere a queste domande. Come rispondere a una domanda sulle preferenze del consumatore? La strategia potrebbe includere lo svolgimento di sondaggi, l’analisi dei dati di ricerca online e le decisioni di acquisto, il dialogo con esperti dei consumatori o una combinazione di queste e altre strategie.
Raccogliere dati. La fase di raccolta dei dati è essenzialmente l’esecuzione delle strategie identificate nella fase precedente: condurre sondaggi, raccogliere dati sugli acquisti o ricerche online, etc.
Analizzare. A seconda del tipo di analisi dei dati eseguita, questo può essere un passaggio estremamente complesso. Se l’analisi è semplicemente descrittiva, può essere semplice come fare un conteggio o calcolare una media. Qualcosa di più complesso che implica trarre conclusioni sulle correlazioni nei dati e previsioni future ovviamente è molto più complicato.
Iterare. Come avviene per molte attività, è abbastanza improbabile azzeccare al primo colpo un’analisi accurata dei dati. Le fonti di dati potrebbero non avere veridicità o volume sufficiente, le conclusioni potrebbero basarsi su connessioni imprecise tra dati, etc. Ma ripetendo il processo, imparando dagli errori e apportando le modifiche necessarie, le aziende possono acquisire una competenza significativa nel tempo riguardo l’analisi dei dati.
Le aziende hanno a disposizione varie risorse, che sfruttano per generare profitto. Queste risorse possono includere beni materiali come dipendenti, materie prime, edifici e attrezzature. Ma includono anche beni immateriali come proprietà intellettuale e dati. I dati sono un asset prezioso e molte aziende stanno appena iniziando a capirlo.
I big data e l’analisi dei dati potrebbero suonare come concetti complessi, esclusivamente alla portata delle aziende più tecnologicamente avanzate, ma, in realtà, sono complessi solo nella misura in cui si decide di servirsene. Se capisci questi concetti, è possibile definire in modo preciso e circoscritto un obiettivo di analisi dei dati e ottenere risultati significativi ed efficaci.
La chiave è non lasciarsi sopraffare dalla quantità immensa di dati, non essere eccessivamente ambiziosi rispetto alle proprie reali possibilità e mappare chiaramente il piano del progetto di analisi dei dati.
Scopri cosa può fare Fluentis ERP
per la tua azienda
Prova gratuita 15 giorni | Nessun rinnovo automatico | Accesso immediato
Contattaci per maggiori informazioni