studio tarantelli, consulenza informatica, SEO e reti informatiche

Studio Tarantelli > Articoli Informatica > Big Data > Il sovraccarico dei dati (information overload) statistici nell’analisi dei Big Data

Il sovraccarico dei dati (information overload) statistici nell’analisi dei Big Data

sovraccarico dati

Il data scientist che deve rispondere ad un quesito complesso, spesso preleva una moltitudine di dati da svariate fonti che risultano non solo ridondanti ma che portano fuori strada rispetto all’obiettivo da raggiungere.

Le problematiche poste ad un data scientist sono di svariate tipologie, dall’ottimizzazione dell’organizzazione aziendale, alla riduzione degli sprechi e dei consumi, all’aumento della competitività sul mercato, all’analisi statistica dei dati, etc. Questa figura professionale è poliedrica e può essere utilizzata in ogni ambito che va dal privato a quello aziendale.

In questo articolo vediamo un singolo aspetto dedicato all’importanza dei dati prelevati in una analisi statistica che può essere semplicemente utilizzata per la valutazione della strategia di marketing di un sito web o degli obiettivi commerciali di una impresa.

Innanzitutto capiamo cosa è il sovraccarico dei dati.


Cosa è l’information overload

grafico information overload

Per capire meglio il concetto di information overload, che in italiano è definito come sovraccarico dei dati, possiamo aiutarci con il seguente grafico che mostra nell’asse delle ascisse (asse orizzontale) il Volume o la Quantità dei dati e nell’asse delle ordinate (asse verticale) il valore associato a queste quantità.

Anche chi non è avvezzo alla lettura dei grafici, evidenzia il fatto che nella prima parte del grafico c’è una crescita abbastanza costante del volume rispetto alle quantità dei dati acquisiti, fino a giungere ad un massimo valore, che poi decresce all’aumentare dei dati.

Questo decremento indica che ad un certo punto i dati disponibili da valutare ed analizzare sono davvero tanti, che portano ad una fase di blocco con uno stato confusionale per la moltitudine di dati prodotti, che conducono ad una regressione del valore associato.

Il grafico pertanto mostra un importante aspetto: non servono tantissimi dati, ma questi devono essere utili e corretti per l’analisi statistica in questione.



Come filtrare i dati

In una situazione di analisi dei dati, inizialmente tutti questi “numeri” sembrano buoni, utili e necessari, ma al contrario è necessario filtrarli per rispondere correttamente al quesito posto e per questo bisogna adottare una fase di astrazione, basata su criteri oggettivi e non ridondanti.

All’inizio è normale cercare di “accaparrare” quanti più dati possibili, ma un esame obiettivo può portare subito ad applicare dei filtri che ci possono aiutare a risolvere l’enigma molto prima.

Un esempio classico applicato ad un sito web è la richiesta di un cliente di conoscere quanti contatti ci sono stati dai motori di ricerca dalla città di Roma in un certo periodo.

In questo esempio ci sono tre filtri utili da applicare, il primo è quello del periodo, il secondo è quello inerente la città di Roma ed il terzo della fonte di traffico che è rappresentato dai motori di ricerca.

Come si evince da questa analisi sopra indicata, si è partiti dall’ultimo filtro indicato nel quesito e non dal primo, questo perché è preferibile subito iniziare dal fattore che comporta una maggiore riduzione dei dati, (il periodo) e poi proseguire man mano con il medesimo ragionamento.

Alla fine se i filtri vengono applicati in maniera inversa, si ha (in questo caso) ugualmente lo stesso risultato, ma se messi in sequenza così come indicato, si giova di ulteriori riflessioni, che vengono ignorati in questo testo, perché esulano il focus dell’articolo.

L’esempio fatto è ovviamente molto semplice per un data scientist professionista e mostra che anche da un piccolo sito web si possono avere considerazioni ed aspetti importantissimi per il business di una impresa che vuole conoscere l’andamento statistico di un periodo e valorizzare il proprio business su una singola città.


Leggibilità dei dati

Un problema che l’information overload provoca è la scarsa leggibilità dei dati, proprio perché avendone una quantità esagerata, porta a delle considerazioni che potrebbero essere errate, visto che i numeri che sono stati estrapolati risultano non coerenti con il problema da analizzare.

L’applicazione dei filtri aiuta moltissimo a leggere i dati correttamente e soprattutto permette di evidenziare fattori inizialmente non valutati o valutabili.

Spesso le astrazioni da eseguire sono molteplici e servono diversi filtri per pulire i dati, come sopra indicato nell’esempio della statistica richiesta dal cliente per il sito web.

La parte complessa del data scientist è quella dell’integrazione di dati provenienti da statistiche diverse che spesso non sono comparabili e non c’è almeno inizialmente un dato in comune tra le varie fonti, ma questo è un problema che affronteremo in un prossimo articolo.


Quando può esserti utile un algoritmo

Nella scienza dei dati una volta trovati i dati, filtrati, integrati si pensa spesso a realizzare un algoritmo per velocizzare i processi futuri che rispondano allo stesso quesito. Questo è vero se il quesito è ricorrente, altrimenti non è propriamente conveniente investire nel creare un algoritmo, specialmente se le variabili sono diverse in ogni caso.

In passato le strategie di marketing venivano strutturate sia da persone creative che da matematici o statistici, oggi è sempre più la parte numerica che prevale sulla scelta e di conseguenza si accede dopo alla stesura della base commerciale. I tempi sono cambiati!

Il sovraccarico di informazioni in tutti gli ambiti ci ha portato a calibrare diversamente tutte le strategie di una azienda e quelle che oggi hanno un approccio obsoleto, ahimè sono quasi tutte fallite. Questo è il grande problema che ha afflitto nell’ultimo periodo una moltitudine di imprese italiane, che pensano di continuare a vendere prodotti o servizi come venti anni fa e poi si ritrovano a chiudere.


Perché può esserti utile un SEO e un Data Scientist

Nell’esempio fatto in questo articolo, si è partiti da un concetto semplice del dato ipotizzato in una creazione di una strategia di web marketing, ma come abbiamo visto l'information overload è un fenomeno che si verifica in moltissime situazioni di analisi dei big data.

Chi ha un sito web ha sperimentato sulla propria pelle gli ingenti costi sostenuti negli investimenti fatti in pubblicità, che con l’aumento della concorrenza ha portato solamente a far arricchire i colossi del web di Advertising ed a ridurre la competitività e la redditività delle imprese che pur di vendere spendono centinaia e migliaia di euro in sponsorizzazioni.

Questo non significa che non bisogna fare pubblicità, ma occorre fare anche altro ed ottimizzare tale budget!

Il consulente SEO ed ancora meglio il data scientist hanno conoscenze che permettono di capire il mercato di riferimento di ogni azienda, valorizzarlo ed aumentare le vendite massimizzando i profitti (e quindi riducendo le spese).

Non è detto che vendere ad un prezzo più alto porta ad un maggior ricavo, spesso basta anche solo ridurre i costi a regime! Ma come? Occorre rivolgersi a professionisti.

Hai mai analizzato correttamente i dati del tuo sito web? Hai capito chi è il tuo cliente di riferimento e come portarlo a visitare il tuo sito? Quando ha visitato il tuo sito, hai convertito il contatto in contratto? La percentuale di conversioni è conforme al tuo settore o superiore? Se hai risposto affermativamente alle quattro domande sicuramente hai fatto un ottimo lavoro, ma se una delle risposte è no, vuol dire che non hai raggiunto l’obiettivo e che probabilmente l’ausilio di un professionista risolverà il tuo problema!


Se ti è stato utile questo articolo, condividilo per un web migliore!


condividi su facebookcondividi su linkedincondividi su twitter


24-07-2019

Autore: Mirko Tarantelli - consulente informatico e SEO

© Tutti i diritti sono riservati. È vietato qualsiasi utilizzo, totale o parziale dei contenuti qui pubblicati.