La Data Quality si riferisce alla condizione di un insieme di valori di variabili qualitative o quantitative. Esistono molte definizioni di qualità dei dati, ma i dati sono generalmente considerati di alta qualità se sono adatti ai suoi usi previsti nelle operazioni, nel processo decisionale e nella pianificazione.

Siamo costantemente immersi in una serie di flussi di statistiche e previsioni che servono ad indirizzare le iniziative imprenditoriali e non solo. I cosiddetti analytics vanno integrati nei processi decisionali e nelle strategie messe in campo ogni giorno. Sentiamo dire di frequente la frase: “I numeri parlano chiaro”. Cosa si vuole intendere? Che una narrazione efficace del brand deve senza dubbio partire da una base di elementi reali e inequivocabili.

Spesso, nelle presentazioni, e nella comunicazione interna, hanno un posto di rilievo le statistiche visualizzabili con relative forme e sfumature di colore. Nulla è casuale, ma le scelte adottate servono ad indicare la direzione verso cui muoversi e, nella fattispecie, il target a cui rivolgersi, oltre che i possibili obiettivi. Certo, bisogna essere imparziali e agevolare la trasmissione di notizie che siano scevre da fraintendimenti e sviste.

Subentra allora la data quality, approccio operativo che consiste nell’accertamento dell’obiettività e della coesione dei flussi sia in fase di estrazione che nella successiva elaborazione. Nella guida odierna scopriremo che cos’è e perché assume una posizione di rilievo nel panorama attuale.

Cosa si intende per data quality

La storica Organizzazione Internazionale per la Standardizzazione (ISO), che svolge consulenze per Onu e Unesco, ha definito la data quality come la totalità delle caratteristiche di una entità riguardanti la capacità di soddisfare necessità esplicite o tacitamente dichiarate. Da qui entriamo subito nell’ottica del fatto che la data quality non è un parametro fine a se stesso ma dipende dalle singole applicazioni.

Per essere all’altezza dei competitor, è opportuno verificare lo stato degli archivi e, parallelamente, proteggerli da rischi provenienti dall’esterno. In poche parole, la data quality è una pianificazione improntata ad aumentare le performance dell’organico e delle strumentazioni che si possiedono. Si parte dalla profilazione, eventualmente integrabile, proseguendo quindi con la validazione di quanto inserito e aprendo lo spazio per le correzioni. Step imprescindibile è l’analisi, personalizzabile in base agli scopi che si vogliono raggiungere di volta in volta.

Allestito il dataset, si possono stabilire delle regole in conformità alle quali avviare un monitoraggio periodico. E le carte da giocare non finiscono qua: nel mazzo ci sono una mappatura complessiva e la costruzione di anteprime della stessa per intercettare esigenze specifiche. Quali sono le peculiarità insite nella data quality? La coerenza sicuramente: pensiamo alla compresenza di fonti e tabelle da immettere magari in un unico algoritmo.

In ballo ci sono parecchie responsabilità, come possiamo intuire, per cui se gli esiti di un sondaggio arrivano da più centri, devono essere state eseguite procedure analogamente, altrimenti si noteranno i danni nel risultato finale. Se determinati campioni, presi da due regioni, seguono metodi differenti si andrà incontro ad equivoci dando una fotografia sbagliata della realtà. Possiamo allargare l’orizzonte descrivendo la data quality come una pulizia generale per eliminare doppioni, recapiti inesistenti. Siamo iniziando a capirne la valenza intrinseca, ma a che pro se ne usufruisce? E come essa si palesa nel dettaglio?

Perché è così importante

Il discorso impatta fortemente sul fatturato poiché un cattivo immagazzinamento limita il target potenziale perché conduce verso campagne pubblicitarie impostate male. Un passo falso può portare a perdite di milioni di dollari all’anno. Insomma, non siamo davanti ad una questione astratta ma ad un argomento quantomai concreto che fa risplendere l’offerta.

In luogo di fusioni, capita, ad esempio, che si perdano pratiche importanti, soprattutto se, da ambo le parti, non c’era stata la giusta scrupolosità e si usavano sistemi vetusti. Assottigliandosi, con l’ausilio della tecnologia e dell’esperienza, la possibilità di errore, si va a offrire indubbiamente un’assistenza migliore ai clienti che ne fanno richiesta.

Ne risentiranno positivamente persino i prodotti di punta della nostra attività che saranno rafforzati da scelte molto attente rispetto all’user experience. Un vantaggio che si avverte in settori come la moda o l’e-commerce dove le abitudini del futuro consumatore sono un must da non trascurare mai. Aiutano in tal senso le tecniche di intelligenza artificiale e la distribuzione di app che tengano sott’occhio i movimenti di ciascuno, senza attentare alla riservatezza.

Fidelizzare il pubblico, inviando loro newsletter o promozioni ad hoc, è una mossa che deve fondarsi su un’elevata data quality. Connotazioni anagrafiche e geolocalizzazioni appaiono oggi dirimenti sia nel B2B, nella compilazione della lista dei fornitori, sia nel B2C dove può essere interessante sapere composizione familiare, generi più acquistati e via dicendo, a patto di rispettare la privacy e assicurarsi il consenso delle persone alle finalità previste.

Come misurare la qualità dei propri dati

Per posizionarsi sul mercato, codici e cifre diventano il pane quotidiano dell’Enterprise. Basta un’anomalia, magari una data scritta male, a far saltare un contatto prezioso. Le disattenzioni vanno prevenute e, se ne troviamo alcune, bisogna porvi riparo, per non penalizzare la credibilità del brand. Come certificare tutto ciò? La data quality si può misurare, seppur con le difficoltà del caso, attraverso dei punteggi. Chi li stabilisce?

Data quality - come si misura e chi la garantisce
Data quality – Come si misura e chi la garantisce?

Le “metriche” possono essere indipendenti dal contesto oppure soggettive se tengono conto della conformazione dell’area alla quale si riferiscono. Si va dall’accuratezza dei valori alla corrispondenza con il reale, detta completezza, e alla puntualità, concetto ad essa correlato. Non sono esclusi gli aspetti quantitativi, in accordo con la rilevanza e l’utilità delle informazioni. Nel loro insieme, i dati vanno strutturati (consistency) e devono potere essere interpretati dagli utenti. Per fugare incursioni va ridotto al minimo il tasso di manipolabilità.

Per una data quality che si rispetti va curata la formattazione ed è fondamentale scartare le previsioni approssimative. A livello aziendale si stilano dei report per evidenziare le lacune e, prima di pubblicarli, ci si accerta della fattibilità empirica del progetto. Chi sono le figure da impiegare? Il team che misura la data quality deve essere ambizioso e in grado di divulgare, in maniera semplice, conclusioni e metodologie.

Un connubio interdisciplinare in cui possono convergere i cloud architect, gli esperti in sicurezza, ma anche i grafici e gli sviluppatori. L’aderenza sintattica e la segnalazione delle imprecisioni daranno il quadro della faccenda. Avendo mostrato problemi e possibili soluzioni, possiamo comprendere ora che la data quality coinvolge tanti attori. Una tendenza che è alla radice della digitalizzazione del Paese e che deve entrare assolutamente nell’agenda di CEO e dipendenti.