-
Practices
- Augmented Analytics
- Big Data Analytics
- Business Analytics
- Data Governance & Data Fabric Architecture
- Data-Driven Strategy & Transformation
- Performance Management & Improvement
- Industries
- Carriera
- Chi siamo
- Contatti
- Webroom & Events
02 Feb, 2015
La Data Quality è un fattore critico di estrema importanza in tutti i progetti di datawarehouse.
Gli errori, le anomalie, le divergenze e le duplicazioni tendono a propagarsi dai sistemi nei quali le informazioni nascono, fino al più alto livello di analisi strategico/operativa di cui spesso costituiscono la sorgente alimentante, con il risultato di rendere queste ultime inefficaci, approssimative quando non addirittura errate o fuorvianti, con il conseguente rischio di compromettere i processi decisionali che invece dovrebbero agevolare.
L’esperienza e l’approccio SDG nella gestione migliorativa della qualità dei dati hanno portato alla definizione di una check-list di attività:
- mappare le fonti alimentanti e misurare la qualità del dato che forniscono;
- individuare gli errori che le caratterizzano, con il duplice obiettivo di intraprendere azioni correttive direttamente alla fonte oppure a valle nei flussi di caricamento ETL;
- innescare un processo virtuoso di responsabilizzazione interna che si concretizzi con l'istituzione della figura del data steward e del data ownership;
- sviluppare gli opportuni algoritmi correttivi, di “enrichment” e univocità del dato supportati dai migliori tool del mercato;
- misurare la qualità del dato a valle del processo di alimentazione del DWH.