In un contesto aziendale sempre più orientato alla digitalizzazione e all'utilizzo intensivo dei dati, la governance dei dati emerge come un fattore cruciale per il successo organizzativo. Questa tesi offre un'introduzione alla data governance, esplorando gli attori principali, la sua importanza e come essa viene riflessa nelle pratiche aziendali. La data governance comprende un insieme di processi, ruoli e responsabilità volti a garantire la qualità, la sicurezza e l'utilizzo ottimale dei dati. Un'attenzione particolare è riservata al ruolo della qualità dei dati (data quality), che si basa su principi di accuratezza, completezza, coerenza e tempestività. La qualità dei dati è fondamentale per supportare decisioni informate e ottimizzare le performance aziendali. La tesi analizza come la data quality venga applicata nell'ambito dell'acquisizione degli esiti, un processo che non si limita alla raccolta di dati interni all'azienda, ma include un complesso sistema di invio e ricezione di dati da parte di enti esterni. Questi dati, inizialmente grezzi, vengono arricchiti e organizzati per essere consultati attraverso un portale dedicato. Questa tesi nasce dalla mia esperienza professionale nel campo della gestione dei dati, dove ho avuto l’opportunità di implementare un sistema di acquisizione esiti. Tale sistema coinvolge l’invio di dati grezzi da parte di enti esterni, che vengono poi elaborati e arricchiti, per essere infine resi disponibili e consultabili attraverso un portale dedicato. Questo lavoro pratico mi ha permesso di affrontare direttamente molte delle sfide legate alla data quality e alla governance dei dati, fornendo una base solida e concreta per l’analisi teorica presentata in questa ricerca. Durante il mio stage, ho svolto un ruolo chiave nella gestione dei record scartati, dove la precisione e la tempestività sono state fondamentali. Nel processo di elaborazione dei dati, alcuni record vengono esclusi a causa della loro natura non valida o irrilevante. Questa selezione è cruciale per garantire che solo le informazioni pertinenti e affidabili alimentino il processo. I dati scartati non vengono ignorati; piuttosto, vengono gestiti attentamente per preservare l'integrità complessiva dell'operazione. Per ottimizzare la gestione degli scarti, ho utilizzato MongoDB, un database non relazionale efficiente nella gestione di grandi volumi di dati non strutturati. Ho creato una collection in MongoDB per salvare i dati scartati e ho implementato gli indici necessari per recuperare i dati in maniera efficiente. Inoltre, ho sviluppato una dashboard personalizzata in Angular utilizzando l'architettura Backend for Frontend(BFF). Il backend, implementato in Java, gestisce le richieste provenienti dal frontend e recupera i dati necessari dal database. Quando un utente seleziona un intervallo di date sulla dashboard, Angular invia una richiesta HTTP al backend, che elabora i parametri ricevuti, esegue le query necessarie e restituisce i dati degli scarti pertinenti al periodo selezionato, che permette agli utenti di verificare gli scarti prodotti e scaricare un report in Excel. Questo report consente di analizzare tali scarti in maniera chiara, estraendo i dati direttamente dalla collection del database dove sono stati precedentemente salvati. Per garantire un'esame efficiente degli esiti, ho utilizzato Java Spring con tasklet e steplet per implementare l'analisi in modalità multithreading, ottimizzando ulteriormente il processo.
Data Governance: Dal framework normativo alla gestione degli esiti
ROBINO, DAVIDE
2023/2024
Abstract
In un contesto aziendale sempre più orientato alla digitalizzazione e all'utilizzo intensivo dei dati, la governance dei dati emerge come un fattore cruciale per il successo organizzativo. Questa tesi offre un'introduzione alla data governance, esplorando gli attori principali, la sua importanza e come essa viene riflessa nelle pratiche aziendali. La data governance comprende un insieme di processi, ruoli e responsabilità volti a garantire la qualità, la sicurezza e l'utilizzo ottimale dei dati. Un'attenzione particolare è riservata al ruolo della qualità dei dati (data quality), che si basa su principi di accuratezza, completezza, coerenza e tempestività. La qualità dei dati è fondamentale per supportare decisioni informate e ottimizzare le performance aziendali. La tesi analizza come la data quality venga applicata nell'ambito dell'acquisizione degli esiti, un processo che non si limita alla raccolta di dati interni all'azienda, ma include un complesso sistema di invio e ricezione di dati da parte di enti esterni. Questi dati, inizialmente grezzi, vengono arricchiti e organizzati per essere consultati attraverso un portale dedicato. Questa tesi nasce dalla mia esperienza professionale nel campo della gestione dei dati, dove ho avuto l’opportunità di implementare un sistema di acquisizione esiti. Tale sistema coinvolge l’invio di dati grezzi da parte di enti esterni, che vengono poi elaborati e arricchiti, per essere infine resi disponibili e consultabili attraverso un portale dedicato. Questo lavoro pratico mi ha permesso di affrontare direttamente molte delle sfide legate alla data quality e alla governance dei dati, fornendo una base solida e concreta per l’analisi teorica presentata in questa ricerca. Durante il mio stage, ho svolto un ruolo chiave nella gestione dei record scartati, dove la precisione e la tempestività sono state fondamentali. Nel processo di elaborazione dei dati, alcuni record vengono esclusi a causa della loro natura non valida o irrilevante. Questa selezione è cruciale per garantire che solo le informazioni pertinenti e affidabili alimentino il processo. I dati scartati non vengono ignorati; piuttosto, vengono gestiti attentamente per preservare l'integrità complessiva dell'operazione. Per ottimizzare la gestione degli scarti, ho utilizzato MongoDB, un database non relazionale efficiente nella gestione di grandi volumi di dati non strutturati. Ho creato una collection in MongoDB per salvare i dati scartati e ho implementato gli indici necessari per recuperare i dati in maniera efficiente. Inoltre, ho sviluppato una dashboard personalizzata in Angular utilizzando l'architettura Backend for Frontend(BFF). Il backend, implementato in Java, gestisce le richieste provenienti dal frontend e recupera i dati necessari dal database. Quando un utente seleziona un intervallo di date sulla dashboard, Angular invia una richiesta HTTP al backend, che elabora i parametri ricevuti, esegue le query necessarie e restituisce i dati degli scarti pertinenti al periodo selezionato, che permette agli utenti di verificare gli scarti prodotti e scaricare un report in Excel. Questo report consente di analizzare tali scarti in maniera chiara, estraendo i dati direttamente dalla collection del database dove sono stati precedentemente salvati. Per garantire un'esame efficiente degli esiti, ho utilizzato Java Spring con tasklet e steplet per implementare l'analisi in modalità multithreading, ottimizzando ulteriormente il processo.File | Dimensione | Formato | |
---|---|---|---|
885698_tesi_laurea_triennale_robino_davide.pdf
non disponibili
Tipologia:
Altro materiale allegato
Dimensione
480.15 kB
Formato
Adobe PDF
|
480.15 kB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/160526