Archive for the ‘DFM’ Tag

Dimensional Fact Model @ BI Academy Launch

Pubblicato il 05/01/2015 da Stefano Cazzella in Business Intelligence

Il primo post dell’anno è in realtà un debito nei confronti dell’anno precedente. Avevo infatti omesso di riportare, come da tradizione, le slide presentate alla Stuttgart Media University in occasione del lancio del progetto BI Academy avvenuto il 26 Novembre scorso. Eccovi accontentati.

Il tema naturalmente è sempre lo stesso (che poi è quello per cui sono stato coinvolto nel progetto): come creare un modello dati fisico di un data mart partendo dal solo requisito di business attraverso un processo codificato e semi-automatizzato. Naturalmente la presentazione non poteva non finire che con una demo del tool BI Modeler.

 

Model Driven Business Intelligence

Pubblicato il 29/11/2013 da Stefano Cazzella in Business Intelligence,Metadata Management

Al ritorno da una due-giorni a Stoccarda, con ancora tanto entusiasmo e un po’ di stanchezza, pubblico le slide presentate mercoledì mattina all’Università dei Media (http://www.hdm-stuttgart.de) sul tema dell’approccio Model Driven alla Business Intelligence.

Le slide riassumono la “vision” che guida la realizzazione del tool di modellazione BI Modeler, ossia concepire i progetti di BI (al pari di quello che avviene per lo sviluppo software in contesti altamente industrializzati) come processi iterativi che portino alla realizzazione di due macro componenti: il progetto tecnico (Project Blueprint) e la sua realizzazione (Project Deliverables). Il progetto tecnico è costituito dall’insieme dei diversi modelli che descrivono i diversi aspetti e componenti del sistema di BI & Analytics di cui i deliverables sono un’istanza.

 

Codemotion 2013 (questa volta ci siamo!)

Pubblicato il 18/03/2013 da Stefano Cazzella in Blog,Business Intelligence

Da qualche tempo ero alla ricerca di un pretesto per spezzare la lunga assenza dal blog e finalmente l’evento in grado di rompere l’indugio è giunto: presenterò un talk all’edizione romana di Codemotion del 22/23 marzo 2013.

codemotion

Come sempre, è stato organizzato tutto in grande fretta (e molto è ancora da fare). Sopra Group, che per la prima volta quest’anno sarà sponsor dell’evento, mi ha lasciato l’onore di rappresentarla nel breve talk dedicato agli sponsor e io, visto anche il poco tempo a disposizione per prepararmi, mi sono buttato sul mio cavallo di battaglia: l’approccio model driven (basato sui DFM) per la realizzazione di sistemi di Business Intelligence & Analytics.

Il talk è stato programmato per il 22 marzo alle 16:40.

Ci vediamo a Codemotion. Sarà un piacere.

 

BI Modeler: un (in)utile CASE software per il disegno di Dimensional Fact Model

Pubblicato il 16/01/2011 da Stefano Cazzella in Business Intelligence

In questi giorni ho raccolto diversi feedback sul tool Business Intelligence Modeler (ora liberamente scaricabile dal sito www.bimodeler.com) rilasciato qualche giorno fa in versione alpha: alcuni sono stati fin troppo lusinghieri, altri rigorosamente più critici (e per questo degni di maggior interesse).

In particolare da alcune mail sono emersi diversi spunti di riflessione che ho riorganizzato in questo post sotto forma di Domanda e Risposta: non si tratta di una FAQ ma piuttosto di uno schietto scambio di opinioni sul tema.

(continua…)

 

Business Intelligence Modeler (alpha version)

Pubblicato il 10/01/2011 da Stefano Cazzella in Business Intelligence,Software

Un sistema di supporto decisionale (DSS) è costituito da diverse componenti tecnologiche: una suite di Business Intelligence, degli strumenti di Data Integration, Data Mining, Data Quality, uno o più DBMS, un Application Server, ecc. L’integrazione di tutte queste componenti richiede l’applicazione di metodologie e best practice specifiche che guidino il processo di trasformazione del requisito utente in un sistema informativo di tipo analitico.

Business Intelligence Modeler (BI Modeler o BIM) è, nella sua concezione più ampia, uno strumenti di tipo CASE a supporto di tale processo, in grado di agevolare e documentare in maniera grafica, integrata e strutturata tutte le scelte progettuali compiute nel corso della realizzazione di un sistema di supporto decisionale.

Business Intelligence Modeler

(continua…)

 

Dimensional Fact Model: dalla teoria alla pratica

Pubblicato il 28/01/2010 da Stefano Cazzella in Business Intelligence

Dopo aver introdotto il formalismo Dimensional Fact Model (DFM) come strumento di definizione dei requisiti per la realizzazione di applicazioni analitiche e aver proposto una serie di regole che guidino il disegno di un modello dati relazionale in grado di soddisfare tali requisiti, è giunto il momento di vedere come sia possibile mettere in pratica tutto ciò seguendo un modello di sviluppo di tipo Model Driven.

(continua…)

 

Dal DFM allo StarSchema: come implementare uno Schema di Fatto in ambiente relazionale

Pubblicato il 30/08/2009 da Stefano Cazzella in Business Intelligence

Il Dimensional Fact Model viene spesso presentato come un modello concettuale per la definizione di sistemi di data warehousing: durante la fase di analisi può essere efficacemente utilizzato per formalizzare i requisiti informativi che il sistema dovrà soddisfare, mentre nella fase di progettazione costituisce il principale input per il disegno del modello logico su cui si basa l’applicazione di Business Intelligence.

Lo stesso modello concettuale può essere implementato con diverse tecnologie: ROLAP, MOLAP, HOLAP, ecc. Anche nell’ambito di una medesima tecnologia non esiste una modalità unica di traduzione di un modello dimensionale in modello logico e spesso le scelte di disegno sono guidate da altri requisiti funzionali e non funzionali.

Di seguito vediamo un esempio di come sia possibile implementare, in ambiente relazionale, il modello dimensionale di analisi delle vendite già descritto.

Schema di fatto: vendite

(continua…)

 

Dimensional Fact Model

Pubblicato il 20/06/2009 da Stefano Cazzella in Business Intelligence

Dimensional Fact Model

Fra i vari formalismi messi a punto dal mondo accademico per la definizione di modelli multi dimensionali, il Dimensional Fact Model (DFM) è fra quelli che più di altri negli ultimi anni è riuscito a valicare i confini universitari e ad essere conosciuto ed utilizzato in diverse realtà industriali e della pubblica amministrazione.

(continua…)

 

Meta Data Warehouse

Pubblicato il 30/10/2006 da Stefano Cazzella in Business Intelligence,Metadata Management

Dal 30 ottobre al 2 novembre si terrà a Londra la consueta Data Management and Information Quality Conference. La new entry dell’anno è una track dedicata ai temi di Data Warehousing e Business Intelligence. Scorrendo le presentazioni degli interventi di maggior rilievo in merito alla gestione dei metadati mi sono reso conto che il focus è tutto incentrato su come costruire, alimentare e gestire un un repository centralizzato dei metadati in cui vengano integrati i metadati prodotti durante il ciclo di sviluppo del sistema. Tale integrazione viene condotta tipicamente “a posteriori” ossia, nel migliore dei casi, al termine di ciascuna fase di un’iterazione progettuale.

Questo è il medesimo approccio che ho seguito nel disegnare la metodologia su cui si basa il sistema di gestione dei metadati realizzato nell’ambito del Data Warehouse della RGS. Tale sistema è costituito da prodotti commerciali e componenti software scritte ad-hoc al fine di ricostruire una “visione integrata, omogenea e strutturata” del sistema di data warehousing nel suo complesso. Tale esperienza è riassunta in un documento (in versione DRAFT) che ho preparato a valle del processo di certificazione del sistema di data warehousing condotto da Bill Inmon anche in seguito all’interesse e agli apprezzamenti che la componente di gestione dei metadati ha suscitato in tale sede.

Architettura a repository centralizzato Il mercato dei prodotti commerciali in ambito data warehouse è pressoché allineato nel seguire tale approccio generale che prevede la generazione dei metadati relativi alle diverse componenti in maniera pressoché indipendente e scorrelata. In particolare i diversi tool (case di modellazione dati, ETL, front-end, ecc.) utilizzati per la produzione delle diverse componenti del sistema (base dati, processi di alimentazione, reposrtistica, ecc.) hanno un proprio repository di metadati che descrive la componente prodotta; un sistema di gestione dei metadati interroga ciascun repository (attraverso delle API, tramite una sua rappresentazione in XML, ecc.) per estrarre una versione dei metadati da integrare nel proprio repository.

Un repository integrato dei metadati offre una serie di servizi ritenuti fondamentali sia per migliorare la qualità del servizio offerto agli utenti del sistema,sia per suportare la gestione del sistema stesso:

  • offrire all’utente indicazioni sul significato delle informazioni numeriche fornite attraverso la reposrtistica o gli ambienti di analisi multi-dimensionale (OLAP);
  • aiutare gli utenti a trovare le informazioni di cui hanno bisogno con sistemi di ricerca guidata;
  • suportare le attività di manutenzione attraverso le funzioni di cross-impact-analysis;
  • monitorare l’esito dei caricamenti e la crescita del sistema;
  • ecc.

Spesso però la qualità complessiva del sistema risulta scarsamente influenzata da una gestione dei metadati “a posteriori”; infatti l’integrazione “a posteriori” dei metadati può al limite evidenziare incongruenze fra il disegno delle diverse componenti, fra l’analisi e la progettazione delle stesse o fra la progettazione e lo sviluppo, ma non intervenendo attivamente nel processo produttivo, non migliora la qualità del prodotto.

Processo di integrazione “a priori”

Innovare il processo produttivo vuol dire innovare tanto le metodologie quanto gli strumenti di lavoro. Dal punto di vista metodologico il processo produttivo dovrebbe essere basato sul continuo riuso dei metadati: ogni attività dovrebbe arricchire i metadati del sistema integrando quanto già realizzato con nuove informazioni. Ad esempio la modellazione logica di un Data Mart dovrebbe partire dalla definizione del suo modello dimensionale arricchendolo con “i dettagli” utili alla sua implementazione in tecnologia ROLAP o MOLAP. Analogamente i metadati del medesimo modello dimensionale e della sua implementazione logico/fisica dovrebbero essere utilizzati nella definizione dello strato semantico attraverso cui gli utenti si interfacceranno e condurranno le proprie analisi OLAP.

Tale integrazione “a priori” dei metadati garantisce nel corso del processo produttivo una maggiore coerenza fra le componenti software realizzate. Inoltre, poiché il processo produttivo parte proprio dalla raccolta e formalizzazione dei requisiti e dall’analisi del patrimonio informativo e procede con l’integrazione dei metadati relativi agli aspetti progettuali e realizzativi del sistema, le probabilità che i requisiti utente siano sodisfatti aumentano. Si accorciano inoltre i ritardi nel rilevare problemi di incoerenza fra analisi e progettazione, progettazione e realizzazione o soddisfacibilità di requisiti.

Dal punto di vista degli stumenti software per la realizzazione di data warehouse, ad oggi non mi risulta che esista alcun tool in grado di seguire tutto il processo di analisi, progettazione e realizzazione di un sistema di Data Warehousing in modo integrato. Inoltre non sono molti i tool di front-end e back-end i cui repository di metadati siano aperti anche “in scrittura”, come avviene ad esempio per i cataloghi dei DBMS che vengono manipolati con linguaggi ormai standardizzati (DDL – Data Definition Language). Tuttavia il processo di integrazione dei diversi strumenti in suite tecnologiche può essere una spinta verso la realizzazione di un processo di questo tipo, purché l’integrazione non rimanga puramente commericale e ci sia una reale attenzione a coprire l’intero ciclo produttivo (mentre spesso fasi cruciali come l’analisi e la formalizzazione dei requisiti sono sottovalutate).