Applicazioni per il Controllo di Gestione in banca, un po' di chiarezza
Applicazioni per il Controllo di Gestione in banca, un po’ di chiarezza
Ringrazio fin d’ora chi leggerà fino in fondo questo articolo. Un atto di eroismo che merita riconoscenza.
Per essere chiari, secondo me, bisogna essere essenziali, schematici, sintetici e magari utilizzare qualche metafora e, francamente, non mi riesce sempre benissimo.
Ma ci provo, sempre, con pervicace costanza.
Bene. Premesso che una banca, come ogni altra azienda, ha una attività che genera dati e premesso pure che ogni banca ha la necessità di trasformare tali dati in informazioni di natura gestionale secondo regole in linea con il proprio modello di business (senza dimenticare che una banca è diversa da qualsiasi altra azienda sia essa manifatturiera, gdo, energy ecc.), chi si occupa di applicazioni a supporto del controllo della gestione si trova a che fare con un “oceano” di eventi aziendali, generati dai sottosistemi della banca, da riorganizzare, controllare, e trasformare in “fatti” gestionali e quindi “diffonderli” a tutti i livelli dell’organizzazione nel modo più corretto e tempestivo possibile.
Bella sfida, vero?
Chi mi conosce sa che negli ultimi 20 anni mi sono occupato esclusivamente di sistemi a supporto del Controllo di Gestione, mi piace pensare quindi di poter avere voce in capitolo nella definizione di una architettura applicativa in questo contesto (… e alimentiamolo questo ego, su!), di seguito la mia visione.
Pillar è una parola che va molto di moda (ma ne userò altre, per lo più con sarcasmo) e secondo me questi sono, appunto, i 5 pillar che contraddistinguono l’architettura di un ecosistema applicativo a supporto del Controllo di Gestione in una banca.
Per la cronaca: EDERA è la suite applicativa a supporto del CdG Bancario che, con Techedge, abbiamo sviluppato; ebbene sì, lo confesso, questo articolo è anche uno spot pubblicitario del nostro lavoro.
Amo le premesse, ne faccio un’altra, (abbastanza) breve.
Big Data & Data Lake, sono tecnologie/metodologie (date la definizione che più vi aggrada) “esterne” a ciò di cui sto scrivendo, certamente preziosissime ma esterne, complementari. Vengono prima, oppure dopo ma non sono funzionali “dentro” alla nostra soluzione; potrebbero creare disordine e interpretabilità e, credetemi, il CdG di una Banca non è il posto adatto dove fare confusione (anche se in passato alcuni miei clienti sembravano mettere molto impegno nel confutare questa affermazione, ma non ditelo in giro).
Scrivo tutto questo a beneficio di chi pensa che per fare Controllo di Gestione sia necessario mettere in campo tecnologie di questo genere (con relativi costi e competenze); no, non è necessario.
Averle a disposizione a monte e a valle dei processi di CdG certamente può aiutare (se usate correttamente) a comprendere meglio, ad esempio, comportamenti e attitudini dei clienti e delle funzioni della Banca stessa.
Ma non incasiniamo ulteriormente il CdG… sono già bravi da soli a farlo :-)
Se si vuole supportare bene, informaticamente parlando, il CdG per la parte più interna, più intima del sistema è sufficiente un database relazionale.
E il Machine Learning, il Predictive Analytics, il Data Dredging ecc. ecc. dove li mettiamo ?
Ancora una volta li mettiamo intorno, ovvero li utilizziamo per sfruttare al meglio le informazioni che, con cura, metodo, ordine, pulizia abbiamo generato con un buon motore gestionale.
Perché si … a questo servono!
Spero di essere sufficientemente abile nel rendere tutto chiaro.
Il fatto è che, si sa, la sintesi non è una delle mie poche doti.
Data preparation & Quality Check
I dati che necessitano al motore di controllo di gestione arrivano da fonti eterogenee e quindi, in fase di acquisizione, vanno:
- sincronizzati
- controllati
- normalizzati
- predisposti al loro successivo utilizzo
Questa fase, appunto definita Data Preparation, avviene prima di ingaggiare il motore gestionale in una area che può essere definita, con terminologia ormai desueta ma secondo me sempre attuale e corretta, di Staging.
A questo punto del processo vanno applicati i controlli di primo livello, quelli più semplici (ma numerosissimi) ovvero quelli formali e quantitativi che possono indicare se bloccare l’elaborazione (praticamente sul nascere) oppure se farla proseguire, possibilmente senza intervento manuale.
Ed è in questo momento che dovrebbero essere applicate quelle regole, definite in fase di analisi funzionale sui dati necessari al motore ma implementate direttamente dall’IT (al contrario di quelle puramente gestionali governate nel passaggio successivo, dal business) ovvero, a titolo di esempio:
- calcoli di competenza banali
- scorporo dell’iva nel caso vengano fornite commissioni lorde
- mensilizzazione delle commissioni annue
questo per sollevare il business da questioni strettamente tecniche in modo da lasciarlo concentrare sul modello gestionale in linea con l’analisi funzionale.
Al termine di questo passaggio i dati, tutti belli puliti e in fila indiana, al massimo livello di dettaglio disponibile, sono pronti per essere passati al motore gestionale andando ad alimentare quello che potrebbe essere definito come Operational Data Store (ODS).
Create, transform, decorate
I dati preparati al passo precedente vengono acquisiti e stoccati necessariamente, come dicevo, al livello più granulare possibile nell’ODS sul quale insiste il motore gestionale le cui regole sono interamente definite e gestite dal business senza il supporto dei colleghi IT.
Questo è un passaggio fondamentale ! Solo il business sa perfettamente cosa vuole (in verità non sempre perfettamente, e non me ne vogliano i controller se mi concedo questa battuta) e meno tali “desideri” passano di mano in mano e meglio è.
Si è più tempestivi e non si rischiano incomprensioni .
L’importante è che il business possa esprimersi con il proprio linguaggio e che quindi sia dotato dello strumento adatto a declinare le regole di business in modo chiaro, agevole, tracciato ecc. ecc. A buon intenditor poche parole; mi spiace per l’IT ma qui non dovrebbe mettere mano, al limite potrebbe dare “suggerimenti” su come rendere il sistema più efficiente ma niente di più, del resto … ha (o dovrebbe avere) cose più importanti a cui pensare.
I dati iniziano qui, e solo qui, ad acquisire un significato di natura gestionale.
Vengono calcolate nuove misure. Tanto per citarne alcune: gli interessi figurativi, tramite applicazione del tasso interno di trasferimento opportuno, oppure il costo standard applicato a livello atomico alla singola operazione smontandolo nelle varie componenti che vengono girate a titolo di ricavo alle unità di competenza, oppure ancora le retrocessioni, potrei continuare … ma non serve, il controller deve essere libero di “creare” ciò che gli serve.
Vengono decorati gli eventi in ingresso (un bonifico ? la vendita di una polizza ?) e ogni nuova misura con tutti gli attributi necessari per la successiva analisi (prodotto e unità organizzativa gestionali, solo per citare i più famosi ma un motore gestionale degno di tale nome dovrebbe lasciare la massima libertà all’utente in questo senso)
I dati in ingresso vengono normalizzati dando loro un nome univoco (i numeri, ad esempio, sono sempre e solo Numeri, non ci sono diversi nomi per recuperarli in seguito, indipendentemente da quale sia la loro origine).
Tutto, al termine del processo è interamente governato in autonomia dal business e viene memorizzato nell’ODS.
Una volta che il motore gestionale ha fatto il suo lavoro (si auspica bene e velocemente) i dati, diventati ormai informazione possono essere contestualmente e immediatamente analizzati da un controllo di qualità di secondo livello ovvero un processo che verifica che tutte le regole di business siano state correttamente applicate (ad esempio che il prodotto gestionale sia stato associato a tutti gli eventi in ingresso …).
A questo punto le informazioni possono essere esportate verso un modello dati più adatto alle fasi successive e quindi escono dall’ODS.
Quality Check & Analysis
In prima battuta vengono applicati i controlli di qualità di terzo livello ovvero quei controlli che, basandosi sulle informazioni già trasformate in ottica gestionale, verifichino, in estrema sintesi, che le informazioni siano, ad esempio:
- in linea dal punto di vista andamentale secondo scostamenti discreti in relazione, ad esempio, al prodotto analizzato e alla stagionalità
- quadrate rispetto alla contabilità ed eventualmente rettificate (si, è proprio lei, la famigerata riconciliazione contabile…)
Fino a questo punto tutto deve essere completamente automatico e senza intervento manuale dell’utente che deve limitarsi ad analizzare gli esiti delle operazioni laddove il sistema lo richieda.
Ma soprattutto è in questo punto che l’ufficio Controllo di Gestione può concentrarsi, attraverso un reporting operativo, a fare ciò che realmente deve fare: ANALISI !!
Se tutti i semafori sono verdi … allora si può partire !
Collect
Questo passaggio è spesso sottovalutato. Storicizzare le informazioni secondo un modello solido e completo consente un facile reperimento nel tempo. Ma bisogna saperlo fare.
Se, ad esempio, tutto viene storicizzato nel modo corretto predisporre i dati per fare una analisi attualizzata è semplice.
Se si utilizza la tecnologia nel modo opportuno, storicizzare anche 10 anni di informazioni gestionali al massimo livello di dettaglio non è un problema. Non lo scrivo a caso, noi l’abbiamo fatto!
Share
Finalmente le informazioni possono essere diffuse a tutta la struttura secondo le dimensioni di analisi desiderate. In prima battuta magari anche solo in modalità “provvisoria” fino all'avvenuta pubblicazione delle contabilità con relativa quadratura. Ma un buon sistema deve essere in grado di pubblicare i primi giorni del mese successivo a quello di competenza.
E allora ecco: dal report pixel perfect (l’immancabile PDF) alla dashboard “viva” per l’alta direzione.
Non ha più importanza perché tutto è pronto e basta alimentare la base dati più opportuna (relazionale, multidimensionale, big data …) e utilizzare lo strumento ritenuto più idoneo.
Ogni cosa al suo posto.
Ordine, pulizia, rigore e, soprattutto, facilità d’uso per gli utenti di business.