Il futuro delle piattaforme dati è modulare, non monolitico.
Per anni, le aziende hanno costruito enormi "cattedrali" centralizzate per i loro dati, ma questi sistemi, rigidi e lenti da aggiornare, faticano a tenere il passo con la velocità del business.
L'agilità e la scalabilità oggi richiedono un approccio diverso: non più un unico blocco, ma un ecosistema di componenti specializzati e riutilizzabili.
Questo è il cuore del Composable Data & Analytics (D&A): un paradigma architetturale che abbandona la rigidità per un modello flessibile, permettendo alle aziende di "comporre" soluzioni su misura combinando liberamente motori analitici, strumenti di integrazione e applicazioni.
In questo nuovo scenario, con l'ascesa dell'AI, diventa fondamentale anche standardizzare il dialogo tra i modelli.
Qui entra in gioco il protocollo MCP (Model Context Protocol), che fornisce un linguaggio comune per garantire interoperabilità e governance tra i diversi componenti intelligenti della piattaforma.
Alla base del paradigma Composable Data & Analytics vi è un cambiamento concettuale profondo: si abbandona la tradizionale logica orientata al “progetto” per abbracciare una logica orientata al “prodotto”, ispirata ai principi del data mesh e della data product thinking.
Infatti la Composable D&A mantiene punti di contatto con Data Mesh e Data Product Thinking, ma si concentra sulla flessibilità architetturale e la composizione modulare delle soluzioni analitiche.
A differenza del Data Mesh, l’implementazione del Composable D&A non comporta la ristrutturazione dei processi organizzativi, ma si limita a fornire un framework modulare per l’integrazione e l’orchestrazione dei dati.
| Aspetto | Data Mesh | Data Product Thinking | Composable Data & Analytics |
|
Focus |
Organizzazione & governance |
Approccio prodotto ai dati |
Architettura e tecnologia modulare |
|
Dominio |
Team di dominio autonomi |
Esperienza e valore per l’utente |
Flessibilità tecnologica e integrazione |
|
Tecnologia |
Non specificata |
Non specificata |
Al centrico (API, microservizi, SaaS) |
|
Obiettivo finale |
Scalabilità e ownership distribuita |
Qualità e valore dei dati |
Rapidità, composizione e adattabilità |
In questa visione, ogni dominio informativo è incapsulato in un data product, ovvero un'entità autonoma che espone dati affidabili, fruibili e governati, con una chiara accountability.
Un data product non è più una semplice tabella o vista da interrogare, ma un artefatto digitale dotato di una propria identità, con ownership definita (tipicamente da parte di un data product owner) e una promessa esplicita di valore per i consumatori downstream.
Nella fase iniziale, i data product owner sono generalmente rappresentati da membri del team BI storico, ossia coloro che precedentemente gestivano il data warehouse o i suoi verticali funzionali, garantendo continuità nella gestione dei dati e nella conoscenza del dominio.
Dal punto di vista tecnico, un data product è costituito da:
Per rendere tutto questo sostenibile, serve una piattaforma solida e automatizzata.
Ed è qui che entra in gioco la data platform composable, ovvero una base tecnologica che consente di creare, orchestrare e monitorare i data product in modo standardizzato.
Con strumenti come Terraform (o in generale tool di IaC), è possibile attivare in pochi minuti l’infrastruttura necessaria per un nuovo prodotto dati, comprese pipeline, accessi, repository Git e logiche di orchestrazione.
Terraform svolge un ruolo cruciale in una piattaforma componibile, permette di automatizzare la creazione di un data product e di abbreviare quindi il time to market del dato.
Inoltre, attraverso un’opportuna gestione dei permessi, permette di rendere sicuro l’accesso al dato concedendo solo un subset minimo di permessi necessari all’accesso della piattaforma.
Uno dei pilastri del modello Composable D&A è la possibilità di automatizzare l’intero ciclo di vita del dato, dal caricamento iniziale fino alla pubblicazione e al monitoraggio.
Questo è possibile grazie all’integrazione con strumenti di orchestrazione, versionamento del codice e controllo qualità che possono essere implementati su qualsiasi cloud o infrastruttura on-premise, a patto che supportino un modello Infrastructure-as-Code (IaC) e CI/CD.
Le pipeline dati, ad esempio, possono essere definite in linguaggi standard come SQL, Python o YAML e gestite tramite sistemi di versionamento (come Git), abilitando test automatici, controlli di qualità, e deployment semplificati.
Per garantire la qualità dei dati, vengono adottati framework in grado di:
In parallelo, la piattaforma promuove una collaborazione tra team tecnici e business grazie a interfacce condivise, documentazione automatica e strumenti di analisi self-service.
L'obiettivo è ridurre la distanza tra chi costruisce i prodotti dati e chi li utilizza quotidianamente per prendere decisioni.
Il vantaggio di questo approccio è che non dipende da uno specifico vendor cloud: le stesse logiche possono essere replicate su AWS, Azure, GCP o anche su ambienti ibridi o on-premise, usando tool open-source o commerciali.
Ciò garantisce massima flessibilità architetturale e riduce il lock-in tecnologico.
Il vero valore dei dati si realizza solo quando diventano accessibili a chi prende decisioni. Il modello Composable incoraggia l’uso di strumenti che facilitino l’interazione con i dati anche da parte di utenti non tecnici.
Questo può includere:
Tutto questo è indipendente dal provider cloud. Che si usi AWS, Azure, GCP o un data center privato, l’importante è che gli strumenti siano modulari, standardizzati e integrabili.
In sintesi, l'obiettivo non è scegliere il "miglior" cloud provider, ma costruire un ecosistema di analisi dati resiliente e flessibile, dove il vero valore risiede nella capacità di mettere i dati giusti, nel formato giusto, nelle mani di chi può trasformarli in decisioni strategiche, indipendentemente dalla tecnologia che li ospita.
Il Model Context Protocol (MCP) è uno protocollo open-source per standardizzare il modo in cui modelli di intelligenza artificiale (LLM) e agenti AI si collegano a strumenti, fonti dati e API esterne.
Permette di descrivere in modo strutturato (machine-readable) le risorse disponibili (strumenti, funzioni, dati), con metadati su input/output, permessi, modalità di trasporto (es. HTTP, stdin/stdout, WebSocket…)
MCP può interagire molto bene con il paradigma Composable Data & Analytics: la loro integrazione permette di iniziare a parlare di una Agentic Composable Data platform che sfrutta le potenzialità dell’automazione e dell’AI per ottimizzare i classici processi implementati su una data platform.
In una versione avanzata si può pensare che MCP diventi un requisito di prodotto. Questo approccio consentirebbe l'utilizzo dei dati da parte degli agenti AI anche in fase esplorativa su tutti i prodotti disponibili, anche se questi in realtà erano stati concepiti per finalità di reporting o per fornire i dataset per l'addestramento di modelli AI.
Di seguito vengono presentati alcune delle aree di contatto tra Composable D&A e MCP.
|
Area Composable D&A |
Ruolo dell’MCP |
|
Modularità & product thinking |
MCP favorisce la definizione chiara dei “prodotti” AI/dati: strumenti esposti come “data product / tool product” con interfacce standard. |
|
Accesso dinamico ai dati |
Permette agli agenti AI di interrogare direttamente i data product esposti tramite MCP server, riducendo la necessità di integrazioni custom per ogni modello. |
|
Automazione & riuso |
Un server MCP può essere usato da più modelli / agenti; lo strumento definito una volta è riusabile; deployment standardizzato. |
|
Democratizzazione / self-service |
Gli utenti business o gli analisti possono “chiedere” a un agente AI funzioni basate sui data product a loro disposizione, tramite MCP, anche se non sanno come costruire pipeline complesse. |
|
Governance / sicurezza |
MCP introduce un livello di contratto e metadati, che può integrarsi nei framework di qualità e sicurezza dei data products, permettendo audit, permessi, tracciabilità. |
Come ogni strumento potente bisogna porre la giusta attenzione, soprattutto nel mondo di oggi in cui la sicurezza dei dati è sempre un tema più critico.
L’approccio Composable Data & Analytics ha già rivoluzionato il modo in cui progettiamo le piattaforme dati: un ecosistema modulare, automatizzato e governato, dove ogni data product è indipendente ma integrato in un’architettura coerente e scalabile.
Con l’arrivo del Model Context Protocol (MCP), questo paradigma può fare un passo ulteriore: non solo dati disponibili e governati, ma dati intelligenti, accessibili tramite agenti AI standardizzati, in grado di dialogare direttamente con i data product e sfruttarne le capacità senza sviluppi personalizzati o integrazioni complesse.
Insieme, Composable D&A e MCP aprono la strada a piattaforme dati in cui la modularità del composable si unisce alla flessibilità degli agenti AI, la governance dei data product incontra la standardizzazione degli accessi via MCP, e l’automazione delle pipeline si integra con la capacità cognitiva dei modelli AI.
Il risultato, se sviluppato seguendo le best practice, è un ecosistema dati non solo componibile e cloud-agnostico, ma anche intelligente, adattivo e pronto per il futuro, dove ogni nuovo strumento o data product può essere connesso e utilizzato con la stessa facilità con cui oggi aggiungiamo un nuovo tassello in un puzzle già disegnato.
Pronto a far evolvere la tua architettura dati? Contattaci per scoprire come la nostra esperienza può aiutarti a implementare una strategia Composable D&A e MCP su misura per la tua organizzazione.