INGENIO » » Il Common Data Environment e il Ruolo dei Committenti
Il Common Data Environment e il Ruolo dei Committenti
24/12/2016
Angelo Luigi Camillo Ciribini

Project Quantum is literally the next generation BIM platform for Autodesk, that we first wrote about back in November 2015. It takes the view that collaboration is a key component of AEC design and so centralises its database in the cloud, here on Autodesk BIM360.
Autodesk thinks that, depending on the discipline you specialise in, you will get different capabilities relating to your job function — architects get walls, doors, windows; structural engineers get structural members etc. All is fed from a single version of the truth and managed on a central server.

One of the weaknesses of Revit is the structure of its database, developed before the days of the cloud and streaming and leading to huge datasets being sent around the planet. I am guessing that the ‘Quantum’ in the project name is some reference to the ‘granularisation' of the BIM data.
Oleg Shilovitsky

BIM Common Data Environment, CDE, market in the UK remains very competitive. Its players include vendors previously active in what was sometimes termed document management, file collaboration or project extranets, but there are also newer players for whom BIM was the starting point.
Pauk Wilkinson

È notizia recente che il software norvegese dRofus sia stato acquisito da Nemetscheck che, in precedenza, aveva fatto lo stesso con l'applicativo finlandese Solibri Model Checker.
Si tratta di due prodotti, rispettivamente di Space Programme e di Code & Model Checking, fondamentali sia per la Committenza sia per i Soggetti posti nelle posizioni chiave delle Catene di Fornitura che hanno certamente delle opzioni concorrenziali, ma che restano ampiamente significativi.
D'altra parte, le critiche insorte nei confronti dello NBS BIM Toolkit e il tentativo di approntare soluzioni alternative da parte di altre Entità al Digital Plan of Works, mettono bene in rilievo come la Produzione dei Requisiti Informativi non disponga ancora di Strumenti del tutto convincenti così come non si può dire che la Redazione dei Piani di Gestione Informativa sia generata all'interno dei software di BIM Authoring.
Ancora una volta, l'aspetto metodologico del Building Information Modeling rischia di essere percepito come sovrastrutturale, perché non interiorizzato del tutto.
La prima considerazione da avanzare riguarda l'Identità degli Applicativi, nel senso che il primato che sinora era stato attribuito al singolo software, specialmente relativamente al BIM Authoring, alla Produzione del Modello Informativo, si trasferirà progressivamente verso l'Ecosistema Digitale, specificamente verso ciò che era noto come Common Data Environment, in funzione sempre meno passiva e sempre più orientata ad affrontare Grandi e, specificamente, Eterogenee Moli di Dati.
Ciò in quanto, anzitutto, nel caso specifico, la Funzione Committente adotta propri specifici Strumenti, ma, soprattutto, perché è il Dato che conta, a prescindere dal fatto che concerna una specifica Fase oppure un determinato Prodotto.
Le premesse, non così scontate, riguardano la Coordinazione e la Condivisione delle Informazioni tra gli Attori che, tuttavia, essendo spesso Contro Parti, difficilmente saranno disponibili ad adottare Criteri di Collaborazione, idonei a garantire Condizioni di Coerenza, alfine di ottenere un beneficio reciproco. Nella fattispecie, infatti, spesso si confonde la possibilità tecnologica con la convenienza contrattuale.
Specialmente in un Paese come il Nostro, Coerenza e Integrazione non paiono davvero connaturate e, di conseguenza, occorre comprenderne le effettive condizioni di applicabilità, cioè la dimostrabilità dei vantaggi misurabili che esse offrono a paragone della condizione attuale.
Per questa ragione, il cosiddetto Common Data Environment, evocato per la prima volta nelle BS PAS 1192 (nella versione del 2007, precedente la saga del BIM vera e propria), e ivi definito come derivante da hardware, software e workflow, assume un rilievo particolare, nelle sue molte declinazioni commerciali (da Aconex ad Asite, da Trimble Connect a Viewpoint, per dirne alcune).
Esso, in italiano definito dalle norme della serie UNI 11337 come Ambiente di Condivisione dei Dati, assume una particolare importanza, motivo per cui si pone già una prima questione inerente alla sua Detenzione, nel senso che contrattualmente potrebbe essere imposto dal Committente nel Capitolato Informativo (Employer's o Appointing Party's Information Requirements) oppure essere delegato alla Contro Parte nell'Offerta di Gestione Informativa.
Le opinioni in materia divergono, in ragione della costituzione di una possibile asimmetria informativa a sfavore della Committenza così come della necessità, all'inverso, di agevolare la maturazione degli Operatori lasciando loro una propositività in tal senso, ma non vi ha dubbio che il Common Data Environment imponga una Disciplina Sistematica agli Attori che in esso operano e, al contempo, che contrattualmente siano necessarie regole molto rigorose per assegnare i Diritti di Proprietà e di Autore (nel senso di apportare alle Entità insistenti in esso modifiche), anche in virtù della Tracciabilità insita.
La Gestione dell'Ambiente di Condivisione dei Dati andrebbe, peraltro, strettamente connessa al Project Information Management System, in quanto la stessa presuppone una maggiore Efficienza dei Processi Decisionali: se il Flusso dei Dati fosse ottimizzato ciò dovrebbe agevolare la Decisionalità nella Commessa.
Nella buona sostanza, tuttavia, come già ricordato, è evidente, sia nella Bozza delle Norme ISO 19650-1 e 19650-2 sia in quella delle BS PAS 1192-2 e 1192-3, che i Flussi Informativi siano originati da precisi e analitici Requisiti Informativi al fine di ottenere un Grado di Coerenza e di Affidabilità proprio degli Information Model, gestiti secondo i Piani di Gestione Informativa, per quanto, sullo sfondo, del tema principale della Autorialità, della Produzione dei Contenuti Informativi, si stagli quello della Business Intelligence che, nelle diverse Fasi Temporali del Progetto (colla P maiuscola, vale a dire della Commessa), dovrebbe permettere al Committente, e ai suoi Finanziatori, di inferire tempestivamente le condizioni di criticità rinvenibili nel Digitized Project Auditing, Monitoring & Control.
Nel Common Data Environment vi saranno, dunque, alcune istanze prevalenti:
1) la opportunità di definire quale intensità conferire ai Machine Readable Data, vale a dire, quanto rendere i Dati contenuti nei Documenti Digitalizzati, relazionati nell'Ambiente di Condivisione, effettivamente computazionali;
2) la necessità di rendere gli Applicativi di Calcolo Specialistico pienamente interoperabili con quelli di Modellazione e di Gestione Informativa;
3) la possibilità per la Committenza di accedere in tempo reale allo Sviluppo dei Modelli Informativi (al di là delle versioni definitivamente approvate e consegnate);
4) la possibilità per la Committenza di analizzare i Modi di Impiego degli Strumenti legati alla Modellazione Informativa (di BIM Authoring, ma non solo);
5) la presa in carico o la delocalizzazione dei Modelli Informativi Disciplinari, da parte del Fornitore Principale (Affidatario, Appaltatore, Concessionario, ecc.);
6) l'estensione del Common Data Environment nell'Internet of Everything, o meglio, nella Gestione Digitale dei Beni Immobiliare fondata sulla Supervisory Control and Data Acquisition.
Per quanto attiene al punto 1) è evidente che, a partire dai Modelli Informativi e Geografici relativi alle opere sotterranee di urbanizzazione per finire ai Modelli Informativi del Costruito Esistente (Asset Information Model), molti Dati e molte Informazioni potrebbero trovarsi su supporti digitali, senza, però, essere direttamente fruibili computazionalmente nell'Ecosistema. Il Possesso, così come la Paternità, di tali Data Set è decisiva per stabilire la Validazione dei Dati di Ingresso per la Progettazione, per la Esecuzione e per la Gestione delle Opere e degli Interventi, cosicché il loro valore all'interno del Common Data Environment può variare considerevolmente.
Per quanto attiene al punto 2) è chiaro che l'Interoperabilità tra Ambienti di Calcolo Specialistico e di Modellazione o di Gestione Informativa non concerne semplicemente il Flusso Bidirezionale Continuo dei Dati, ma pure, e soprattutto, una progressiva indisgiungibilità dei due, inclusi gli Applicativi di Code & Model Checking nelle loro evoluzioni che trascendono una Verifica della mera presenza dei Contenuti Informativi. Sotto questo profilo, la Digitalizzazione andrebbe a permeare le Discipline Tradizionali e Consolidate.
Per quanto attiene al punto 3) tutta la logica dell'Ecosistema Digitale e del Common Data Environment tende a regolamentare accuratamente lo Stato di Definitività dei Dati e delle Informazioni, ma è palese che le Committenze (e i Fornitori Principali nelle diverse Fasi Temporali) hanno interesse a monitorare in tempo reale o almeno tempestivamente (pur senza intervenire laddove non sia di loro competenza) ciò che accade, a dispetto delle versioni ufficiali fornite loro.
Per quanto attiene al punto 4) la Business Intelligence impone che non solo siano dispiegate le (Big) Data Analytics per valutare i Contenuti presenti nei Modelli Informativi (oggi correntemente indagati tramite i software di Model Checking per la loro Quality Assurance), bensì che si ricorra a Strumenti capaci di investigare sulla Modalità (e sulla Efficacia) di Utilizzo degli Strumenti adottati.
Per quanto attiene al punto 5) è palese che per molti Attori Principali possa esservi il desiderio o la volontà di prendere direttamente in carico l'operato dei propri Sub Fornitori in materia di Modellazione e di Gestione Informativa. Ciò confligge col principio del Lean Management che richiede il coinvolgimento attivo e pieno dell'intera Supply Chain, ma, oltre a una carenza di maturità dei Soggetti, può denotare anche una volontà di controllo da parte dei Player Cruciali.
Per quanto attiene al punto 6) è ovvio che la delimitazione e la circoscrizione del campo di applicazione del Common Data Environment all'Information Modeling sono del tutto provvisorie e che, pertanto, i Flussi Informativi (in tempo reale) riguarderanno sempre meno l'Interoperabilità e sempre più l'Interconnessione.
Rimane, infine, appunto, il Dilemma della Detenzione del Common Data Environment che prevede tre opzioni:
1) la Proprietà da parte della Committenza;
2) la Esternalizzazione a Soggetto Terzo da parte della Committenza;
3) la Delega, da parte della Committenza, alla Contro Parte.
Ovviamente il Common Data Environment, che nelle sue forme più avanzate deriva dalla evoluzione degli Electronic Data Management System (EDMS), è strategico e, contemporaneamente, oneroso, anche in termini di Garanzia della Continuità e dell'Integrità dei Flussi Informativi, ma specialmente a fronte di Allocazione di Responsabilità e di Sicurezza dei Dati e delle Informazioni.
La prospettiva destinale è, tuttavia, come sempre, la Prevalenza della Cultura del Dato su quella degli Strumento che lo abilita.

Articolo letto: 1967 volte
Eventi in Primo Piano
Dagli Ordini
STACEC
Seguici su Facebook
Seguici su Twitter
Scarica L'APP di Ingenio