Un decalogo Big Data condiviso: questo l’obiettivo dell’incontro organizzato da Lepida che si è tenuto lo scorso 22 maggio. Un momento di forte partecipazione che ha visto la presenza di oltre 60 persone in rappresentanza di Regione Emilia-Romagna, Comuni/Unioni, Province/CMB, Aziende Sanitarie, Consorzi di Bonifica, ARPAE, ERGO, ART-ER e di 7 fornitori leader di mercato.
Un rappresentante per ogni stakeholder presente, Ente o Fornitore, ha espresso il proprio pensiero sui Big Data in soli 3’ minuti, a ruota libera, senza slide, per una carrellata di esperienze e inesperienze. Gianluca Mazzini, nella presentazione dell’evento, ha sollecitato i partecipanti a esprimersi sul delimitare gli Open e i Big Data, identificare i dati che sono già a disposizione e quelli che si vorrebbero avere, definire cosa si vuole fare (con quei dati), indirizzare le finalità del trattamento, ottenere risultati, informare i cittadini.
Gli elementi del decalogo risultato dell’incontro si possono così velocemente ricapitolare. 1] Citizen by design: progettare servizi su Big Data pensando all’utente finale, al cittadino, alle associazioni, alle imprese. Ottimizzare, semplificare, efficientare le risorse infrastrutturali. Interdisciplinarità e ritorno informativo. 2] Aspetti giuridici: finalità e trattamento. Governo e pianificazione. Privacy e proprietà/disponibilità del dato. 3] Conoscenza, Consapevolezza, Competenza: conoscere il proprio dato, ma anche quello di terzi che potrebbe aiutarci. Capire la differenza tra dato Open e dato Big, definire il ciclo di vita del dato. Chiarire skill e competenze di coloro che modelleranno il dato. 4] Standardizzazione dati, casi d’uso e vocabolari: efficientamento e normalizzazione del dato. Individuazione dei casi d’uso e degli ambiti nei quali l’approccio Big Data possa portare risultati altrimenti non raggiungibili. Analisi dei volumi e delle frequenze di aggiornamento, nonché attenzione alla storicità. 5] Complessità: avviare un percorso virtuoso che al crescere della complessità di elaborazione, permetta comunque una riduzione dei costi del ‘sistema’ complessivo. Necessità di creazione di ‘team interdisciplinari’ che permettano di aggregare dati nei nostri confini, oltre i nostri confini. 6] Interoperabilità, processi, algoritmi, modelli, servizi: definizione, standardizzazione e condivisione delle modalità di interoperabilità dei sistemi, dei processi, algoritmi, modelli e servizi che vertono sui Big Data. Costruzione di ecosistemi nativamente integrati, che permettano di riconoscere coloro che sono ‘serventi’ del dato da coloro che sono ‘clienti’ del dato. 7] Qualità: i dati sono ‘molti’ e di svariata natura, spesso polverizzati anche all’interno delle stesse organizzazioni; è necessario avere un dato pulito, avere la certezza dell'informazione trattata, sapere cosa ci dobbiamo aspettare nel trattare dati ‘lontani’ (10/20 anni fa). Qualità del dato e qualità degli algoritmi, certificati o certificabili. 8] Formazione e Informazione: la mancanza di obiettivi, la mancanza di informazione e la mancanza di conoscenza/competenza devono essere sanate, fornendo formazione e informazione a tutti i livelli, negli Enti e ai cittadini. 9] Collaborazione: piccoli e grandi Enti, riuso, best practice, valore sociale del dato. 10] Dati Pubblici, Dati Privati: condivisione virtuosa del dato, individuazione dei dati degli Enti che possano essere di interesse ai Privati, e viceversa. Un decalogo da integrare e da perfezionare anche con uno sguardo all'Intelligenza Artificiale.