Giorgio Alleva
La statistica ufficiale è alle prese con una crescente domanda – istituzionale e non – di informazione quantitativa utile alla comprensione di fenomeni complessi e sempre più interconnessi. Per affrontare questa sfida, rimanendo competitivi in un panorama che vede moltiplicarsi i fornitori di dati, l’Istat si sta attrezzando attraverso un programma di modernizzazione dei processi di produzione dell’informazione statistica. Una volta completato il programma, l’Istat sarà in grado di produrre sia l’informazione statistica programmata sia di rispondere alle singole domande di conoscenza on-the-fly ovvero nel momento in cui queste emergono. Il tutto con un livello di precisione spaziale e temporale molto maggiore di quanto offerto dai tradizionali processi produttivi.
Lo via percorsa dell’Istat per raggiungere questo obiettivo è quella dell’integrazione tra fonti: il dato statistico verrà prodotto integrando le informazioni provenienti dalle tradizionali fonti da indagine, dalle fonti già in possesso della pubblica amministrazione e da possibili nuove fonti ancora da consolidare come i Big data. Se la valorizzazione del patrimonio di dati già in possesso della pubblica amministrazione consentirà la forte riduzione del disturbo statistico e la contrazione dei costi, le informazioni ricavabili dalle indagini assolveranno un triplice cruciale compito: permetteranno di rilevare fenomeni sommersi, di correggere gli errori di copertura tipici degli archivi e di validare le informazioni provenienti dalle nuove fonti di dati.
L’integrazione tra fonti è frutto di un lavoro complesso di natura sia statistica sia concettuale. Focalizzando l’attenzione sull’integrazione concettuale, che si riferisce alla armonizzazione dei concetti delle definizioni e più in generale alla rappresentazione e gestione dei dati e dei metadati, lo strumento adottato dall’Istat è quello delle ontologie. Questo strumento è in grado di fornire la semantica dei dati e di formalizzare le definizioni arrivando così a disporre di dati “conformi” a tali definizioni per costruzione. Il tutto utilizzando un linguaggio di tipo computazionale: le ontologie, infatti, afferiscono all’area scientifica dell’Intelligenza Artificiale nota come Rappresentazione della Conoscenza. Attualmente si sta lavorando alla definizione delle ontologie di: Individui, famiglie e convivenze; Indirizzi; Edifici; Lavoro. Inoltre, se concepite in maniera condivisa, le ontologie assicurano interoperabilità. Questo significa che soggetti diversi possono condividere i dati comprendendoli in maniera univoca. Alcune di queste ontologie sono state già condivise o sviluppate a livello congiunto. Ad esempio, l’ontologia degli indirizzi, alla quale l’Istat sta lavorando con l’Agenzia del Territorio. E’ stato avviato anche un processo di condivisione metodologica con il Team Digitale del DAF delle altre ontologie in corso di definizione.
È chiaro che, affinché questi progetti inter-istituzionali risultino efficaci e restituiscano in tempi brevi un servizio per il Paese, è necessario che le singole istituzioni escano dalla logica proprietaria dei dati. Una cultura che troppo spesso caratterizza l’operato delle istituzioni pubbliche e che altrettanto spesso viene difesa e “giustificata” dalla necessità di garantire il rispetto e la garanzia della privacy. Senza nulla togliere all’importanza della tutela dei dati personali, bisogna ricordare che questi lavori non hanno l’obiettivo di identificare, controllare e sanzionare cittadini e imprese ma piuttosto di fornire un servizio alla conoscenza e alla decisione utilizzando, al fine di garantire i diritti di tutti, metodi avanzati e consolidati a garanzia della riservatezza.
Protezione dei dati personali e rigore formale degli strumenti metodologici, come le ontologie, sono componenti cardine della qualità del dato prodotto. Ma non gli unici. Un altro aspetto cruciale è la qualità del contesto istituzionale, l’indipendenza e gli alti livelli di competenze e di capitale umano presenti all’Istat. Il tutto a garanzia dell’affidabilità della fonte della statistica ufficiale che può e deve rappresentare un punto di riferimento in un’era caratterizzata da un’ondata incontrollata di informazioni quantitative.