Democrazia, partecipazione, open government

demo

Qualche settimana fa, nel corso di un incontro con Lucia Maffei, una delle redattrici di Piazza Digitale, il blog degli studenti del Master in giornalismo della scuola Walter Tobagi di Milano, si è parlato di informazione e politica contemporanea. I temi sono stati vari: Wikileaks, Julian Assange e la sua iniziativa di candidarsi al Parlamento Australiano, il Partito Pirata, il Movimento 5 Stelle (M5S). La conversazione è durata oltre un’ora e, oltre all’articolo “Da Assange a Grillo: l’informazione ai tempi delle Wiki-Politik”, sono emersi una serie di spunti e riflessioni sulla democrazia e sulla partecipazione che provo a riassumere in questo post.

Un possibile trait d’union fra le attività di Julian Assange, il Piratenpartei tedesco e il M5S italiano è sicuramente l’opposizione al sistema di potere consolidato. Mentre Assange agisce in solitaria e avvia una operazione essenzialmente di denuncia, il Partito Pirata e il M5S fanno un passo avanti: si strutturano, si incontrano sulla Rete, fanno “network” con l’obiettivo di entrare nelle istituzioni. L’operazione parte dall’assunto che la democrazia rappresentativa sia degenerata al punto di anteporre gli interessi di pochi a danno di molti e dunque siano i cittadini stessi a doversi organizzare per “riappropriarsi” del sistema democratico, proponendo una evoluzione dello stesso, entrando di fatto nel processo decisionale e diventando soggetti attivi nelle scelte che li riguardano.

Tutto ciò avviene in Rete, Internet diventa il fattore abilitante che consente ai cittadini di dialogare, fare massa critica, avere una visibilità ed una forza inimmaginabile solo fino a poco tempo fa. Certo Internet da sola non è sufficiente, sono necessarie piattaforme informatiche a supporto della democrazia diretta o partecipata (qui il programma di un workshop sul tema organizzato di recente a Roma da Daniele Frongia), ma sopratutto è necessario superare, almeno in Italia, alcune carenze strutturali.

Riguardo alle piattaforme, le esperienze pratiche sono di fatto ancora agli inizi. La più nota è sicuramente LiquidFeedback, anche se ci sono piattaforme come OneclickOrgs inglese o l’iniziativa italiana per la democrazia diretta Airesis. Si è inoltre in attesa di scoprire la piattaforma annunciata dal M5S che, da quanto è stato anticipato, sarà una piattaforma proprietaria, mentre sarebbe invece fondamentale fosse rilasciata come open source.

Riguardo alle carenze strutturali, secondo il primo rapporto sul benessere equo e sostenibile in Italia, realizzato da Istat e CNEL, l’utilizzo di Internet è aumentato negli ultimi anni fino a coinvolgere il 54% della popolazione italiana, ma rimane 16 punti sotto la media europea. E’ inoltre ancora marcato il digital divide che non si riduce e vede sfavorito il Mezzogiorno, gli anziani, le donne e le persone con bassi titoli di studio.

Per le diverse, evolute e moderne forme di democrazia diventa inoltre essenziale il tema della trasparenza: uno Stato e una Pubblica Amministrazione trasparente sono il punto di partenza, il presupposto per una partecipazione consapevole. Anche questa, perlomeno in Italia, è una carenza strutturale: finora le iniziative sono state occasionali, mentre l’accessibilità a tutti i dati di gestione degli enti pubblici dovrebbe essere la norma, anche e sopratutto attraverso piattaforme Web dedicate allo scopo. Un grande lavoro sulla trasparenza lo sta facendo in Italia l’associazione Openpolis con le iniziative openparlamento, openbilanci e openmunicipio.

Per concludere, ritengo che rispetto ai temi della democrazia, della partecipazione e dell’open government, sia in atto un processo oramai irreversibile, un superamento definitivo del sistema democratico così come lo abbiamo conosciuto fino ad oggi.

Open data e statistica pubblica

11confstat

E’ iniziata oggi a Roma, presso il Palazzo dei Congressi, l’undicesima Conferenza nazionale di statistica, che “rappresenta il contenitore nel quale il Sistema statistico nazionale dialoga e si confronta, dando luogo a una sintesi delle conoscenze che negli anni ha contribuito a consolidare il ruolo strategico della statistica ufficiale”.

Tra i vari appuntamenti previsti dal programma, una delle sessioni parallele della mattina è stata dedicata a:

Open data: una opportunità per pubblica amministrazione e società civile
Coordinatore: Domenico Donvito, Istat – [video]

A seguire, nell’ambito del contenitore “Visioni”, si sono svolti alcuni incontri di grande interesse:

Digitale e multimedia: nuove strategie per l’editoria statistica
Coordinatore: Giulia Mottura, Istat – [video]
Le offerte tecnologiche a supporto della statistica ufficiale
Coordinatore: Domenico Donvito, Istat
Open data: per la statistica pubblica un’occasione da non perdere
Coordinatore: Vincenzo Patruno, Istat
Verso un “hub” per la diffusione delle statistiche pubbliche
Coordinatore: Emanuele Baldacci, Istat

Tra i vari interventi della sessione Open Data e pubblica amministrazione, Oscar Sovani, Dirigente responsabile del portale dati.lombardia.it della Regione Lombardia, ha sottolineato che l’Open Data presuppone:

  • una organizzazione performante, ovvero dotata di reattività e di specifico know how concettuale, metodologico, tecnico;
  • un forte committment da parte dell’alta dirigenza e una governance complessiva, in termini di linee guida condivise e posizioni organizzative dedicate (es. responsabile di Ente, responsabili di Direzione, Data miners).

Nella sessione tecnologie a supporto della statistica ufficiale, si è parlato di applicazioni sviluppate dall’Istituto, in particolare Marco Silipo ha mostrato la App Censimento Popolazione e abitazioni 2011, Paolo di Domenico ha mostrato l’anteprima della versione mobile del sito Internet dell’Istat (user=mobile, pw=istat2013).

Nella sessione Open Data e statistica pubblica – che ha aperto con qualche giorno di anticipo l’International Open Data Day Italia 2013 – Sergio Agostinelli (Formez) ha fatto una panoramica sulle App presenti nel catalogo delle applicazioni di dati.gov.it che sono state sviluppate da soggetti pubblici; Vincenzo Patruno (Istat) ha mostrato in quale modo le migliori App che hanno partecipato alla competizione Apps4Italy utilizzano i dati della statistica pubblica; Stefano de Luca (Evodevo) ha mostrato una interessante applicazione basata su dati statistici degli incidenti stradali, entrando nel vivo di un argomento che era stato toccato da Oscar Sovani nella sessione parallela della mattina: la possibilità, per le aziende private, di sviluppare e distribuire applicazioni e servizi anche per fini di lucro e commerciali, a partire dagli Open Data; Alessio Biancalana (Hopen) ha espresso un punto di vista degli sviluppatori software di professione; Ernesto Belisario (Associazione italiana Open Government) ha presentato sei proposte affinchè l’approccio agli Open Data, finora amatoriale, diventi professionale:

  • dare continuità alle iniziative (es. Apps4Italy, Hackaton);
  • l’attivismo va bene, ma un coordinamento non guasterebbe;
  • le buone idee servono ancor più delle App, occorrono più concorsi di idee in materia;
  • sono necessari momenti e spazi di condivisione e contaminazione fra esperti in differenti discipline e attori a vario titolo (es. sviluppatori, statistici, imprenditori);
  • è auspicabile moltiplicare i luoghi di confronto fra la Pubblica Amministrazione (detentrice di sterminate moli di dati) e le comunità che si occupano di Open Data;
  • occorre passare dalla logica del crowdsourcing a quella della collaboration (es. organizzando gruppi di lavoro con esperti interni ed esterni alla PA, magari focalizzati su specifiche applicazioni e servizi).

Da parte di tutti i relatori è emerso un apprezzamento per il lavoro dell’Istat in termini di disponibilità e qualità dei dati, presupposto assolutamente necessario per lo sviluppo di applicazioni e servizi di qualità.

Immagine2Ernesto Belisario, Emanuele Baldacci, Vincenzo Patruno, Domenico Donvito

 

 

Come effettuare il calcolo delle distanze e dei tempi di percorrenza tra comuni

di Alessandro Cimbelli

Premessa

Il concetto di distanza tra differenti punti del territorio entra in gioco nella valutazione di alcuni fenomeni sociali, come il pendolarismo o i cambi di residenza. L’analisi di tali fenomeni può richiedere l’individuazione di aree di territorio omogenee per distanze stradali o per tempi di percorrenza a partire da un punto scelto come origine.

Talvolta l’estrazione di tali misure non è immediata in quanto prevede la disponibilità di un grafo stradale vettoriale e l’applicazione di algoritmi di analisi di rete. Si cerca allora di semplificare il calcolo dei costi di percorrenza con il quello delle distanze in linea d’aria tra tutti i punti raggiungibili sul territorio e l’origine scelta. Tale semplificazione risulta spesso eccessiva e può condurre a valutazioni errate.

La disponibilità di dati e software aperto e dei servizi gratuiti di routing offerti da Google su Maps, ci consente di dimostrare semplicemente l’asserzione fatta.

Distanze in linea retta.

L’intenzione è quella di individuare i comuni Istat ricadenti entro certe distanze (isodistanze) o entro predefiniti tempi di percorrenza (isocrone) a partire da un comune dato. Un comune dell’Italia centrale che ben si presta all’esempio perchè presente in un area di territorio morfologicamente molto varia e caratterizzata dalla presenza di un reticolo stradale non uniforme in tutte le direzioni è Sora, in provincia di Frosinone.

Per la determinazione delle distanze in linea d’aria non abbiamo bisogno di grafi stradali per cui basta caricare in QGIS i confini dei comuni Istat al 2011 in versione generalizzata, selezionare, tramite buffer, quelli ricadenti entro 100 km dal baricentro di Sora ed estrarne le coordinate. Si potrà poi semplicemente aprire la tabella degli attributi dei comuni così selezionati in un foglio di calcolo e calcolarne la distanza lineare rispetto al baricentro di Sora con il teorema di Pitagora.

cimb01

Illustrazione 1: Isodistanze (passo di 20 km) in linea d’aria da Sora (FR)

Distanze stradali

La valutazione delle distanze stradali può essere effettuata utilizzando i servizi di routing di Google Maps. In particolare per il test si è utilizzata l’applicazione Friendly Batch Routing (FBR), realizzata presso l’università di Lussemburgo, che consente di calcolare in modo massivo distanze stradali e tempi di percorrenza tra insiemi di luoghi indicati come coppie di origine-destinazione.

cimb02

 

Illustrazione 2: Interfaccia di FBR

Pur essendo un servizio gratuito si basa, per i calcoli, su grafi stradali commerciali e ha il vincolo di non poter rispondere quotidianamente a oltre 2500 richieste di routing. Nella cartella FBR/output verrà creato il file di testo con i risultati del routing contenente sia la distanza stradale che i tempi di percorrenza, calcolati in base alla velocità media prevista per tipo di strada.

La tabella ottenuta verrà collegata agli attributi dei comuni, oggetto dell’indagine, in QGIS e sarà poi rappresentata attraverso la stessa simbologia già applicata per le distanze in linea retta.

cimb03

Illustrazione 3: Isodistanze stradali (passo di 20 km)

Come era lecito aspettarsi, si riscontra una certa contrazione delle isodistanze iniziali, in particolar modo per quelle che si appoggiano sulla catena appenninica. I sistemi GIS ci aiutano bene a calcolare e a quantificare tale riduzione dell’area di influenza. Analizzando la mappa, sorprende quasi la nuova classificazione di un comune (Lecce nei Marsi), prima appartenente all’intervallo 0-20 km (bianco) ed ora precipitato nell’ultima classe 80-100 km (blu). In generale si percepisce nel cartogramma l’effetto dei rilievi montuosi, che influiscono sulla presenza delle infrastrutture stradali e che comportano, mediamente, un raddoppio delle distanze lineari precedentemente calcolate.

cimb04

 

Illustrazione 4: Isocrone (passo di 30 minuti)

Di forma simile sono le isocrone (i colori in figura rappresentano tempi di percorrenza ogni 30 minuti) che migliorano ulteriormente la valutazione del “costo” di spostamento in quanto tengono conto anche della classe funzionale delle strade percorse e, quindi, della relativa velocità media. Il cartogramma è stata rappresentato in figura sopra il layer OCM Landscape, fornito con il plugin OpenLayers di Qgis, al fine di mettere in evidenza la corrispondenza dei tempi di percorrenza con la mappa fisica del territorio.

Scuola SIS “Innovazione tecnologica, Web e Statistica”

unieur

Dal 28 gennaio al 1 febbraio 2013, presso l’Università Europea di Roma, si terrà la Scuola SIS “Innovazione tecnologica, Web e Statistica”, che si propone di mettere in luce le potenzialità dell’ICT e delle tecnologie web based applicate alle fasi di raccolta, produzione e diffusione dei dati e delle informazioni statistiche, nonchè di evidenziare le potenzialità che le innovazioni tecnologiche offrono in termini di riorganizzazione dei processi produttivi statistici (qui la brochure).

Si tratta della seconda edizione della Scuola SIS che si era tenuta nel 2011 a Pisa e che si era conclusa con un mini contest di statistical graphics.

La Scuola affronterà tutte le fasi del processo statistico: progettazione dell’indagine e definizione del target, raccolta dati, analisi quantitativa e data mining, diffusione dei dati statistici. Una particolare attenzione sarà dedicata alle tematiche dell’open data, web scraping e data visualization. Tutte le tematiche saranno presentate da un punto di vista teorico e integrate nell’ambito del laboratorio che si svilupperà nel corso delle diverse giornate e porterà alla presentazione finale dei lavori di gruppo.

Il tema dell’innovazione tecnologica è di centrale importanza in molti campi applicativi, che vanno dalla statistica ufficiale alla ricerca ed alla politica, dalla demografia alla statistica economica. La conoscenza delle nuove tecnologie in ottica integrata rappresenta una competenza essenziale per organizzare in maniera efficace i processi di produzione e diffusione statistica.

Per partecipare sono necessarie conoscenze base di produzione, analisi e diffusione statistica. La Scuola è rivolta ai soci SIS, laureati, dottorandi, ricercatori e funzionari di uffici studi e ricerche coinvolti nei processi di raccolta, produzione e diffusione dei dati e delle informazioni statistiche e che operano in Enti ed Amministrazioni pubbliche, Aziende private, Aziende sanitarie ed organizzazioni del terzo settore.

La Scuola è limitata ad un numero massimo di 20 partecipanti e le iscrizioni possono essere effettuate online, sul sito della Società Italiana di Statistica, entro l’11 gennaio 2013.

L’organizzazione della Scuola è curata da Soci SIS, docenti dell’Università di Pisa, insieme alla Scuola superiore di statistica e di analisi sociali ed economiche dell’Istat. Tutti i docenti si occupano a livello professionale degli argomenti trattati, in qualità di professori universitari, liberi professionisti, dipendenti dell’Istituto Nazionale di Statistica.

La Scuola è gentilmente ospitata dal corso di Laurea in Economia e gestione aziendale dell’Università Europea di Roma, Via Aldobrandeschi, 190.

Il programma della Scuola SIS “Innovazione tecnologica, Web e Statistica” è il seguente:

Mattina
(09.00 /13.30)
Pomeriggio
(14.30/19.00)
Lunedì 28 gennaio Introduzione del corso

- – -

Strumenti web per la produzione statistica
- indagini statistiche on line: web aperto, web chiuso, indagini integrate
- profilo dell’errore nelle indagini via internet

(Monica Pratesi, Silvia Biffignandi)

Strumenti per la raccolta dati via web: la struttura e la tipicità dei questionari on line

(Monica Pratesi, Giovanni Riccardi)

Martedì 29 gennaio L’analisi dei dati raccolti tramite indagini web

(Stefano Marchetti)

Il Data Mining ed il Web: le nuove frontiere dell’analisi predittiva

(Duccio Schiavon)

Mercoledì 30 gennaio Profili giuridici della liberalizzazione dei dati

(Francesca Romana Fuxa Sadurny)

Data, Big data, Open data

(Vincenzo Patruno)

Giovedì 31 gennaio La statistica per tutti attraverso un sito web

(Giulia Mottura)

Strumenti web per la statistica e la visualizzazione dati

(Daniele Frongia)

Venerdì 1 febbraio Data Warehouse statistici e piani di diffusione di dati integrati

(Stefania Bergamasco)

Presentazione e discussione dei lavori di gruppo

(Cinzia Conti, Eric Sanna, Claudia Giovene di Girasole)

Per eventuali informazioni contattare la Società Italiana di Statistica al numero 06.6869845 o tramite l’email scuola-web-statistica@sis-statistica.org.

La qualità degli Open Data

 di Vincenzo Patruno e Daniele Frongia

Quando qualche anno fa si è cominciato a parlare di Open Data, lo si è fatto in un primo momento essenzialmente in termini di Open Government, ossia evidenziando gli aspetti legati alla trasparenza che la pubblicazione dei dati avrebbe potuto generare nei processi amministrativi. I dati pubblici vengono infatti generati dalla attività quotidiane delle Pubbliche Amministrazioni centrali e locali. Sono generalmente dati amministrativi, (pensiamo ad esempio ai dati sulla spesa della PA, sugli appalti, sulle consulenze, …), ma anche dati scientifici (ad esempio i dati delle centraline che troviamo nelle nostre città per il rilevamento delle polveri sottili) o ancora dati statistici (pensiamo ai dati economici e sociali di un territorio). Rendere pubblici i dati prodotti dalla Pubblica Amministrazione ha come effetto quello di poter far conoscere e di rendere quindi “trasparenti” sia i processi interni alle PA nonchè i fenomeni descritti da quei dati. Sappiamo bene come la generale opacità dell’azione della Pubblica Amministrazione possa diventare terreno fertile per il clientelismo e il malaffare. E i dati possono rivestire un ruolo chiave per restituire ai cittadini quel controllo sociale delle politiche pubbliche tanto auspicabile in questo particolare momento, soprattutto in Italia. Il caso dell’ILVA di Taranto e dei dati ambientali taroccati per anni è soltanto l’ultimo di una lunga serie, ma è un esempio che ci ricorda l’inestimabile valore che possono avere i dati per la società civile, per il territorio e per un intero Paese.

Open Data non vuol dire però soltanto rendere pubblici i dati. Una caratteristica fondamentale degli Open Data è infatti quella del riuso. I dati resi pubblici dalle PA devono in altre parole poter essere riutilizzati senza restrizioni e per qualunque scopo. Anche quindi con l’idea di consentire al mercato di avviare una qualche forma di business sui dati. Questo è un aspetto che viene messo in evidenza dalla Agenda Digitale europea e ripreso da tutte le Agende Digitali nazionali e locali. In tutte viene dato ampio risalto agli Open Data ritenendoli un interessante elemento in grado di fungere efficacemente da stimolo per l’economia digitale. E’ stato stimato che il volume di affari teorico che potrebbe essere sviluppato complessivamente attorno ai dati del settore pubblico dell’intera Europa si aggiri attorno ai 140 miliardi di Euro all’anno. Si tratta a questo punto di capire come fare.

La prima iniziativa Open Data lanciata in Italia è stata quella della Regione Piemonte a cui ne sono seguite diverse altre: quella della regione Emilia-Romagna, della Regione Lombardia, del Veneto, della Liguria, dei comuni di Firenze, Torino, Roma, Bologna, della Provincia di Roma e del Governo italiano con la piattaforma dati.gov.it, solo per citarne alcune. Quello che però sta emergendo è che, nonostante il moltiplicarsi delle iniziative e di conseguenza della quantità di dati complessivamente disponibili, sta accadendo molto poco di quanto si era ipotizzato in un primo momento: le imprese IT del territorio di fatto non stanno investendo sui dati. I creativi del Web, gli sviluppatori e gli startupper non riescono a trovare grossi stimoli negli Open Data al momento disponibili. Il risultato è che sono ancora poche le applicazioni web o le applicazioni mobile nate sugli Open Data, e quelle poche difficilmente riescono ad avere caratteristiche tali da essere realmente monetizzabili. Sicuramente questo può dipendere dalle caratteristiche delle imprese IT in Italia, generalmente poco attenti alla innovazione e abituate a generare profitti attraverso i più rassicuranti sistemi gestionali. Sicuramente può dipendere dal fatto che, nonostante il moltiplicarsi delle iniziative,  il volume di Open Data attualmente disponibili è ancora limitato. Possiamo aggiungere che questo  può dipendere anche da una poco diffusa cultura del dato che funge da freno alla nascita di idee e progetti basati sui dati.

C’è però probabilmente un altro fattore da tener presente, ed è quello legato alla  qualità degli Open Data. I dati infatti non sono tutti uguali e non tutti esprimono le stesse potenzialità.  Possiamo dire che i dati di qualità sono anche dati che hanno elevate potenzialità e sono proprio questi che possono avere un forte “appeal” verso i cittadini, il mercato, la Rete, gli sviluppatori, i creativi, gli startupper. E’ quindi molto probabile che quello che scarseggia non sono gli Open Data in quanto tali, ma gli Open Data di qualità. Ma cosa dobbiamo intendere per qualità del dato?

Ci si aspetta innanzitutto che i dati pubblicati da qualunque PA siano accurati. Questo sembra scontato dirlo, ma purtroppo non è sempre così. Più i dati riguardano fenomeni che hanno alle spalle affari e politica, più le amministrazioni coinvolte sono restie a renderli pubblici. E quando lo fanno non è detto che quelli diffusi siano effettivamente i dati reali. Ricordiamo ancora una volta i dati “ufficiali” diffusi a proposito dell’ILVA di Taranto, ma anche, nel Texas d’Italia, quelli relativi alla presenza di idrocarburi delle acque del Pertusillo, i dati ambientali nei dintorni della centrale a carbone di Vado Ligure o ancora i dati di dettaglio della spesa sanitaria che nessuna Regione al momento ha ritenuto dover rendere pubblici. Avere dati di dettaglio è infatti un altro elemento di qualità degli Open Data. Diffondere dati in forma aggregata vuol dire di fatto depotenziarli, vuol dire inevitabilmente che il valore aggiunto che si può creare da quei dati viene ridotto rispetto a quanto si potrebbe fare se fossero diffusi in forma “grezza”.  Ovviamente non sempre questo è possibile. Il dato grezzo infatti spesso si porta dietro problemi legati alla privacy, alla riservatezza e alla confidenzialità del dato stesso.  Spesso quindi diffondere dati in forma grezza semplicemente non si può fare. In questo caso si può sempre però pensare di diffondere i dati in forma aggregata ma comunque a livelli spinti di disaggregazione tali che possano comunque preservare in parte le potenzialità iniziali del dato. Potenzialità che sono comunque strettamente legate anche al momento in cui il dato viene reso pubblico.

Più tempo passa dal momento in cui un certo dato viene generato al momento in cui questo viene reso pubblico e più infatti il dato viene depotenziato.  Questo accade tanto più velocemente quanto più il dato in questione descrive fenomeni  che cambiano rapidamente nel tempo. Pensiamo ad esempio ai dati Meteo (non vengono rilasciati come Open Data, ma è solo per fare un esempio) o ai dati sui trasporti urbani o sul traffico. A nessuno verrebbe mai in mente realizzare una app per sapere il tempo di ieri o per visualizzare la situazione del  traffico della settimana passata su un particolare tratto di strada. Nella recente competizione AppsForItaly, il concorso nazionale sugli Open Data conclusosi nello scorso mese di Maggio, tra i dati pubblici che hanno riscontrato più successo ci sono stati quelli relativi ai parcheggi del Comune di Torino. Erano dati che descrivevano in tempo reale il numero di posti ancora liberi nei vari parcheggi della città. Sono state diverse le proposte presentate che sfruttavano proprio questi dati. E questo ovviamente non perché la Rete sia frequentata da sviluppatori che a Torino non sanno dove parcheggiare la loro auto, ma semplicemente perché dati accurati, dettagliati e ottenibili in tempo reale attraverso API sono dati ad alta potenzialità e che si prestano molto bene ad essere utilizzati in modo “interattivo” all’interno di applicazioni web o apps per dispositivi mobili. Consentire l’uso interattivo dei dati ne amplifica pertanto le potenzialità, rendendoli appetibili per immaginare le più svariate applicazioni e servizi. Per chi produce i dati, questo si traduce nel rendere pubblici gli Open Data non più (o non solo) attraverso file scaricabili (Excel, csv, …) ma attraverso quelli che possiamo chiamare “Open Services” o “Open API”. Questi sono API (o anche servizi Web) che è possibile richiamare all’interno di applicazioni e che consegnano i dati richiesti direttamente ai programmi che li utilizzano. Significa in altre parole dare la possibilità di “agganciare” le applicazione ai dati, senza intermediari, direttamente dove questi vengono prodotti. Erogare pertanto Open Data accurati e dettagliati attraverso Open Services, corredandoli di tutti quei metadati necessari a consentirne un corretto utilizzo, vuol dire offrire dati ad alta potenzialità,  e questo indipendentemente dalla tipologia di dati a cui si sta facendo riferimento. Chi produce dati dovrà provvedere a mantenere aggiornata la base dati man mano che nuovi dati vengono prodotti. Garantire la disponibilità di dati freschi e tempestivi è infatti un requisito fondamentale per spingere sviluppatori, startupper, creativi, più in generale la Rete a puntare sugli Open Data.

Gli Open Data, l’Open Government, la spesa pubblica e il Sistema informativo SIOPE

C’è in Italia un Sistema Informativo che “rileva in via telematica gli incassi e i pagamenti effettuati dai tesorieri e dai cassieri delle Amministrazioni pubbliche”. E’ un sistema che nasce dalla collaborazione tra la Ragioneria Generale dello Stato, la Banca d’Italia e l’ISTAT e il suo nome è SIOPE, il Sistema Informativo delle Operazioni degli Enti Pubblici. SIOPE è in sostanza uno strumento che viene utilizzato per monitorare la situazione e l’andamento dei conti pubblici. Con i dati di SIOPE vengono ad esempio redatte le relazioni trimestrali sul conto consolidato di cassa che il Ministro dell’Economia presenta al Parlamento, ma anche  tutte le statistiche trimestrali di contabilità nazionale necessarie per verificare il rispetto dei nostri conti pubblici con quanto previsto dalle norme europee. Tutto questo in modo tempestivo, visto che la raccolta dei flussi avviene per via telematica, ma soprattutto utilizzando una codifica comune per tutti gli incassi e i pagamenti.

I dati degli enti pubblici di SIOPE fanno cioè riferimento agli stessi codici gestionali e questo è un aspetto molto importante, in quanto vuol dire che tutti i dati presenti all’interno del sistema sono “armonizzati”. E’ possibile in altre parole confrontare tra loro i titoli di entrata e di spesa che si riferiscono ad incassi e pagamenti provenienti da tutte le differenti amministrazioni che riversano i loro dati nel sistema.

Sembra fantascienza. Siamo un Paese dove i cittadini, tranne qualche rara eccezione, non hanno alcuna idea di come viene impiegato il loro denaro.  Quello che oramai è certo, è che da troppo tempo si perpetua una gestione “allegra” dei soldi pubblici. Chi è chiamato ad amministrare lo fa con l’idea di poter disporre a proprio piacimento del denaro pubblico. Questo non solo ha generato sprechi e inefficienze, ma ha alimentato il clientelismo, il malcostume fino ad arrivare al malaffare e alla corruzione. La questione è purtroppo cronaca di tutti i giorni e possiamo considerarla oramai una emergenza nazionale.

Come se ne viene fuori? Ben vengano ovviamente i tentativi di definire un quadro normativo che scoraggi e sanzioni gli abusi. Ma abbiamo davanti a noi una straordinaria opportunità che è quella di puntare sulla totale trasparenza delle Pubbliche Amministrazioni. Rendere pubblici ad esempio i dati di SIOPE consentirebbe infatti lo studio e il controllo sociale della spesa e delle politiche pubbliche effettuate dalle singole amministrazioni. Bisogna in altre parole dare la possibilità alla società civile di studiare i dati per capire cosa c’è dentro. E’ quella che oramai da qualche tempo chiamiamo “accountability”.

Quello che segue è uno stralcio di quanto l’ing. Alberto Carzaniga, il “papà” di SIOPE scriveva al Capo dello Stato nel dicembre 2011 assieme ai Professori Luca Meldolesi e Nicoletta Stame.

 “ […] in un Paese come il nostro, caratterizzato da ben note patologie, che dalla tendenza all’imbroglio, passando per il clientelismo ed il corporativismo, sfociano infine (bisogna aggiungere: spesso e volentieri) nell’illegalità vera e propria e nel crimine (anche organizzato), si è creata ormai una situazione pericolosa. Nel momento in cui, meritoriamente, si cerca di invertire tale tendenza, diventa della più grande importanza puntare sulla trasparenza e l’accountability: senza riserve.

Ciò può essere avviato immediatamente, con un semplice ordine di servizio che imponga l’immediata fruizione on line dei dati Siope-Cup-Mip e, più in generale, di tutti i dati statali disponibili.”

Questo già qualcuno lo fa. Lo fa ad esempio la provincia di Firenze, che pubblica sul proprio sito web i dati di SIOPE del bilancio consuntivo dell’Ente. Certo, si potrà obiettare che si tratta soltanto di dati annuali consolidati, che sono disponibili sotto forma di file pdf etc etc …

E’ già però un punto di partenza e potrebbe diventare qualcosa di decisamente più interessante nel momento in cui quegli stessi dati dovessero venire estratti direttamente da SIOPE per tutti gli Enti che partecipano al sistema e dovessero essere resi disponibili a chiunque per il download, senza aspettare le decisioni di ogni singolo Ente.

Magari come Open Data sotto forma un unico file scaricabile ad esempio in formato csv. I dati pubblicati in questo modo diventerebbero senza dubbio molto più utili.  Sarebbe un passaggio chiave non solo per la trasparenza, ma per cominciare a fornire ai cittadini dati effettivamente utilizzabili per capire come viene impiegato il  denaro pubblico. Manca in Italia la volontà di rendere gli Open Data una realtà. I movimenti e le associazioni stanno facendo la loro parte, ma manca un segnale “forte” in questo senso da parte delle istituzioni. Non si può continuare a parlare di Open Data nelle conferenze, nei festival, nelle fiere, nella Agenda Digitale decantandone “a voce” le potenzialità per l’Open Government e per la Digital Economy. Serve fare un primo passo e questo passo deve essere necessariamente fatto a livello istituzionale su una tipologia di dati che al momento sono di forte interesse per l’opinione pubblica. E questo potrebbe essere solo l’inizio, considerato che SIOPE consente di fornire ad esempio anche dati sul bilancio di cassa mensile con gli scostamenti rispetto ai preventivi, il debito finanziario con le fatture da pagare, la spesa per gli investimenti e molto altro ancora. Problemi di privacy? Di confidenzialità del dato? E’ un falso problema. Tutto dipende dal livello di dettaglio con cui i dati verrebbero resi pubblici.

Più di tante parole e dichiarazioni di intenti, sarebbe questo il primo vero passo sulla strada per l’Open Government. Open Siope! Now!

 

Articoli correlati:

Alberto Carzaniga: Il progetto SIOPE/CUP/Osservatorio: Che cosa è, a che serve, dove può portare, quali sono i progetti collegati 

Riccardo Luna: Una banca dati pubblica per la trasparenza

Carlo Mochi Sismondi: Povera trasparenza morta asfissiata

Wikidata, Open Data e i robot

wikidata logo

La notizia è già di qualche mese: un team di ricercatori di wikimedia deutschland sta lavorando allo sviluppo di “wikidata”, semplicemente la wikipedia dei dati. I dati di wikipedia saranno disponibili in forma semantica e si potrà interrogare l’enciclopedia libera secondo parametri scelti dall’ utente.
Una vera svolta per l’ecosistema open data, finalmente sarà possibile combinare i dati di wikipedia con i propri dati, ma qui viene il bello perché in effetti tendiamo a “sottovalutare” gli open data, molto spesso ci fermiamo ad immaginarli come il nuovo set di dati finalmente reso accessibile al semplice cittadino, una cosa molto importante, ma perché mettere limiti alla democratizzazione?
Per wikidata parliamo di dati accessibili anche alle macchine, dati “machine-readable” e “machine-editable”; si parla di dati “social” intesi come frutto di collaborazione e condivisione da parte della community: la comunità decide quali sono i dati meritevoli di interesse, inoltre parliamo di dati tradotti in tutte le lingue.
La fase 3 con il rilascio delle liste con i primi dati dovrebbe avvenire già nella prossima primavera, per seguire gli aggiornamenti si può seguire l’utente @wikidata su Twitter.
Intanto, già da qualche tempo, è possibile effettuare il download di SemanticMediaWiki  l’estensione di MediaWiki (il software di wikipedia, messo gentilmente a disposizione gratuitamente da wikimedia.org) che permette di trasformare il vostro Wiki in un Wiki semantico.

E’ importante sottolineare che il progetto wikidata è realizzato con le donazioni di: the Allen Institute for Artificial Intelligence, Google, Inc., Gordon and Betty Moore Foundation.

Fonti:
http://www.unece.org/fileadmin/DAM/stats/documents/ece/ces/ge.45/2012/Bergmann_Schuengel_DESTATIS.pdf
http://blog.wikimedia.de/tag/wikidata/

Diritti digitali e dati aperti: le basi per Città e Comunità smart

Quale ruolo può avere l’informazione geografica nella costruzione di servizi innovativi per l’efficienza energetica, la mobilità, il monitoraggio ambientale, la comunicazione con i cittadini, la promozione turistica? In altre parole, qual’è il ruolo dei geodati per quelle che oramai tutti chiamiamo “Smart Cities” o “Città Digitali”? E’ questo il tema che verrà affrontato nell’incontro promosso dalla associazione Stati Generali dell’Innovazione e dalla Regione Emilia Romagna che si terrà  venerdì 6 luglio 2012 presso la sede della Regione Emilia Romagna a Bologna – Sala A Conferenze, Terza Torre.

Aperto a cittadini, imprese, amministratori che potranno così confrontarsi con esperti del settore su:

  • Infrastrutture di Dati Territorali innovative per Smart Communities e Smart Cities efficienti
  • Open data: Comunità in grado di  collaborare e fruire l’informazione geografica
  • Nuovi format di comunicazione pubblica interattiva: urbanistica partecipativa, l’innovazione territoriale e sociale

La partecipazione è gratuita previa registrazione.

Qui  il programma completo dell’evento.

 

 

Il valore dei dati e il potere della conoscenza

power

Nel numero di Maggio di IL, mensile de Il Sole 24 Ore, è stato pubblicato in anteprima il capitolo dedicato al valore dei dati e al potere della conoscenza, tratto dall’ultimo saggio “Manifesto capitalista”, che Rizzoli pubblicherà in Italia a settembre, dell’economista Luigi Zingales.

Riporto di seguito alcuni interessanti passaggi, molto utili per alimentare una corretta dialettica sociale, lavorativa e politica nel nostro Paese.

Continua a leggere

Lorenzo Benussi: “Ebbene sì! Una app alla volta, cambieremo l’Italia”

A seguito della chiusura delle sottomissioni per AppsForItaly, la competizione italiana sugli Open Data e in attesa delle proposte vincitrici, ripubblichiamo su autorizzazione dell’autore un articolo di Lorenzo Benussi pubblicato su Chefuturo.it. (http://www.chefuturo.it/2012/05/lorenzo-benussi-ebbene-si-una-app-alla-volta-cambieremo-litalia/) Continua a leggere