Veramente una bella giornata dedicata agli open data. Complimenti al Top-Ix e grazie a Lorenzo Benussi per avermi dato l’opportunità di partecipare e contribuire 🙂
17:24 Ettore Di Cesare lancia la campagna di sottoscrizione all’associazione Open Polis.
17:19 Ettore Di Cesare: «con un algoritmo che abbiamo inventato, riusciamo a dire quali sono i parlamentari che si occupano di più di un argomento e quali sono più vicini a una posizione piuttosto che a un’altra».
16:59 Ettore Di Cesare (Open Polis) illustra come viene costruito Open Polis, partendo dai dati (non molto puliti) del Ministero dell’Interno: è un catalogo di tutti i politici italiani costruito in parte con dati provenienti dai siti pubblici e in parte grazie al contributo di volontari. Open Parlamento, invece, è un progetto molto più complesso in quanto raccoglie tutti i dati dai siti di Camera e Senato ogni due ore, li aggrega e aggiunge del valore. «Abbiamo costruito un indice di produttività dei parlamentari e lo abbiamo fatto insieme a loro chiedendo quali fossero a giudizio di ognuno le cose più importanti. Ci hanno risposto in 150 e abbiamo quindi potuto costruire un algoritmo piuttosto complesso». Tutto questo sforzo è possibile perché attorno alla raccolta dei dati, Open Polis ha costruito un vero e proprio business vendendo servizi agli editori (Corriere della Sera e l’Espresso, per esempio). Il secondo canale di guadagno è rappresentato dai servizi di monitoraggio parlamentare che vengono venduti alle azienda: posso seguire i lavori di singoli parlamentari oppure temi come la riforma dell’università.
16:46 Linked Open Camera nasca dal progetto radicale Open Camera: «collegare i dati è stato semplice e veloce: abbiamo lavorato per una settimana per arrivare a questo risultato. Adesso vorremmo fare le visure camerali delle aziende fornitrici della Camera dei deputati per vedere se riusciamo ad ottenere delle informazioni significative.»
16:36 Emanuela Ciancilla (Visup). Visup si occupa di information visualisation e design dell’esperienza d’uso. I ragazzi, che hanno creato anche Closr, hanno fatto alcuni esperimenti con i dati di dati.piemonte.it. Per creare un’infografica si parte dall’analisi della struttura e successivamente delle informazioni che si possono ricavare dal dato. Quindi si passa alla prototipazione, facendo varie prove e – infine – si sviluppa l’infografica. La presentazione di Manuela è qui.
16:00 Chris Taggart (fondatore Openly Local). Openly Local è un progetto che si propone di aprire le informazioni dei governi locali. Hanno iniziato “grattando” i dati dai siti delle amministrazioni e aggregandoli in un sito. Sono andati avanti e adesso importano i dati relativi alle spese pubbliche sopra le 500 sterline, catalogando bel 340.000 transazioni per un totale di 4 miliardi di spesa.
15:34 Mario Calabresi. Una volta si diceva: «Dio ti vede, il partito comunista no». Adesso con Wikileaks la storia si è fatta un po’ più complicata e meno sovrannaturale.
15:16 Mario Calabresi. Alla Stampa stanno lavorando alla sperimentazione di format innovativi prendendo giovani con phd da settori diversi in grado di portare innovazione. Inoltre la Stampa ha messo online tutti gli archivi del giornale (5 milioni di articoli): un progetto che ha richiesto cinque anni di lavoro. Da oggi, l’archivio – oltre ad essere gratuito – viene licenziato con una creative commons by nc.
14:55 Mario Calabresi (direttore della Stampa) intervistato da Juan Carlos De Martin. Assange di Wikileaks dice che vuole promuovere un concetto di giornalismo scientifico per cui accanto alla storia raccontata dal cronista occorre mettere il dato da cui si è partiti, affinché tutti possano verificare la fonte. Il giornalismo però non può essere ridotto a un modello così restrittivo, perché il lavoro del giornalista è molto più complesso e articolato, è fatto di memoria storica, di capacità di scegliere i fatti salienti e di interpretarli.
14:40 Lisa Evans (data researcher Guardian Datablog) illustra come hanno lavorato per analizzare e rendere più comprensibile i dati contenuti nel data base di tutte le spese del governo britannico che si chiama Coins (Combined Online Information System) e che adesso si trova Data.gov.uk. Attualmente i dataset sono accessibili anche sul sito del Guardian che ha realizzato una prima lavorazione e ha chiesto un contributo ai cittadini per analizzare le informazioni. Il blog Datablog riceve un milioni di unique visitor al mese.
14:30 Dopo un luculliamo buffet sfiziosissimo (molti complimenti) proseguiamo i lavori con una sessione dedicata ai casi di studio.
12:30 Il passaggio dalla giunta di centro sinistra a quella di centro destra non ha prodotto alcuna variazione nel calendario dei lavori [ndr. sarà che Cota ha altro da pensare in questo momento…] Adesso il gruppo di lavoro sta cercando di estendere il modello ad altre regioni e ha iniziato a lavorare con la regione Emilia Romagna e il Trentino. Allo stesso tempo, si stanno muovendo verso le altre pubbliche amministrazioni regionali per portare l’esperienza verso le province e i comuni.
12:20 La seconda sessione della mattina inizia con un’intervista a Roberto Moriondo direttore innovazione, università e ricerca della Regione Piemonte: «abbiamo fatto dati.piemonte.it perché non abbiamo fatto un comitato scientifico, non abbiamo alcuna analisi di fattibilità né istituito tavoli di concertazione». In Piemonte è appena passata una delibera di giunta che stabilisce che i dati dell’ente sono di default liberi ed utilizzabili, che possono essere usati usando una licenza creative commons zero e che il costo del dato è quello marginale di produzione, ossia zero.
11:30 Tra breve pausa caffè. Alle 12:00, sono sul palco insieme con Roberto Moriondo (direttore innovazione, università e ricerca della Regione Piemonte), Ernesto Belisario (avvocato ed esperto in diritto delle nuove tecnologie), Stefano Costa (Open Knowledge Foundation) e Stefano Quintarelli (informatico e imprenditore) per un panel moderato da Piero Rivizzigno (fondatore e presidente, Glossom).
11:17 Prodromos Tsiavos. Paesi come la Grecia e la Gran Bretagna hanno un approccio molto diverso verso le organizzazioni non governative. In Uk, la Open Knowledge Foundation sta svolgengo un ruolo molto importante, che sarabbe impensabili in Grecia. Inoltre, uno dei motivi per cui gli open data si sono diffusi così velocemente in Inghilterra è anche legato al fatto che nella pubblica amministrazione inglese sono state nutrite delle vere e proprio community di burocrati che si occupa di questi temi.
11:10 Prodromos Tsiavos offre un interessante punto di vista perché è greco e lavora a Londra e quindi è in grado di comparare due diversi sistemi legali. Nel caso della Gran Bretagna che è basata sulla common law il processo di diffusione di un framework è più agevole, mentre è molto diverso quando si ha a che fare con un sistema giuridico basato sul diritto continentale, dove occorre legiferare in modo esplicito.
11:00 Prodromos Tsiavos. Coltivare l’ecologia degli open data significa occuparsi del copyright per fare in modo che le informazioni possano circolare liberamente: è un elmento importante perché noi siamo abituati a un sistema che invece tende a mettere dei recinti attorno alle informazioni. Immaginando che ci siano una serie di cerchi concentrici, una volta affrontato il problema dei copyright, si possono porre le questioni che riguardano le politiche con cui i dati vengono liberati fino ad arrivare agli aspetti fiscali. In Gran Bretagna è stato elaborato un Open Gov Licensing Framework. Gli aspetti regolamentari sono importanti perché sono abilitanti.
10:52 Ruben Cohen. Un data center di grandi dimensioni dieci anni fa consumava 1 o 2 megawatt. Oggi, data center che consumano oltre 20 megawatt stanno diventando comuni, il che significa che è necessario migliorare le performance sul consumo energetico e di studiare soluzioni eco-sostenibili. D’altro canto, il numero e la dimensione delle server farm è destinato a crescere perché la stima è che nel 2020 nel mondo ci saranno 35 trilioni di gigabyte di dati.
10:45 Ruben Cohen. Idc dice che il mercato del cloud computing nel 2010 ammonterà a 22 miliardi di dollari e che crescerà fino a 55 miliardi nel 2014. Iaas, invece, stima 5-6 miliardi di dollari nel 2010 e dai 15 ai 20 miliardi nel 2015. Amazon è arrivata in pochissimo tempo a fatturare 500 milioni di dollari con i loro servizi di cloud e le previsioni sono che il fatturato per gli Amazon Web Services nel 2014 sarà di 2,54 miliardi di dollari. Non mi sembra che in Italia ci sia anche un leader di mercato per i servizi basati sulla nuvola, quindi ci sono ancora delle grandi opportunità da esplorare.
10:35 Ruben Cohen è fondatore di enomaly, un’azienda canadese che si occupa di brockering di capacità computazionali che si trovano in cloud. Il valore dei dati è nella loro elaborazione e per fare questo c’è bisogno di molta capacità di calcolo. E ora un po’ di numeri 😉
10:28 Rufus Pollock. Come si fa a creare un ecosistema di open data? Innanzitutto si parla in piccolo (fast, small and simple): questa è la strategia che è stata adottata in Gran Bretagna. Quindi occorre essere sicuri di adottare le licenze giuste. Terzo: realizzare un catalogo in modo che i dati siano facilmente raggiungibili. Quarto: lavorare sulla modularità dei dati in modo che ci siano più opportunità di usarli. Infine: coinvolgere cittadini, sviuppatori, aziende e via dicendo perché occorre creare una cultura dell’uso di questi dati.
10:20 Rufus Pollock. Gli open data non sono solamente un’opportunità per migliorare la partecipazione dei cittadini alla cosa pubblica. Sono anche una necessità: i dati chiusi non scalano e non possono essere messi insieme. Sono come il Humpty Dumpty, il personaggio di Alice nel paese delle meraviglie a forma di uovo che finisce in mille pezzi e nessuno è in grado di rimetterlo insieme.
10:08 Rufus Pollock (co-fondatore della Open Knowledge Foundation). Il primo aspetto da chiarire riguarda che cosa intendiamo per open data e la definizione è estremamente semplice: «un pezzo di contenuto o dati è aperto quando si è libero di usarlo, riusarlo e ridistribuirlo». Il secondo, invece, si riferisce a quali dati vanno condivisi e anche in questo caso la risposta è facile: tutti quelli che non sono personali. I dati aperti sono utili quando permettono di capire meglio e più in fretta le cose.
10:00 Silvano Giorcelli (direttore generale Top-Ix) Raccogliere, catalogare e gestire i dati è sempre più importante nello sviluppo del mercato Ict, ma i dati possono essere valorizzato solo esiste una banda sufficiente a renderli fruibili. E’ quindi importante che la liberazione dei dati da parte della pubblica amministrazione vada di pari passo con l’adeguamento dell’infrastruttura.
Oggi sono alla conferenza annuale del Top-Ix, tutta dedicata agli open data: «Open Data si basa su Internet e ne sfrutta tutte le potenzialità: interattività, partecipazione e possibilità di creare nuovi modelli di business. In quest’ottica il Consorzio TOP-IX che si occupa di favorire lo scambio di traffico Internet e, in generale, di diffondere l’uso della Rete in Italia e in Piemonte, si propone come strumento per lo sviluppo del modello: una piattaforma aperta e neutrale per l’innovazione.» Faccio il liveblogging dell’evento 🙂