steve's

Curriculi digitali opensource

Ott
25

Il bando http://www.istruzione.it/scuola_digitale/curricoli_digitali.shtml per i curricoli digitali attualmente in corso (scade il 10 Novembre 2016) prevede 4,3 M€, riservati alle reti di scuole pubbliche e paritarie, destinati alla produzione di 25 curricoli digitali su 10 tematiche, divise in Fondamentali e Caratterizzanti, secondo il seguente schema:

Fondamentali:

  • diritti in internet
  • educazione ai media (e ai social)
  • educazione all’informazione

Caratterizzanti:

  • STEM (competenze digitali per robotica educativa, making e stampa 3D, internet delle cose)
  • big e open data
  • coding
  • arte e cultura digitale
  • educazione alla lettura e alla scrittura in ambienti digitali
  • economia digitale
  • imprenditorialità digitale

Dal mio punto di vista, non è troppo condivisibile questa biforcazione: da un lato le “educazioni a…”, dall’altro il coding, la robotica, i dati aperti. Così si introducono già nei temi e nei curricoli le separazioni che poi è difficile recuperare: tra riflessione teorica e attività tecnica, tra aspetti etici (diritti, doveri) e pratici, tra apprendimento cognitivo e affettività. Ma pazienza, in qualche modo si doveva distinguere.

Il dettaglio dei possibili contenuti dei curriculi è descritto nell’Allegato 2 (http://www.istruzione.it/scuola_digitale/allegati/2016/Allegato_2_Avviso_Curricoli_Digitali.pdf). A mio avviso, si tratta di testi non particolarmente omogenei, perché scritti da persone diverse, come si capisce dal linguaggio utilizzato e dalla formattazione libera. Si può supporre quindi che sia stato dato l’incarico di definire i contenuti a esperti di dominio che non si sono parlati tra loro. Noto che di opensource non si parla mai, e pazienza (ma anche no).

Non mi è chiarissimo il processo di valutazione delle proposte di curriculo. Da quanto ho capito io, ci saranno tre fasi: in una prima vengono richieste solo poche slide di presentazione e un formulario in cui vengano definite le scuole partecipanti, di cui almeno una deve avere esperienze dimostrabili nel settore (solo una?). In una seconda fase, viene stilata una graduatoria e vengono selezionate 125 proposte. Ai soggetti selezionati viene chiesto di inviare il progetto con un esempio, e solo 25 proposte vengono alle fine finanziate, con un massimo di 170.000 € per proposta. Ci sono poi altri 50.000 € per la migliore proposta di comunicazione del progetto (mi è sfuggito come si partecipa a questa speciale categoria).

La commissione di valutazione verrà scelta solo dopo la chiusura della prima fase. I dettagli delle altre due, come pure i processi di monitoraggio, verranno, si spera, chiariti in seguito. Potrebbe succedere, ad esempio, che i curricoli prodotti si sovrappongano oppure che lascino scoperte delle aree? Che seguano modelli completamente diversi? Che lo sviluppo non rispetti le premesse? Speriamo di no, speriamo che sia prevista anche una fase di aggiustamento in corsa.

Ma a prescindere da questi dettagli, ci sono molti aspetti che giudicherei positivi: la sottolineatura dell’importanza degli aspetti di cittadinanza digitale, la richiesta esplicita che i curricoli siano rilasciati come OER (peccato non si diano indicazioni di licenze specifiche: i contenuti prodotti si potranno usare gratis, ma si potranno anche modificare?), la citazione almeno della possibilità di analytics ovvero di raccolta dei dati di utilizzo.

Nel passato, il Ministero dell’Istruzione aveva scritto e pubblicato Programmi e Indicazioni per i vari ordini di scuola. Con la “scuola dell’autonomia”, con il passaggio dalla scuola dei programmi alla scuola dei curricoli, questo compito spetta alla scuola. Le indicazioni ministeriali però esistono ancora, e quattro anni fa per esempio sono state sottoposte ad un processo di verifica pubblica quelle per la scuola dell’infanzia e del primo ciclo, cioè fino alla scuola secondaria di primo grado inclusa. Per altro, nel documento finale (http://hubmiur.pubblica.istruzione.it/alfresco/d/d/workspace/SpacesStore/162992ea-6860-4ac3-a9c5-691625c00aaf/prot5559_12_all1_indicazioni_nazionali.pdf , mi spiace ma non c’era un link più corto) la parola digitale compare solo quattro volte: due nel conteste delle competenze chiave raccomandate dall’Europa, e due nell’area Tecnologia. Leggendo i risultati della consultazione, si capisce che secondo il 24% degli intervistati il digitale avrebbe dovuto essere più presente.

Comunque: in questo caso, forse per la prima volta, si chiede ai diretti interessati, cioè alle scuole – o meglio, a reti di scuole coadiuvate da esperti universitari o altri scelti dalle scuole stesse – di realizzare dei curricoli di livello nazionale, da condividere con le altre scuole.

E’ una buona maniera di affrontare la questione? Non lo so, ma non mi convince in generale la logica dei bandi, che permette di distribuire soldi alla Scuola – anzi, ad alcune scuole – che poi magari le usano come possono, sulla base della loro abilità a scrivere progetti. Bandi che si limitano a finanziare la creazione di un oggetto digitale (che so, un sito, una piattaforma di collaborazione o di e-learning), ma non il suo mantenimento e sviluppo futuro, col risultato che il suddetto sito muore dopo poco. Bandi che stimolano migliaia di proposte, ma ne finanziano solo una piccola percentuale, per cui il lavoro della maggioranza è sprecato. Bandi i cui risultati non sono soggetti a verifica se non contabile. Bandi in cui la coerenza dei prodotti viene cercata a posteriori, magari con un bando ulteriore.

E’ una maniera democratica? Non so nemmeno questo. Va avanti la scuola che ha al suo interno docenti capaci di progettare, nel senso specifico di “scrivere progetti finanziabili”. E si procede in maniera discontinua, per gettiti intermittenti. Per esempio, mi domando: ma una volta creati i curriculi, quali risorse verranno impiegate per aggiornarli? E chi lo farà? O si pensa che in campo come questo si possa creare IL curriculo definitivo?

Si poteva fare diversamente? Io penso di si. Faccio un piccolo esercizio di immaginazione.

1. Si poteva creare un piccolo gruppo di lavoro (di cui venissero pubblicati i nomi dei partecipanti) con almeno quattro compiti diversi:

  • raccogliere buone pratiche da paesi dove questi curricoli esistono e sono già stati sperimentati con successo
  • valutare i risultati dei Piani Ministeriali passati sul tema dell’IT, luci e ombre
  • esaminare le esperienze già realizzate nelle scuole o dalle associazioni
  • raccogliere idee tramite una ricerca non solo sul materiale cartaceo, ma anche su quello digitale, compresi i social network system.

Alla fine di questo lavoro preliminare, il gruppo di superesperti avrebbe potuto produrre un documento che indicasse obiettivi, limiti, metodi, errori da evitare, buone pratiche. Il documento avrebbe dovuto evidenziare, tra l’altro, gli incroci tra le aree tematiche. Non solo un elenco di argomenti, quindi.

2. Poi il MIUR avrebbe potuto convocare un piccolo numero di esperti, tre per ogni area tematica (per esempio uno di estrazione universitaria, un docente e un esperto di dominio), scelti mediante una procedura concorsuale pubblica, fornirgli il quadro generale e dargli modo di produrre una versione alfa del curriculo.

3. Le versioni alfa avrebbero potuto essere condivise preliminarmente tra tutti i gruppi, per verificarne la coerenza e l’omogeneità e la rispondenza al quadro generale.

4. La versione beta, risultante dal lavoro di omogeneizzazione, sarebbe potuta essere diffusa presso un numero più grande di docenti, dei quali si sarebbero raccolti i commenti. Si sarebbe potuta immaginare una piccola sperimentazione per tutti i curricoli, per permettere ulteriori aggiustamenti.

5. La versione RC (release candidate), risultato della sperimentazione, sarebbe stata pubblicata in una piattaforma aperta dove tutti gli utenti potessero suggerire miglioramenti. Non essendo necessaria una “versione finale” congelata, i curriculi avrebbero potuto essere aggiornati in maniera continua, o “forkati” come si fa nei repository di software opensource.

Costo totale: quasi sicuramente inferiore ai 4,3 milioni investiti nel bando. Immaginando trenta persone che lavorino per un anno a tempo pieno, fanno più o meno un milione di €, più il costo del gruppo iniziale dei superesperti (che voglio sperare non costerebbe altri tre milioni di €…). Con i soldi avanzati si regalava carta igienica a tutti…

Coinvolgimento degli utenti finali: sicuramente maggiore, direi. Nella modalità scelta dal MIUR, supponendo che ogni team di progetto sia composto da 20 tra docenti ed esperti, il numero totale delle persone coinvolte è di 500. Che è meno dei docenti intervistati per le Indicazioni del 2012.

Qualità dei prodotto finale: non so dirlo, ma il processo descritto sarebbe servito a controllarla a più riprese. E la prassi dell’opensource insegna che questo modo funziona abbastanza bene.

Monitoraggio, brutta parola

Ott
09
Sul sito Programma il Futuro sono scaricabili dei report sui dati sulle attività svolte nel primo (http://programmailfuturo.it/media/docs/Rapporto-monitoraggio-settembre-2014-gennaio-2015.pdf) e nel secondo anno di progetto (http://programmailfuturo.it/media/docs/evento-celebrativo/programma_futuro-MIUR-26mag2015.pdf). Numero di ore, numero di insegnanti per regione e per disciplina, numero di classi e studenti coinvolti, e poi gradimento, valutazioni, osservazioni, tutti corredati di grafici. Dati raccolti in parte grazie a Google Analytics (altrimenti perché si attiva ogni volta che apro una pagina in Code.org?) e in parte grazie a questionari.
Questa cosa mi solletica.
Dieci anni fa, quando lavoravo a Scienze della Comunicazione, ho fatto una ricerca sui forum del corso concorso per dirigenti scolastici di INDIRE (2006). Siccome la piattaforma usata non prevedeva nessun tipo di monitoraggio fine (e peraltro non esisteva più…), siamo partiti da una copia del DB Oracle e siamo riusciti a ricostruire i profili, le conversazioni, i temi, le modalità comunicative. Il risultato principale è stato forse però l’insieme di query SQL che avrebbero permesso di analizzare allo stesso modo i dati di altri forum che usavano la stessa struttura dati, ad esempio per vedere se c’erano invarianti legate alla dimensione geografica, all’età, alle esperienze pregresse. Non mi risulta che siano stati mai usati, ma pazienza.
Cinque anni dopo, il MIUR ci affidò una ricerca per valutare il risultato di tre piani di formazione nazionali. La cosa anche qui fu piuttosto difficile, perché non c’erano dati originali, ovvero il progetto delle attività non contemplava la raccolta di dati prima, durante e dopo. Sono stati analizzati fondamentalmente i risultati di questionari somministrati ai docenti. Il che come si può immaginare non è la stessa cosa di avere accesso alle informazioni primarie.
Nella recente formazione per gli Animatori Digitali del Lazio, che mi ha coinvolto solo come tecnico fornitore di piattaforme, ho proposto di impostare un piano di monitoraggio all’inizio delle attività. Non per valutare nessuno, ma perché quando domani qualcuno arriverà a chiedersi se e come ha funzionato avrà bisogno di qualche informazione in più rispetto ad un sondaggio finale.
 
Insomma la fatica per ottenere dei risultati di qualche qualità mi pare inversamente proporzionale alla lungimiranza di chi gestisce un progetto. Se poi i dati raccolti (naturalmente anonimizzati) venissero resi disponibili come opendata (oltre alle elaborazioni in PDF), si potrebbe lasciare a chi ne ha voglia e competenze il compito di far emergere qualche idea buona (qui ho esagerato, vabbè).
 
Se ogni attività di coding fosse preceduta da una raccolta di informazioni (chi è il docente, che competenze ha, che lavori sono stati fatti con quella classe in precedenza) e magari da un test di ingresso, se durante le ore di coding si potesse registrare lo scambio tra gli studenti e con il docente o il processo di acquisizione di nuove forme sintattiche, se le attività fossero seguite da un test finale, se se se… ci sarebbero alla fine dati su cui riflettere. Anche senza avere per forza la pretesa di dimostrare che il coding serve (o non serve) ad un obiettivo specifico.
Magari verrebbero fuori delle connessioni a cui non si era pensato. Per esempio, l’influenza della famiglia o dell”ambiente sociale, o della lingua materna; il peso delle competenze informatiche del docente (o delle dimensioni dello schermo, o del tempo atmosferico, o del segno zodiacale del docente, o che so io). O magari non viene fuori niente. Ma senza quei dati non si saprà mai. Non mi sto inventando i Learning Analytics: se ne occupa tanta gente, la Microsoft nell’accordo con il Ministero dell’Educazione Nazionale Francese ha specificato che il suo intervento sul coding prevede anche questo tipo di attività di monitoraggio e analisi dei dati (http://cache.media.education.gouv.fr/file/Partenaires/17/7/convention_signee_506177.pdf, pag 4). Se lo fa Microsoft, a qualcosa servirà, no?
 
Quello che voglio dire non è tanto che ci deve essere un quiz alla fine che ci permetterà di dire se Mario ha imparato il pensiero computazionale (o uno strumento di analisi degli elaborati come DrScratch, http://drscratch.org/, – grazie Massimo per la segnalazione – che pure potrebbe essere utile); ma che una Piano Nazionale dovrebbe dotarsi dall’inizio di un protocollo e di strumenti per valutare la qualità di quello che fa, e non solo la quantità e le opinioni. Se Google ha costruito la sua fortuna sull’analisi dei testi e dei comportamenti della popolazione mondiale, ci sarà pure una ragione. Che, nel nostro caso, non è poter vendere pubblicità e servizi mirati, ma valutare globalmente un piano nazionale (non il coding), e per una volta non a posteriori.
E’ un suggerimento per il terzo anno…

Diretti o usabili? forse non basta che siano open…

Ott
05

Raw open, now. Va bene come monito alla pubblica amministrazione,  ma dal punto di vista di chi con quei dati voglia fare qualcosa  è importante anche la maniera in cui i dati sono accessibili. Linkati, daccordo, ma anche significativi, puliti, comprensibili, tradotti. E forse l’accesso diretto al file non è sempre la maniera migliore. Per fortuna ci sono altre possibilità, come quella di inserire, accanto all’accesso diretto ai file, uno strato di API dedicato ad operazioni di livello superiore, come la ricerca,  il confronto, il commento.

La possibilità di accedere agli opendata tramite API standard significa offrire ad imprese e cittadini che vogliano sviluppare applicazioni due vantaggi principali: la semplificazione dell’accesso e e la garanzia che un’applicazione che si appoggi sulle API possa essere utilizzata senza modifiche anche in altre città, a prescindere dalla struttura dei repository adottata. Diversi progetti europei hanno adottato questa filosofia (da CitySDK a  Fiware) e offrono alle città intelligenti una maniera unica per presentare i dati del turismo, della mobilità e – perché no – del lavoro.

Se siete a Bologna per la Smart City Exhibition di quest’anno, siete invitati a discuterne il 23 Ottobre alle 10 nel laboratorio gestito in collaborazione da Istituto Italiano OpenData, Lynx e Rete Italiana OpenSource.:

Open data per le smart cities – uno spazio europeo unico attraverso le API

http://www.smartcityexhibition.it/it/open-data-le-smart-cities-uno-spazio-europeo-unico-attraverso-le-api

 

Opendata anche domani

Dic
22

Tra le ragioni degli opendata sento raramente citare quella che secondo me si potrebbe definire come un’assicurazione sulla vita dei dati stessi.
Dati aperti significa leggibili adesso, da tutti, ovunque.
Un elemento che viene poco preso in considerazione è il tempo.

Rispetto al tempo, sono due le dimensioni interessanti nella valutazione dei dati:
– la persistenza
– la rappresentatività
La persistenza è la probabilità che i dati non vengano aggiornati in tempi troppo rapidi.
La rappresentatività  è la probabilità che i dati mantengano significato nel futuro perché “fotografano” una situazione che può essere confrontata con altre.

Per esempio, i nomi dei deputati e senatori eletti in una certa legislatura non sono soggetti a cambiare nel tempo, quindi hanno un’alta persistenza; ma non ha molto  senso confrontare questi dati con quelli di un’altra legislatura, quindi hanno una bassa  rappresentatività.
Se invece prendiamo  gli stipendi percepiti dagli stessi deputati e senatori possono essere confrontati in serie storiche per valutare la dipendenza dall’inflazione, è probabile che si tratti di informazione a bassa persistenza (dura una sola legislatura) ma alta rappresentatività.

Ora proprio quando siamo in presenza di dati con bassa persistenza e/o con alta rappresentatività è molto importante poter contare in futuro sulla possibilità di leggere quei dati con la stessa o con altre modalità, ma che soddisfino ugualmente i requisiti dei dati aperti (lettura automatica, possibilità di correzione di errore).
Si possono fare infiniti esempi: dai dati restituiti dalle centraline per il controllo della percentuale di CO2 a quelli sui lavori disponibili presso i centri per l’impiego.

Secondo Tim Berners-Lee, gli opendata possono essere “premiati” con delle stelline in base ad alcune proprietà fondamentali (essere pubblici, machine-readable, in formati aperti, referenziati univocamente, linkati). /
Lo stesso Berners-Lee ha sostenuto spesso che comunque è meglio pubblicare, in qualsiasi modo (“raw data now!”), piuttosto che non pubblicare. Ma se si guardano le tipologie dei dataset pubblici se ne trovano ancora pochi che possono fregiarsi di almeno tre stelle.

Quando i dati vengono pubblicati come CSV, vuol dire che sono file in formato ASCII in cui i campi sono separati da virgole o punto e virgola e i record dal caratteri di acapo. Non è il massimo, ma è leggibile con qualsiasi sistema operativo e qualsiasi editor di testi. ASCII è uno degli standard più longevi; creato nel 1968, definito come standard ISO dal 1972 (ISO 646), benché limitato a solo 127 codici  è sopravvissuto anche perché inglobato nel più recente e potente UTF , che consente di rappresentare virtualmente quasi tutte le lingue del mondo, passate e presenti.

Quando i dati vengono pubblicati come fogli di calcolo (che almeno per le PA  Italiane equivale a dire XLS ,cioè MS Excel)  possono contenere oltre ai dati veri e propri anche indicazioni di formattazione, grafici, metadati (data, autore, programma). Ma quello che è significativo è il fatto che il formato XLS è di per sé proprietario, binario, non basato su standard internazionli pubblici.
Il formato è stato documentato pubblicamente da MS a partire dal 2008, quando il formato standard per i documenti Office è diventato OOXML, che è divenuto anche uno standard ISO alternativo a quello OASIS, riconosciuto due anni prima e adottato da diversi paesi.
Oggi  è possibile leggere i file XLS anche utilizzando un programma diverso da quello con cui è stato scritto (anche se la realizzazione di tale software potrebbe violare delle patenti). Ma domani? Potrebbe semplicemente non essere più disponibile alcun programma in grado di farlo.
Non è uno scenario fantascientifico. Basti guardare quel che è successo con formati che sembravano incrollabili, come quello dei documenti WordStar.  La mia personale vicenda con un file Wordstar è raccontata qui.

La soluzione più elegante e potente è quella di utilizzare un formato basato su XML, che – oltre a poter in teoria contenere anche indicazioni sul significato dei dati, e non solo informazioni sulla loro posizione nella tabella – poggiandosi su UTF 8 sembra garantire una leggibilità futura.

I file XLSX e ODT (ma anche i meno conosciuti  .gnm prodotti con Gnumeric) sono  appunto basati su XML – anche se seguono standard diversi – ma sono entrambi compressi con l’algoritmo ZIP, che è uno standard de facto, creato nel 1989 da Phil Katz e con specifiche pubbliche.
ZIP è un contenitore di file diversi, i quali possono essere compressi separatamente e protetti con algoritmi differenti (come AES). Purtroppo ZIP non è regolato da uno standard internazionale. Il che significa che, in teoria, potrebbe un giorno diventare obsoleto…

In conclusioni, parafrasando Berners-Lee, si potrebbe dire “We want raw data now and tomorrow”.

 

My ECM

Lug
03

MyECM è il nuovo servizio online di Age.na.s.
Come indica il prefisso, è il punto di accesso personale ai dati relativi alla formazione continua in medicina per ogni medico o infermiere. Un punto unico dove tenere sotto controllo i crediti ottenuti, ma anche gli eventi formativi in arrivo, filtrati in base al proprio profilo professionale.
Il servizio è appena stato pubblicato (28 Giugno 2013), e ancora soffre di qualche bug, che sarà presto corretto. Alla data in cui scriviamo, è temporaneamente sospeso per motivi tecnici.
Si tratta sicuramente di una buona iniziativa, che forse potrebbe ancora essere migliorata.


Il nome: è originale?

Si capisce il senso che si è voluto dare al servizio: nuovo, aggiornato, in linea con il web 2.0. Fa un po’ ilverso a MySpace (uno dei primi Socal Network) e a infiniti altri “my*”. Sorvoliamo sull’incrocio linguistico; purtroppo “MyECM” esisteva già: è il nome di un software per la gestione degli eventi ECM, e persino il dominio .it era già stato registrato. Si rischia di creare fraintendimenti non voluti: ci sono connessioni? è lo stesso software? l’azienda è coinvolta nello sviluppo?
Insomma, non si poteva scegliere qualcosa di più originale?

I dati: sono aperti?

Siamo entrati, volenti o nolenti, nell’era dell’opendata, anche per obbligo di legge (vedi il Decreto Sviluppo). Sarebbe bello – o forse anche necessario – che il servizio mettesse a disposizioni dei cittadini e delle imprese interessate un endpoint RESTful che permetta di interrogare l’archivio degli provider e degli eventi accreditati, o semplicemente una URL da cui ottenere i dati in un qualsiasi formato aperto. Questo permetterebbe di effetturare statistiche, rappresentazioni, o ricerche aggiuntive rispetto a quelle possibili tramite il modulo di ricerca presente sul sito Age.na.s.
Lo stesso discorso, con attenzioni ulteriori per la provacy, potrebbe essere fatto per i dati dei singoli utenti registrati. Ad esempio, un servizio del genere permetterebbe ad una ASL di verificare i crediti ottenuti dai propri dipendenti in maniera automatica, in modo da poterli pubblicare nell’area riservata del proprio portale, e magari mandare un reminder a quelli indietro con il programma.

I provider: quale strategia?
Sarebbe interessante capire quale è la strategia complessiva di Age.na.s. Attualmente i provider forniscono i dati degli eventi, e Age.na.s li raccoglie e permette al singolo utente di effettuare una ricerca solo attraverso il suo portale. In questo momento, l’architettura è a forma di stella, con Age.na.s al centro. I vertici periferici non sono collegati fra di loro, e non possono nemmeno avere un accesso completo ai dati globali. Un provider che volesse capire quali sono i suoi “competitor” nel proprio settore, o quali aree dell’ECM non sono sufficientemente coperte, non ha modo di farlo, se non effettuando una ricerca a mano.
Una struttura a rete sarebbe probabilmente più utile a tutti, permetterebbe di risparmiare risorse e ottimizzare il servizio, con vantaggio per tutti.

Innovazione digitale e lavoro

Feb
05

La giornata dedicata da Stati Generali dell’Innovazione ai prossimi appuntamenti elettorali si è svolta il 4 Febbraio 2013 presso il CNR di Roma con la partecipazione di almeno una quindicina degli oltre settanta candidati che ne hanno sottoscritto la Carta di Intenti.
Il tema del lavoro è stato purtroppo il grande assente della manifestazione, in un’Italia fotografata dall’ISTAT a dicembre 2012 con questi dati agghiaccianti:
“Il numero di disoccupati, pari a 2 milioni 875 mila, registra un lieve aumento (+4 mila) rispetto a novembre. Su base annua la disoccupazione cresce del 19,7% (+474 mila unità), l’aumento interessa sia la componente maschile sia quella femminile.
Il tasso di disoccupazione si attesta all’11,2% […]
Tra i 15-24enni le persone in cerca di lavoro sono 606 mila e rappresentano il 10,0% della popolazione in questa fascia d’età. Il tasso di disoccupazione dei 15-24enni, ovvero l’incidenza dei disoccupati sul totale di quelli occupati o in cerca, è pari al 36,6%, in calo di 0,2 punti percentuali rispetto al mese precedente e in aumento di 4,9 punti nel confronto tendenziale.”

Può l’innovazione digitale creare nuovi posti di lavoro? Se si, di che tipo, dove, come?

Durante il convegno ci sono state, in effetti, delle dichiarazioni di intenti. Ora, alla semplicistica equazione “opendata + servizi offerti dalle imprese = aumento del PIL” si dovrebbe sostituire un ragionamento più complesso. Qual è il modello di business che sosterrebbe questo aumento di PIL? da dove proverrebbero e dove finirebbero i ricavi prodotti? Se, ad esempio, l’unico beneficiario dell’apertura dei dati è la multinazionale X sufficientemente potente da poter sviluppare (fuori dall’Italia) il software necessario per utilizzare i dati e da venderlo a tutti i cittadini Italiani, significherebbe che il costo di quei servizi sarebbe spostato dalla PA ai cittadini, con un vantaggio solo per quella multinazionale e uno svantaggio per chi quel servizio non può acquistarlo. D’altra parte sostenere che il modello di business degli opendata sia solo quello (ancora tutto da dimostrare) della vendita delle app è un po’ riduttivo. Leggete, ad esempio, l’articolo di Jeni Tennison o lo studio di Enrico Ferro e Michele Osella .

Probabilmente però l’innovazione digitale piace ai politici per un altro motivo: innovazione digitale significa automazioni di processi, servizi online, dematerializzazione, insomma diminuzione della spesa pubblica improduttiva. Che, almeno in alcuni casi, fa rima con taglio di posti di lavoro.
Ora sembra che lo stato, come ogni buona massaia, sia virtuoso se spende di meno, se non “butta via i soldi”. E in effetti sembrerebbe che se – fermo restando lo standard di servizio al cittadino, o addirittura aumentandolo – si riesce a spendere di meno, tutti ci guadagnano. Però questa che sembra una deduzione ferrea nasconde un elemento critico: non pagare per offrire servizi può significare che qualcuno lavora di meno o per niente. Insomma c’è almeno uno che ci rimette: quello che viveva del lavoro necessario a fornire quel servizio. Per esempio: tutto va su cloud, magari all’estero. Bene, e il tecnico che gestiva i server del data center che fine fa?
Un esempio interessante proprio nel campo degli opendata: durante il dibattito uno dei candidati ha sostenuto che il passaggio agli opendata, nel suo Comune, è stato a costo zero. “Impossibile” protestano dalla platea. “Invece si”, risponde lui, “perché l’ho fatto io da solo”. Quindi i cittadini di quel Comune hanno pagato una parte degli emolumenti ad un amministratore perché svolgesse, invece delle sue funzioni proprie, quelle di un tecnico informatico esterno (visto che all’interno non esistevano le competenze necessarie), che altrimenti avrebbe dovuto essere pagato. Gratis si, ma solo in apparenza.
Insomma, quasi un paradosso: l’innovazione digitale deprime il mercato del lavoro, invece di stimolarlo.

L’innovazione produce inevitabilmente obsolescenza di professioni, e quella digitale ancora di più. L’operaio è sostituito dalla macchina – ma anche il portalettere sostituito dall’email. Quando però non si tratta di un semplice comportamento naturale osservato dall’esterno, ma di uno dei punti della strategia con cui si vuole risollevare un Paese, non è sufficiente accettare questa perdita di lavori e professionalità come un male necessario. Non si tratta di protezionismo: l’innovazione digitale come manifesto elettorale deve prevedere, da subito, anche un progetto complessivo per aprire nuove strade professionali al posto dei sentieri interrotti. E gli opendata possono essere una di queste strade.
Non serve pensare a grandi riforme. Se ad esempio ogni Comune spingesse gli istituti tecnici e professionali ad indirizzo informatico a prendere in considerazione il settore degli opendata e a insegnare a sviluppare apps e webapps che ne fanno uso; se li invitasse ad avviare stages negli uffici comunali per partecipare al processo di raccolta, pulizia, organizzazione e pubblicazione degli opendata; se promuovesse l’intero processo tra le associazioni di imprenditori locali, facilitando la nascita di concentratori locali che permettono di aprire un’impresa digitale senza sostenere le spese di una struttura fisica, tutto questo creerebbe le condizioni future non solo per una riduzione di spesa (probabilmente la cooperativa di giovani locali ha un costo orario inferiore a quello di una grande struttura nazionale), ma anche per la creazione di nuove professioni e nuovi soggetti imprenditoriali a livello locale, e quindi davvero per un aumento del PIL e per una redistribuzione equa delle risorse.

Ridurre la spesa non è valore di per sé, se il soggetto è lo Stato. Lo è se, ad esempio, le risorse invece di andare all’estero restano in Italia e vanno a sostenere i giovani; se vengono distribuite diversamente, equamente, tenendo conto di parametri come il genere, l’età, la capacità.
O, per tornare ai temi di questo blog, se invece di licenze di software vengono pagati servizi offerti da professionisti per installare, modificare, aggiornare e manutenere il software. Per inciso, condizioni che si verificano quando si privilegia il modello OpenSource, dove non è tanto significativo l’importo del risparmio (qualcuno dice anche che non c’è), quanto la quota di spesa che viene “investita” in formazione, in sviluppo, insomma in lavoro anziché in merci.

Educational Opendata

Gen
28

Il collegamento tra liberazione dei dati ed evoluzione delle competenze (vedi Platone, Stallman e gli OpenData) potrà sembrare un po’ azzardato in un momento in cui gli investimenti sulla formazione (sia professionale che di base) sono un po’ carenti, per usare un eufemismo. O peggio, si investe su una formazione che guarda al passato, invece di precorrere i tempi della nuova ondata di cristallizzazione delle competenze a cui stiamo assistendo appunto con il fenomeno degli opendata.
Ma non è un caso che la formazione resti sempre un po’ fuori dai riflettori.
Uno degli usi meno citati quando si parla di opendata è proprio quello relativo all’educazione. E’ vero che nel portale opendata del Ministero dell’Istruzione Italiano sono disponibili i dati relativi alle scuole e agli attori del sistema, anche se di non facilissima interpretazione (avete provato a rispondere alla domanda “quanti alunni nel Lazio abbandonano la scuola nel primo anno” ?). Sono presenti quattro categorie di dati:
– Anagrafe strutture (l’elenco degli istituti, georeferenziati; contiene anche quello delle attrezzature informatiche)
– Alunni (immatricolati, ingresso, uscita, diplomati, ripetenti, abbandoni, …)
– Personale (in servizio, trasferiti, pensionati, assenze per malattia e maternità, …)
– Finanze (ovvero gli importi e le provenienze delle entrate).
I dati sono accessibili anche tramite una app per Android sul market place di Google Open Data Scuola.
Sicuramente si può fare di più, questo è solo l’inizio, come correttamente si riconosce nel colophon del portale stesso. Questi dati soddisfano solo in parte quelli elencati nel questionario legato all’OpenDataDay Italy sotto la voce “Formazione”: asili, scuole, università, istituti di formazione privati (con informazioni su accessibilità, numero di iscritti, tassi di abbandono, risultati, turn-over docenti, assenze, corsi di formazione, …). Ma in effetti la scuola che emerge da questi dati è un luogo piuttosto triste in cui, per dire, non si capisce bene cosa ci si va a fare.
Qui “educativo” si riferisce al dominio dei dataset: dati relativi alle attività educative. Le motivazioni che spingono al riuso ricadono nell’ambito del diritto alla trasparenza, uno dei due capisaldi dell’opendata – l’altro è quello dello sviluppo di un mercato nuovo, difficilmente applicabile nel caso di un elenco di aule o di ripetenti.
Breve escursione oltre confine. Negli USA è stata lanciata a gennaio 2012 la Education Data Initiative  che punta a rendere i dati collegati con l’educazione accessibili e machine-readable. In sintesi, il progetto mira a rendere disponibili quattro tipi di dati:
– Data about individual learners (MyData Initiative)
– Data about learning resources (Learning Registry)
– Data about competencies (Open Badges)
– Raw data sets
E’ già qualcosa di più, se non altro per la visione più larga, che include anche le competenze e le risorse didattiche. Ma la domanda è se oltre alla trasparenza e al business ci possa essere un’altra motivazione per l’apertura dei dati. La risposta (che sorpresa…) è che si potrebbero usare per migliorare l’educazione.
Attualmente l’educazione prevede nella stragrande maggioranza dei casi l’uso di libri cartacei o semi-digitali, che contengono una sintesi verbale delle informazioni, accompagnata da alcune tabelle e grafici riassuntivi e dall’inevitabile corredo multimediale (per la verità un po’ povero di contenuto informativo). Che il tutto stia su supporto cartaceo o digitale, che sia raccolto in un cd o in un sito, che sia utilizzato dallo studente con il suo tablet personale o in classe davanti ad una LIM, non fa poi molta differenza, almeno dal punto di vista di questo articolo. Ci sono due problemi qui: il primo è che i dati diventano presto obsoleti, soprattutto i dati relativi alla vita e le attività delle persone (i fatti). Chi di voi è genitore sa che questa è la porta maestra per giustificare il rinnovo annuale dei testi scolastici…  Il secondo è che inevitabilmente il libri presentano una scelta limitata di dati, sia qualitativa che quantitativa. Pur riconoscendo l’utilità e anzi la necessità di un discorso che presenti e riassuma concetti e interrogativi in forma comprensibile per gli studenti delle diverse età e livelli di competenza, è sui dati stessi che si potrebbe forse fare qualcosa di più. Raw data now…
Immaginate di avere a disposizione i dati aggiornati ed aperti relativi alla geografia economica di una Regione (dati dell’industria, del turismo, PIL,  reddito pro capite, …). E che questi dati siano – se non proprio Linked Open Data – georeferenziati e incrociabili con le mappe della Regione stessa. E che – udite udite – sopra questi dati venissero collocati semplici strumenti di rappresentazione grafica come quelli proposti da Recline della Open Knowledge Foundation.
Le scuole del territorio dotate di connessione Internet (e di LIM), da quelle primarie fino ai professionali, potrebbero accedere direttamente ai dati e utilizzarli per le attività tipiche di un modelli di “didattica per scoperta”: invece di accontentarsi di dati già filtrati e obsoleti, potranno direttamente andare a verificare come stanno le cose, andare a toccare con mano le connessioni tra la geografia e l’economia, tra gestione dei beni culturali e turismo, etc. Grafici e mappe interattive potrebbero essere dinamici, aggiornati agli ultimi dati disponibili ma anche configurabili in base a diverse domande degli studenti, permettendo loro di selezionare i dati da mostrare e gli incroci più interessanti (che so: turismo e viabilità, produzione di energia solare e abbandono dell’agricoltura).
Il discorso non vale solo per la geografia, ma anche per la storia, insomma per tutte le discipline in cui i “fatti” siano considerati centrali rispetto alle “regole” da apprendere.
Accanto ai dati numerici si potrebbero immaginare dati lessicali, bibliografici, per lavorare anche sugli aspetti linguistici. La pubblicazione integrale del testo delle leggi dell’Italia, dal 1870 ad oggi, potrebbe per esempio consentire ricerche su temi specifici, come l’evoluzione dei diritti dei cittadini Italiani.
Occorrerà dare attenzione all’usabilità (in senso ampio) del portale dei dati educativi, prevedendo un percorso tra i dataset pensato appositamente per gli studenti. Le scuole dovrebbero essere coinvolte nelle attività di disegno del progetto, a partire dagli “Open Data Day” locali; agli studenti e ai docenti dovrà essere richiesto di partecipare alla proposta di nuovi dataset, o al perfezionamento della struttura di quelli esistenti.
Mi auguro che questo modo di intendere gli opendata trovi interesse tra gli enti pubblici (come il MIUR stesso, ANSAS o il CNR) ma anche, perché no, presso gli editori scolastici, che così darebbero un senso a quella “parte digitale” dei libri scolastici che ad oggi francamente rischia di lasciare il tempo che trova.

Platone, Stallman e gli OpenData

Gen
24

Un processo continuo, che dura da tremila anni, di cristallizzazione delle competenze in oggetti per sostituire la mediazione diretta tra persone.
Il primo a descriverlo è Platone nel Fedro, ma Stallman parla delle stesse cose con un linguaggio un po’ diverso. E se un giorno tutte le conoscenze fossero racchiuse in oggetti, potremmo fare a meno della scuola?

A. Oralità e scrittura.

Platone (Thamus) rigetta l’invenzione della scrittura per i suoi effetti negativi sull’esercizio della memoria (vedi calcolatrici etc) e perché la fissazione della conoscenza su di un supporto tramite un sistema di segni la rende appunto indipendente dal rapporto tra insegnante e discente (“divenuti , infatti , grazie a te , ascoltatori di molte cose senza bisogno di insegnamento”) e perché produce una falsa consapevolezza di conoscenza (“saccenti invece che sapienti”).
Più avanti nel dialogo: il testo (come discorso scritto) sembra abbia una propria vita, ma in realtà (a) ripete sempre la stessa cosa, e (b) a tutti indistintamente. Non solo quindi è noioso, ma non sa distinguere chi può capire e chi no e non è in grado di adattarsi a destinatari diversi. Il testo scritto non può differenziarsi e rivolgere “a un’anima complessa discorsi complessi e dai molteplici toni , a un’anima semplice discorsi semplici”.
Infine, il testo scritto non si può difendere da sé, ma ha sempre bisogno dell’autore che gli porti aiuto, cioè che risponda alle obiezioni precisando ciò che era generico, espandendo ciò che era solo accennato, chiarendo ciò che era oscuro. In sostanza, il discorso scritto è quel discorso; il discorso orale è una matrice di possibili discorsi.
Il discorso scritto, il testo, non è però inutile, perché può riaccendere quello orale: funziona come supporto alla memoria di chi l’ha scritto, dice Thamus, ma non sostituisce quello orale, e non può servire come veicolo per l’insegnamento senza l’insegnante. Anzi, rischia di produrre discenti che credono di sapere ma non hanno veramente capito.
Il vero discorso è quello orale, che produce altri discorsi (figli e fratelli di quello) nella mente degli ascoltatori.
Il filosofo media tra le idee ( (ma anche le idee sono conoscenze cristallizzate?) e l’anima del discente, tramite il discorso orale. Il punto non è tanto il supporto (orale o scritto, analogico o digitale) ma il fatto che sono necessarie competenze specifiche per questa mediazione: conoscenze dei rapporti tra le idee (dialettica) e del livello di competenza raggiunto dal discente. Queste competenze servono a permettere al filosofo di adattare il suo discorso per mettere il discente in contatto con le idee. Sono almeno di due tipi: quelle relative al dominio e quelle relative al destinatario. Queste ultime, a loro volta, sembrano essere composta dalle competenze necessarie per la valutazione delle capacità del discente e dalle competenze necessarie per ripensare gli argomenti, il loro ordine e la loro esposizione in funzione di quelle capacità.

Il libro sta al discorso come la pittura sta alla natura (e nel futuro che per noi è passato, come il disco sta al concerto e il cinema al teatro). Ma a Platone interessa solo la parola, il discorso che serve a convincere e a insegnare la verità. Un’intera classe, quella dei filosofi, è il corrispettivo sul piano sociale, è la garanzia che non sia sempre di nuovo necessario per ogni individuo riscoprire personalmente (tramite la reminiscenza) la verità.

B. L’era della riproducibilità tecnica
Il testo scritto come conoscenza cristallizzata, fissata nel tempo ma mobile nello spazio (distribuita senza il suo autore) è un oggetto anticipato da Platone, ma reso veramente possibile con la stampa, che di quella prima copia permette infinite copie.
Con il testo scritto, il lavoro dell’insegnante viene reso non più indispensabile; l’esistenza delle oggettivazioni della conoscenza gli fanno perdere valore. Anche a prescindere dalla facilità con cui il testo viene riprodotto in copie e viene distribuito nel mondo, e dal costo di questa operazione, si può apprendere anche senza un insegnante, purché naturalmente si sappia leggere – in tutti i significati di questo termine.
Duemilatrecento anni dopo, è la critica luddista ai telai meccanici e all’organizzazione del lavoro che rende gli operai inutili o quantomeno asserviti alle macchine.
Tuttavia storicamente con la diffusione del testo scritto (e la riduzione dell’importanza dell’insegnamento orale?) nascono altri lavori: il lavoro dello scrittore, dell’editore, del distributore di libri, fino al bibliotecario. Lavori che implicano nuove competenze, che a loro volta diventano oggetto di formazione.
La cristallizzazione non è definitiva e non funziona mai completamente. Platone osserva che il discorso scritto non si può difendere da sé; i testi singoli vanno commentati, raccolti, tradotti, non possono essere usati da tutti nella loro forma originaria.
Inoltre il lavoro di insegnante non scompare, ma si trasforma, e questo Platone lo intuisce. Nascono nuove figure di “insegnante”, non più autosufficienti, ma che da un lato “spiegano” i libri (Platone dice che gli “portano aiuto”), dall’altro li utilizzano come supporti temporanei. I nuovi docenti forniscono le meta-informazioni che consentono di capire i testi, e dall’altro il loro stesso discorso non deve essere completo, ma può sintetizzare, rimandare ad altro per gli approfondimenti. Il discorso non deve più essere unitario e autosufficiente, può essere parziale, specialistico.
C’è un altro aspetto importante: le conoscenza cristallizzate non sono davvero accessibili come il discorso orale. Intanto per accedere alla conoscenza cristallizata bisogna saperla estrarre, il che nella nostra cultura significa “leggere”, e almeno questa competenza alfabetica deve essere insegnata direttamente.
Ma non basta. Anche i testi sacri rivolti a tutti, come la Bibbia e il Corano, hanno bisogno di essere tradotti e interpretati da esperti (almeno, secondo alcune delle religioni che si appoggiano su di essi). Il docente/interprete è riconosciuto necessario ovunque, e di nuovo stimato.
Con un salto di secoli, non è diverso per l’informatica in generale. I programmi sono la quintessenza della macchina: nati per sostituire l’uomo nei lavori più ripetitivi, di fatto hanno reso inutile certe competenze, mandato in cantina certe macchine (da quella per scrivere alla calcolatrice e al registratore analogico) e mandato a casa professionisti (dal tipografo al contabile). Ma sono anche nati una serie di nuovi mestieri: analisti, programmatori,infografici etc.

C. Il web 2.0 (e ti pareva)
Il processo di cristallizzazione non si ferma, legato com’è alla democratizzazione della cultura e dell’educazione, o se si vuole alla competizione per la sopravvivenza tra mestieri.
Anche questi testi singoli vengono cristallizzati ad un livello superiore, inclusi in commentari, in sillogi, e infine in un’enciclopedia, che contiene non solo le informazioni ma anche le metainformazioni che consentono di usare le prime correttamente. L’illuminismo elimina la necessità anche degli insegnanti e delle scuole: ognuno può apprendere da solo, come Pippi Calzelunghe che imparava leggendo il dizionario in ordine alfabetico.
Non è diversa wikipedia. WP punta ad essere la cristallizzazione di tutto il sapere umano, a rendere inutili i manuali divulgativi e – recentemente con Wikivoyage – le guide turistiche.
Tutto l’uso del web 2.0 come sistema di scavalcamento dell’esperto (critico o docente, vedi Antinucci, “L’algoritmo al potere”) poggia, almeno in parte, sull’idea di congelare giudizi che valgono indipendentemente dalla credibilità riconosciuta del loro autore; o anche, sostituiscono l’attribuzione di attendibilità accademica tradizionale con un sistema di valutazione dal basso, basato sul gradimento del prodotto da parte dei molti, anziché sulla valutazione dell’autore.
Tuttavia è chiaro che più aumenta la mole dei dati, più servono competenze nuove per filtrarli, selezionarli, renderli adatti all’utente. Competenze nel progettare motori di ricerca o strumenti per il mash-up intelligente che tengono conto del profilo dell’utente (“a un’anima complessa discorsi complessi e dai molteplici toni , a un’anima semplice discorsi semplici”).

D. Opensource/data
Il free software/opensource è una risposta consapevole a questo processo storico.
Stallman dice che il valore sta dalla parte del programmatore, non del programma. E’ il programmatore che crea e soprattutto (dopo una certa fase in cui esiste una massa critica di codice sorgente) lo corregge, migliora e personalizza. Se il programma è una cristallizazione di competenze, il programmatore media tra il programma e i bisogni degli utilizzatori. Il fatto che le funzioni vengano raccolte in librerie, che si producano linguaggi di alto livello e ambienti di sviluppo integrati risponde a questa necessità, ma non cancella il ruolo dei programmatori.
La differenza qui non è quella che spesso viene percepita (o presentata) come essenziale, cioè la gratuità del software. A prescindere dagli slogan, se il software fosse tutto gratuito, e non ci fossero altre fonti di reddito, i programmatori non sopravviverebbero, e tutto si fermerebbe. Questo però non significa necessariamente che le licenze del software vadano vendute; ci possono essere modi alternativi di finanziare il lavoro dei programmatori, più o meno trasparenti: dal contributo allo sviluppo del software più promettente (come fa ad esempio Google nelle sue summer schools, o come accade negli app contest), al pagamento delle personalizzazioni e miglioramenti. Non può essere pagato solo lo sviluppo del software più commercialmente appetibile – oggi il software è essenziale per far funzionare anche settori al di fuori del business, come l’educazione o la sanità. Ma è vero che la gratuità sposta il problema dall’accesso alla selezione.
Il punto è che se i codici sorgenti sono aperti, ci sarà sempre spazio per il lavoro di programmatori, sempre più competenti, ma anche per consulenti esperti in grado di consigliare la soluzione più adatta.

E lo stesso discorso vale per gli opendata, che rappresentano in qualche modo il punto di arrivo di un progetto di democratizzazione delle conoscenze: tutte le conoscenze in possesso della PA – quindi oggettive, controllate, ufficiali – finalmente a disposizione di tutti.
Gli opendata sono informazioni (non opinioni), cristallizate in modo da poter essere usate da chiunque, senza che sia necessario rivolgersi agli esperti, agli uffici etc. Sono informazioni pubbliche, dunque (a)non si devono pagare (b)devono essere accessibili direttamente da tutti. Ma non necessariamente sono comprensibili e usabili da tutti nella loro forma originaria. Servono altri esperti, che interpretano i dati e creano LOD, che progettano e sviluppano Apps che “consumano” i dati e li presentano in maniera comprensibile a tutti, che permettono ricerche tra i dataset e i repository di tutto il mondo, che ne inventano nuove applicazioni al di fuori di quelle già esistenti. Man mano che i dataset aumentano, servono esperti che valutano i dati, li correggono. E’ già evidente oggi per i dati geografici e lo sarà a breve per quelli metereologici. Il problema non è più ottenere i dati, ma selezionarli, collegarli e presentarli nella maniera più utile e comprensibile.
La vera differenza è che quando il codice (o la struttura dei dati) è open, chiunque abbia le competenze necessarie può fungere da interprete, ed è possibile scegliere l’interprete migliore. Se è chiuso, non c’è più scelta né controllo pubblico.

E. Conclusioni
Ogni passaggio di questo tipo minaccia l’esistenza di una serie di figure professionali che sono rese inutili dalla cristallizzazione. E ogni volta nascono nuovi “mestieri della cristallizzazione”; e ogni volta si rende necessaria una nuova mediazione tra gli oggetti cristallizzati e i discenti.
Il processo ha forma di spirale, si ripete nel tempo. Ogni volta c’è un oggetto di tipo nuovo che rappresenta delle competenze che possono essere apprese senza la mediazione dell’esperto. Non è successo solo con le macchine, ma anche con la conoscenza.
Ogni volta, quelli che appartengono alle figura professionali a rischio (i filosofi, gli operai, i programmatori) si difendono, presentando l’oggetto originale di cui sono mediatori riconosciuti come “la cosa stessa”, e il nuovo oggetto cristallizzato come una sua versione limitata, impropria, pericolosa, etc. E quindi c’è chi difende il libro e il cinema contro l’ebook e YouTube.

“Dati gratis per tutti” significa che qualcuno perde il suo lavoro, e questo è un aspetto che forse non è sempre presente a chi saluta i proclami opendata con entusiasmo.
Ma significa anche che nasce un nuovo di tipo di lavoro – o che potrebbe nascere, a certe condizioni.
I timori luddisti sono giustificati – nel senso che si tratta di un processo inevitabile, che continuerà a ripetersi. Però il processo intero può essere visto non solo come una minaccia ai mestieri esistenti, ma anche come una trasformazione delle competenze, che devono sempre di più tener conto dell’utente finale oltre che del dominio.
Avere consapevolezza del processo significa non averne paura, dare valore a queste competenze miste, svilupparle.
Viceversa limitarsi a dichiarare di voler digitalizzare il mondo è un modo demagogico di crearsi consenso senza poi fornire le condizioni perché questo mondo digitale possa davvero sostenersi.

In periodo di elezioni, questo è un impegno che va chiesto a tutti i candidati: apertura della struttura delle informazioni, formazione avanzata disponibile, supporto alla creazione di nuove imprese.

WhereCamp EU 2013 a Roma

Gen
11

Locandina
Venerdi 18 e sabato 19 a Roma si tiene il WhereCamp EU 2013 http://wherecamp.eu/ . Un barcamp dedicato a mappe, dati aperti e applicazioni. Organizzato da Lynx con il supporto logistico della Provincia di Roma.
Cosa
WhereCamp Europa è una “non-conferenza” che ha come argomento le mappe e la geolocalizzazione e che trae ispirazione dalle esperienze di FooCam e del SiliconValley WhereCamp.
Chi
Cofondatore è Gary Gale, direttore di Places di Nokia. Ogni anno la geo comunità più importante d’Europa si riunisce al WhereCamp.EU
E’ un evento aperto a chiunque, e sono i partecipanti stessi che gestiscono l’agenda e le session
More
Info sui siti Lynx e
PortaFuturo

La felice stagione degli opendata laziali

Ott
05

Sei mesi fa sarebbe stato difficile da credere. Oggi il Lazio si autodefinisce, e con ragione, una regione all’avanguardia nel cammino verso gli opendata. Non soltanto la Regione ha fatto in tempo a promulgare una Legge Regionale (la terza in Italia dopo quella del Piemonte e della Puglia), ma a breve distanza sono stati aperti ufficialmente il portale opendata di Roma Capitale http://dati.comune.roma.it/) e quello della Provincia (http://www.opendata.provincia.roma.it/). Il tutto avviene nella stessa settimana in cui il Governo con l’art. 9 del secondo “Decreto Crescita” dichiara obbligatoria la pubblicazione di dati aperti da parte della PA.
Un decimo dei data set italiani è ospitato ora nel Lazio (anche se la recente infografica del portale nazionale ancora non ne tiene conto). In numeri assoluti non è molto se confrontiamo i 3300 dataset italiani con i 350.000 francesi, ma è sempre un inizio promettente.
E’ interessante confrontare le piattaforme utilizzate da Comune e Provincia, non tanto per stabilire supremazie inutili, quanto per capire meglio il significato che viene dato all’operazione di “liberazione dei dati”.

Il portale della Provincia utilizza CKAN (http://ckan.org/), un sistema che comprende un archivio, un indice e un sistema di versioning. Mostra in home page una tag cloud dei temi ricorrenti, permette la ricerca libera. I dati sono in formato XML, oltre che in CSV e in TSV. Sono resi pubblici i metadati per accedere in maniera automatica.
Il portale di Roma Capitale è molto più essenziale e punta sulla semplicità. E’ basato su Drupal, con un tema chiaro e accessibile. I dati sono in formato CSV, con alcune eccezioni in KML (per i dati georeferenziati). Copre categorie come “elezioni” o “biblioteche”.
Le due interpretazioni del valore degli opendata si possono vedere anche solo confrontando le due pagine di informazioni generali: discorsiva e “politica” l’una (http://dati.comune.roma.it/progetto), sintetica e “tecnica” l’altra (http://www.opendata.provincia.roma.it/about).
Una punta al cittadino, che può trovare e consultare informazioni senza bisogno di competenze o software particolari (il CSV si legge con qualsiasi foglio di calcolo); l’altra punta alla costruzione di servizi innovativi da parte di terzi (privati o pubblici), e quindi enfatizza l’uso di formati e protocolli standard.
Sono le due interpretazioni (in qualche modo ortogonali) del valore e dell’urgenza degli opendata: trasparenza e sviluppo. Che chiaramente sono collegate fra loro in una visione in cui democrazia significa dare a tutti le stesse informazioni e le stesse opportunità di sviluppo. Non c’è sviluppo senza trasparenza.
Sarebbe però opportuno che invece che ad una crescente differenziazione si puntasse ad una soluzione integrata che salvaguardasse sia la trasparenza (l’accessibilità) che la funzionalità (gli standard). E sarebbe meraviglioso poter dire ai cittadini e alle imprese del Lazio che presto potranno utilizzare una procedura unica, o almeno due procedure simili, per accedere ai dati del Comune e a quelli della Provincia (in attesa di quelli della Regione…).

Due considerazioni finali.
1. Oggi i dati per essere pubblicati vengono convertiti – all’interno degli uffici delle PA che li producono, presumibilmente a mano – da un formato chiuso, o non standard, ad un altro aperto. Questo processo ha un costo (in termini di tempo e di risorse consumate) e deve essere visto solo come una fase transitoria, in attesa del momento in cui i dati verranno prodotti direttamente in un formato aperto, e non avranno bisogno di essere convertiti in un secondo momento. Si tratta di un cambiamento che andrà a modificare gli strumenti utilizzati dell’ente pubblico nel suo lavoro quotidiano, che richiederà la sostituzione di elementi della catena di produzione dei dati, o più verosimilmente l’inserimento di strati intermedi che non si limitino alla conversione finale dei dati ma permettano anche operazioni di mantenimento, aggiornamento, etc.

2. Dalla considerazione precedente deriva un’altra riflessione. I dati hanno valore esclusivamente se sono validi e aggiornati. Per questo la difficoltà non è tanto pubblicare un dataset, ma assicurare nel tempo un processo di aggiornamento, verifica, correzione e validazione. Il valore di ogni applicazione (web o mobile) che voglia far uso di quei dati dipende dalla qualità dei dati stessi nel tempo. A livello nazionale non è stata definito un formato unico, né una piattaforma unica per pubblicare dati aperti.
Quello che serve ora è la definizione di un ciclo di tipo industriale che garantisca tanto i cittadini (trasparenza) che le imprese (sviluppo) che i dati pubblicati sono sempre validi e aggiornati. Dovranno essere precisati i protocolli, l’uso delle risorse, i ruoli di controllo, gli strumenti di verifica (nonché quelli normativi) che permettano di avere fiducia nella validita dei dati aperti durante tutto il loro ciclo di vita. Si tratta di un cambiamento che va a toccare i processi organizzativi dell’ente pubblico. E questo naturalmente è ancora più complesso e lungo della sostituzione di strumenti tecnologici.

E’ in queste due direzioni – sviluppo di strumenti integrati e formazione per il cambiamento organizzativo – che gli sforzi vanno concentrati ora.