steve's

Elaborazione di testi e fogli di calcolo: ma che palle…

Mag
21

Ieri ultima lezione prima delle presentazioni dei “project work” degli studenti (ovvero dei lavori di gruppo come preesoneri dell’esame). Avevo scelto un tema che  in realtà mi inquietava: elaborazione di testi e fogli di calcolo. Tradotto: Word e Excel. Il resto del corso  è stato sulle reti, i diritti dei cittadini, la privacy, l’accessibilità, e poi avrebbe dovuto toccare mappe, strumenti di collaborazione online, software didattico. Ma mi sentivo in dovere di parlare anche di strumenti che gli studenti di un’Università si suppone che sappiano usare, anche se nessuno gliel’ha insegnato.
Siccome non sono un guru di Word, non conosco a memoria tutte le funzioni di Excel, anzi per la verità non uso nessuno dei dueda quindici anni, mi sono domandato come faccio spesso: qual è la specificità di questa situazione? cosa posso proporre io a  questi studenti di terzo anno, in procinto di laurearsi, che non possano trovare su Youtube o in un libro “Word for Dummies”? Come può aiutarli il fatto che trent’anni fa ho scritto il codice sorgente di un word processor, in Pascal? Qual è il mio valore aggiunto?

Le risposte che mi sono date le elenco qui, magari sono utili a qualcun altro.
1. La storia delle tecnologie della scrittura e del calcolo (supporti, strumenti, conservazione) serve a capire che ci sono modelli d’uso che non si capiscono se non riportandoli alle tecnologie precedenti. Il Caps Lock sulle tastiere dei computer…
2. La storia serve a distinguere gli aspetti davvero nuovi da quelli di re-mediation. Invenzioni, passione. Cosa ha provato il tizio che ha inventato Visicalc, quando non esisteva niente di simile nel mondo? Perché la gente scrive programmi, inventando modi che non esistono di trattare le rappresentazioni del mondo?
3. La storia serve pure a relativizzare la maniera di fare le cose che pensiamo sia unica. La pietra è stata superata dal papiro, dalla pergamena, dalla carta, dal CDROM e dal disco a stato solido. Quando vogliamo lasciare una traccia per gli alieni sulla luna, quale supporto scegliamo? e quale formato?
4. Distinguere alcuni concetti base  può essere util a cavarsela quando le cose non vanno come pensiamo. Usiamo file di cui non sappiamo quasi nulla (chi ha mai aperto un file ODT o DOCX per vedere cosa c’è dentro?) e confondiamo formati, oggetti e supporti. Così a volte siamo bloccati.
5. Word ed Excel non sono solo programmi che fanno cose, sono ambienti dentro cui io posso fare cose. Ambienti che posso usare per scopi diversi. Li posso estendere, adattare, ridurre. Li posso collegare ad altri software. Li posso usare da solo o con altri.
6. Non c’è solo scrivere o mettere numeri, c’è anche – eventualmente, non necessariamente ! – progettare e costruire un testo o gruppo di testi, una matrice o una serie di matrici collegate. Gli artefatti digitali sono flessibili “per loro natura”: si può partire dalla fine e tornare indietro.
7. Ci sono modelli d’uso diversi e obiettivi diversi: risparmiare tempo automatizzando compiti, assicurarsi della validità dei dati, scoprire cose nuove (con le statistiche  o con la risoluzione delle equazioni lineari).
8. Prima dei menù ci sono gli obiettivi. Voglio fare questa cosa: ci saranno una o più strade per farla, me le vado a cercare. Sono ambienti da scoprire un po’ alla volta. Non serve studiare tutto il manuale prima di lanciare Excel.
9. Distinguere i dati dalla struttura di quei dati e dall’interfaccia verso quella struttura è utile, perché permette di fare più cose: strutturare diversamente i dati, applicare interfacce diverse.
10. Non conosco MS Excel 🙁 , ma conosco Libre Office Calc. Ho verificato che in generale gli studenti non sanno nemmeno che esistono alternative.E così non possono scegliere.

Alla fine è questo che ho fatto: ho provato a suggerire visioni allargate, a condividere la mia passione e creare un po’ più di consapevolezza. Tanto peggio per le tabelle pivot e i documenti master, li studieranno un’altra volta.

Perche’ i bambini devono imparare a programmare

Dic
18

Mi sono avvicinato al tema “applicazioni didattiche del digitale” per ragione emotive, estetiche. Cioè perché mi affascinava l’idea. Non avevo nessuna conoscenza e nessuna competenza. Venivo da studi classici e da una laurea in Filosofia. Fine anni ottanta.

Ho comprato un PC (senza sistema operativo) e ho cercato di vedere quello che si poteva fare. Ho letto il leggibile, ho riflettuto, ho sperimentato.

Il primo risultato della riflessione è stato: per usare i computer per l’educazione bisogna prima capire cosa è l’educazione. E prima ancora, cos’è l’apprendimento, visto che l’educazione si suppone serva a migliorare e favorire l’apprendimento.

Sono arrivato (attraverso Dewey e altre letture) all’idea che l’apprendimento non è un fenomeno di introiezione di informazioni, ma nemmeno di costruzione di strutture mentali. E’ una ristrutturazione dell’ambiente, proprio quello esterno. Nel mondo reale è difficile farlo; l’ambiente educativo è invece uno spazio/tempo progettato apposta per permettere questa ristrutturazione, e per gestirla insieme a chi apprende. Ristrutturazione che si scontra con limiti, che vengono spinti sempre più oltre. Ma che nel mondo fisico, ben presto diventano ostacoli insormontabili.

A questo punto viene in aiuto il digitale, che ha molti meno limiti. Come parte di un ambiente educativo, gli artefatti digitali (programmi, dispositivi) devono essere costruiti in modo da facilitare questa modifica dell’ambiente. Devono essere modificabili da chi li usa. Quindi come minimo si deve dare all’utente (ma che brutta parola!) la possibilità di capire come cambiarli per adeguarli. Quindi interfacce riconfigurabili a piacere, modalità operative che si possono incrementare.

L’attività di modifica di un oggetto digitale in generale si chiama programmazione. E a differenza della modifica degli oggetti fisici non ha praticamente limiti.

Quest’attivita è – o dovrebbe essere – la maniera fondamentale, in un ambiente educativo, per interagire con il software. Qualsiasi software: che sia un gioco o un programma di videoscrittura (sono i campi dove ho fatto un po’ di esperimenti), o per fare calcoli, o simulazioni, etc etc. E i software devono essere costruiti in modo da permetterlo, a diversi livelli. Tecnicamente e legalmente. Trascinando pannelli o programmando.

 

L’obiettivo non è imparare a programmare, né per assicurarsi un futuro, né per sviluppare abilità logico-matematiche. L’obiettivo è imparare meglio con strumenti che sono pensati apposta per questo.

Creative computing from scratch

Dic
13

Scratch è ormai diventato una moda. Quando si parla di “coding”, di programmazione per bambini, si parla inevitabilmente di Scratch. Questa equazione mi infastidisce un po’, come se non si potesse giocare con la programmazione in altro modo, come se Scratch avesse una patente speciale e tutto il resto non fosse mai esistito. Questo naturalmente non è colpa di Scratch e dei suoi creatori, ma è una miopia tutta nostra. Probabilmente in Italia non è chiaro nemmeno il significato del nome: “scratch” è la linea di partenza di una corsa. Costruire qualcosa “from scratch” significa cominciare da zero.

Penso di fare un servizio utile provando a fare un po’ di chiarezza intorno al tema, all’oggetto Scratch e al suo modello didattico. Credo che chiunque voglia organizzare un pomeriggio di gioco con Scratch – ma come ho già scritto in precedenza, non basta un pomeriggio – dovrebbe almeno riflettere un po’ su questi argomenti.

 

Perché Scratch? Cosa ha di particolare? Almeno due aspetti mi sembrano alla base della sua fortuna. Ed entrambi meritano analisi e discussione.

  1. Il fatto che intorno a Scratch ci sia una comunità internazionale. Scratch è una “online community where children program and share interactive stories, games, and animations”. Bisogna quindi essere necessariamente connessi per programmare? In realtà esiste un editor offline, basato su Adobe Air. E’ una scelta strana per il MIT; né Adobe Air né l’editor offline sono OpenSource (a differenza di quasi tutti gli altri ambienti dello stesso genere). Non ho idea di quanti usino la versione offline, talmente è più facile utilizzare la versione online. In ogni caso c’erano, e ci sono ancora, anche altre comunità dello stesso genere. Quasi ognuno degli ambienti di programmazione per bambini ha un team di sviluppo che mantiene un sito con esempi, suggerimenti, guide. La comunità intorno a Scratch è la più recente, probabilmente la più attiva, non necessariamente la più interessante. Potrebbe valere la pena andare a curiosare anche nelle altre.
  2. Il fatto che non sia necessario scrivere codice sorgente (il che è piuttosto curioso, visto l’uso continuo del termine “coding”). La questione è rilevante. Uno dei passaggi chiave nella storia degli ambienti di programmazione per bambini è proprio il passaggio dalla scrittura di codice alla programmazione visuale. Significa che invece di scrivere “if questo then quest’altro” il programmatore deve trascinare oggetti grafici, disporli in un certo ordine, e scrivere solo dati all’interno di buchi (le variabili). La sintassi è affidata alla posizione degli oggetti, la semantica alla scrittura. Ci sono enormi vantaggi: il rischio di commettere errori di sintassi è annullato, la struttura del codice è rappresentata in forma visuale ed è più comprensibile con uno sguardo d’insieme. Si introduce però uno iato forte tra l’attività presente (visuale) e quella futura (scrittura). Infatti gli ambienti di programmazione visuale per adulti professionisti sono piuttosto pochi, dedicati di solito a domini specifici come il multimedia e, nel 99% dei casi, un programmatore scrive o modifica codice scritto. Ci sono degli evidenti vantaggi anche nell’uso della scrittura: un codice scritto in qualsiasi epoca e in qualsiasi linguaggio può essere modificato con un editor di testo (se la licenza lo permette). E abituarsi a leggere e rileggere, vale per un testo scritto in una lingua naturale come per un codice sorgente, non è un’attività poco utile nella vita.

Scratch nasce al MIT nel 2003 con un grant della NSF, in collaborazione con diverse altre università statunitensi (Pennsylvania, Harvard, Washington e altre). Tra i ringraziamenti, vengono citati Seymour Papert e Alan Kay, ovvero l’autore del LOGO e uno degli inventori della programmazione orientata agli oggetti e delle finestre, nonché di Squeak, Etoys e Tweak.

La storia degli ambienti di programmazione per bambini – in cui Scratch affonda le radici – è infatti molto lunga. A partire dal LOGO (1967 !) e i suoi derivati (StarLogo/NetLogo, 1999) passando per ToonTalk (1992), Stagecast Creator  (1996),  SmallTalk/Squeak/ (1996), Etoys (1997), Alice (1999),  fino al recente AppInventor per Android (2010). Una lista completa la trovate qui: http://en.wikipedia.org/wiki/Visual_programming_language.

Ognuno ha delle particolarità interessanti. Ad esempio Alice era basata sul modello della programmazione orientata agli oggetti, NetLogo sugli agenti concorrenti, Stagecast Creator sulle programmazione per regole. Sono tutti modelli alternativi alla programmazione “imperativa” (che è la più vecchia, quella in cui si comanda il computer con istruzioni e test, IF_THEN_ELSE), modelli che oggi sono studiati ed adottati su larga scala.

L’autorità principale dietro Scratch, Mitch Resnik (LEGO professor al MIT Media Lab), parla degli obiettivi del progetto in questi termini: “Quando qualcuno impara a programmare con Scratch impara allo stesso tempo importanti strategie per risolvere problemi, creare progetti e comunicare le proprie idee.” Le stesse idee sono espresse nella guida del 2011 pubblicata dall’Università di Harvard (http://scratched.gse.harvard.edu/sites/default/files/CurriculumGuide-v20110923.pdf). La guida è una miniera di idee e contenuti, declinati in 20 sessioni didattiche. Nell’introduzione si dice fra l’altro:

“Engaging in the creation of computational artifacts prepares young people for more than careers as computer scientists or as programmers. It supports young people’s development as computational thinkers – individuals who can draw on computational concepts, practices, and perspectives in all aspects of their lives, across disciplines and contexts.”

Il pensiero computazionale (traduzione dubbia; ma in questi casi è difficile resistere al calco) è quindi visto come una maniera di affrontare i problemi della vita, attraverso concetti come sequenze, cicli, parallelismo, eventi, condizioni, operatori e dati. Le pratiche che vengono incoraggiate come più adatte sono “essere iterativi e incrementali, verificare e correggere, riusare e mescolare, astrarre e modulare”.

Da un lato questa visione mi attrae, dall’altra devo confessare un po’ di spavento. Davvero i problemi reali vanno affrontati in termini di algoritmi formalizzabili? Davvero le azioni nei complessi contesti quotidiani vanno regolate in funzione di condizioni, operatori e dati? I bambini devono giocosamente imparare a comportarsi nella vita come automi perfettamente informati?

Persino l’idea dell’introduzione giocosa alla programmazione, per preparare i futuri sviluppatori di cui avremo bisogno nei prossimi dieci anni, andrebbe esaminata un po’ di più prima di essere accettata come una verità incontestabile. Non solo perché nel comparto informatico ci serviranno molte figure professionali diverse dagli sviluppatori; e non solo perché la programmazione richiede tanta creatività nell’inventare quanta abilità nel portare a termine l’idea.

Il punto centrale, il fulcro, è la strategia didattica.

Che “chi impara prima, impara meglio”, sembra essere un proverbio uscito dalla saggezza popolare, e quindi poco discutibile. Per diventare un musicista, un ballerino, un calciatore, un cantante, bisogna cominciare da bambini. Vale anche per le lingue straniere, vale anche per la matematica. Lo sappiamo per esperienza. Vale anche per la programmazione dei computer? Beh, qui troppi dati statistici non ci sono, dobbiamo procedere per analogia; e le analogie vanno tenute sotto controllo perché tendono a sfuggire.

Come si insegna ad un bambino una materia complessa, composta di tecnica e conoscenze, senza che le difficoltà impediscano i progressi?

Tradizionalmente, abbassando il livello della qualità richiesta, semplificando gli obiettivi, ma lasciando intatti gli elementi e le regole. Non si insegna ad una bambina di sei anni a suonare il violino con uno strumento con due sole corde, ma con un violino ¾, che ha la stessa complessità di uno 4/4 . Ma c’è una sterminata letteratura didattica composta per guidare lo studente dal facile al difficile. Non si semplifica il contesto, si modulano le richieste. La strategia didattica è lineare: c’è una gradazione infinita di modi di far vibrare una corda, e chi apprende procede lungo questo sentiero infinito. Limiti: la bambina si annoia, soprattutto se non capisce dove la porterà questa lunga strada, perché i risultati iniziali non sono troppo incoraggianti. Finirà probabilmente per abbandonare.

C’è un altro modo, più moderno: si crea un ambiente “didattico”, semplificato, in cui elementi e regole sono ridotti rispetto all’originale. Un flauto con i tasti invece dei fori; un toy piano diatonico. Qui i risultati gradevoli si raggiungono presto, la motivazione è rafforzata.

Questi giocattoli educativi non sono in continuità con il mondo reale. C’è una cesura netta: da un lato il giocattolo, dall’altro lo strumento vero, da un lato gli spartiti colorati, dall’altro i pentagrammi.

Questa strategia è senz’altro più efficace per iniziare, è più “democratica”, ha successo nella quasi totalità dei casi. Non serve a preparare musicisti professionisti, ma a comunicare l’amore per la musica (per esempio, io ho cominciato a suonare su un pianoforte giocattolo, e da allora amo disturbare il vicinato con ogni tipo di strumento – per questo vivo in campagna). E’ molto chiaro che non c’è un passaggio graduale dal modo “semplificato” a quello “avanzato”. Sono due mondi diversi, che si assomigliano in alcune parti, ma che non sono in connessione diretta. Alcuni degli studenti arrivati ai confini di uno si affacceranno sull’altro, si accorgeranno che la complessità è enormemente più elevata, ma decideranno di entrare lo stesso; altri si fermeranno nel primo mondo, come ho fatto io.

Tra gli ambienti di programmazione per bambini, però, alcuni sono stati pensati proprio come un raccordo, una via di mezzo tra i giocattoli e le cose serie. Sono ambienti dinamici, modificabili, evolutivi, in cui il bambino può iniziare in un contesto semplice e poi aggiungere complessità fino ad arrivare all’editor testuale di codice sorgente che è identico a quello del programmatore professionista. Questo è uno dei motivi per cui gli oggetti digitali sono più potenti di quelli fisici.

Ora, quali sono gli obiettivi di Scratch? Apparentemente, due: preparare futuri programmatori e iniziare i bambini all’amore per il computational thinking.

E la strategia didattica dietro Scratch, di quale delle due categorie delineate sopra fa parte? Direi della seconda, visto che l’ambiente che si propone è giocoso, facile, divertente, ma non ha le stesse regole del “mondo adulto” della programmazione. Non si scrive e legge codice. Non ci si preoccupa della correttezza sintattica. Non ci si preoccupa dell’efficienza, della velocità, della comprensibilità, della standardizzazione, dello stile, etc etc. Non c’è niente di male, come non c’è niente di male in un toy piano. Ma solo nei fumetti Schroeder suona Beethoven con quello.

Il problema nasce proprio quando si immagina che entrambi gli obiettivi possano essere raggiunti con una sola strategia, ovvero quando questa differenza di approcci strategici non viene proprio percepita,  cioè quando si pensa che iniziare a programmare con Scratch sia solo il gradino più basso di una scala che porta, gradualmente, alla produzione dei software che usiamo ogni minuto. E questo è tipicamente un errore di chi non ha una grande esperienza della programmazione.

Programmare non è solo un po’ più difficile di creare un gioco con Scratch, è enormemente più complesso; come realizzare un film o registrare un concerto non è solo un po’ più difficile di girare un video con uno smartphone.

Personalmente ho visto tanti bambini (studenti, figli, figli di amici) giocare con ambienti di programmazione fatti apposta per costruire giochi. Di tutti questi, solo uno, che io sappia, ha avuto la voglia e la costanza di continuare. Gli altri, quando hanno capito che programmare è difficile, si sono arresi e sono tornati a giocare.

____

Ci sono infine alcune domande che credo sia importante porsi quando si inizia un progetto didattico con Scratch.

1. Possono condurre un curriculum (nel senso di un progetto didattico) basato su Scratch anche docenti che non sono informatici di estrazione? Non è ovvia la risposta. Nel senso che le competenze tecniche per usare e far usare Scratch sono ovviamente molto basse. Ma non avere il background necessario potrebbe essere un limite grosso quando si cerca di espandere le idee e i concetti di Scratch e applicarle al mondo quotidiano (gli smartphone, il web, i programmi per PC). Non significa che solo i laureati in informatica possono condurre un laboratorio Scratch. Servono competenze pedagogiche, capacità di giocare insieme ai bambini e competenze informatiche.

2. Le idee dietro Scratch hanno una lunga storia, quasi tutta scritta negli Stati Uniti, quindi legata a quel modello educativo e sociale. Possiamo prenderle in prestito così come sono o possiamo/dobbiamo pensare ad un adattamento europeo e italiano? Ad esempio, se il peso delle attività di scrittura/lettura è diverso nei curricula statunitensi e italiani dei primi anni scolastici, non dobbiamo tenerne conto?

3. Perché dobbiamo sempre ricominciare “from scratch”? Ci sono, in tutto il mondo, migliaia di esperienze di introduzione alla programmazione con altri linguaggi e ambienti, in Italia almeno a partire dagli anni ’80. Possiamo ritrovarli, studiarli, verificarne i risultati? Potremmo, ad esempio, andare a vedere quali effetti hanno avuto nel tempo sui bambini coinvolti (quanti hanno scelto l’informatica come professione, quanti riconoscono un valore a quelle esperienze)?

Insomma, mi sembra che ci sia ancora tanto da fare e tanto su cui riflettere.

Diretti o usabili? forse non basta che siano open…

Ott
05

Raw open, now. Va bene come monito alla pubblica amministrazione,  ma dal punto di vista di chi con quei dati voglia fare qualcosa  è importante anche la maniera in cui i dati sono accessibili. Linkati, daccordo, ma anche significativi, puliti, comprensibili, tradotti. E forse l’accesso diretto al file non è sempre la maniera migliore. Per fortuna ci sono altre possibilità, come quella di inserire, accanto all’accesso diretto ai file, uno strato di API dedicato ad operazioni di livello superiore, come la ricerca,  il confronto, il commento.

La possibilità di accedere agli opendata tramite API standard significa offrire ad imprese e cittadini che vogliano sviluppare applicazioni due vantaggi principali: la semplificazione dell’accesso e e la garanzia che un’applicazione che si appoggi sulle API possa essere utilizzata senza modifiche anche in altre città, a prescindere dalla struttura dei repository adottata. Diversi progetti europei hanno adottato questa filosofia (da CitySDK a  Fiware) e offrono alle città intelligenti una maniera unica per presentare i dati del turismo, della mobilità e – perché no – del lavoro.

Se siete a Bologna per la Smart City Exhibition di quest’anno, siete invitati a discuterne il 23 Ottobre alle 10 nel laboratorio gestito in collaborazione da Istituto Italiano OpenData, Lynx e Rete Italiana OpenSource.:

Open data per le smart cities – uno spazio europeo unico attraverso le API

http://www.smartcityexhibition.it/it/open-data-le-smart-cities-uno-spazio-europeo-unico-attraverso-le-api

 

Year of Code

Ago
12

Il 2014, per chi non lo sapesse, è stato dichiarato “Year of Code” nel Regno Unito. Anno del codice, nel senso di “anno della programmazione”. Da settembre, la programmazione verrà insegnata nelle scuole elementari e medie, ovvero tra i 5 e i 16 anni. http://yearofcode.org/
In September 2014 coding will be introduced to the school timetable for every child aged 5-16 years old, making the UK the first major G20 economy in the world to implement this on a national level”.
Questa decisione ha portato con sé – o forse è la parte visibile e ufficiale di – una miriade di attività collaterali, su base volontaristica, tutte mirate a diffondere la programmazione tra i ragazzi, ma non solo. Coding is empowering: programmare rende più fichi.
http://issuu.com/techmixmag/docs/techmix_magazine_issue__3/15?e=0/8750602

E’ interessante andare a vedere l’immaginario che viene costruito per coinvolgere la popolazione, non solo in UK ma anche negli USA e altrove. Quella che viene presentata non è più la figura del geek, dell’informatico tipico, un po’ secchione e un po’ sfigato, ma quella della mamma disoccupata che si ricicla in un altro settore, quella del genio artistico che inventa una startup, del ragazzino qualunque che tira fuori la app da 200.000 dowload in una settimana
http://www.codecademy.com/stories/99-how-to-outgrow-the-fear-of-starting

Premesso che chi scrive ha passato alcuni anni ad insegnare a programmare a classi di bambini tra 10 e i 14 anni, che è da sempre un appassionato di Logo, di cui ha seguito con interesse tutte le evoluzioni (da MicroWorlds a StarLogo a NetLogo), e che ha continuato ad avere un interesse “estetico” per gli ambienti di programmazione visuale in qualche modo derivati (Alice, Squeak/Etoys, Scratch, ….) che oggi vanno per la maggiore e che rendono il termine “coding” abbastanza pretestuoso. Premesso che anche ora che non la pratico quotidianamente trovo la programmazione un’attività molto gratificante, come ogni tipo di creazione artistica, e che al pari della musica o delle arti grafiche mi dispiace che questo piacere non venga condiviso da molti.
Tutto ciò ed altro premesso, non è quindi per avversione preconcetta verso l’apprendimento della programmazione in giovane età che mi è venuta l’idea di scrivere queste note. Non penso che i bambini debbano essere tenuti lontani dalle macchine, né che la logica dell’utenza passiva multimediale debba restare l’unica, o quella privilegiata, fino alla maturità.
Ma il recente fiorire di iniziative per introdurre i bambini alla programmazione (diciamola meglio: per portare dei ragazzini a sviluppare delle app in una sola giornata) mi lascia invece perplesso.

Cerco, nelle presentazioni delle giornate di introduzione alla programmazione organizzate, per esempio, da CoderDojo, le ragioni di questo rinnovato interesse. Le cerco anche con una certa invidia tutta italiana perché mi ricordo il triste destino che ha avuto da noi quella parte di curriculum informatico scolastico dedicata alla programmazione. Ricordo le ragioni di quell’esclusione: ad esempio, che i bambini, nella scuola dell’obbligo, non devono imparare a programmare più di quanto non debbano imparare a riparare una lavatrice. Ricordo l’informatica “carta e matita” di Giovanni Lariccia, ma anche la scoperta dell’ECDL, l’attenzione per gli strumenti di produzione di media più che su quelli per la produzione di programmi, etc … Oggi, quando vedo gli entusiastici commenti a queste iniziative, mi chiedo: quali sono, stavolta, le ragioni? Perché passare un pomeriggio a programmare, a 10 anni, è meglio di passare un pomeriggio a giocare a pallone? Perché organizzare spazi e tempi extrascolastici per offrire questa possibilità? Perché dedicarci risorse pubbliche, o private?

Mi pare che le ragioni citate siano di almeno due ordini:

1. Aspetti economici: sono facili da citare, molto meno da dimostrare.
Nel 2015 ci saranno in Europa 700.000 posti di lavoro vuoti nel settore ICT (fonte: Commissione Europea, http://europa.eu/rapid/press-release_IP-13-52_it.htm). Negli USA, entro il 2022 ci saranno 2.600.000 posti di lavoro nel settore dell’informazione; di questi, 750.000 per i programmatori, con una crescita del 22,8 % (fonte: Bureau of Labor Statistics, http://www.bls.gov/news.release/pdf/ecopro.pdf).

This means that U.S. companies would be forced to outsource valuable coding jobs to India, China, Eastern Europe, and other countries with growing IT sectors, while thousands of Americans remain unemployed or stuck in low-skilled, low-wage positions” (http://opensource.com/education/13/4/teaching-kids-code).

A parte il fatto che di questi milioni di posti di lavoro solo una parte è riservata ai programmatori propriamente detti, mentre la maggioranza è lasciata a tutti gli altri lavoratori del settore (analisti, progettisti, sistemisti, grafici, esperti di reti, di sicurezza, commerciali, docenti, installatori, …), e a parte il fatto che il lavoro di programmatore non è necessariamente così ben pagato e attraente, il punto è: quale politica educativa e del lavoro porterà a colmare questi vuoti. Da dove si comincia? Dalla riforma dei curricula universitari? Da quella delle scuole tecniche? Dalla riforma del mercato del lavoro? O dai Coding Day per i ragazzi?

Ad esempio, quale legame ci sarebbe tra la giornata festosa in cui si sviluppa un videogioco con gli amici e la capacità di svolgere un lavoro del tipo di quelli di cui il mercato ha bisogno? Non è detto che quello che si apprende oggi sia ancora utile domani. Il ragazzino di 10 anni che oggi produce – in una giornata – una app per Android avrà 18 anni nel 2022, e allora non avrà davanti le stesse piattaforme, gli stessi linguaggi e nemmeno gli stessi concetti. Basti guardare quali erano appunto linguaggi e sistemi operativi dieci anni fa e la distanza abissale che li separa da quelli di oggi. Manca, a mio avviso, uno studio che dimostri gli effetti a medio o lungo termine di queste iniziative. Effetti che potrebbero essere cercati sulla scelta della scuola, sul percorso di apprendimento personale, sulle letture scelte, sull’uso del tempo libero, sullo scambio di conoscenze con i pari. E magari si potrebbe anche ragionare meglio su quali linguaggi, quali sistemi, quali tipi di problemi, quali domini applicativi sono più adatti per avviare il giovane programmatore verso il suo radioso futuro rendendolo più concorrenziale rispetto ad altri.

2. Aspetti sociali: subito dopo quelle economiche, vengono citate le ragioni più “etico-politiche”. Il ragionamento è più o meno questo: la nostra vita è costellata di apparecchiature elettroniche del cui funzionamento non sappiamo nulla; se avessimo le competenze digitali attive (coding specials) saremmo in grado di difenderci; quindi è bene acquisire queste competenze fin da piccoli.
E’ un po’ la motivazione che sottintendeva lo studio dei mass media e della pubblicità a scuola qualche anno fa: se li conosci, li smascheri.

Ad esempio, sempre con le parole di Rebecca Lindegren:
Children’s personal and professional lives will increasingly be shaped by computer programs. Without the ability to code, they will become passive consumers at the mercy of programmers working for technology giants, unable to construct or meaningfully interact with the virtual reality that surrounds them” (http://opensource.com/education/13/4/teaching-kids-code).

Questo passaggio dell’articolo è, a mio avviso, il più interessante. Senza la capacità di programmare, i bambini diventeranno passivi consumatori etc etc. Con la capacità di programmare (acquisita in un paio di pomeriggi tra amici) invece saranno vaccinati e potranno interagire significativamente con il mondo virtuale che li circonda.

Da notare almeno due cose: la prima è che la capacità di programmare vaccina dallo strapotere dei giganti della tecnologia. Si può anche essere d’accordo in teoria, ma va definito cosa intendiamo per “capacità di programmare”. Un’attitudine? Un’esperienza, anche limitata? Una competenza specifica e verificata da terzi?
Stiamo parlando della buona abitudine di leggere il codice sorgente di ogni programma che si utilizza? Della curiosità verso ogni nuova soluzione che viene presentata, curiosità che non si contenta di un’etichetta o di una descrizione ma vuole arrivare a capire come funziona oggi e come funzionerà domani? O della capacità di progettare, sviluppare e manutenere soluzioni alternative?
Sono “capacità” completamente diverse. Si raggiungono, e si perdono, in tempi diversi e in modi diversi. Alcune di queste non sono generiche, ma possibili solo in connessione con certi contesti tecnologici e legali, primo fra tutti quello dell’apertura del codice sorgente.
Ora in generale aumentare la quota di competenze creative che viene appresa a scuola è probabilmente utile a preparare un cittadino capace di costruire narrazioni originali, oltre che di ascoltare quelle degli altri. Competenze che si possono sviluppare componendo musica, scrivendo sceneggiature, disegnando fumetti e persino programmando (uno spartito o un programma non sono poi così diversi, da questo punto di vista). Qui però è in gioco una riforma del curriculum scolastico, e non solo qualche ora di laboratorio.

La seconda cosa da notare è che la possibilità di interagire pienamente con la realtà (virtuale, nel senso dell’insieme di dispositivi, reti, server, …) non sembra dipendere solo da queste competenze. Anche qui, andrebbe forse ricordato che, oggi molto più di ieri, ognuno di noi ha comprato già preinstallati o consentito a installare sui propri dispositivi digitali – pc, tablet, smartphone, televisori, frigoriferi,… – centinaia di programmi del cui funzionamento effettivo non possiamo sapere quasi nulla, se non quello che esplicitamente ci dicono i produttori. Il codice sorgente di questi programmi (che a volte chiamiamo “applicazioni” o amichevolmente “app” per farceli sembrare meno complessi e e pericolosi) non è disponibile per la lettura o la modifica. Sapere programmare non aiuta minimamente a evitare che raccolgano i nostri dati e ne facciano un uso non previsto (da noi). Sapere programmare non ci permette di evitare di usarli: alzi la mano chi si può permettere di non avere un account gmail o una pagina FB. Senz’altro non ci aiuta a modificarli, a impedire che svolgano azioni se non illecite, almeno non gradite. Interagire significativamente con gli altri tramite app e reti, ricevere e fornire dati – filtrandoli – richiede delle competenze, che oggi fanno sicuramente parte di quelle di base di ogni cittadino. Ma allora non è sufficiente un pomeriggio di manipolazione di Scratch, serve anche qualche informazione in più. Informazione che in effetti né la scuola dell’obbligo, né quella superiore, né l’università consegnano.

3. Vengono in mente però anche altre ragioni, forse meno nobili. Per esempio, una generazione di ragazzini che sono in grado di produrre un’app in poche ore significa da un lato un serbatoio immenso da cui andare a pescare i migliori developers senza doversi assumere l’impegno e la responsabilità di formarli adeguatamente e di aspettare il momento in cui, accanto ad altre competenze utili per una vita completa, sviluppino anche quelle di coding; e dall’altro un enorme mercato per quelle app…
Ad esempio la Scuola 42, a Parigi, dichiara esplicitamente di porsi come un’alternativa ai percorsi scolastici tradizionali per scovare dei geni informatici che probabilmente sarebbero degli esclusi nel sistema tradizionale (http://www.42.fr/ledito-de-xavier-niel/). Da notare che la scuola 42 è gratuita. Un progetto simile, ma più orientato al sociale (e quindi finanziato con fondi pubblici) è quello di Simplon (http://lafrancesengage.fr/toutes-les-actions/simplonco.html).
Soprattuto nel primo caso, si unisce l’idea della selezione anticipata con quella dell’investimento vantaggioso: i migliori – indipendentemente dalla posizione sociale – possono ricevere la migliore formazione e avere una via privilegiata per l’accesso al lavoro. Investire in formazione rende meglio che affidarsi ad una selezione, permette di arrivare prima e assicurarsi i servigi di uno sviluppatore che è sempre più giovane.
Non che queste ragioni siano necessariamente quelle che motivano gli organizzatori delle giornate; ma è lecito domandarsi se non sono quelle che motivano gli sponsor, che sono spesso grandi imprese del settore telecom se non direttamente dell’ICT.
Dopo tutto, perché perdere tempo a formare tutti gli studenti alla programmazione per poi verificare con un test quali sono adatti al lavoro? Basta farlo solo con i più svegli.

Riandando a quelle lezioni con ragazzi delle scuole medie, in cui per gruppetti cercavamo di costruire dei videogiochi con i limitati strumenti a disposizione (erano gli anni ’90), la differenza che mi salta agli occhi è che allora si aveva in mente un progetto educativo. Ovvero: si sceglieva un linguaggio perché era stato pensato per i bambini (e non solo perché era una versione semplificata di un ambiente di simulazione di Android); si sceglieva un dominio (ad esempio, ma non necessariamente, quello matematico) perché alcuni aspetti del programma di matematica erano più comprensibili affrontandoli dal punto di vista della costruzione anziché da quello della analisi – per esempio la geometria; ma si usava anche il Prolog per studiare la grammatica. L’obiettivo era pienamente didattico: imparare a programmare all’interno del percorso scolastico non era la preparazione a qualcos’altro, ma un’attività degna di per sé, che aiutava a imparare meglio e più in profondità. Programmare era un modo generale per affrontare l’apprendimento. L’oggetto e le finalità dell’apprendimento però erano determinati da altre considerazioni.

E’ possibile, lo riconosco, che io abbia una visione un po’ edulcorata, mitica, di quelle ore. Forse tutta questa chiarezza teorica non c’era e la consapevolezza del progetto educativo la sto inserendo a posteriori. Allora, come adesso, c’era molta buona volontà e una speranza di fare qualcosa di diverso, e di utile.

Mi auguro almeno che questo stesso spirito animi i volontari che oggi supportano i ragazzi nello sviluppo della loro prima app.

Sic et non

Gen
20

Anni, anzi decenni fa, avevo scritto un software che si chiamava Textis. Era uno strumento completamente inutile, nel senso che non rispondeva a nessun bisogno.
Ma aveva uno scopo: quello di permettere di disporre su un “telaio” (di qui il nome) dei fili di ragionamento, e di intrecciarli.
I fili erano composti di “perle” colorate (in omaggio al “Gioco delle perle di vetro” di Hesse). Il prodotto finito poteva rispodere a fini estetici, più che cognitivi.
Non essendoci ancora un’Internet collaborativo, ogni tessitore lavorava (o giocava) da solo, e al massimo poteva inviare la tela ad altri.
Che io sappia, sono stato anche l’unico ad utilizzarlo un po’ (anche se faceva parte di materiali didattici di un corso di perfezionamento a distanza in Tecnologie per l’Educazione).
Non posso esibire il software perché non esiste oggi un sistema operativo per ospitarlo.
Mi limito perciò a riportare qui un esempio dei materiali di partenza con cui, all’epoca, tessevo.
_____________

Questo testo è un omaggio alla logica medioevale (e in particolare al maestro Abelardo), o meglio, alla buona abitudine retorica di esplorare un ambito problematico attraverso una contrapposizione di tesi e antitesi. Mi sembra che questa maniera espositiva, oggi un po’ dimenticata, sia particolarmente consona alla “retorica ipertestuale”, nella quale un concetto non è dato una volta per tutte come fisso e immutabile, ma ha un significato diverso a seconda del punto di vista, del percorso seguito e dell’esperienza del viaggiatore che lo incontra sul suo cammino.

Così ho voluto presentare dieci tesi sugli ipertesti in forma di contrapposizione. I temi sono questi:

1. rapporto tra IT e tecnologia digitale

2. isomorfismo tra IT e struttura della mente

3. esigenze “grammaticali” nello studio degli IT

4. ruolo degli IT nell’apprendimento

5. IT e realtà virtuale

Per qualcuno sarà facile riconoscere dietro ogni tesi alcuni dei principali interlocutori del dibattito italiano e non; qualche esempio è raccolto in fondo a questo testo.

L’invito non è però a prendere una posizione, ma a muoversi nello spazio creato dall’opposizione.

Sic et Non

1. Rapporto tra IT e tecnologia digitale

1a. Il concetto di ipertesto è astratto, generale, indipendente dal supporto tecnologico. Gli ipertesti sono normali enciclopedie, ma su supporto elettronico anziché cartaceo. Il primo esempio di ipertesto (come viaggio virtuale in uno spazio di dati) risale a sei secoli fa: la Divina Commedia.

1b. Non è possibile parlare di ipertesti a prescindere dalle nuove possibilità di attivazione del testo tipiche del computer: diverse vedute parallele di un corpus ipertestuale (finestre), registrazione e ripetizione delle operazioni svolte (percorsi), reperimento istantaneo di qualsiasi informazione nell’intero corpus (ricerca), etc.

2. Isomorfismo tra IT e struttura della mente

2a. Gli ipertesti non sono semplicemente buoni strumenti cognitivi: sono “gli” strumenti cognitivi per eccellenza; funzionano perché sono isomorfi ai processi mentali: sono percorsi all’interno di reti di informazioni debolmente strutturate da legami associativi. La funzione precede lo strumento.

2b. Non sappiamo abbastanza del funzionamento della mente per decidere pro o contro l’isomorfismo tra mente e ipertesto; possiamo però utilizzare gli ipertesti come strumenti di apprendimento per nuove modalità di pensiero “reticolari”, nuove modalità di scrittura non-lineari. Lo strumento viene prima della funzione.

3. Esigenze “grammaticali” nello studio degli IT

3a. La fase dell’improvvisazione sta per finire: è il momento di definire le nuove discipline del settore. In particolare, la sintassi ipertestuale deve stabilire i tipi di legami corretti tra unità testuali; la retorica ipertestuale deve stabilire quali legami sono adeguati per certi fini.

3b. Non si può stabilire nessuna regola per i legami: anzi, gli ipertesti rappresentano proprio la rivincità della libertà di scrittura, la sfida al lettore nell’interpretazione del collegamento, insomma il gioco a due dell’opera aperta.

4. Ruolo degli IT nell’apprendimento

4a. Gli ipertesti possono svolgere una funzione formativa solo in contesti in cui i soggetti sanno già cosa cercare, cioè sono dotati di una buona capacità di apprendimento (tipicamente, degli adulti). Altrimenti, generano solo superficialità, smarrimento, confusione.

4b. Gli ipertesti sono ambienti di esplorazione che non richiedono nessuna conoscenza previa, ma che presuppongono una modalità ingenua e aperta di interazione (tipica dei bambini). Si appoggiano sulla curiosità del lettore, fanno affidamento sulla sua intuizione, sulla facoltà di associazione “veloce”.

5. IT e realta’ virtuale

5a. Gli ipertesti appartengono alla famiglia delle nuove tecnologie di rappresentazione dell’informazione. Tra ipertesti e realtà virtuale c’è solo una differenza di percentuale d’uso della lingua scritta come strumento di rappresentazione sintetica di informazioni. L’affermarsi di queste tecnologie implica l’affermarsi di una nuova teoria dell’apprendimento.

5b. Mentre gli ipertesti sono strumenti di apprendimento, la realtà virtuale e in generale le simulazioni al computer sono solo strumenti di intrattenimento. Non ha senso richiedere al soggetto che esplora uno spazio virtuale di estrapolare conoscenze per induzione, ripercorrendo ogni volta tutto il cammino della scienza.

Alcune opinioni “illustri” e meno illustri a sostegno delle tesi

1a

David Kolb (intervista a Mediamente – RAI Educational)

“La nozione di ipertesto ha origini antiche o medievali, nel senso che se si legge il Talmud o certi tipi di manoscritti che contengono commenti sui commenti, vi si intravede la possibilità di avere testi aperti, che rifiutano di essere chiusi; si può prendere il manoscritto e scrivere qualcosa a margine e, poi, qualcun altro può scrivere un altro commento accanto. In un certo senso è la stampa che sembra aver delimitato la nozione di testo nel senso divenuto oggi comune, e a cui si riferiscono i teorici dell’ipertesto.”

George Landow (intervista a Mediamente – RAI Educational)

“Con questo intendo dire che sembra del tutto ovvio che i lettori, all’inizio, leggano soltanto in un modo più o meno lineare; a mano a mano che diventiamo più sofisticati, tendiamo ad usare note a piè di pagina, glossari, e a lasciare il testo che stiamo leggendo per consultarne un altro, e poi tornare al primo. Questo processo è molto simile, ma non del tutto identico, all’esperienza della lettura di un ipertesto. Naturalmente, ci sono testi che sono più ipertestuali di altri. I testi scolastici che contengono note a piè di pagina o in fondo al libro, o glossari, sono molto più ipertestuali di un semplice romanzo o di un racconto. D’altra parte, le enciclopedie sono opere quasi del tutto ipertestuali.”

Stefano Penge (Storia di un Ipertesto )

“Niente ipertesti senza computer? Si possono citare subito due casi quanto meno sospetti, tratti dalla letteratura: la “Vita e opinioni di Tristram Shandy, gentiluomo” di Sterne e il “Finnegans Wake” di Joyce.”

1b

Stefano Penge (Storia di un Ipertesto)

“Anche senza sapere in anticipo che cos’è, si può giurare che dove c’è un ipertesto, lì sotto c’è una macchina particolare: un computer. Stranamente, questo requisito viene raramente preso in considerazione, quasi costringesse il teorico puro a sporcarsi le mani con la fuliggine della ferriera. Eppure, non esiste un singolo oggetto progettato, descritto o venduto come ipertestuale che non si basi sulle capacità uniche dei computer. Tre in particolare:

a. memorizzare dati in forma indicizzata

b. leggere e scrivere dati con tecniche e tempi paragonabili

c. rappresentare in un supporto unico informazioni di tipo diverso”

2a

Peppino Ortoleva (intervista a Mediamente – RAI Educational)

“Ma che cosa si vuole raggiungere con un ipertesto? Io credo che l’ipertesto abbia delle potenzialità straordinarie di tipo mentale; il punto, l’elemento più affascinante dell’ipertesto è la capacità di simulare processi associativi che sono simili ai processi della nostra mente. Eisenstein, grande regista russo, sosteneva che il montaggio consisteva nell’associare, proprio come nella mente umana; l’ipertesto è una macchina per combinare infinite possibilità di montaggio. Dunque esso è una macchina potenzialmente molto simile alla mente umana, con una capacità di stimolo straordinaria, purché sia costruita secondo queste sue potenzialità.”

2b

Antonio Calvani, (Telèma n 12)

“Un manto di ingenue illusioni avvolge in particolare l’ambito degli ipertesti. Si può parlare di “fallacia omeopatica”. Sinteticamente il ragionamento sotteso sembra di questo tipo: tecnologie che assomigliano al funzionamento della mente migliorano comprensione e conoscenza; gli ipertesti assomigliano alla mente, in quanto il loro funzionamento è reticolare, simile alla mente; la familiarità con ipertesti migliora dunque comprensione e conoscenza.”

3a

Peppino Ortoleva (intervista a Mediamente – RAI Educational)

“Questo è un tema molto affascinante e io credo che siamo ancora agli inizi, stiamo ancora andando a tentoni. McLuhan diceva che la prima fase dell’automobile era la carrozza senza cavalli.

Direi che la fase dell’ipertesto sia il cinema forse, addirittura la televisione senza Corrado o senza Maurizio Costanzo, oppure senza carta; direi che la grande maggioranza degli ipertesti in circolazione siano enciclopedie senza carta. [..] Quello che sto cercando di dire è che, in sostanza, noi siamo ancora nella fase in cui si costruisce un ipertesto per analogia con vecchie forme di costruzione intellettuale.”

David Kolb (intervista a Mediamente – RAI Educational)

“Penso sia possibile fare buona letteratura usando l’ipertesto; non penso, tuttavia, che per ora sappiamo ancora come realizzarla. È come inventare un nuovo strumento musicale: per un po’ di tempo la gente esplora le possibilità dello strumento, il pianoforte, per esempio, e poi arriva qualcuno che è capace di sfruttare queste possibilità per fare grande musica. Penso che ora siamo nella fase di esplorazione dell’ipertesto letterario, la sperimentazione sulla forma.”

3b

George Landow ((intervista a Mediamente – RAI Educational)

“Una cosa da fare è di rendere ben chiaro al lettore dove comincia il mio testo e dove quello di qualcun altro comincia, si interrompe e riprende. Dove sono i confini? Dobbiamo avere una retorica, in altri termini, dei confini e dei limiti del documento. Questo si mette in atto spesso nel WWW attraverso la creazione di uno stile unitario all’interno di un sito, ad esempio attraverso l’uso di colori di sfondo, o di immagini nell’intestazione o nel piè di pagina dei documenti; in questo modo, una volta che Lei lascia il mio documento sa che ha trovato qualcos’altro, e quando torna indietro sa dov’è.”

Stefano Penge (Storia di un Ipertesto)

“Il primo obiettivo che ci poniamo è quello di analizzare una rete in termini di configurazioni minime ricorrenti. In altre parole, vogliamo costruirci un’unità di misura (la configurazione minima, appunto) che sia a metà strada tra le unità di base (nodi e legami) e la rete nel suo complesso.

Si tratta insomma di una specie di studio grammaticale (nel senso tradizionale del termine) delle reti ipertestuali.”

4a

Antonio Calvani, (Telèma n 12)

“Analogamente, va sottolineato come la “navigazione” ipermediale a scopo di apprendimento contenutistico possa risultare dispersiva per studenti troppo piccoli e inesperti della materia, tenendo conto delle difficoltà che l’ipertestualità come ambiente di studio normalmente pone (vedi in proposito la tabella 2 ). L’impiego di libri multimediali a fine di studio diventa perciò tanto più utile quanto più il soggetto conosce già la materia e ha un buon controllo conoscitivo complessivo; allora può usare l’ipertestualità come un modo per riattraversare il dominio secondo altre ottiche e quindi padroneggiarlo ulteriormente.”

4b

Nicholas Negroponte (Telèma n 3)

“Finché non c’erano i computer, gli strumenti e i giochi per fare queste esperienze erano pochi. Ricordo apparecchi mirati a scopi specifici il cui uso era consentito soltanto sotto il controllo e la disciplina della scuola (questa è stata la mia scusa per non studiare la chimica). Il computer ha portato un cambiamento radicale. D’improvviso, imparare dalle proprie azioni è diventato la norma. In altre parole: dal momento che è ormai possibile simulare al computer quasi tutto, non c’è più bisogno di sezionare una rana per capire come è fatta. Basta chiedere ai ragazzi di costruire una rana, di assemblare cioè virtualmente un animale che si comporti come una rana: per studiarne l’anatomia e il comportamento o solo per giocarci insieme.”

Sherry Turkle (Telèma n 12)

“Con questo intende dire che, come nei videogiochi, anche in SimLife si impara giocandoci. Non ci sono regolamenti da leggere prima di cominciare né termini di cui cercare il significato. Tim riesce a lavorare su una comprensione intuitiva di quel che potrebbe funzionare giocando, anche senza avere prima capito le regole su cui si basa il comportamento del gioco. La sua reazione a SimLife, cioè il fatto che ci gioca in modo disteso anche senza capire granché del modello su cui si basa il gioco, è esattamente ciò che preoccupa gli educatori: essi temono che gli studenti non imparino granché quando usano i software educativi.”

5a

David Kolb (intervista a Mediamente – RAI Educational)
“Si può pensare, quindi, di usare la realtà virtuale come mezzo di espressione e di comunicazione, magari non direttamente come metodo di discussione ma come metodo di presentazione. Penso che sia importante superare la visione della realtà virtuale come prodotto commerciale, qualcosa che si assorbe semplicemente – vai in una realtà virtuale tipo Disney o Hard Rock Café e sei completamente dominato da quello che ti vogliono vendere- e pensare, piuttosto, alla realtà virtuale come alla possibilità di avere mondi personalizzati che non sono però vie di fuga ma mezzi di comunicazione”

Opendata anche domani

Dic
22

Tra le ragioni degli opendata sento raramente citare quella che secondo me si potrebbe definire come un’assicurazione sulla vita dei dati stessi.
Dati aperti significa leggibili adesso, da tutti, ovunque.
Un elemento che viene poco preso in considerazione è il tempo.

Rispetto al tempo, sono due le dimensioni interessanti nella valutazione dei dati:
– la persistenza
– la rappresentatività
La persistenza è la probabilità che i dati non vengano aggiornati in tempi troppo rapidi.
La rappresentatività  è la probabilità che i dati mantengano significato nel futuro perché “fotografano” una situazione che può essere confrontata con altre.

Per esempio, i nomi dei deputati e senatori eletti in una certa legislatura non sono soggetti a cambiare nel tempo, quindi hanno un’alta persistenza; ma non ha molto  senso confrontare questi dati con quelli di un’altra legislatura, quindi hanno una bassa  rappresentatività.
Se invece prendiamo  gli stipendi percepiti dagli stessi deputati e senatori possono essere confrontati in serie storiche per valutare la dipendenza dall’inflazione, è probabile che si tratti di informazione a bassa persistenza (dura una sola legislatura) ma alta rappresentatività.

Ora proprio quando siamo in presenza di dati con bassa persistenza e/o con alta rappresentatività è molto importante poter contare in futuro sulla possibilità di leggere quei dati con la stessa o con altre modalità, ma che soddisfino ugualmente i requisiti dei dati aperti (lettura automatica, possibilità di correzione di errore).
Si possono fare infiniti esempi: dai dati restituiti dalle centraline per il controllo della percentuale di CO2 a quelli sui lavori disponibili presso i centri per l’impiego.

Secondo Tim Berners-Lee, gli opendata possono essere “premiati” con delle stelline in base ad alcune proprietà fondamentali (essere pubblici, machine-readable, in formati aperti, referenziati univocamente, linkati). /
Lo stesso Berners-Lee ha sostenuto spesso che comunque è meglio pubblicare, in qualsiasi modo (“raw data now!”), piuttosto che non pubblicare. Ma se si guardano le tipologie dei dataset pubblici se ne trovano ancora pochi che possono fregiarsi di almeno tre stelle.

Quando i dati vengono pubblicati come CSV, vuol dire che sono file in formato ASCII in cui i campi sono separati da virgole o punto e virgola e i record dal caratteri di acapo. Non è il massimo, ma è leggibile con qualsiasi sistema operativo e qualsiasi editor di testi. ASCII è uno degli standard più longevi; creato nel 1968, definito come standard ISO dal 1972 (ISO 646), benché limitato a solo 127 codici  è sopravvissuto anche perché inglobato nel più recente e potente UTF , che consente di rappresentare virtualmente quasi tutte le lingue del mondo, passate e presenti.

Quando i dati vengono pubblicati come fogli di calcolo (che almeno per le PA  Italiane equivale a dire XLS ,cioè MS Excel)  possono contenere oltre ai dati veri e propri anche indicazioni di formattazione, grafici, metadati (data, autore, programma). Ma quello che è significativo è il fatto che il formato XLS è di per sé proprietario, binario, non basato su standard internazionli pubblici.
Il formato è stato documentato pubblicamente da MS a partire dal 2008, quando il formato standard per i documenti Office è diventato OOXML, che è divenuto anche uno standard ISO alternativo a quello OASIS, riconosciuto due anni prima e adottato da diversi paesi.
Oggi  è possibile leggere i file XLS anche utilizzando un programma diverso da quello con cui è stato scritto (anche se la realizzazione di tale software potrebbe violare delle patenti). Ma domani? Potrebbe semplicemente non essere più disponibile alcun programma in grado di farlo.
Non è uno scenario fantascientifico. Basti guardare quel che è successo con formati che sembravano incrollabili, come quello dei documenti WordStar.  La mia personale vicenda con un file Wordstar è raccontata qui.

La soluzione più elegante e potente è quella di utilizzare un formato basato su XML, che – oltre a poter in teoria contenere anche indicazioni sul significato dei dati, e non solo informazioni sulla loro posizione nella tabella – poggiandosi su UTF 8 sembra garantire una leggibilità futura.

I file XLSX e ODT (ma anche i meno conosciuti  .gnm prodotti con Gnumeric) sono  appunto basati su XML – anche se seguono standard diversi – ma sono entrambi compressi con l’algoritmo ZIP, che è uno standard de facto, creato nel 1989 da Phil Katz e con specifiche pubbliche.
ZIP è un contenitore di file diversi, i quali possono essere compressi separatamente e protetti con algoritmi differenti (come AES). Purtroppo ZIP non è regolato da uno standard internazionale. Il che significa che, in teoria, potrebbe un giorno diventare obsoleto…

In conclusioni, parafrasando Berners-Lee, si potrebbe dire “We want raw data now and tomorrow”.

 

Tecnologie non d’importazione (con esercizio svolto)

Nov
25

Educazione e scuola 2.0 si poggiano su di un uso “forte” delle tecnologie digitali (e soprattutto della rete) per cambiare la didattica. Prima, naturalmente, le macchine: le LIM in ogni classe, ebook reader, registro digitale per tutti, tablet nelle classi. Poi il software per collaborare e comunicare, possibilmente “cloud” (qualsiasi cosa voglia dire).

Anche secondo Anthony Salcito (Vice President Education Area Microsoft), è dalla scuola che occorre iniziare. La proposta Microsoft è quella di Office 365 Education: un ambiente online basato su MS Office che consente di fare presentazioni, condividere, comunicare,  etc. Più o meno un’alternativa a Google Apps for Education, la versione delle applicazioni online di Google (Drive, Mail, Calendar, Hangouts, …) dedicata agli studenti e ai professori.

Lo studio IDC (commissionato da Microsoft Corporation) sulle skill più importanti per trovare lavoro è interessante in questo senso. Questo studio mostra come La conoscenza di MS Word è più importante del bilinguismo, quella di MS Powerpoint più della capacità di gestire progetti, e in generale quella sulla suite MS Office è seconda solo alla capacità comunicative orali e scritte.

Devo dire che mi piacerebbe ogni tanto trovare prospettive nuove, al di là dell’esportazione nel dominio educativo degli strumenti pensati per quello lavorativo. Ho l’impressione – ma spero di sbagliarmi – che il discorso sia più o meno questo: “Abbiamo qui in magazzino dei prodotti. Ci scriviamo accanto “education” e li vendiamo/regaliamo alla scuola. Che male facciamo? Anzi: noi gli diamo la canna da pesca, poi loro imparino a pescare “.

Il male è che questi strumenti – che sono nati per rispondere ad un bisogno in un contesto lavorativo/aziendale – nella scuola non rispondono a nessun bisogno.  Il male è che questi strumenti inducono un bisogno negli studenti che poi verrà colmato da qualcuno dopo la scuola. Il male è che l’introduzione di  questi strumenti costituisce l’ennesima giustificazione per non cambiare nulla.

Sarà senz’altro vero che la didattica attuale è vecchia in termini di concetti, linguaggi, obiettivi, metodi; ma non basta dotare le scuole di strumenti di produzione/comunicazione per aggiornarla. E’ un errore logico: una didattica nuova senza questi strumenti non si può fare; ma questo non implica che siano sufficienti gli strumenti per avere una didattica nuova.  Si fa  torto a chi ragionava già vent’anni fa di linguaggi multimediali quando si spaccia una tecnologia importata per un potente strumento di innovazione. Se vogliamo inserire gli strumenti di produzione multimediale nella scuola, dobbiamo anche capire perché usarli, chi li deve usare, quando, dove, come si valuta il processo e il risultato, con chi lo si condivide. E queste belle domande mettono in discussione la struttura della lezione, quella dell’aula, quella delle discipline, le divisioni tra scuola e casa, etc. E magari anche il concetto di apprendimento come assorbimento di informazioni.

Non è una questione di priorità (prima la formazione degli insegnanti, e poi wifi nelle scuole, o il contrario?) ma proprio di specificità. E’ chiaro che gli insegnanti oggi devono avere un’abilitazione al digitale come requisito minimo per capire gli studenti, o per collaborare tra loro, o per aggiornarsi; ma non può limitarsi a questo l’innovazione digitale.

E difatti ci sono delle eccezioni: ci sono software didattici (nati per lo scopo preciso di rendere possibile un processo di apprendimento migliore di quello analogico), ci sono progetti ancora più complessi come l’OLPC, che andavano dalla progettazione dell’hardware al sistema operativo, dal software fino alle modalità di connessione, tutto pensato in funzione del contesto (sbagliando poi magari continente, ma questo è un altro problema). Dovrebbero costituire la regola, e invece siamo ancora nella linea dei laboratori linguistici, delle lavagne luminose, dei PC, delle LIM, dei tablet: tecnologie d’importazione, che entrano nella scuola quando sono vecchie altrove. Si capisce pure che il “mercato” educativo non consenta gli stessi investimenti degli altri mercati; ma ci sono altri modelli di produzione che non sono necessariamente dipendenti dal mercato. Sarebbe bello vedere un progetto di sviluppo di software didattico che parte dai bisogni della scuola ed è supportato da chi investe, o dice di investire, in tecnologie educative.

 

Mi permetto di suggerire a tutti coloro che si occupano di questi temi – da Viale Trastevere a Redmond a Mountain View – il seguente esercizio:

pensate  ad un’applicazione originale in cui l’apporto del digitale sia davvero significativo
perché non si limita a duplicare in maniera più attraente  quello che si faceva benissimo anche prima,
ma rende possibile l’apprendimento di qualcosa che altrimenti rischia di sfuggire.

Questo è il mio svolgimento dell’esercizio suddetto. Riguarda un concetto banale e la sua rappresentazione:  il rapporto tra causa ed effetto.

___

1. Che nel mondo gli eventi non siano accoppiati casualmente, ma che alcuni siano spesso o sempre in relazione con altri, è cosa che impariamo presto. Un’altra cosa che diventa presto parte della nostra esperienza è che se l’intensità della causa aumenta, aumenta anche l’intesità dell’effetto. Nell’educazione scientifica  tradizionale si parte proprio da questo tipo di funzioni, adatta a misurare e prevedere relazioni causali lineari (funzioni monotòne):

y= kx

Il valore nel codominio cresce linearmente al crescere di quello nel dominio.

Funzioni di uso molto generale anche al di là dello stretto rapporto di causa fisica. Ad esempio, lo spazio percorso in un moto rettilineo uniforme è uguale alla velocità costante per il tempo trascorso:

s = vt

Questo è vero in generale per le rappresentazioni astratte del mondo (es. geometria, cinematica) e viene assunto come modello per ogni relazione di causa ed effettuo: quanto più la causa agisce, tanto più l’effetto è visibile.

A volte il rapporto non è lineare: per esempio, il variare dell’area di un quadrato al crescere del lato:

a=l2
Oppure in un moto uniformemente accelerato, come quella della caduta libera di un corpo:

s= ½ at2

Allora dalla retta si passa all’iperbole, che cresce più velocemente, ma sempre indefinitamente.

 

2. Si scopre però che quanto più  ci si avvicina alla realtà, tanto più questo rapporto positivo tra x e y è valido solo entro certi limiti, perché al di là di quelli il valore della y comincia ad avere un andamento inverso.

Ad esempio, siamo abituati a pensare i pannelli fotovoltaici come macchine semplici, lineari. Il sole è la causa, l’elettricità prodotta l’effetto. La cellula fotovoltaica ideale produce elettricità in funzione diretta dell’irraggiamento:

+ sole → + produzione elettricità

Ma l’aumento dell’irraggiamento comporta anche altri fenomeni collaterali, come l’aumento della temperatura del pannello, che ha una perdita di rendimento dello 0,45 % per ogni grado centigrado di aumento della temperatura. In pratica, oltre un certo limite:

+ sole → – produzione elettricità

Sono fenomeni che dovremmo conoscere bene perché sono del tutto naturali. Per esempio, se si lancia un sasso verso l’alto, dopo un po’ comincia a cadere verso terra, per effetto dell’attrito e della forza di gravità. E’ un fenomeno che conosciamo benissimo fin da bambini, e che ingenuamente tendiamo a spiegare semplicemente con l’esaurimento della spinta iniziale. Per essere spiegato in una teoria unica insieme ad altri fenomeni quotidiani (perché invece la luna gira perennemente intorno alla terra senza bisogno di nessuna spinta?) richiede un approfondimento.

La presenza di fattori causali che ostacolano l’azione principale pur non avendo momentaneamente effetti visibili è qualcosa che non ci torna.

Alcuni tipi di inversione sono più comprensibili e prevedibili, forse perché più semplici e legate ad antiche esperienze: l’esaurimento delle risorse naturali, o di quelle logiche (spazio, tempo) è qualcosa che la cultura contadina conosce da sempre (tanto da prevedere il riposo dei campi o la rotazione delle culture), anche se la cultura industriale sembra averlo dimenticato. Oppure quelle che si possono ricondurre a materia etica o religiosa, dove il superamento di certi limiti viene punito dall’alto (vedi la storia biblica della Torre di Babele o la concezione greca dell’hybris).

Ma altre inversioni sono meno ovvie e non riconducibile solo all’esaurimento di risorse. L’economia ne conosce molte, a partire dalla più semplice legge della determinazione del prezzo in funzione della domanda dell’offerta. Ogni nuovo prodotto nasce da uno squilibrio tra domanda e offerta. Fino a quando l’offerta è inferiore alla domanda, il prezzo sale; quando l’offerta supera la domanda, il prezzo scende. Questo è un fenomeno poco chiaro per la maggioranza delle persone, come lo è l’andamento dell’inflazione su scala nazionale. Ingenuamente, ci viene più facile immaginare che un incremento della produzione sia un fatto positivo e sempre possibile, che a volte si interrompe con una crisi. A scuola abbiamo tutti studiato le cause del declino dell’impero Romano come se un processo, che naturalmente avrebbe avuto una crescita indefinita, avesse all’improvviso incontrato un ostacolo – anziché studiarlo dall’inizio come un fenomeno possibile solo entro i limiti consentiti dalle tecnologie della comunicazione dell’epoca (la strada, il cavallo), ma che oltre un certo limite non avrebbe potuto mantenersi.

 

3. Anche all’epistemologia per molto tempo  questo andamento sembrava ignoto. La storia della scienza era raccontata come una successione lineare di teorie sempre più potenti: una teoria è migliore di un’altra perché spiega le stesse cose di quella, più altre ancora. La concezione eliocentrica permette di spiegare gli stessi fenomeni di quella geocentrica, ma spiega anche facilmente  l’orbita lunare.La scienza sembrava avere una crescita monotòna, non puà che progredire sempre. Ogni tanto ci sono degli incidenti di percorso, ma non hanno a che fare con la natura della scienza stessa.

L’importanza dei limiti di applicazione di una teoria che sembrava assoluta è uno dei risultati epistemologici più importanti della relatività ristretta di Einstein. Forse per la prima volta è stato chiaro come funziona l’avvicendarsi delle teorie scientifiche: la teoria einsteniana non nega la concezione di spazio e tempo assoluti di Newton, ma ne restringe l’applicabilità entro certe condizioni (quelle in cui la velocità dei corpi presi in esame sia molto lontana da quella della luce). In questi contesti (che sono quelli della fisica quotidiana), si può prescindere dalla considerazione della variazione della lunghezza in funzione della velocità. Quando ci si sposta nel microuniverso delle particelle subatomiche, la massa dei corpi non è più costante, con le conseguenze paradossali ben note.

Oltre agli effetti eclatanti (in tutti i sensi) della nuova teoria, la relatività ristretta ha permesso di capire un meccanismo centrale dell’avvicendamento delle teorie scientifiche. Ogni teoria ha delle condizioni di applicazione alla realtà, cioè dei limiti. Se si ignorano queste condizioni, si hanno teorie astratte che prima o poi si scontrano con l’esperienza.

Questo significa in generale ridefinire i concetti che si usano ponendo l’attenzione proprio sulle condizioni operazionali del loro uso, piuttosto che sulle loro proprietà astratte (Bridgman). Se ci si concentra sulle condizioni di applicazioni dei concetti, si scopre perché l’andamento di certi fenomeni si inverte: mentre prima si faceva astrazione da una variabile (l’attrito, la temperatura, la velocità), ora ci si accorge che questa variabile – che è sempre presente – diventa significativa ma solo al di sopra di un certo valore.

In generale, la funzione che rappresenta l’andamento del fenomeno non è più monotòna e l’equazione diventa di secondo grado:

y= ax2+bx + c

con a<0.

Visivamente, alla rappresentazione come retta si sostituisce una parabola.

 

4. L’organizzazione dei curricula scolastici  prevede che si  parta da sistemi semplici, in cui si fa astrazione dai limiti imposti dal contesto, per poi arrivare a sistemi complessi, realistici. Si studiano le proprietà del triangolo astratto prima di scoprire le geometrie non euclideee (quelle in cui la somma degli angoli interni di un triangolo può essere maggiore o minore di 180 gradi). Prima il moto rettilineo uniforme, poi la caduta dei gravi.

Questo è dettato sia da un principio regolativo fondamentale della pedagogia che è difficile criticare (dal semplice al complesso, dall’elemento alla struttura),  ma anche dalla sequenza storica in cui le scienze si sono evolute. La geometria è venuta prima della cinematica e prima della termodinamica e della sociologia. Inoltre la matematica delle relazioni lineari è più semplice di quella delle relazioni a più variabili.

Purtroppo il risultato è che mentre tutti gli studenti affrontano la versione semplificata della teoria, solo i pochi che seguono un’istruzione scientifica superiore riescono ad avere accesso alla versione complessa. Con il risultato che i più di fronte a fenomeni non lineari restano perplessi e non li capiscono.

Una parte della responsabilità di questa incomprensione diffusa ricade, oltre che sugli istituti educativi, sui media. Quando ad esempio si dice che una situazione di povertà può essere migliorata con maggiori investimenti (es. nelle monoculture, nel turismo), si dimentica di dire che ci sarà un punto in cui gli effetti collaterali degli investimenti produrranno un decremento degli effetti positivi per gli abitanti, fino eventualmente alla catastrofe (inquinamento, esaurimento delle risorse naturali, emigrazione etc). E temo che la catastrofe inattesa sia più vendibile del continuo ritornello delle profezie apocalittiche ecologiste.

Dopo la catastrofe, parte la ricerca delle soluzioni ad hoc (ad esempio, il “turismo sostenibile”). Che viene capito come un ripiego, perché l’inversione di direzione della y non viene vista come un evento prevedibile ed intrinsecamente legato alle variabili in gioco, ma come una specie di punizione divina per l’eccesso di orgoglio umano. Il progresso di per sé sarebbe infinito, ma purtroppo a volte crea dei mostri. “La prossima volta faremo meglio”, ci dicono. E noi ci crediamo, perché pensiamo che in fondo si è trattato solo di sfortuna.

 

 

5. Viene il dubbio – almeno a me – che forse si dovrebbe partire dall’insegnamento del fatto basilare che ogni fenomeno di crescita anche semplice non è mai riducibile a due sole variabili, una indipendente e l’altra dipendente; ogni crescita che sembra lineare lo è solo all’interno di certe delle condizioni di equilibrio. Ogni rappresentazione in forma di retta è corretta solo all’interno di certi limiti. Ogni retta è solo una porzione di una parabola che non vediamo nella sua interezza.

E sono limiti che è importante conoscere: prima si individuano tutte le variabili in gioco, prima si capisce se il gioco vale la candela.

Sarebbe bello se per una volta le possibilità di rappresentazione dinamica e multimediale offerte dai dispositivi digitali nella formazione (e-learning compreso) fossero usate per fare qualcosa di nuovo: per spiegare e mostrare sensibilmente l’andamento di questi fenomeni anche a livello di educazione elementare, come si fa già con strumenti come Geogebra http://www.geogebra.org/cms/it/. Simulazioni semplici di realtà fisiche, sociali ed economiche complesse che lasciando da parte – per il momento – la struttura matematica più astrusa si limitino a mostrare in maniera comprensibile a tutti cosa succede quando si preme sull’acceleratore dell’economia.

Chissà, questo forse produrrebbe generazioni capaci di “vedere” il contesto, di cercare sempre le variabili nascoste e in generale meno impreparate di fronte ai satelliti che cadono, alle api che si estinguono o alle isole di spazzatura che navigano al largo del Pacifico.

My ECM

Lug
03

MyECM è il nuovo servizio online di Age.na.s.
Come indica il prefisso, è il punto di accesso personale ai dati relativi alla formazione continua in medicina per ogni medico o infermiere. Un punto unico dove tenere sotto controllo i crediti ottenuti, ma anche gli eventi formativi in arrivo, filtrati in base al proprio profilo professionale.
Il servizio è appena stato pubblicato (28 Giugno 2013), e ancora soffre di qualche bug, che sarà presto corretto. Alla data in cui scriviamo, è temporaneamente sospeso per motivi tecnici.
Si tratta sicuramente di una buona iniziativa, che forse potrebbe ancora essere migliorata.


Il nome: è originale?

Si capisce il senso che si è voluto dare al servizio: nuovo, aggiornato, in linea con il web 2.0. Fa un po’ ilverso a MySpace (uno dei primi Socal Network) e a infiniti altri “my*”. Sorvoliamo sull’incrocio linguistico; purtroppo “MyECM” esisteva già: è il nome di un software per la gestione degli eventi ECM, e persino il dominio .it era già stato registrato. Si rischia di creare fraintendimenti non voluti: ci sono connessioni? è lo stesso software? l’azienda è coinvolta nello sviluppo?
Insomma, non si poteva scegliere qualcosa di più originale?

I dati: sono aperti?

Siamo entrati, volenti o nolenti, nell’era dell’opendata, anche per obbligo di legge (vedi il Decreto Sviluppo). Sarebbe bello – o forse anche necessario – che il servizio mettesse a disposizioni dei cittadini e delle imprese interessate un endpoint RESTful che permetta di interrogare l’archivio degli provider e degli eventi accreditati, o semplicemente una URL da cui ottenere i dati in un qualsiasi formato aperto. Questo permetterebbe di effetturare statistiche, rappresentazioni, o ricerche aggiuntive rispetto a quelle possibili tramite il modulo di ricerca presente sul sito Age.na.s.
Lo stesso discorso, con attenzioni ulteriori per la provacy, potrebbe essere fatto per i dati dei singoli utenti registrati. Ad esempio, un servizio del genere permetterebbe ad una ASL di verificare i crediti ottenuti dai propri dipendenti in maniera automatica, in modo da poterli pubblicare nell’area riservata del proprio portale, e magari mandare un reminder a quelli indietro con il programma.

I provider: quale strategia?
Sarebbe interessante capire quale è la strategia complessiva di Age.na.s. Attualmente i provider forniscono i dati degli eventi, e Age.na.s li raccoglie e permette al singolo utente di effettuare una ricerca solo attraverso il suo portale. In questo momento, l’architettura è a forma di stella, con Age.na.s al centro. I vertici periferici non sono collegati fra di loro, e non possono nemmeno avere un accesso completo ai dati globali. Un provider che volesse capire quali sono i suoi “competitor” nel proprio settore, o quali aree dell’ECM non sono sufficientemente coperte, non ha modo di farlo, se non effettuando una ricerca a mano.
Una struttura a rete sarebbe probabilmente più utile a tutti, permetterebbe di risparmiare risorse e ottimizzare il servizio, con vantaggio per tutti.

Innovazione digitale e lavoro

Feb
05

La giornata dedicata da Stati Generali dell’Innovazione ai prossimi appuntamenti elettorali si è svolta il 4 Febbraio 2013 presso il CNR di Roma con la partecipazione di almeno una quindicina degli oltre settanta candidati che ne hanno sottoscritto la Carta di Intenti.
Il tema del lavoro è stato purtroppo il grande assente della manifestazione, in un’Italia fotografata dall’ISTAT a dicembre 2012 con questi dati agghiaccianti:
“Il numero di disoccupati, pari a 2 milioni 875 mila, registra un lieve aumento (+4 mila) rispetto a novembre. Su base annua la disoccupazione cresce del 19,7% (+474 mila unità), l’aumento interessa sia la componente maschile sia quella femminile.
Il tasso di disoccupazione si attesta all’11,2% […]
Tra i 15-24enni le persone in cerca di lavoro sono 606 mila e rappresentano il 10,0% della popolazione in questa fascia d’età. Il tasso di disoccupazione dei 15-24enni, ovvero l’incidenza dei disoccupati sul totale di quelli occupati o in cerca, è pari al 36,6%, in calo di 0,2 punti percentuali rispetto al mese precedente e in aumento di 4,9 punti nel confronto tendenziale.”

Può l’innovazione digitale creare nuovi posti di lavoro? Se si, di che tipo, dove, come?

Durante il convegno ci sono state, in effetti, delle dichiarazioni di intenti. Ora, alla semplicistica equazione “opendata + servizi offerti dalle imprese = aumento del PIL” si dovrebbe sostituire un ragionamento più complesso. Qual è il modello di business che sosterrebbe questo aumento di PIL? da dove proverrebbero e dove finirebbero i ricavi prodotti? Se, ad esempio, l’unico beneficiario dell’apertura dei dati è la multinazionale X sufficientemente potente da poter sviluppare (fuori dall’Italia) il software necessario per utilizzare i dati e da venderlo a tutti i cittadini Italiani, significherebbe che il costo di quei servizi sarebbe spostato dalla PA ai cittadini, con un vantaggio solo per quella multinazionale e uno svantaggio per chi quel servizio non può acquistarlo. D’altra parte sostenere che il modello di business degli opendata sia solo quello (ancora tutto da dimostrare) della vendita delle app è un po’ riduttivo. Leggete, ad esempio, l’articolo di Jeni Tennison o lo studio di Enrico Ferro e Michele Osella .

Probabilmente però l’innovazione digitale piace ai politici per un altro motivo: innovazione digitale significa automazioni di processi, servizi online, dematerializzazione, insomma diminuzione della spesa pubblica improduttiva. Che, almeno in alcuni casi, fa rima con taglio di posti di lavoro.
Ora sembra che lo stato, come ogni buona massaia, sia virtuoso se spende di meno, se non “butta via i soldi”. E in effetti sembrerebbe che se – fermo restando lo standard di servizio al cittadino, o addirittura aumentandolo – si riesce a spendere di meno, tutti ci guadagnano. Però questa che sembra una deduzione ferrea nasconde un elemento critico: non pagare per offrire servizi può significare che qualcuno lavora di meno o per niente. Insomma c’è almeno uno che ci rimette: quello che viveva del lavoro necessario a fornire quel servizio. Per esempio: tutto va su cloud, magari all’estero. Bene, e il tecnico che gestiva i server del data center che fine fa?
Un esempio interessante proprio nel campo degli opendata: durante il dibattito uno dei candidati ha sostenuto che il passaggio agli opendata, nel suo Comune, è stato a costo zero. “Impossibile” protestano dalla platea. “Invece si”, risponde lui, “perché l’ho fatto io da solo”. Quindi i cittadini di quel Comune hanno pagato una parte degli emolumenti ad un amministratore perché svolgesse, invece delle sue funzioni proprie, quelle di un tecnico informatico esterno (visto che all’interno non esistevano le competenze necessarie), che altrimenti avrebbe dovuto essere pagato. Gratis si, ma solo in apparenza.
Insomma, quasi un paradosso: l’innovazione digitale deprime il mercato del lavoro, invece di stimolarlo.

L’innovazione produce inevitabilmente obsolescenza di professioni, e quella digitale ancora di più. L’operaio è sostituito dalla macchina – ma anche il portalettere sostituito dall’email. Quando però non si tratta di un semplice comportamento naturale osservato dall’esterno, ma di uno dei punti della strategia con cui si vuole risollevare un Paese, non è sufficiente accettare questa perdita di lavori e professionalità come un male necessario. Non si tratta di protezionismo: l’innovazione digitale come manifesto elettorale deve prevedere, da subito, anche un progetto complessivo per aprire nuove strade professionali al posto dei sentieri interrotti. E gli opendata possono essere una di queste strade.
Non serve pensare a grandi riforme. Se ad esempio ogni Comune spingesse gli istituti tecnici e professionali ad indirizzo informatico a prendere in considerazione il settore degli opendata e a insegnare a sviluppare apps e webapps che ne fanno uso; se li invitasse ad avviare stages negli uffici comunali per partecipare al processo di raccolta, pulizia, organizzazione e pubblicazione degli opendata; se promuovesse l’intero processo tra le associazioni di imprenditori locali, facilitando la nascita di concentratori locali che permettono di aprire un’impresa digitale senza sostenere le spese di una struttura fisica, tutto questo creerebbe le condizioni future non solo per una riduzione di spesa (probabilmente la cooperativa di giovani locali ha un costo orario inferiore a quello di una grande struttura nazionale), ma anche per la creazione di nuove professioni e nuovi soggetti imprenditoriali a livello locale, e quindi davvero per un aumento del PIL e per una redistribuzione equa delle risorse.

Ridurre la spesa non è valore di per sé, se il soggetto è lo Stato. Lo è se, ad esempio, le risorse invece di andare all’estero restano in Italia e vanno a sostenere i giovani; se vengono distribuite diversamente, equamente, tenendo conto di parametri come il genere, l’età, la capacità.
O, per tornare ai temi di questo blog, se invece di licenze di software vengono pagati servizi offerti da professionisti per installare, modificare, aggiornare e manutenere il software. Per inciso, condizioni che si verificano quando si privilegia il modello OpenSource, dove non è tanto significativo l’importo del risparmio (qualcuno dice anche che non c’è), quanto la quota di spesa che viene “investita” in formazione, in sviluppo, insomma in lavoro anziché in merci.