steve's

Poeti, navigatori, santi e cuochi: cosa insegna la linguistica computazionale al coding?

Gen
31

L’incontro tra informatica e letteratura avviene ufficialmente, almeno in Italia, quando nel 1949 Padre Busa SJ si dedica all’immane compito di compilare un Index Thomisticus, cioè un repertorio di tutti i termini utilizzati dall’Aquinate nelle sue opere. Per farlo, chiede il supporto dell’IBM (parlando con il suo fondatore, Watson) e inizia un lavoro di lemmatizzazione durato trent’anni. Dopo la versione cartacea (1980) e quella su cdrom (1989), nel 2005 nasce la versione web (http://www.corpusthomisticum.org/it/index.age).

La linguistica computazionale si presenta così con un aria seriosa, doppiamente sostenuta dall’oggetto (il testo classico) e lo strumento (il programma di lemmatizzazione e ricerca), per non parlare dello scopo scientifico.

Ma ci sono stati altri incontri meno nobili, come quello tra il libro cartaceo Cent Mille Miliards de Poèms di Raymond Queneau e il web. Per chi non avesse avuto la fortuna di sfogliare quel meraviglioso oggetto, si tratta di un libro pubblicato nel 1961 che raccoglie dieci sonetti di quattordici versi ognuno. La peculiarità che lo rende unico è la pagina è tagliata in orizzontale in modo da rendere ogni verso un oggetto autonomo; è possibile così leggere (e costruire con la mente) un sonetto costituito, poniamo, dal primo verso della prima pagina, il secondo dalla decima, il terzo dalla quinta, e così via. Le possibilità totali sono 1014, cioè appunto 100.000.000.000.000. Di questa macchina per generare sonetti ne esistono varie versioni consultabili su web, come per esempio questa: http://www.growndodo.com/wordplay/oulipo/10%5e14sonnets.html

Queneau realizza (cioè “dimostra la possibilità”) di qualcosa che nel cielo delle invenzioni letterarie era ben nota. A partire per lo meno dalla macchina creata dagli scienziati dell’Accademia di Laputa:

La superficie risultava di vari pezzetti di legno, grossi press’a poco come dadi, alcuni di maggiore dimensione degli altri. Erano tutti congiunti da esili fili di ferro. Incollata sopra le quattro facce dei pezzetti di legno era della carta, e su questa si trovavano scritte tutte le parole della loro lingua, coniugate nei diversi modi e tempi e declinate nei vari casi, ma senza ordine veruno. Il professore m’invitò a prestare attenzione, ché appunto s’accingeva a mettere in moto la macchina. Ciascun discepolo prese, al cenno del maestro, un manico di ferro (ce n’erano quaranta fissati intorno agli orli della macchina) e d’un tratto lo fece girare. Naturalmente la disposizione delle parole cambiò in tutto e per tutto. Il maestro ordinò allora a trentasei scolari di leggere pian pianino i vari righi così come apparivano sulla macchina; e quando quelli trovavano tre o quattro parole unite insieme che potevano far parte d’una sentenza, le dettavano ai quattro rimanenti discepoli che fungevano da scrivani (Jonathan Swift, I viaggi di Gulliver, Traduzione di Carlo Formichi, a cura di Masolino d’Amico, Mondadori, Milano, 1982, p. 393).

passando, naturalmente, per Borges, Levi, Landolfi e Dahl. Molti altri esempi sono citati in questa trascrizione di una bellissima conferenza del 2015 tenuta da Paolo Albani (a meno che non sia anche questo un testo generato automaticamente) che potete leggere qui: http://www.paoloalbani.it/Letteraturacombinatoria.pdf.

Cosa mostra davvero questo strano artefatto, nella versione cartacea come in quella digitale? Che la letteratura (e in particolare la poesia) non è tutta intuizione ed espressione libera. Che il gioco tra sistema e creatività, tra regola ed eccezione, non è proprio così chiuso come sembra. La poesia, in particolare, nasce proprio dal vincolo (tematico, formale), come orizzonte e come sfida. Non lo dico io, lo dice Calvino: la letteratura è

“un’ostinata serie di tentativi di far stare una parola dietro l’altra seguendo certe regole definite, o più spesso regole non definite né definibili ma estrapolabili da una serie di esempi o protocolli, o regole che ci siamo inventate per l’occasione cioè che abbiamo derivato da altre regole seguite da altri” (Cibernetica e fantasmi. Appunti sulla narrativa come processo combinatorio, in: Una pietra sopra. Discorsi di letteratura e società, Einaudi, Torino, 1980, pp. 164).

E cosa fa il poeta quando crea, se non andare a pescare nella sua memoria linguistica e scegliere combinazioni di parole, vincolate da regole precise (come il metro o la rima)? Certo, la scelta è anche governata dal significato – in maniera difficile da precisare. Il poeta parte con l’idea da esprimere e cerca le parole più adatte? Oppure si lascia guidare dalle parole stesse, sfruttando somiglianze fonetiche, rimandi per analogia o opposizioni? O ancora, più probabilmente, attua un misto delle due strategie? Insomma: come si scrive, praticamente, una poesia?

E di qui l’idea di proporre delle attività didattiche di coding intorno ai temi della forma e della variazione, delle categorie, dell’accettabilità. In un periodo in cui il machine learning sembra riproporre il vecchio mito dell’intelligenza artificiale, viene voglia di ragionare intorno ai processi creativi anche utilizzando paradossi, e di provare a costruire un automa in grado, se non di scrivere poesie originali (come questo: http://thinkzone.wlonk.com/PoemGen/PoemGen.htm, o quest’altro fatto addirittura in Scratch che lavora per sottrazione da una poesia di Walt Whitman: https://scratch.mit.edu/projects/12331423/) almeno di inventare ricette sempre nuove, che tutto sommato sono sempre forme di testo vincolate, come questa: http://www.lynxlab.com/staff/steve/public/ricette.

Per restare nel dominio letterario, due modesti esempi di macchine figlie di quella di Queneau (ma che pescano nel testo di due classici sempreverdi come l’Inferno di Dante Alighieri e l’Orlando Furioso di Ludovico Ariosto) li trovate qui http://www.lynxlab.com/staff/steve/public/inferno e qui http://www.lynxlab.com/staff/steve/public/orlando. Oltre a Queneau, questi due oggetti digitali si ispirano più precisamente a “Il centunesimo canto. Philologica dantesca“di Luca Chiti, che è un meraviglioso esempio di centone umoristico che “crea” un intero canto giustapponendo versi esistenti ma dandogli un senso completamente nuovo. Per realizzarli, ho dovuto affrontare problemi letterari, come la definizione di rima, di struttura metrica, di novità e ripetizione (oltre che qualche problema informatico, come il loop infinito o la conversione dei caratteri in UTF-8). Non ho seguito alla lettera le indicazioni di Nanni Balestrini, ma ci sono andato vicino. Ed ecco apparire terzine più o meno improbabili come la seguente:

Parlando cose che ‘l tacere è bello
rispuosemi: «non omo, omo già fui
venimmo al piè d’un nobile castello

o come questa:

Nel nome che sonò la voce sola
poscia vid’io mille visi cagnazzi
cosí vidi adunar la bella scola

Una valutazione estetica del risultato? Non è l’obiettivo, anche se può essere divertente provare e riprovare, fino a far emergere dei frammenti di senso che possono essere anche divertenti. Ma quelle che mi paiono importanti, come sempre, sono le domande che emergono ogni volta che si prova a realizzare un modello funzionante di una teoria: come si riconosce una rima? Come si produce una struttura metrica? Come si ottiene un testo casuale sempre diverso? Come si riconosce che il testo non è stato scritto da un poeta umano?

Mi sembrano tutte domande legittime da porsi in una classe che studia letteratura: portano con sé riflessioni e discussioni che integrano, anche se non sostituiscono, l’apprendimento di nomi di forme di testo come “trimetro scazonte” o “endecasillabo sciolto” o di opere particolari.

E ancora una volta mostrano come la costruzione reale di un programma possa essere un’attività didattica sensata al di là di ogni mitologia computazionale.

 

Oltre il giardino. Del codice.

Ott
29

Presidente: Lei è d’accordo con Ben? Pensa che possiamo stimolare la crescita con incentivi temporanei?
Chance: Fintanto che le radici non sono recise, va tutto bene, e andrà tutto bene, nel giardino.

Il surreale film del 1979 “Being there” (in Italiano “Oltre il giardino”) interpretato, come si dice, magistralmente da Peter Sellers è troppo noto per doverne fare un riassunto. Il film parla della volontà di trovare modelli a tutti i costi, del ruolo della televisione, del vuoto di valori e di altro.
Ma a me piace soprattutto la metafora del giardino. O meglio, quella che tutti – tranne Chance Gardiner – interpretano come una metafora dello Stato e della sua cura.

Qui da me tutti hanno un casa col giardino. Però il rapporto col giardino (e anzi con la natura in generale) è molto diversificato. Almeno tre categorie sono facilmente riconoscibili:
1. estetica: prato inglese, statue, alberi di rappresentanza (magnolia)
2. funzionale: orto + frutteto, niente verde inutile
3. negazionista: cemento e muri; poi eventualmente vasi
Solo che io non mi ritrovo in nessuna di queste categorie. E si vede dal fatto che tutti quelli che passano guardano, scuotono la testa e mi dicono gentilmente: “Ma ti serve aiuto per tagliare tutta questa boscaglia?” La boscaglia in questione sarebbe il mio giardino. Che è fatto di tante piante diverse, ognuna con una storia, una curiosità, un modo di crescere e di lottare con le altre, una personalità, uno stile. Ci sono tracce di piante precedenti, promesse di piante future. Alcune le ho portate io da lontano, altre me le hanno regalate, altre sono nate da sole. Piante che mi ricordano persone, luoghi, momenti.

Qualche tempo fa mi sono accorto che anche per il rapporto con il digitale valgono più o meno le stesse categorie di sopra: chi lo vede come un accessorio di moda, chi come un utile strumento, chi fa finta che non esista. Non c’è possibilità di dialogo tra queste visioni così diverse, e ognuno guarda il giardino dell’altro con disprezzo nemmeno troppo celato.
Poi c’è chi il giardino non lo vuole per niente, ma è felice di visitare quello degli altri. Più in generale, si potrebbe dire che ci sono i nomadi-cacciatori-raccoglitori, che navigano e prendono quello che gli serve, e gli stanziali-allevatori-coltivatori, che circoscrivono uno spazio e ne controllano lo sviluppo. I primi hanno uno sguardo, come dire?, grandangolare; i secondi montano un macro. Oppure: lo sguardo dei nomadi percepisce le differenze, quello dei coltivatori le crea (un po’ come lo sguardo di Ciclope, avete presente?).
All’interno di questa metafora, programmare è coltivare alberi digitali. I programmi, come gli alberi, sono organismi che se va tutto bene crescono, si sviluppano. Hanno una vita propria (ebbene si) e a volte non fanno quello che uno si immaginava che facessero. Restano piccoli, o esplodono all’improvviso; intrecciano le radici con altri alberi, sfruttano lo stesso terreno, si fanno ombra tra loro. Gli alberi, come i programmi, anche quando muoiono vengono riusati per fare altro, da noi o da altri organismi. Si riproducono con i semi, o, al limite, diventano humus per altri alberi.
Nella coltivazione dei programmi non si parte dal nulla: infatti gli alberi non si seminano, si piantano alberelli giovani (e si, c’è la questione dell’opensource…). O meglio, veramente qualcuno molto bravo e un po’ presuntuoso lo fa, ma è difficile e lungo scriversi tutto da zero; più facile utilizzare librerie, interpreti e compilatori.
I programmi si potano: si tolgono rami secchi, o si indirizza lo sviluppo in una certa direzione, per avere una certa forma finale o per avere un certo quantitativo di frutti. Si innestano con rami di altre specie perché la struttura deve essere robusta e resistente. Si curano le malattie, si eliminano i parassiti (i bug…).

Non è facile coltivare un albero. La difficoltà più grande non è la tecnica spicciola (tagliare, zappare intorno alle radici) ma la visione d’insieme. Per esempio io ho piantato un acero troppo vicino alla casa e troppo vicino ad un giovane castagno. Per i primi quattro cinque anni, l’acero è restato più o meno uguale. Poi improvvisamente ha cominciato a crescere. Il risultato è che il castagno, che è più lento, è cresciuto storto cercando sole e aria, e l’acero fa ombra ai pannelli solari sul tetto. Ma quando ho piantato il giovane acero era alto quaranta centimetri, me l’ero riportato da una passeggiata nello zaino. Ora sarà alto quindici metri e non accenna a fermarsi. Non ho saputo “vederlo” da grande, nel contesto dello sviluppo del resto del giardino. Gli esperti me l’avrebbero detto subito: non lì. Oppure dovevo tagliargli la cima dopo due-tre anni per farlo allargare più in basso.
La progettazione e lo sviluppo di un software ha le stesse difficoltà. Bisogna impostare la struttura in modo che sia solida e resistente, scegliendo il linguaggio o il framework adeguato, andando a vedere cosa hanno fatto gli altri nei loro giardini. Poi bisogna sapere vedere in avanti, immaginarlo crescere, decidere da che parte piegarlo, tagliare delle aree morte o che daranno fastidio ad altri software. E durante tutta la sua vita bisogna tenerlo pulito dai bug, controllare che non ci siano vermi che ne rodono il tronco, parassiti che inseriscono uova che esploderanno più avanti.

A che serve coltivare alberi? Beh, dipende. Alcuni sono belli, altri fanno ombra, altri portano frutti o legna.
A chi va insegnato a coltivare alberi? In linea di principio, a tutti; come tutti, secondo me, dovrebbero saper scrivere un racconto, disegnare o suonare uno strumento. Perché è fonte di un piacere immenso – quello di vedere un organismo crescere – e perché permette di condividerlo con gli altri.
Bisogna essere professionisti, avere un giardino perfetto? No, non tutti. Basta anche un limone sul terrazzino. Ma essere in grado di apprezzare un albero quando lo si vede, quello si; e non solo “uh quant’è bello”, ma saper vedere attraverso e indietro, cos’è, da dove viene, come è cresciuto, come crescerà.

E la programmazione? Anche quella va insegnata a tutti i bambini? Qui bisogna stare attenti a quello che si scrive, e siccome ne ho scritto pure troppo altrove, passo. Qui mi accontento della metafora, che è utile quando fa riflettere da un punto di vista nuovo e suggerisce idee.

Però anche in questo caso mi ritrovo (spesso) ad essere l’unico appassionato dalla boscaglia digitale e a partecipare amorevolmente a tutta la complessità dei suoi organismi, piantando qui, potando là, e poi godendomi il risultato. Non lo faccio (più) in maniera quotidiana, nel senso che intervengo solo marginalmente nelle scrittura di codice sorgente, che scrive chi è molto più bravo di me. Mi appunto ancora delle idee, o ripesco degli schemi di anni fa in attesa del momento in cui ci sarà tempo e risorse per applicarli. Vado in giro a curiosare per i vivai e riporto qualcosa a casa; oppure immagino giardini che poi altri dovranno coltivare.

Chi passa mi dice ancora: ma vuoi una mano per cancellare tutto questo pasticcio? Ma non era meglio fare il rivenditore di Moodle?

Curriculi digitali opensource

Ott
25

Il bando http://www.istruzione.it/scuola_digitale/curricoli_digitali.shtml per i curricoli digitali attualmente in corso (scade il 10 Novembre 2016) prevede 4,3 M€, riservati alle reti di scuole pubbliche e paritarie, destinati alla produzione di 25 curricoli digitali su 10 tematiche, divise in Fondamentali e Caratterizzanti, secondo il seguente schema:

Fondamentali:

  • diritti in internet
  • educazione ai media (e ai social)
  • educazione all’informazione

Caratterizzanti:

  • STEM (competenze digitali per robotica educativa, making e stampa 3D, internet delle cose)
  • big e open data
  • coding
  • arte e cultura digitale
  • educazione alla lettura e alla scrittura in ambienti digitali
  • economia digitale
  • imprenditorialità digitale

Dal mio punto di vista, non è troppo condivisibile questa biforcazione: da un lato le “educazioni a…”, dall’altro il coding, la robotica, i dati aperti. Così si introducono già nei temi e nei curricoli le separazioni che poi è difficile recuperare: tra riflessione teorica e attività tecnica, tra aspetti etici (diritti, doveri) e pratici, tra apprendimento cognitivo e affettività. Ma pazienza, in qualche modo si doveva distinguere.

Il dettaglio dei possibili contenuti dei curriculi è descritto nell’Allegato 2 (http://www.istruzione.it/scuola_digitale/allegati/2016/Allegato_2_Avviso_Curricoli_Digitali.pdf). A mio avviso, si tratta di testi non particolarmente omogenei, perché scritti da persone diverse, come si capisce dal linguaggio utilizzato e dalla formattazione libera. Si può supporre quindi che sia stato dato l’incarico di definire i contenuti a esperti di dominio che non si sono parlati tra loro. Noto che di opensource non si parla mai, e pazienza (ma anche no).

Non mi è chiarissimo il processo di valutazione delle proposte di curriculo. Da quanto ho capito io, ci saranno tre fasi: in una prima vengono richieste solo poche slide di presentazione e un formulario in cui vengano definite le scuole partecipanti, di cui almeno una deve avere esperienze dimostrabili nel settore (solo una?). In una seconda fase, viene stilata una graduatoria e vengono selezionate 125 proposte. Ai soggetti selezionati viene chiesto di inviare il progetto con un esempio, e solo 25 proposte vengono alle fine finanziate, con un massimo di 170.000 € per proposta. Ci sono poi altri 50.000 € per la migliore proposta di comunicazione del progetto (mi è sfuggito come si partecipa a questa speciale categoria).

La commissione di valutazione verrà scelta solo dopo la chiusura della prima fase. I dettagli delle altre due, come pure i processi di monitoraggio, verranno, si spera, chiariti in seguito. Potrebbe succedere, ad esempio, che i curricoli prodotti si sovrappongano oppure che lascino scoperte delle aree? Che seguano modelli completamente diversi? Che lo sviluppo non rispetti le premesse? Speriamo di no, speriamo che sia prevista anche una fase di aggiustamento in corsa.

Ma a prescindere da questi dettagli, ci sono molti aspetti che giudicherei positivi: la sottolineatura dell’importanza degli aspetti di cittadinanza digitale, la richiesta esplicita che i curricoli siano rilasciati come OER (peccato non si diano indicazioni di licenze specifiche: i contenuti prodotti si potranno usare gratis, ma si potranno anche modificare?), la citazione almeno della possibilità di analytics ovvero di raccolta dei dati di utilizzo.

Nel passato, il Ministero dell’Istruzione aveva scritto e pubblicato Programmi e Indicazioni per i vari ordini di scuola. Con la “scuola dell’autonomia”, con il passaggio dalla scuola dei programmi alla scuola dei curricoli, questo compito spetta alla scuola. Le indicazioni ministeriali però esistono ancora, e quattro anni fa per esempio sono state sottoposte ad un processo di verifica pubblica quelle per la scuola dell’infanzia e del primo ciclo, cioè fino alla scuola secondaria di primo grado inclusa. Per altro, nel documento finale (http://hubmiur.pubblica.istruzione.it/alfresco/d/d/workspace/SpacesStore/162992ea-6860-4ac3-a9c5-691625c00aaf/prot5559_12_all1_indicazioni_nazionali.pdf , mi spiace ma non c’era un link più corto) la parola digitale compare solo quattro volte: due nel conteste delle competenze chiave raccomandate dall’Europa, e due nell’area Tecnologia. Leggendo i risultati della consultazione, si capisce che secondo il 24% degli intervistati il digitale avrebbe dovuto essere più presente.

Comunque: in questo caso, forse per la prima volta, si chiede ai diretti interessati, cioè alle scuole – o meglio, a reti di scuole coadiuvate da esperti universitari o altri scelti dalle scuole stesse – di realizzare dei curricoli di livello nazionale, da condividere con le altre scuole.

E’ una buona maniera di affrontare la questione? Non lo so, ma non mi convince in generale la logica dei bandi, che permette di distribuire soldi alla Scuola – anzi, ad alcune scuole – che poi magari le usano come possono, sulla base della loro abilità a scrivere progetti. Bandi che si limitano a finanziare la creazione di un oggetto digitale (che so, un sito, una piattaforma di collaborazione o di e-learning), ma non il suo mantenimento e sviluppo futuro, col risultato che il suddetto sito muore dopo poco. Bandi che stimolano migliaia di proposte, ma ne finanziano solo una piccola percentuale, per cui il lavoro della maggioranza è sprecato. Bandi i cui risultati non sono soggetti a verifica se non contabile. Bandi in cui la coerenza dei prodotti viene cercata a posteriori, magari con un bando ulteriore.

E’ una maniera democratica? Non so nemmeno questo. Va avanti la scuola che ha al suo interno docenti capaci di progettare, nel senso specifico di “scrivere progetti finanziabili”. E si procede in maniera discontinua, per gettiti intermittenti. Per esempio, mi domando: ma una volta creati i curriculi, quali risorse verranno impiegate per aggiornarli? E chi lo farà? O si pensa che in campo come questo si possa creare IL curriculo definitivo?

Si poteva fare diversamente? Io penso di si. Faccio un piccolo esercizio di immaginazione.

1. Si poteva creare un piccolo gruppo di lavoro (di cui venissero pubblicati i nomi dei partecipanti) con almeno quattro compiti diversi:

  • raccogliere buone pratiche da paesi dove questi curricoli esistono e sono già stati sperimentati con successo
  • valutare i risultati dei Piani Ministeriali passati sul tema dell’IT, luci e ombre
  • esaminare le esperienze già realizzate nelle scuole o dalle associazioni
  • raccogliere idee tramite una ricerca non solo sul materiale cartaceo, ma anche su quello digitale, compresi i social network system.

Alla fine di questo lavoro preliminare, il gruppo di superesperti avrebbe potuto produrre un documento che indicasse obiettivi, limiti, metodi, errori da evitare, buone pratiche. Il documento avrebbe dovuto evidenziare, tra l’altro, gli incroci tra le aree tematiche. Non solo un elenco di argomenti, quindi.

2. Poi il MIUR avrebbe potuto convocare un piccolo numero di esperti, tre per ogni area tematica (per esempio uno di estrazione universitaria, un docente e un esperto di dominio), scelti mediante una procedura concorsuale pubblica, fornirgli il quadro generale e dargli modo di produrre una versione alfa del curriculo.

3. Le versioni alfa avrebbero potuto essere condivise preliminarmente tra tutti i gruppi, per verificarne la coerenza e l’omogeneità e la rispondenza al quadro generale.

4. La versione beta, risultante dal lavoro di omogeneizzazione, sarebbe potuta essere diffusa presso un numero più grande di docenti, dei quali si sarebbero raccolti i commenti. Si sarebbe potuta immaginare una piccola sperimentazione per tutti i curricoli, per permettere ulteriori aggiustamenti.

5. La versione RC (release candidate), risultato della sperimentazione, sarebbe stata pubblicata in una piattaforma aperta dove tutti gli utenti potessero suggerire miglioramenti. Non essendo necessaria una “versione finale” congelata, i curriculi avrebbero potuto essere aggiornati in maniera continua, o “forkati” come si fa nei repository di software opensource.

Costo totale: quasi sicuramente inferiore ai 4,3 milioni investiti nel bando. Immaginando trenta persone che lavorino per un anno a tempo pieno, fanno più o meno un milione di €, più il costo del gruppo iniziale dei superesperti (che voglio sperare non costerebbe altri tre milioni di €…). Con i soldi avanzati si regalava carta igienica a tutti…

Coinvolgimento degli utenti finali: sicuramente maggiore, direi. Nella modalità scelta dal MIUR, supponendo che ogni team di progetto sia composto da 20 tra docenti ed esperti, il numero totale delle persone coinvolte è di 500. Che è meno dei docenti intervistati per le Indicazioni del 2012.

Qualità dei prodotto finale: non so dirlo, ma il processo descritto sarebbe servito a controllarla a più riprese. E la prassi dell’opensource insegna che questo modo funziona abbastanza bene.

Dietro il coding

Set
25

copertina

In occasione dei due seminari in Piemonte (Ivrea e Torino), di cui qui trovate maggiori informazioni, ho preparato delle slide. Troppe slide. Alla fine mi hanno fatto notare che più che una presentazione stava diventando un libro.

 

 

E allora ho colto l’occasione, reimpaginato, aggiunto, corretto, e ho realizzato un piccolo ebook dal titolo “Dietro il Coding”. Non è una difesa del coding né una sua condanna. E’ semplicemente una raccolta di domande e di riflessioni che hanno lo scopo di stimolare quelle degli altri, soprattutto di quelli che intendono dedicare qualche ora al Coding con i propri ragazzi. Riflessioni che partono da lontano, da almeno venticinque anni fa, ma che ho cercato di aggiornare andando a caccia di opinioni, di proposte e di alternative. Una parte importante è dedicata al progetto “Programma il Futuro” e a Scratch, ma purtroppo solo poche righe al nuovo tema dei curricoli digitali, che andrà seguito con attenzione.

Questo è l’indice:

Come nasce questo testo
1. Che cos’è il Coding
2. Perché è così importante
3. Una valutazione storica
4. Come si parla del Coding?
Primo Intermezzo: che significa opensource?
5. A che serve il Coding?
6. Chi può insegnare il Coding?
Secondo Intermezzo: le differenze tra linguaggi
7. Che linguaggio?
8. Il modello didattico dietro Scratch
9. Come andrà praticato il Coding
10. Un po’ di storia…
11. E oggi?
12. Come potrebbe funzionare davvero
Suggerimenti di lettura

L’ebook è rilasciato con licenza CC BY/SA e lo potete scaricare da  qui.

Il nuovo sito PNSD e’ online … o quasi

Mag
08

E’ online il nuovo sito del Piano Nazionale Scuola Digitale.

Tra le news di venerdì 6 maggio 2016 trovo:

_________

06-05-2016
Piano nazionale scuola digitale
On line il nuovo sito con una veste grafica moderna e una navigazione semplice e intuitiva.

_________

Ho provato a rendermi conto di persona delle novità e dei vantaggi. Moderno significa che adotta lo stile monocolonna, o quasi, abbandonando il modello “giornale”, con riquadri e finestre (per intenderci, quello di  http://www.istruzione.it/). Sicuramente ci saranno molti meno contenuti nella pagina, anzi con uno schermo piccolo se ne vedono veramente pochi. Ma è responsive e questo è l’importante.

Premessa: se fosse un sito di una qualsiasi amministrazione pubblica, probabimente non ci sarebbe troppo da aspettarsi. Ma qui si tratta della vetrina del Ministero nel momento in cui spinge le scuole ad avanzare sulla strada del digitale. Non  è solo un raccoglitore di contenuti e news, è anche un modello di cosa si intenda, oggi, per comunicazione digitale istituzionale. E in particolare, è un modo per dire alle scuole: ecco, i siti per i docenti si fanno così. Vale la pena esaminarlo da vicino.

Purtroppo il sito è ancora chiaramente incompleto (ma allora perché pubblicarlo? Non si poteva aspettare qualche giorno?).

Ad esempio tutti i link a “Materiali per laFormazione” (cioè l’attesissimo repository di contenuti formativi da usare per la formazione degli animatori digitali, immagino), cioè http://www.formazionepnsd.it/ portano ad una pagina bianca con la scritta desolante:
Sito di prossima pubblicazione

______

Aggiornamento del 17 Maggio: ora il sotto-sito sulla Formazione è online. Se volete dare un’occhiata ai primi commenti
______
Idem per il link evidentissimo, in rosso “Scarica la app”: porta a http://www.istruzione.it/scuola_digitale/app.shtml, ma qui trovo scritto solo: In arrivo. Però c’è la brochure, una pagina in PDF con le schermate della app. Nella prima però c’è Lorem ipsum dolor sit amet…

La sezione sugli animatori digitali è molto attesa e immagino la più  gettonata in questo momento.
http://www.istruzione.it/scuola_digitale/prog-animatori-digitali.shtml
Anche qui il menù laterale contiene ancora 4 elementi su 9 disattivi (Finanziamenti, Video, Mappa e Gallery). Ripeto, ma che fretta c’era?

La pagina sull’accessibilità non è stata aggiornata, probabilmente si riferisce ad una versione precedente del sito, in Liferay. E in effetti non sono certo che questa versione sia accessibile. Non ho fatto un’analisi precisa, non spetta a me. Chi è interessato può provare con un servizio di validazione come http://achecker.ca/checker/index.php. Però:
I link hanno tutti un “title”, ma che contiene sempre “vai alla pagina”.
Quando il testo del link è “Approfondisci” e il suo contesto si ricava solo dall’immagine precedente (es. Avvisi e Azioni), non si capisce davvero come si possa fare con un browser testuale o con uno screen reader per capire dove porta il link.

Alcune immagini (come questa) hanno una dimensione ragguardevole, ovvero circa 500 kb, 1400×1600; ma nella pagina sono ridimensionate a 150×150. Si potevano ridimensionare prima e ridurre la banda consumata inutilmente?
Peraltro non hanno un’alt, il che rende impossibile capire di cosa parla il link che le segue. Va bene, si può migliorare.

Passo alla sezione Schoolkit, forse la più interessante (in attesa della Formazione).

http://schoolkit.istruzione.it/

CHE COSA SONO: Modelli di istruzioni per accompagnare le scuole nell’attuazione del Piano Nazionale Scuola Digitale.
A COSA SERVONO: Rispondono a una domanda chiara e aiutano a risolvere un problema o sviluppare una pratica innovativa

In pratica, i kit sono delle schedine, categorizzate per Titolo, Produttore e Sezione (tre: Formazione, Competenze, Strumenti).
I produttori sono MIUR, Partner istituzionali o privati, Comunità Scolastica. Di questi però non esiste una pagina che spieghi chi sono, o almeno io non l’ho trovata.

Nelle schede ci sono altre informazioni (ma nel testo, non come campi o tag separati), ovvero l’azione del Piano cui si riferisce, chi li ha prodotti, quali destinatari, la tipologia di scuola, la descrizione. E la sintesi in un tweet, con tanto di hashtag (es. #cooperativelearning).
Il sito delle schede è realizzato in WordPress (ma perché non c’è scritto?). Dichiarazione di accessibilità? Qui non è dato sapere, fate la prova.

La ricerca è full text su tutto il sito, e forse non potrebbe essere diversamente. In pratica significa che se cerco “wordpress” rischio di trovare una scheda che non parla affatto dell’uso di wordpress per la didattica, ma che contiene un link ad un blog su WordPress.com.
I termini vengono cercati in AND – forse sarebbe stato utile spiegarlo. Vuol dire che se cerco “wordress drupal” non trovo le schede che parlano di WordPress o di Drupal, ma solo quelle che parlano di entrambi.
Peraltro per effettuare una ricerca bisogna tornare nella home page della sezione. Ma dov’è il link?

E’ vero che le schede per ora sono solo 12, ma sarebbe stato utile un sistema di ricerca un po’ più moderno, per selezioni successive, a “faccette” (p.es Strumenti/Infanzia/Laboratori). Magari includendo gli hashtag, altrimenti che ci stanno a fare?

Le schede si possono scaricare in PDF, il che è mediamente utile, a meno che non si vogliano stampare. Stampare?

Mi domando anche come funzioni il processo di pubblicazione: c’è qualcuno che valida le schede ricevute? Sembrerebbe di si, a giudicare dalle istruzioni per inviare una proposta, http://schoolkit.istruzione.it/invia-uno-schoolkit/ e dal modello di scheda http://schoolkit.istruzione.it/wp-content/uploads/2016/03/Form_COMESCRIVEREUNOSCHOOLKIT.odt.

Prendo una scheda a caso, la prima: http://schoolkit.istruzione.it/schoolkit/creare-un-archivio-condiviso-materiali-didattici/

Il tema è molto interessante, almeno per me. Ci sono tante questioni aperte: cosa inserire, come (meglio linkare o copiare?), come gestire gli aggiornamenti, come gestire la pubblicazione. C’è la questione apertissima del rapporto tra diversi archivi (locale, territoriale, nazionale, europeo…) e degli standard da adottare, delle lingue da usare nelle descrizioni. Insomma, un mondo.

Leggo nella scheda:

“Un repository si basa appunto su un modello di co-produzione quando promuove una produzione collaborativa delle  risorse, offrendo uno spazio in cui condividere e scambiare materiali, dove gli utenti sono sia autori che  consumatori dei materiali.”

Bene. Non è solo un archivio, c’è intorno una comunità, si discute, si commenta.

“Sicuramente sarebbe opportuno creare una netta separazione tra ciò che è fruibile dai docenti e ciò che può essere anche utilizzato dagli studenti (come schemi, mappe precostituite, link catalogati per destinazione d’uso)”

Certo. Anche se una fluidità maggiore non guasterebbe…

“La catalogazione deve essere chiara, con il materiale ben distinto in categorie diverse e raggiungibile attraverso la funzione cerca.”

Beh, ci mancherebbe altro.

“Il repository deve avere un suo regolamento condiviso da tutti e accettato da chi entra nella sezione per fruire del materiale, bisogna individuare quindi, anche una policy di riutilizzo delle risorse individuate (eventuale licenze d’uso, utilizzo di immagini non coperte da copyright), il diritto d’autore su materiale prodotto (scelta di rendere libero il proprio materiale prodotto con il solo vincolo di citare la fonte, cioè l’autore originale dell’attività didattica, del progetto)”

Un po’ poco per una policy… Sembra più un riassunto, ma si può davvero fare una policy con queste indicazioni? Non è chiarissima tutta la questione del licensing (“eventuali licenze, immagini non coperte da copyrigh, diritto d’autore, materiali liberi…”: per tutto questo esistono delle linee guida, delle licenze. Magari sarebbe utile segnalarle).

Tra parentesi, la stessa sezione degli schoolkit avrebbe potuto essere un modello di archivio, ma mancano molte caratteristiche indicate nella scheda. Si, la licenza delle schede è CC  BY SA 3.0 (dal 2013 però le licenze Creative Commons sono alla versione 4.0…). Bene: significa che ogni scheda si può riusare, anche a scopo commerciale, purché resti invariata la licenza e si citi l’autore. Solo che BY è difficile da applicare se non c’ è un’indicazione precisa dell’autore.

Ah, nel footer di tutto il resto del  sito “scuola digitale” è invece scritto Tutti i diritti riservati © 2016. E alla pagina http://hubmiur.pubblica.istruzione.it/web/hub/note_legali si dice “Per fini di lucro è consentito utilizzare, copiare e distribuire i documenti e le relative immagini disponibili su questo sito solo dietro permesso scritto (o egualmente valido a fini legali) del Ministero dell’Istruzione, dell’Università e della Ricerca, fatte salve eventuali spettanze di diritto.” Insomma, CC o no? Boh, bisognerà chiedere ad un legale.

 

Continuo a leggere, ma purtroppo non trovo nessun link a schemi di catalogazione standard o a buone pratiche, ad esempi esistenti di repository scolastici o a progetti europei, come RSP (http://www.rsp.ac.uk/start/). Vado allora al punto degli strumenti.
“Il repository puà essere condiviso:

  •  sito della scuola (creando un apposito spazio riservato ai docenti)
  •  un servizio cloud (dropbox, google drive)
  • una piattaforma di e-learning (moodle, fidenia, edmodo per interagire con i docenti della scuola)
  •  un eventuale sito/repository con accesso per i docenti (creazione di un sito esterno collegato al sito della scuola attraverso un banner in home).”

Ovvero non è indicato nessuno strumento specifico per i repository di risorse, che so,  Fedora http://fedorarepository.org) o Dspace (http://dspace.org/).  O almeno una piattaforma come ILIAS che è centrata proprio sul repository di contenuti e permette di catalogare in maniera fine i materiali. Come si fa con Dropbox a categorizzare i materiali? E a gestire le licenze, l’accesso separato docenti/studenti? E come ci si collega ad altri archivi, di altre scuole per una ricerca federata, o per evitare inutili doppioni? O un archivio è solo una cartella piena di file?

Tra i link utili c’e una guida a Wix (su Youtube), degli esempi di siti fatti con Wix (quello della scuola che propone la scheda). Ma perché un servizio commerciale come Wix? Per chi non lo sapesse, Wix è un’azienda con sede a Tel Aviv e uffici in USA e Lituania che offre un servizio di pubblicazione di siti facile e gratuito. E che c’entra con un archivio di materiali didattici? Mi sfugge qualcosa sicuramente.

Le risorse necessarie sono tutte interne. Costi: zero. Meno male.

Ora, tanto rispetto per chi ha proposto la scheda, ma di lavoro da fare per renderla utile ad una scuola che voglia costruire un archivio  condiviso di materiali didattici, ce n’è. Prima di pubblicarla in fretta e furia, si poteva migliorarla un po’.  O forse il problema sono le dimensioni: più di quello che c’è scritto non ci poteva stare nel modello.

E allora la questione è più seria: ma ha senso una scheda che spieghi in due parole come si fa un archivio di materiali didattici? E’ un argomento del tipo trattabile con un  “how to”? Guarda è facile, clicca qui e poi qui… Non serve nessun riferimento alle motivazioni, agli obiettivi, ai modelli d’uso? Davvero una scheda così “aiuta a risolvere un problema o sviluppare una pratica innovativa”?

 

Insomma, credo che il nuovo sito PNSD abbia ancora parecchio cammino da fare.

Google e la ginestra

Dic
07

Sentito ieri alla radio:

– “Adesso Giovanni vi darà l’indirizzo del sito di cui stiamo parlando”

– “Ok, Carla, è www…”

– ” No, dai, basta andare su Google e scrivere…”

La URL – il nome del sito – è diventata praticamente ininfluente. Se devo visitare il sito di Repubblica non perdo tempo a scrivere l’indirizzo preciso (http://www.repubblica.it) ma scrivo “repu” nello spazio degli indirizzi del browser, e se prima non viene autocompletato usando la mia cronologia arriva la pagina di Google che riporta repubblica.it come primo risultato. Clicco e via. E’ comodo, più veloce. Non mi devo ricordare esattamente come si scrive, non devo impicciarmi con dettagli ridicoli come il dominio di primo livello (it org com net) o il prefisso del protocollo (http ftp smtp …).

Nella lontana era del pregoogliano inferiore le cose erano diverse. Come erroneamente si dice ancora nella pagina di Wikipedia italiana dedicata al World Wide Web:

“La visione di una pagina web inizia digitandone la URL nell’apposito campo del browser web oppure cliccando su un collegamento ipertestuale presente in una pagina web precedentemente visualizzata o in altra risorsa come ad esempio un’e-mail. Il browser web a quel punto dietro le quinte inizia una serie di messaggi di comunicazione con il web server che ospita quella pagina con lo scopo di visualizzarla sul terminale utente.”

Non è più così. Si dovrebbe correggere come segue:

“La visione di una pagina web inizia digitandone un pezzo del titolo nell’apposito campo del browser web. Il browser web a quel punto invia la stringa a Google, che acquisisce l’informazione (ad esempio per profilare l’utente), cerca nei suoi database e fornisce una lista di URL che contengono o sono collegati a quella stringa. Cliccando su uno dei link proposti, il browser dietro le quinte inizia una serie di messaggi di comunicazione etc etc.”

Non voglio qui entrare nella questione delle informazioni – a volte non necessarie – regalate a Google. Mi interessa una questione più “filosofica” collegata a questa piccola pigrizia: ho l’oggetto e lo specchio, ma guardo solo lo specchio. Come se lo specchio – ogni specchio – non fosse deformante. Al punto poi da dimenticarmi dell’oggetto. Al punto magari da rimanere preda di ridicoli trappole via mail (“clicca qui”: ma qui dove? dove punta questo link?).

Nel mondo ci sono le cose: alberi, pianeti, libri, film. Poi ci sono le rappresentazione delle cose, di cui una parte importante è costituita da insiemi di parole sulle cose: gli articoli di giornale, le recensioni dei film, le chiacchiere al bar, i commenti nei blog, i tweets.

Sono due tipi di cose diversi. In alcuni casi la differenza è netta: la pianta della ginestra è una cosa, una foto di una ginestra un’altra. In altri è più complicato, in particolare quando le “cose” sono esse stesse dei testi, e ancora di più quando esiste una versione digitale di questi testi che è accessibile via Internet. Per esempio, la Ginestra (il poema leopardiano) è una cosa (una copia digitale la si trova qui: http://it.wikisource.org/wiki/Canti_%28Leopardi_-_Donati%29/XXXIV._La_ginestra); la pagina di Wikipedia sulla Ginestra (http://it.wikipedia.org/wiki/La_ginestra) o le parafrasi ad uso scolastico (come http://www.oilproject.org/lezione/leopardi-la-ginestra-parafrasi-pessimismo-leopardiano-3662.html) sono un’altra cosa.

Nel senso che hanno autore diverso, dicono cose diverse, sono state scritte per scopi diversi. Cose che si usano diversamente, che soddisfano bisogni diversi. Se devo leggere la Ginestra mi serve il testo originale; se devo sapere cosa si è detto nel tempo di quel componimento, mi servono i commenti dei critici. Magari ci sono occasioni in cui mi servono entrambi, o uno può supplire all’altro (poniamo, perché devo scrivere un tema per l’ora di Italiano di domattina e sono un po’ in affanno). Ma restano due cose diverse e potrei volere l’una o l’altra separatamente, non mescolate tutte insieme in migliaia di risultati.

Ora a Google (ma varrebbe per qualsiasi altro motore di ricerca) non posso segnalare questa differenza di intenzione, non posso scegliere. Posso decidere che voglio trovare qualcosa sulla Ginestra, e posso persino dire in che formato: voglio un testo o un’immagine o un video o una mappa. O persino un libro (more>books). Ma sto sempre cercando “cose che si riferiscono a”, non “la Ginestra” in sé.

Prima di internet, se cercavo una cosa, voleva dire che mi interessava quella cosa (diciamo l’originale) e magari andavo in biblioteca o in libreria a cercare le opere complete di Leopardi; se invece volevo sapere cosa la gente dice di quella cosa andavo a cercare un manuale di storia della Letteratura, o una rivista di Italianistica, o andavo a lezione. Ora ho la possibilità di accedere a quasi tutte queste cose da casa tramite un unico canale (compresa magari la lezione su qualche MOOC). Ma l’impressione che ho è che non si faccia più la differenza, tanto che è anche difficile per me scriverne e farmi capire.

All’origine c’è il fatto che un motore di ricerca prende la stringa di caratteri che gli forniamo e la confronta con quello che ha nel database. Ed è normale che ci siano molti più record di pagine che parlano della Ginestra che non recordi di copie digitali dell’originale. E che di originali ne basta uno, mentre di commenti che ne possono essere milioni. E che l’originale (la copia del testo originale) non è marcata in maniera diversa dal resto.

Ma il punto è che questa configurazione tecnica ha portato ad un’abitudine mentale nuova. Non si parla qui della questione generica “internet e i cellulari allontanano i giovani dal mondo reale”, perché qui non è questione di età – Google lo usiamo semplicemente tutti – ma del fatto che l’enorme massa di informazioni disponibili ha reso inevitabile l’uso di un motore di ricerca, e che la maniera di funzionare di questo ha talmente cambiato le nostre abitudini da renderci indifferenti alla distinzione tra quello che diciamo di una cosa e la cosa stessa.

Certo è difficile sostenere che la ginestra abbia un’esistenza indipendente da quello che pensiamo e diciamo di essa. Il tavolo di Berkeley ci ricorda che non abbiamo un accesso privilegiato alla realtà. E si, non sapremo mai se l’uomo è andato davvero sulla Luna e se la guerra in Iraq ha davvero avuto luogo, perché abbiamo solo rappresentazioni di questi eventi. Ma resta il fatto che in un contesto normale sappiamo distinguere abbastanza bene tra cosa e rappresentazione, in ogni caso abbastanza da sopravvivere. Normalmente sappiamo distinguere senza pericolo tra un’esplosione in cielo (di un fuoco di artificio) e un film di guerra, tra le Operette Morali e un manuale di liceo, tra una foto del giardino in primavera e un rametto in un vaso. Dovremmo ugualmente saper distinguere, ed essere interessati a farlo, tra una versione digitale di una poesia e tutto quello che è stato detto su di essa. Come dovremmo saper distinguere tra un indirizzo internet e le informazioni che Google ci restituisce a proposito di quell’indirizzo.

Ma temo che questo piccolo artificio dei motori di ricerca favorisca (ancora di più) una visione generica che non è interessata a distinguere tra gli ordini delle cose, che non è interessata al confronto e alla valutazione personale, che assume tutto come originale. Con quel che ne consegue.

 

Year of Code

Ago
12

Il 2014, per chi non lo sapesse, è stato dichiarato “Year of Code” nel Regno Unito. Anno del codice, nel senso di “anno della programmazione”. Da settembre, la programmazione verrà insegnata nelle scuole elementari e medie, ovvero tra i 5 e i 16 anni. http://yearofcode.org/
In September 2014 coding will be introduced to the school timetable for every child aged 5-16 years old, making the UK the first major G20 economy in the world to implement this on a national level”.
Questa decisione ha portato con sé – o forse è la parte visibile e ufficiale di – una miriade di attività collaterali, su base volontaristica, tutte mirate a diffondere la programmazione tra i ragazzi, ma non solo. Coding is empowering: programmare rende più fichi.
http://issuu.com/techmixmag/docs/techmix_magazine_issue__3/15?e=0/8750602

E’ interessante andare a vedere l’immaginario che viene costruito per coinvolgere la popolazione, non solo in UK ma anche negli USA e altrove. Quella che viene presentata non è più la figura del geek, dell’informatico tipico, un po’ secchione e un po’ sfigato, ma quella della mamma disoccupata che si ricicla in un altro settore, quella del genio artistico che inventa una startup, del ragazzino qualunque che tira fuori la app da 200.000 dowload in una settimana
http://www.codecademy.com/stories/99-how-to-outgrow-the-fear-of-starting

Premesso che chi scrive ha passato alcuni anni ad insegnare a programmare a classi di bambini tra 10 e i 14 anni, che è da sempre un appassionato di Logo, di cui ha seguito con interesse tutte le evoluzioni (da MicroWorlds a StarLogo a NetLogo), e che ha continuato ad avere un interesse “estetico” per gli ambienti di programmazione visuale in qualche modo derivati (Alice, Squeak/Etoys, Scratch, ….) che oggi vanno per la maggiore e che rendono il termine “coding” abbastanza pretestuoso. Premesso che anche ora che non la pratico quotidianamente trovo la programmazione un’attività molto gratificante, come ogni tipo di creazione artistica, e che al pari della musica o delle arti grafiche mi dispiace che questo piacere non venga condiviso da molti.
Tutto ciò ed altro premesso, non è quindi per avversione preconcetta verso l’apprendimento della programmazione in giovane età che mi è venuta l’idea di scrivere queste note. Non penso che i bambini debbano essere tenuti lontani dalle macchine, né che la logica dell’utenza passiva multimediale debba restare l’unica, o quella privilegiata, fino alla maturità.
Ma il recente fiorire di iniziative per introdurre i bambini alla programmazione (diciamola meglio: per portare dei ragazzini a sviluppare delle app in una sola giornata) mi lascia invece perplesso.

Cerco, nelle presentazioni delle giornate di introduzione alla programmazione organizzate, per esempio, da CoderDojo, le ragioni di questo rinnovato interesse. Le cerco anche con una certa invidia tutta italiana perché mi ricordo il triste destino che ha avuto da noi quella parte di curriculum informatico scolastico dedicata alla programmazione. Ricordo le ragioni di quell’esclusione: ad esempio, che i bambini, nella scuola dell’obbligo, non devono imparare a programmare più di quanto non debbano imparare a riparare una lavatrice. Ricordo l’informatica “carta e matita” di Giovanni Lariccia, ma anche la scoperta dell’ECDL, l’attenzione per gli strumenti di produzione di media più che su quelli per la produzione di programmi, etc … Oggi, quando vedo gli entusiastici commenti a queste iniziative, mi chiedo: quali sono, stavolta, le ragioni? Perché passare un pomeriggio a programmare, a 10 anni, è meglio di passare un pomeriggio a giocare a pallone? Perché organizzare spazi e tempi extrascolastici per offrire questa possibilità? Perché dedicarci risorse pubbliche, o private?

Mi pare che le ragioni citate siano di almeno due ordini:

1. Aspetti economici: sono facili da citare, molto meno da dimostrare.
Nel 2015 ci saranno in Europa 700.000 posti di lavoro vuoti nel settore ICT (fonte: Commissione Europea, http://europa.eu/rapid/press-release_IP-13-52_it.htm). Negli USA, entro il 2022 ci saranno 2.600.000 posti di lavoro nel settore dell’informazione; di questi, 750.000 per i programmatori, con una crescita del 22,8 % (fonte: Bureau of Labor Statistics, http://www.bls.gov/news.release/pdf/ecopro.pdf).

This means that U.S. companies would be forced to outsource valuable coding jobs to India, China, Eastern Europe, and other countries with growing IT sectors, while thousands of Americans remain unemployed or stuck in low-skilled, low-wage positions” (http://opensource.com/education/13/4/teaching-kids-code).

A parte il fatto che di questi milioni di posti di lavoro solo una parte è riservata ai programmatori propriamente detti, mentre la maggioranza è lasciata a tutti gli altri lavoratori del settore (analisti, progettisti, sistemisti, grafici, esperti di reti, di sicurezza, commerciali, docenti, installatori, …), e a parte il fatto che il lavoro di programmatore non è necessariamente così ben pagato e attraente, il punto è: quale politica educativa e del lavoro porterà a colmare questi vuoti. Da dove si comincia? Dalla riforma dei curricula universitari? Da quella delle scuole tecniche? Dalla riforma del mercato del lavoro? O dai Coding Day per i ragazzi?

Ad esempio, quale legame ci sarebbe tra la giornata festosa in cui si sviluppa un videogioco con gli amici e la capacità di svolgere un lavoro del tipo di quelli di cui il mercato ha bisogno? Non è detto che quello che si apprende oggi sia ancora utile domani. Il ragazzino di 10 anni che oggi produce – in una giornata – una app per Android avrà 18 anni nel 2022, e allora non avrà davanti le stesse piattaforme, gli stessi linguaggi e nemmeno gli stessi concetti. Basti guardare quali erano appunto linguaggi e sistemi operativi dieci anni fa e la distanza abissale che li separa da quelli di oggi. Manca, a mio avviso, uno studio che dimostri gli effetti a medio o lungo termine di queste iniziative. Effetti che potrebbero essere cercati sulla scelta della scuola, sul percorso di apprendimento personale, sulle letture scelte, sull’uso del tempo libero, sullo scambio di conoscenze con i pari. E magari si potrebbe anche ragionare meglio su quali linguaggi, quali sistemi, quali tipi di problemi, quali domini applicativi sono più adatti per avviare il giovane programmatore verso il suo radioso futuro rendendolo più concorrenziale rispetto ad altri.

2. Aspetti sociali: subito dopo quelle economiche, vengono citate le ragioni più “etico-politiche”. Il ragionamento è più o meno questo: la nostra vita è costellata di apparecchiature elettroniche del cui funzionamento non sappiamo nulla; se avessimo le competenze digitali attive (coding specials) saremmo in grado di difenderci; quindi è bene acquisire queste competenze fin da piccoli.
E’ un po’ la motivazione che sottintendeva lo studio dei mass media e della pubblicità a scuola qualche anno fa: se li conosci, li smascheri.

Ad esempio, sempre con le parole di Rebecca Lindegren:
Children’s personal and professional lives will increasingly be shaped by computer programs. Without the ability to code, they will become passive consumers at the mercy of programmers working for technology giants, unable to construct or meaningfully interact with the virtual reality that surrounds them” (http://opensource.com/education/13/4/teaching-kids-code).

Questo passaggio dell’articolo è, a mio avviso, il più interessante. Senza la capacità di programmare, i bambini diventeranno passivi consumatori etc etc. Con la capacità di programmare (acquisita in un paio di pomeriggi tra amici) invece saranno vaccinati e potranno interagire significativamente con il mondo virtuale che li circonda.

Da notare almeno due cose: la prima è che la capacità di programmare vaccina dallo strapotere dei giganti della tecnologia. Si può anche essere d’accordo in teoria, ma va definito cosa intendiamo per “capacità di programmare”. Un’attitudine? Un’esperienza, anche limitata? Una competenza specifica e verificata da terzi?
Stiamo parlando della buona abitudine di leggere il codice sorgente di ogni programma che si utilizza? Della curiosità verso ogni nuova soluzione che viene presentata, curiosità che non si contenta di un’etichetta o di una descrizione ma vuole arrivare a capire come funziona oggi e come funzionerà domani? O della capacità di progettare, sviluppare e manutenere soluzioni alternative?
Sono “capacità” completamente diverse. Si raggiungono, e si perdono, in tempi diversi e in modi diversi. Alcune di queste non sono generiche, ma possibili solo in connessione con certi contesti tecnologici e legali, primo fra tutti quello dell’apertura del codice sorgente.
Ora in generale aumentare la quota di competenze creative che viene appresa a scuola è probabilmente utile a preparare un cittadino capace di costruire narrazioni originali, oltre che di ascoltare quelle degli altri. Competenze che si possono sviluppare componendo musica, scrivendo sceneggiature, disegnando fumetti e persino programmando (uno spartito o un programma non sono poi così diversi, da questo punto di vista). Qui però è in gioco una riforma del curriculum scolastico, e non solo qualche ora di laboratorio.

La seconda cosa da notare è che la possibilità di interagire pienamente con la realtà (virtuale, nel senso dell’insieme di dispositivi, reti, server, …) non sembra dipendere solo da queste competenze. Anche qui, andrebbe forse ricordato che, oggi molto più di ieri, ognuno di noi ha comprato già preinstallati o consentito a installare sui propri dispositivi digitali – pc, tablet, smartphone, televisori, frigoriferi,… – centinaia di programmi del cui funzionamento effettivo non possiamo sapere quasi nulla, se non quello che esplicitamente ci dicono i produttori. Il codice sorgente di questi programmi (che a volte chiamiamo “applicazioni” o amichevolmente “app” per farceli sembrare meno complessi e e pericolosi) non è disponibile per la lettura o la modifica. Sapere programmare non aiuta minimamente a evitare che raccolgano i nostri dati e ne facciano un uso non previsto (da noi). Sapere programmare non ci permette di evitare di usarli: alzi la mano chi si può permettere di non avere un account gmail o una pagina FB. Senz’altro non ci aiuta a modificarli, a impedire che svolgano azioni se non illecite, almeno non gradite. Interagire significativamente con gli altri tramite app e reti, ricevere e fornire dati – filtrandoli – richiede delle competenze, che oggi fanno sicuramente parte di quelle di base di ogni cittadino. Ma allora non è sufficiente un pomeriggio di manipolazione di Scratch, serve anche qualche informazione in più. Informazione che in effetti né la scuola dell’obbligo, né quella superiore, né l’università consegnano.

3. Vengono in mente però anche altre ragioni, forse meno nobili. Per esempio, una generazione di ragazzini che sono in grado di produrre un’app in poche ore significa da un lato un serbatoio immenso da cui andare a pescare i migliori developers senza doversi assumere l’impegno e la responsabilità di formarli adeguatamente e di aspettare il momento in cui, accanto ad altre competenze utili per una vita completa, sviluppino anche quelle di coding; e dall’altro un enorme mercato per quelle app…
Ad esempio la Scuola 42, a Parigi, dichiara esplicitamente di porsi come un’alternativa ai percorsi scolastici tradizionali per scovare dei geni informatici che probabilmente sarebbero degli esclusi nel sistema tradizionale (http://www.42.fr/ledito-de-xavier-niel/). Da notare che la scuola 42 è gratuita. Un progetto simile, ma più orientato al sociale (e quindi finanziato con fondi pubblici) è quello di Simplon (http://lafrancesengage.fr/toutes-les-actions/simplonco.html).
Soprattuto nel primo caso, si unisce l’idea della selezione anticipata con quella dell’investimento vantaggioso: i migliori – indipendentemente dalla posizione sociale – possono ricevere la migliore formazione e avere una via privilegiata per l’accesso al lavoro. Investire in formazione rende meglio che affidarsi ad una selezione, permette di arrivare prima e assicurarsi i servigi di uno sviluppatore che è sempre più giovane.
Non che queste ragioni siano necessariamente quelle che motivano gli organizzatori delle giornate; ma è lecito domandarsi se non sono quelle che motivano gli sponsor, che sono spesso grandi imprese del settore telecom se non direttamente dell’ICT.
Dopo tutto, perché perdere tempo a formare tutti gli studenti alla programmazione per poi verificare con un test quali sono adatti al lavoro? Basta farlo solo con i più svegli.

Riandando a quelle lezioni con ragazzi delle scuole medie, in cui per gruppetti cercavamo di costruire dei videogiochi con i limitati strumenti a disposizione (erano gli anni ’90), la differenza che mi salta agli occhi è che allora si aveva in mente un progetto educativo. Ovvero: si sceglieva un linguaggio perché era stato pensato per i bambini (e non solo perché era una versione semplificata di un ambiente di simulazione di Android); si sceglieva un dominio (ad esempio, ma non necessariamente, quello matematico) perché alcuni aspetti del programma di matematica erano più comprensibili affrontandoli dal punto di vista della costruzione anziché da quello della analisi – per esempio la geometria; ma si usava anche il Prolog per studiare la grammatica. L’obiettivo era pienamente didattico: imparare a programmare all’interno del percorso scolastico non era la preparazione a qualcos’altro, ma un’attività degna di per sé, che aiutava a imparare meglio e più in profondità. Programmare era un modo generale per affrontare l’apprendimento. L’oggetto e le finalità dell’apprendimento però erano determinati da altre considerazioni.

E’ possibile, lo riconosco, che io abbia una visione un po’ edulcorata, mitica, di quelle ore. Forse tutta questa chiarezza teorica non c’era e la consapevolezza del progetto educativo la sto inserendo a posteriori. Allora, come adesso, c’era molta buona volontà e una speranza di fare qualcosa di diverso, e di utile.

Mi auguro almeno che questo stesso spirito animi i volontari che oggi supportano i ragazzi nello sviluppo della loro prima app.

Digitale: un’etimologia istruttiva

Mar
02

Il testo che segue è una rielaborazione dell’introduzione al libro di Valeria Zagami “Fare scuola nella classe digitale: tecnologie e didattica innovativa fra teoria e pratiche d’uso innovative”, Loescher, I quaderni della ricerca, 2014.
________________________________________________________

1. Digitale è una parola d’uso comune, di cui forse non comprendiamo completamente il senso. Lo usiamo come aggettivo e come sostantivo astratto, sappiamo in generale distinguere cosa è digitale e cosa non lo è, ma poco di più. Ci sfugge il fatto centrale che digitale è un termine inerentemente plurale: ogni oggetto digitale fa parte di un sistema, contiene delle parti di codice genetico identico a quello degli altri oggetti; li imita e ne è imitato, in un processo continuo che non sarebbe stato possibile con i media predigitali.
Quando Bolter e Grusin parlavano di “remediation” agli inizi di questo millennio, avevano in programma di spiegare il rapporto di tra media digitali e analogici continuando l’opera di McLuhan. I media digitali non sono alternative radicali, né derivano da quelli analogici, ma li riprendono al loro interno, li ri-mediano appunto, e così facendo conferiscono loro nuovo significato. Così, ad esempio, il podcast ri-media la radio. Una modalità di rapporto che si era già data nel rapporto tra pittura e fotografia, o tra l’incunabolo e il libro a stampa.
I media digitali fanno di più: essi sono uno parte dell’altro. Sicuramente dal punto di vista fisico: gli stessi chip permettono il funzionamento di un orologio, di un telefono, ma anche di una macchina fotografica e di una radio. Poi dal punto di vista dei linguaggi di programmazione, che sono gli strumenti che permettono allo stesso chip di comportarsi in maniera tanto diversa. Oggi penso sia il momento di interrogarsi anche su come le singole incarnazioni di ogni medium digitale si imitino e richiamino fra loro a livello di interfacce e funzionalità: dalla replicazione reciproca delle funzioni tra le piattaforme Social (Facebook / Google Plus / Twitter) ai browser che sempre più sono piattaforme generiche dentro cui innestare programmi diversi (Chrome, Firefox), dalle interfacce dei bancomat costruite per imitare i telefonini fino ai sistemi operativi indipendenti dai dispositivi (Windows 8, Android, Linux).
Così facendo, semplificano la transizione dall’ignoto al noto; poggiando su metafore e abitudini già inveterate, facilitano l’acquisizione di nuove funzionalità, ma si portano dietro anche qualche traccia del vecchio “modo d’uso” e, a volte, introducono nuove difficoltà.
La LIM non sfugge a questo destino, e forse la sua natura si capisce meglio in quest’ottica sistemica.

 
2. Ma cosa significa, in Italiano, “digitale”? Cosa ci passa per la mente quando diciamo che la LIM fa parte della famiglia delle tecnologie digitali? Come abbiamo cominciato ad usare questa parola?
Tutto comincia con gli orologi digitali. Se ne vede ancora qualcuno: sullo schermo pallido l’ora era espressa con cifre, anziché con le tradizionali lancette (anche se per brevi periodi sono apparsi curiosi orologi digitali con le lancette disegnate sullo schermo LCD). Cosa avevano di diverso dagli orologi tout court (che poi avremmo imparato a chiamare “analogici”)? Consumavano poco, si leggevano anche di notte, permettevano l’uso anche al bambino che ancora non avesse imparato a “leggere l’ora”.
Perché si chiamavano digitali? La parola “digitale” è un calco dall’Inglese americano, e viene dai laboratori Bell dove era stata inventata e usata a partire dagli anni ’40. Ma esisteva già in Italiano come sostantivo (la digitale è una pianta dai fiori simili a ditali), come aggettivo riferito alle impronte, come derivato (prestidigitazione) e persino come verbo (digitare, in musica sinonimo di diteggiare). Con l’arrivo dell’elettronica di consumo, “digitare” viene a significare “premere con le dita i tasti di un apparecchio elettronico”, incrociando il senso classico (relativo alle dita) con quello moderno (relativo ai computer). Dunque digitale è una macchina che si pilota con le dita?
Un’occhiata ad un dizionario ci porta invece in un’altra direzione. “Digitale” deriva da “digit”, in inglese “cifra”, precisamente di un sistema a base dieci, come le dita delle due mani. Infatti a sua volta “digit” deriverebbe da “digitus”, in latino per “dito”. Seconda ipotesi: un orologio digitale è un orologio con le cifre al posto delle lancette?
La parola inglese “digital” però non ha esattamente il senso che sarebbe ovvio (“un modo di rappresentare i numeri con cifre da 1 a 10”) ma significa numerabile, discreto, nel senso di non continuo (in Francese, numérique). Una grandezza per essere trattata dalle macchine deve essere prima campionata, cioè devono essere estratti alcuni valori rappresentativi, i quali siano numeri finiti. E mi perdoneranno le imprecisioni quanti si occupano professionalmente di questi temi.
Quindi un orologio digitale (a prescindere dalla questione della base di numerazione utilizzata, che nei computer è 2 invece di 10) è una macchina in cui il tempo non sia misurato e rappresentato tramite un sistema a variazione continua, come lo srotolarsi di una molla, ma da un sistema discreto, come un oscillatore al quarzo, che vibra ad una frequenza altissima. Il fatto che sullo schermo dell’orologio lo scorrere del tempo sia rappresentato da cifre (digit), anziché da lancette, è del tutto secondario, e infatti la stragrande maggioranza degli orologi digitali ha oggi un rassicurante look tradizionale. Ma il suo cuore è completamente diverso: è computer programmabile.

 
3. Un processo simile è quello che ha portato alla nascita degli smartphone a partire dai comuni telefoni. Come siamo passati dall’apparecchio in bachelite nera che troneggiava in salone o all’ingresso all’oggetto di design che viene regalato per la Prima Comunione? Quali sono i cambiamenti che ne hanno fatto una delle innovazioni – socialmente e generazionalmente trasversali – con il maggiore impatto degli ultimi vent’anni? Come è arrivato ad essere “il” dispositivo centrale del nostro ecosistema di comunicazione, con una diffusione che supera quella di qualsiasi altro?
La rivoluzione più evidente è quella che consente di tenere in mano il telefono: quasi contemporaneamente, tra gli anni 70 e 80, nascono i cordless casalinghi e i telefoni cellulari portatili, che non hanno bisogno di collegarsi una rete fissa, ma ne usano una radio, prima analogica e poi digitale (nel senso consueto: basata su pacchetti di bit). Il peso ridotto – insieme alla libertà dal filo – si porta dietro la possibilità di telefonare camminando, elimina di fatto dalle case un luogo (l’angolo del telefono), aprendo ad infiniti usi diversi e condannando ogni utente alla reperibilità costante. Da qui in poi il telefono è un oggetto personale, non familiare o d’ufficio, che catalizza affetti e passioni più che richieste di funzionalità.
Se guardiamo dentro un telefono attuale, capiamo che a pieno titolo fa parte delle famiglia dei dispositivi digitali. Dentro a un telefono digitale vengono utilizzati chip generici, programmati e riprogrammabili, che non sono diversi da quelli di un computer o di una reflex. Questo abbassa i costi di produzione e permette di utilizzare software comuni (Android). Anche se la durata della batteria e la qualità del suono è importante, l’accento si sposta sempre di più – come per ogni altro dispositivo elettronico – dall’hardware al software che lo pilota. Smartphone di discreto valore sono stati surclassati da altri quasi identici ma con un sistema operativo diverso, che dà accesso a migliaia di applicazioni gratuite e non. Dal fatto che per gestire le funzioni di chiamata si usino circuiti digitali, e non dispositivi elettromeccanici, discende la possibilità di aggiungere una memoria delle chiamate, una rubrica interna, e la possibilità per l’utente di configurare il comportamento del telefono (la suoneria, la connessione alle reti). Il mio telefono diventa presto diverso dal tuo.
Ma l’innovazione centrale è forse quella relativa all’interfaccia, prima logica e poi fisica. Oltre ai tasti numerici e ai tasti misteriosi che permettono funzioni specifiche per i centralini, compaiono i tasti di “navigazione”: due o quattro frecce per navigare in un menù, cioè scegliere una funzione non in base ad una predisposizione hardware (un tasto apposito), ma muovendo un cursore ideale in un grafo che l’utente deve immaginarsi, di cui vede un pezzetto per volta, spostandosi dal nodo genitore ai nodi figli, e da questi ai nodi fratelli.
Questa modalità di selezione della funzione tramite un menù ad albero nasce prima del suo corrispettivo supporto visivo, cioè ben prima dell’arrivo di uno schermo grafico, prima in bianco e nero e poi a colori, e delle icone. E’ una delle innovazioni più importanti e trasversali, che ha un enorme impatto sull’utente e ha contribuito tra l’altro a creare quel “digital divide” che mette in difficoltà un utente un po’ anziano di fronte ad un bancomat moderno o di fronte ad un risponditore automatico.
Con le icone sullo schermo LCD (mutuate dalle interfacce dei PC), si poteva navigare muovendo un puntatore tramite dei pulsanti, il che naturalmente era abbastanza lungo e controintuitivo: finalmente si arriva al touch screen, che permette la selezione diretta dell’icona con un dito o un pennino apposito.
E alla fine arrivano le “gestures”, la possibilità di sfruttare il trascinamento, di utilizzare due dita per dare comandi diversi (con tutta la terminologia al seguito: “pinch”, “swipe”, etc). Gli ultimi telefoni in circolazione – mentre scrivo queste righe – assomigliano a specchietti da borsetta: sono parallelepipedi di plastica con un lato occupato interamente da un grande display. Contemporaneamente, arriva al suo stadio finale la convergenza di computer portatili e telefoni in un oggetto nuovo: il tablet.

 
4. La diffusione della LIM nelle scuole Italiane, grazie ai Piani Nazionali e all’azione di ANSAS, ma anche alla disponibilità degli enti locali, è andata avanti a partire da quel lontano 2006 in cui è stata introdotta ufficialmente a livello nazionale, anche se ad un ritmo meno soddisfacente di quello che ci si sarebbe aspettato, e non senza detrattori.
Alcuni hanno sostenuto che non c’è nulla che si faccia con una LIM che non potrebbe essere fatto con un proiettore e uno schermo. Ma senza arrivare a tanto, cosa differenziava immediatamente la LIM da un grosso televisore LCD, dal costo molto inferiore? Il fatto che si potesse toccare con le dita. E questo non attraeva per niente il docente nel 2006.
D’altra parte la scuola è abituata a subire le innovazioni tecnologiche: che siano Piani Ministeriali o mode effimere pilotate dai produttori, difficilmente il bisogno di tecnologia è nato all’interno di essa, né si è precisato sulla base di un lavoro collettivo di insegnanti (e studenti…). Anzi: la risposta è arrivata prima ancora dell’espressione del bisogno, con i risultati che sono sotto gli occhi di tutti.
Fino a qualche tempo fa, la reazione degli insegnanti verso la LIM era piuttosto negativa: fastidio, imbarazzo, incomprensione. Se era chiaro che la LIM andava a sostituire la lavagna (quindi una parte dell’attrezzatura di classe di pertinenza del docente), non si capiva bene perché usarla, se non per catalizzare l’attenzione dei ragazzi sul contenuto della lezione anziché sul suo attore principale.
Oggi la disposizione d’animo verso la LIM è sensibilmente migliorata: anche l’insegnante meno integrato è interessato almeno a provare ad usarla. Ben vengano libri come quello che state leggendo, che aiutano a superare la fase in cui il nuovo viene usato allo stesso modo del vecchio, suggerendo modelli avanzati e raccontando esperienze positive.
Quello che è cambiato in questi pochissimi anni non è tanto la competenza tecnica del docente, ma proprio la sua apertura mentale. E non tanto nel senso che ha finalmente compreso le possibilità che un setting tecnologico più avanzato del trittico “cattedra-lavagna-cartageografica” può schiudere per la didattica, ma nel senso che finalmente di questo setting non ha più paura, lo comincia a sentire suo ed è disponibile a sperimentarlo.
Sospetto che la vera causa di questo mutamento di prospettiva non sia affatto la formazione tecnica (a cura di ANSAS, degli ex IRRE o dei distributori italiani delle LIM). Penso si possa riconoscere in questo cambiamento un effetto collaterale di un fenomeno apparentemente lontano: quello della diffusione anche tra gli adulti degli smartphone dotati di touchscreen.
Secondo un recente studio di Nielsen, il 97% degli Italiani ha un cellulare, il 62% ha uno smartphone; la maggioranza degli utenti si colloca nella fascia 35-64 anni. E’ sempre più facile vedere in luoghi pubblici una signora di un certa età che al richiamo di una suoneria improbabile cerca affannosamente nella sua borsetta ed estrae un telefono 13×7 su cui comincia a trascinare le dita, con una certa difficoltà per via delle unghie laccate. Non è imbarazzata, si muove con agilità tra i diversi gruppi di icone, passa da un’applicazione all’altra con una facilità impensabile fino a poco tempo prima. Questa stessa signora, una volta entrata in classe, non ha più difficoltà a muoversi tra i diversi menù della LIM, che in fondo è un telefonino un po’ più grande. Ha imparato le logiche d’uso di queste interfacce in un ambito personale ed è pronta a trasferirle in quello lavorativo.
Insomma non sono – per una volta – i nativi digitali a dettare l’agenda dell’introduzione delle tecnologie nella scuola, ma gli immigrati.

 
5. L’etimologia popolare a volte è potente e vince su quella dei grammatici. Digitale, alla fin fine, viene a significare proprio “che si usa con le dita”. E così la LIM, grazie al suo apparentamento con gli smartphone, i tablet e i lettori di ebook, sia in termini di costituzione interna che di logica d’uso, diventa un dispositivo familiare anche per il docente.
Ripercorrere la storia di questo incrocio mi è sembrato utile per capire e per progettare degli usi “sostenibili” delle LIM – o, se è per questo, di ogni altro dispositivo digitale – anche all’interno della scuola. E’ una storia di falsi progressi, di errori, di innovazioni centrate non sull’utente ma sulla disponibilità di tecnologie da campi affini. Ci dovrebbe insegnare a gestire l’inserimento delle innovazioni in maniera più cauta, tenendo conto di ciò che accade in campi limitrofi, facendo attenzione alla reazione emotiva, oltre che a quella cognitiva, di chi dovrà usarli. E ci dovrebbe stimolare a pensare sempre ai media come un sistema, in cui nessuna parte può essere pensata escludendo le altre.

Platone, Stallman e gli OpenData

Gen
24

Un processo continuo, che dura da tremila anni, di cristallizzazione delle competenze in oggetti per sostituire la mediazione diretta tra persone.
Il primo a descriverlo è Platone nel Fedro, ma Stallman parla delle stesse cose con un linguaggio un po’ diverso. E se un giorno tutte le conoscenze fossero racchiuse in oggetti, potremmo fare a meno della scuola?

A. Oralità e scrittura.

Platone (Thamus) rigetta l’invenzione della scrittura per i suoi effetti negativi sull’esercizio della memoria (vedi calcolatrici etc) e perché la fissazione della conoscenza su di un supporto tramite un sistema di segni la rende appunto indipendente dal rapporto tra insegnante e discente (“divenuti , infatti , grazie a te , ascoltatori di molte cose senza bisogno di insegnamento”) e perché produce una falsa consapevolezza di conoscenza (“saccenti invece che sapienti”).
Più avanti nel dialogo: il testo (come discorso scritto) sembra abbia una propria vita, ma in realtà (a) ripete sempre la stessa cosa, e (b) a tutti indistintamente. Non solo quindi è noioso, ma non sa distinguere chi può capire e chi no e non è in grado di adattarsi a destinatari diversi. Il testo scritto non può differenziarsi e rivolgere “a un’anima complessa discorsi complessi e dai molteplici toni , a un’anima semplice discorsi semplici”.
Infine, il testo scritto non si può difendere da sé, ma ha sempre bisogno dell’autore che gli porti aiuto, cioè che risponda alle obiezioni precisando ciò che era generico, espandendo ciò che era solo accennato, chiarendo ciò che era oscuro. In sostanza, il discorso scritto è quel discorso; il discorso orale è una matrice di possibili discorsi.
Il discorso scritto, il testo, non è però inutile, perché può riaccendere quello orale: funziona come supporto alla memoria di chi l’ha scritto, dice Thamus, ma non sostituisce quello orale, e non può servire come veicolo per l’insegnamento senza l’insegnante. Anzi, rischia di produrre discenti che credono di sapere ma non hanno veramente capito.
Il vero discorso è quello orale, che produce altri discorsi (figli e fratelli di quello) nella mente degli ascoltatori.
Il filosofo media tra le idee ( (ma anche le idee sono conoscenze cristallizzate?) e l’anima del discente, tramite il discorso orale. Il punto non è tanto il supporto (orale o scritto, analogico o digitale) ma il fatto che sono necessarie competenze specifiche per questa mediazione: conoscenze dei rapporti tra le idee (dialettica) e del livello di competenza raggiunto dal discente. Queste competenze servono a permettere al filosofo di adattare il suo discorso per mettere il discente in contatto con le idee. Sono almeno di due tipi: quelle relative al dominio e quelle relative al destinatario. Queste ultime, a loro volta, sembrano essere composta dalle competenze necessarie per la valutazione delle capacità del discente e dalle competenze necessarie per ripensare gli argomenti, il loro ordine e la loro esposizione in funzione di quelle capacità.

Il libro sta al discorso come la pittura sta alla natura (e nel futuro che per noi è passato, come il disco sta al concerto e il cinema al teatro). Ma a Platone interessa solo la parola, il discorso che serve a convincere e a insegnare la verità. Un’intera classe, quella dei filosofi, è il corrispettivo sul piano sociale, è la garanzia che non sia sempre di nuovo necessario per ogni individuo riscoprire personalmente (tramite la reminiscenza) la verità.

B. L’era della riproducibilità tecnica
Il testo scritto come conoscenza cristallizzata, fissata nel tempo ma mobile nello spazio (distribuita senza il suo autore) è un oggetto anticipato da Platone, ma reso veramente possibile con la stampa, che di quella prima copia permette infinite copie.
Con il testo scritto, il lavoro dell’insegnante viene reso non più indispensabile; l’esistenza delle oggettivazioni della conoscenza gli fanno perdere valore. Anche a prescindere dalla facilità con cui il testo viene riprodotto in copie e viene distribuito nel mondo, e dal costo di questa operazione, si può apprendere anche senza un insegnante, purché naturalmente si sappia leggere – in tutti i significati di questo termine.
Duemilatrecento anni dopo, è la critica luddista ai telai meccanici e all’organizzazione del lavoro che rende gli operai inutili o quantomeno asserviti alle macchine.
Tuttavia storicamente con la diffusione del testo scritto (e la riduzione dell’importanza dell’insegnamento orale?) nascono altri lavori: il lavoro dello scrittore, dell’editore, del distributore di libri, fino al bibliotecario. Lavori che implicano nuove competenze, che a loro volta diventano oggetto di formazione.
La cristallizzazione non è definitiva e non funziona mai completamente. Platone osserva che il discorso scritto non si può difendere da sé; i testi singoli vanno commentati, raccolti, tradotti, non possono essere usati da tutti nella loro forma originaria.
Inoltre il lavoro di insegnante non scompare, ma si trasforma, e questo Platone lo intuisce. Nascono nuove figure di “insegnante”, non più autosufficienti, ma che da un lato “spiegano” i libri (Platone dice che gli “portano aiuto”), dall’altro li utilizzano come supporti temporanei. I nuovi docenti forniscono le meta-informazioni che consentono di capire i testi, e dall’altro il loro stesso discorso non deve essere completo, ma può sintetizzare, rimandare ad altro per gli approfondimenti. Il discorso non deve più essere unitario e autosufficiente, può essere parziale, specialistico.
C’è un altro aspetto importante: le conoscenza cristallizzate non sono davvero accessibili come il discorso orale. Intanto per accedere alla conoscenza cristallizata bisogna saperla estrarre, il che nella nostra cultura significa “leggere”, e almeno questa competenza alfabetica deve essere insegnata direttamente.
Ma non basta. Anche i testi sacri rivolti a tutti, come la Bibbia e il Corano, hanno bisogno di essere tradotti e interpretati da esperti (almeno, secondo alcune delle religioni che si appoggiano su di essi). Il docente/interprete è riconosciuto necessario ovunque, e di nuovo stimato.
Con un salto di secoli, non è diverso per l’informatica in generale. I programmi sono la quintessenza della macchina: nati per sostituire l’uomo nei lavori più ripetitivi, di fatto hanno reso inutile certe competenze, mandato in cantina certe macchine (da quella per scrivere alla calcolatrice e al registratore analogico) e mandato a casa professionisti (dal tipografo al contabile). Ma sono anche nati una serie di nuovi mestieri: analisti, programmatori,infografici etc.

C. Il web 2.0 (e ti pareva)
Il processo di cristallizzazione non si ferma, legato com’è alla democratizzazione della cultura e dell’educazione, o se si vuole alla competizione per la sopravvivenza tra mestieri.
Anche questi testi singoli vengono cristallizzati ad un livello superiore, inclusi in commentari, in sillogi, e infine in un’enciclopedia, che contiene non solo le informazioni ma anche le metainformazioni che consentono di usare le prime correttamente. L’illuminismo elimina la necessità anche degli insegnanti e delle scuole: ognuno può apprendere da solo, come Pippi Calzelunghe che imparava leggendo il dizionario in ordine alfabetico.
Non è diversa wikipedia. WP punta ad essere la cristallizzazione di tutto il sapere umano, a rendere inutili i manuali divulgativi e – recentemente con Wikivoyage – le guide turistiche.
Tutto l’uso del web 2.0 come sistema di scavalcamento dell’esperto (critico o docente, vedi Antinucci, “L’algoritmo al potere”) poggia, almeno in parte, sull’idea di congelare giudizi che valgono indipendentemente dalla credibilità riconosciuta del loro autore; o anche, sostituiscono l’attribuzione di attendibilità accademica tradizionale con un sistema di valutazione dal basso, basato sul gradimento del prodotto da parte dei molti, anziché sulla valutazione dell’autore.
Tuttavia è chiaro che più aumenta la mole dei dati, più servono competenze nuove per filtrarli, selezionarli, renderli adatti all’utente. Competenze nel progettare motori di ricerca o strumenti per il mash-up intelligente che tengono conto del profilo dell’utente (“a un’anima complessa discorsi complessi e dai molteplici toni , a un’anima semplice discorsi semplici”).

D. Opensource/data
Il free software/opensource è una risposta consapevole a questo processo storico.
Stallman dice che il valore sta dalla parte del programmatore, non del programma. E’ il programmatore che crea e soprattutto (dopo una certa fase in cui esiste una massa critica di codice sorgente) lo corregge, migliora e personalizza. Se il programma è una cristallizazione di competenze, il programmatore media tra il programma e i bisogni degli utilizzatori. Il fatto che le funzioni vengano raccolte in librerie, che si producano linguaggi di alto livello e ambienti di sviluppo integrati risponde a questa necessità, ma non cancella il ruolo dei programmatori.
La differenza qui non è quella che spesso viene percepita (o presentata) come essenziale, cioè la gratuità del software. A prescindere dagli slogan, se il software fosse tutto gratuito, e non ci fossero altre fonti di reddito, i programmatori non sopravviverebbero, e tutto si fermerebbe. Questo però non significa necessariamente che le licenze del software vadano vendute; ci possono essere modi alternativi di finanziare il lavoro dei programmatori, più o meno trasparenti: dal contributo allo sviluppo del software più promettente (come fa ad esempio Google nelle sue summer schools, o come accade negli app contest), al pagamento delle personalizzazioni e miglioramenti. Non può essere pagato solo lo sviluppo del software più commercialmente appetibile – oggi il software è essenziale per far funzionare anche settori al di fuori del business, come l’educazione o la sanità. Ma è vero che la gratuità sposta il problema dall’accesso alla selezione.
Il punto è che se i codici sorgenti sono aperti, ci sarà sempre spazio per il lavoro di programmatori, sempre più competenti, ma anche per consulenti esperti in grado di consigliare la soluzione più adatta.

E lo stesso discorso vale per gli opendata, che rappresentano in qualche modo il punto di arrivo di un progetto di democratizzazione delle conoscenze: tutte le conoscenze in possesso della PA – quindi oggettive, controllate, ufficiali – finalmente a disposizione di tutti.
Gli opendata sono informazioni (non opinioni), cristallizate in modo da poter essere usate da chiunque, senza che sia necessario rivolgersi agli esperti, agli uffici etc. Sono informazioni pubbliche, dunque (a)non si devono pagare (b)devono essere accessibili direttamente da tutti. Ma non necessariamente sono comprensibili e usabili da tutti nella loro forma originaria. Servono altri esperti, che interpretano i dati e creano LOD, che progettano e sviluppano Apps che “consumano” i dati e li presentano in maniera comprensibile a tutti, che permettono ricerche tra i dataset e i repository di tutto il mondo, che ne inventano nuove applicazioni al di fuori di quelle già esistenti. Man mano che i dataset aumentano, servono esperti che valutano i dati, li correggono. E’ già evidente oggi per i dati geografici e lo sarà a breve per quelli metereologici. Il problema non è più ottenere i dati, ma selezionarli, collegarli e presentarli nella maniera più utile e comprensibile.
La vera differenza è che quando il codice (o la struttura dei dati) è open, chiunque abbia le competenze necessarie può fungere da interprete, ed è possibile scegliere l’interprete migliore. Se è chiuso, non c’è più scelta né controllo pubblico.

E. Conclusioni
Ogni passaggio di questo tipo minaccia l’esistenza di una serie di figure professionali che sono rese inutili dalla cristallizzazione. E ogni volta nascono nuovi “mestieri della cristallizzazione”; e ogni volta si rende necessaria una nuova mediazione tra gli oggetti cristallizzati e i discenti.
Il processo ha forma di spirale, si ripete nel tempo. Ogni volta c’è un oggetto di tipo nuovo che rappresenta delle competenze che possono essere apprese senza la mediazione dell’esperto. Non è successo solo con le macchine, ma anche con la conoscenza.
Ogni volta, quelli che appartengono alle figura professionali a rischio (i filosofi, gli operai, i programmatori) si difendono, presentando l’oggetto originale di cui sono mediatori riconosciuti come “la cosa stessa”, e il nuovo oggetto cristallizzato come una sua versione limitata, impropria, pericolosa, etc. E quindi c’è chi difende il libro e il cinema contro l’ebook e YouTube.

“Dati gratis per tutti” significa che qualcuno perde il suo lavoro, e questo è un aspetto che forse non è sempre presente a chi saluta i proclami opendata con entusiasmo.
Ma significa anche che nasce un nuovo di tipo di lavoro – o che potrebbe nascere, a certe condizioni.
I timori luddisti sono giustificati – nel senso che si tratta di un processo inevitabile, che continuerà a ripetersi. Però il processo intero può essere visto non solo come una minaccia ai mestieri esistenti, ma anche come una trasformazione delle competenze, che devono sempre di più tener conto dell’utente finale oltre che del dominio.
Avere consapevolezza del processo significa non averne paura, dare valore a queste competenze miste, svilupparle.
Viceversa limitarsi a dichiarare di voler digitalizzare il mondo è un modo demagogico di crearsi consenso senza poi fornire le condizioni perché questo mondo digitale possa davvero sostenersi.

In periodo di elezioni, questo è un impegno che va chiesto a tutti i candidati: apertura della struttura delle informazioni, formazione avanzata disponibile, supporto alla creazione di nuove imprese.

Apps for the masses

Apr
20

Creare apps per Android significa, come sa chiunque abbia provato, conoscere Java e XML e saper utilizzare ambienti complessi come Eclipse, ADT e l’SDK Android. Non proprio competenze da principianti. Tuttavia la strategia di Google non è solo quella di spingere il proprio sistema operativo, ma anche di creare un market (da poco rinominato Google Play, con un significativo spostamento di accento) concorrente di quello Apple. La policy però è molto diversa da quella Apple: l’idea è quella di abbassare il livello d’ingresso – è sufficiente registrarsi e pagre un fee di 25 $ per essere uno sviluppatore di apps Android – per ottenere in breve tempo una massa critica di apps che, a sua volta, renda l’acquisto di uno smarphone Android attraente per molte più persone e non solo per appassionati. E questo si inquadra perfettamente nella strategia di Google di considerare i dati prodotti dagli utenti come il suo valore maggiore.
Che questa fosse la direzione lo si capiva anche dalla piattaforma di sviluppo online per Android che Google ha aperto alla fine del 2010: una piattaforma rivolta a tutti, che non necessita di competenze di sviluppatori e si basa su un paradigma di programmazione visuale.
Alla meta del 2011, quando l’Android Market festaggiava i 10.000.000.000 di download, Google annuncia però di non voler più mantenere la piattaforma, decidendo comunque di rilasciarne il codice sotto una licenza GPL. A questo punto una svolta: il 20 gennaio 2012 l’annuncio che la piattaforma viene ripresa dal MIT center for Mobile Learning (parte del famoso Media Lab) e resa pubblica all’indirizzo http://appinventor.mit.edu/ , cosa che puntualmente accade il 3 aprile del 2012. I responsabili di questa scelta sono nomi del calibro di Hal Abelson, Eric Klopfer e Mitchel Resnick, il che lascia capire a chi si sia occupato di educazione e computer negli ultimi venti anni quale sia l’obiettivo: rilanciare Android come piattaforma per un uso educativo – in senso costruttivo – del digitale.

La parte centrale di AppInventor è l’editor visuale di codice, OpenBlocks. Si tratta di uno strumento derivato direttamente dall’editor di StarLogo TNG (http://education.mit.edu/projects/starlogo-tng) ma in qualche modo anche figlio di altri ambienti di programmazione visuale dello stesso MIT come Scratch, o di altri centri di ricerca, come Alice. Mentre la prassi di disegnare l’interfaccia di un programma era già diffusa (vedi negli anni 90 le varie implementazioni “visual” dei linguaggi di programmazione più diffusi, come Visual Basic, Visual C, … ), gli ambienti visuali permettono di costruire il codice di un programma semplicemente inserendo e connettendo blocchi di codice semplici, rappresentati da icone. Questa modalità consente di “scrivere” programmi senza scrivere codice, evitando la possibilità di commettere errori di sintassi, errori di scrittura dei nomi delle variabili o delle procedure; d’altra parte, anche “lettura” del codice diventa un’operazione di alto livello, che non deve entrare ogni volta nel dettaglio delle singole righe di istruzione ma può concentrarsi sulla visione della struttura generale.
L’intuizione generale di partenza è quella di Seymour Papert, che alla fine degli anni sessanta predicava la necessità di far usare i computer ai bambini, il più presto possibile, non per renderli da subito utenti dipendenti, ma per permettere loro di scoprire la potenza nascosta dei computer. “Un utente, un programmatore” è la filosofia che stava dietro il Logo, il linguaggio e il progetto educativo più famoso di Papert. Logo che in Italia ha avuto una grande fortuna in ambito scolastico negli anni passati, ma che è ormai scomparso dai curriculum, soppiantato da altre mode più o meno persistenti. Un risultato di questo abbandono lo si può verificare leggendo i dati del report della settimana europea e-skills, da cui apprendiamo che in Italia solo il 18% dei ragazzi tra i 16 e i 24 anni hanno scritto un programma, contro il 27% della Spagna, il 30% dell’Austria o il 37% della Finlandia.

Ci auguriamo quindi che questa iniziativa del MIT possa trovare seguito anche da noi, a tutti i livelli, da quello scolastico a quello universitario. Sono disponibili in rete alcuni tutorial video su come realizzare apps utilizzando AppInventor, partendo da un PC con un qualsiasi sistema operativo. Le apps prodotte, una volta compilate, possono essere utilizzate sul proprio smartphone o pubblicate nel marketplace di Google.
Il sorgente di AppInventor è scaricabile, per chi voglia metterlo a disposizione dei propri utenti.

Buona fortuna ad AppInventor !