steve's

Oltre il giardino. Del codice.

Ott
29

Presidente: Lei è d’accordo con Ben? Pensa che possiamo stimolare la crescita con incentivi temporanei?
Chance: Fintanto che le radici non sono recise, va tutto bene, e andrà tutto bene, nel giardino.

Il surreale film del 1979 “Being there” (in Italiano “Oltre il giardino”) interpretato, come si dice, magistralmente da Peter Sellers è troppo noto per doverne fare un riassunto. Il film parla della volontà di trovare modelli a tutti i costi, del ruolo della televisione, del vuoto di valori e di altro.
Ma a me piace soprattutto la metafora del giardino. O meglio, quella che tutti – tranne Chance Gardiner – interpretano come una metafora dello Stato e della sua cura.

Qui da me tutti hanno un casa col giardino. Però il rapporto col giardino (e anzi con la natura in generale) è molto diversificato. Almeno tre categorie sono facilmente riconoscibili:
1. estetica: prato inglese, statue, alberi di rappresentanza (magnolia)
2. funzionale: orto + frutteto, niente verde inutile
3. negazionista: cemento e muri; poi eventualmente vasi
Solo che io non mi ritrovo in nessuna di queste categorie. E si vede dal fatto che tutti quelli che passano guardano, scuotono la testa e mi dicono gentilmente: “Ma ti serve aiuto per tagliare tutta questa boscaglia?” La boscaglia in questione sarebbe il mio giardino. Che è fatto di tante piante diverse, ognuna con una storia, una curiosità, un modo di crescere e di lottare con le altre, una personalità, uno stile. Ci sono tracce di piante precedenti, promesse di piante future. Alcune le ho portate io da lontano, altre me le hanno regalate, altre sono nate da sole. Piante che mi ricordano persone, luoghi, momenti.

Qualche tempo fa mi sono accorto che anche per il rapporto con il digitale valgono più o meno le stesse categorie di sopra: chi lo vede come un accessorio di moda, chi come un utile strumento, chi fa finta che non esista. Non c’è possibilità di dialogo tra queste visioni così diverse, e ognuno guarda il giardino dell’altro con disprezzo nemmeno troppo celato.
Poi c’è chi il giardino non lo vuole per niente, ma è felice di visitare quello degli altri. Più in generale, si potrebbe dire che ci sono i nomadi-cacciatori-raccoglitori, che navigano e prendono quello che gli serve, e gli stanziali-allevatori-coltivatori, che circoscrivono uno spazio e ne controllano lo sviluppo. I primi hanno uno sguardo, come dire?, grandangolare; i secondi montano un macro. Oppure: lo sguardo dei nomadi percepisce le differenze, quello dei coltivatori le crea (un po’ come lo sguardo di Ciclope, avete presente?).
All’interno di questa metafora, programmare è coltivare alberi digitali. I programmi, come gli alberi, sono organismi che se va tutto bene crescono, si sviluppano. Hanno una vita propria (ebbene si) e a volte non fanno quello che uno si immaginava che facessero. Restano piccoli, o esplodono all’improvviso; intrecciano le radici con altri alberi, sfruttano lo stesso terreno, si fanno ombra tra loro. Gli alberi, come i programmi, anche quando muoiono vengono riusati per fare altro, da noi o da altri organismi. Si riproducono con i semi, o, al limite, diventano humus per altri alberi.
Nella coltivazione dei programmi non si parte dal nulla: infatti gli alberi non si seminano, si piantano alberelli giovani (e si, c’è la questione dell’opensource…). O meglio, veramente qualcuno molto bravo e un po’ presuntuoso lo fa, ma è difficile e lungo scriversi tutto da zero; più facile utilizzare librerie, interpreti e compilatori.
I programmi si potano: si tolgono rami secchi, o si indirizza lo sviluppo in una certa direzione, per avere una certa forma finale o per avere un certo quantitativo di frutti. Si innestano con rami di altre specie perché la struttura deve essere robusta e resistente. Si curano le malattie, si eliminano i parassiti (i bug…).

Non è facile coltivare un albero. La difficoltà più grande non è la tecnica spicciola (tagliare, zappare intorno alle radici) ma la visione d’insieme. Per esempio io ho piantato un acero troppo vicino alla casa e troppo vicino ad un giovane castagno. Per i primi quattro cinque anni, l’acero è restato più o meno uguale. Poi improvvisamente ha cominciato a crescere. Il risultato è che il castagno, che è più lento, è cresciuto storto cercando sole e aria, e l’acero fa ombra ai pannelli solari sul tetto. Ma quando ho piantato il giovane acero era alto quaranta centimetri, me l’ero riportato da una passeggiata nello zaino. Ora sarà alto quindici metri e non accenna a fermarsi. Non ho saputo “vederlo” da grande, nel contesto dello sviluppo del resto del giardino. Gli esperti me l’avrebbero detto subito: non lì. Oppure dovevo tagliargli la cima dopo due-tre anni per farlo allargare più in basso.
La progettazione e lo sviluppo di un software ha le stesse difficoltà. Bisogna impostare la struttura in modo che sia solida e resistente, scegliendo il linguaggio o il framework adeguato, andando a vedere cosa hanno fatto gli altri nei loro giardini. Poi bisogna sapere vedere in avanti, immaginarlo crescere, decidere da che parte piegarlo, tagliare delle aree morte o che daranno fastidio ad altri software. E durante tutta la sua vita bisogna tenerlo pulito dai bug, controllare che non ci siano vermi che ne rodono il tronco, parassiti che inseriscono uova che esploderanno più avanti.

A che serve coltivare alberi? Beh, dipende. Alcuni sono belli, altri fanno ombra, altri portano frutti o legna.
A chi va insegnato a coltivare alberi? In linea di principio, a tutti; come tutti, secondo me, dovrebbero saper scrivere un racconto, disegnare o suonare uno strumento. Perché è fonte di un piacere immenso – quello di vedere un organismo crescere – e perché permette di condividerlo con gli altri.
Bisogna essere professionisti, avere un giardino perfetto? No, non tutti. Basta anche un limone sul terrazzino. Ma essere in grado di apprezzare un albero quando lo si vede, quello si; e non solo “uh quant’è bello”, ma saper vedere attraverso e indietro, cos’è, da dove viene, come è cresciuto, come crescerà.

E la programmazione? Anche quella va insegnata a tutti i bambini? Qui bisogna stare attenti a quello che si scrive, e siccome ne ho scritto pure troppo altrove, passo. Qui mi accontento della metafora, che è utile quando fa riflettere da un punto di vista nuovo e suggerisce idee.

Però anche in questo caso mi ritrovo (spesso) ad essere l’unico appassionato dalla boscaglia digitale e a partecipare amorevolmente a tutta la complessità dei suoi organismi, piantando qui, potando là, e poi godendomi il risultato. Non lo faccio (più) in maniera quotidiana, nel senso che intervengo solo marginalmente nelle scrittura di codice sorgente, che scrive chi è molto più bravo di me. Mi appunto ancora delle idee, o ripesco degli schemi di anni fa in attesa del momento in cui ci sarà tempo e risorse per applicarli. Vado in giro a curiosare per i vivai e riporto qualcosa a casa; oppure immagino giardini che poi altri dovranno coltivare.

Chi passa mi dice ancora: ma vuoi una mano per cancellare tutto questo pasticcio? Ma non era meglio fare il rivenditore di Moodle?

Ma perché non sono nato là?

Ott
09

La citazione (che dovrebbe essere chiara per chi ha almeno cinquant’anni) è da Claudio Baglioni, ebbene si, “Viva l’Inghilterra”, anno 1973.

Si riferisce al fatto che mi danno (voce del verbo dannare) almeno dal 1999 intorno alla necessità di un’analisi (socio)linguistica del codice sorgente e non trovo un cane disposto ad ascoltarmi. O quasi, come si vede da http://steve.lynxlab.com/?p=73

Invece in USA e in Canada ci lavorano sul serio, dentro l’università, mettendo insieme ricercatori di linguistica e di informatica. E quest’articolo, pubblicato  nei Proceedings di una conferenza annuale del Psychology of Programming Interest Group che si tiene nel’UK, è finalmente (finalmente?) un esempio pratico di un tentativo reale di applicazione di modelli e strumenti sociolinguistici al codice sorgente da parte di un gruppo di ricercatori dell’Università di Lethbridge. Molto minimale ed embrionale, ma insomma esiste.

Schermata da 2016-10-10 21-59-45

Il tema è quello del genere. Si può riconoscere solo leggendo il codice se l’autore è uomo o donna? Pare di si. E che ce ne importa, diranno i miei piccoli lettori. Ci importa, perché come premettono le autrici, è il primo passo per vedere se nel codice ci sono tracce anche della lingua materna, delle conoscenze pregresse di altri linguaggi, del livello sociale o della cultura generale. E allora? Allora è il primo passo per riconoscere che il codice sorgente è un testo, risultato di un’attività di scrittura, e quindi può contenere  tutte le varianti possibili che una scrittura permette: stili, personalità, mode, esperienze trascorse. Non importa che il lessico sia limitato (ma estensibile a piacere) e che la grammatica sia molto restrittiva (ma permette forme alternative). Un programma, definitely, is not just an implementation of an algorithm which solves a problem. Si scrivono programmi per scopi diversi: per gioco, per sfida, per sperimentazione, per produrre un effetto artistico, per imparare. A monte si sceglie il linguaggio in cui scriverli, il che ha un effetto sull’orientamento generale del programma, su come viene letto, come verrà modificato e come sarà punto di partenza per nuovi programmi.

Ne deriva che quando si insegna a scrivere codice, come quando si insegna a scrivere – ma a scrivere bene – non basta insegnare la grammatica e il lessico. Ci vuole molto, moto di più. Ci vogliono buoni esempi (lettura), modelli, obiettivi, strumenti di valutazione. Ne deriva, probabilmente (ma questa è solo una mia ipotesi) che chi legge e scrive molto, programma meglio; che introdurre lo studio di come si crea e sviluppa una storia permetterebbe di ottenere dei codici sorgenti migliori, che come le buone storie “si reggono”. Le buone storie si tramandano nei secoli, come le fiabe; forse è così anche per i buoni programmi.

Rice, J. E., I. Genee, and F. Naz. “Linking linguistics and programming: How to start?(work in progress).” Proc. 25th Annual Psychology of Programming Interest Group Conference-PPIG. 2014.

Monitoraggio, brutta parola

Ott
09
Sul sito Programma il Futuro sono scaricabili dei report sui dati sulle attività svolte nel primo (http://programmailfuturo.it/media/docs/Rapporto-monitoraggio-settembre-2014-gennaio-2015.pdf) e nel secondo anno di progetto (http://programmailfuturo.it/media/docs/evento-celebrativo/programma_futuro-MIUR-26mag2015.pdf). Numero di ore, numero di insegnanti per regione e per disciplina, numero di classi e studenti coinvolti, e poi gradimento, valutazioni, osservazioni, tutti corredati di grafici. Dati raccolti in parte grazie a Google Analytics (altrimenti perché si attiva ogni volta che apro una pagina in Code.org?) e in parte grazie a questionari.
Questa cosa mi solletica.
Dieci anni fa, quando lavoravo a Scienze della Comunicazione, ho fatto una ricerca sui forum del corso concorso per dirigenti scolastici di INDIRE (2006). Siccome la piattaforma usata non prevedeva nessun tipo di monitoraggio fine (e peraltro non esisteva più…), siamo partiti da una copia del DB Oracle e siamo riusciti a ricostruire i profili, le conversazioni, i temi, le modalità comunicative. Il risultato principale è stato forse però l’insieme di query SQL che avrebbero permesso di analizzare allo stesso modo i dati di altri forum che usavano la stessa struttura dati, ad esempio per vedere se c’erano invarianti legate alla dimensione geografica, all’età, alle esperienze pregresse. Non mi risulta che siano stati mai usati, ma pazienza.
Cinque anni dopo, il MIUR ci affidò una ricerca per valutare il risultato di tre piani di formazione nazionali. La cosa anche qui fu piuttosto difficile, perché non c’erano dati originali, ovvero il progetto delle attività non contemplava la raccolta di dati prima, durante e dopo. Sono stati analizzati fondamentalmente i risultati di questionari somministrati ai docenti. Il che come si può immaginare non è la stessa cosa di avere accesso alle informazioni primarie.
Nella recente formazione per gli Animatori Digitali del Lazio, che mi ha coinvolto solo come tecnico fornitore di piattaforme, ho proposto di impostare un piano di monitoraggio all’inizio delle attività. Non per valutare nessuno, ma perché quando domani qualcuno arriverà a chiedersi se e come ha funzionato avrà bisogno di qualche informazione in più rispetto ad un sondaggio finale.
 
Insomma la fatica per ottenere dei risultati di qualche qualità mi pare inversamente proporzionale alla lungimiranza di chi gestisce un progetto. Se poi i dati raccolti (naturalmente anonimizzati) venissero resi disponibili come opendata (oltre alle elaborazioni in PDF), si potrebbe lasciare a chi ne ha voglia e competenze il compito di far emergere qualche idea buona (qui ho esagerato, vabbè).
 
Se ogni attività di coding fosse preceduta da una raccolta di informazioni (chi è il docente, che competenze ha, che lavori sono stati fatti con quella classe in precedenza) e magari da un test di ingresso, se durante le ore di coding si potesse registrare lo scambio tra gli studenti e con il docente o il processo di acquisizione di nuove forme sintattiche, se le attività fossero seguite da un test finale, se se se… ci sarebbero alla fine dati su cui riflettere. Anche senza avere per forza la pretesa di dimostrare che il coding serve (o non serve) ad un obiettivo specifico.
Magari verrebbero fuori delle connessioni a cui non si era pensato. Per esempio, l’influenza della famiglia o dell”ambiente sociale, o della lingua materna; il peso delle competenze informatiche del docente (o delle dimensioni dello schermo, o del tempo atmosferico, o del segno zodiacale del docente, o che so io). O magari non viene fuori niente. Ma senza quei dati non si saprà mai. Non mi sto inventando i Learning Analytics: se ne occupa tanta gente, la Microsoft nell’accordo con il Ministero dell’Educazione Nazionale Francese ha specificato che il suo intervento sul coding prevede anche questo tipo di attività di monitoraggio e analisi dei dati (http://cache.media.education.gouv.fr/file/Partenaires/17/7/convention_signee_506177.pdf, pag 4). Se lo fa Microsoft, a qualcosa servirà, no?
 
Quello che voglio dire non è tanto che ci deve essere un quiz alla fine che ci permetterà di dire se Mario ha imparato il pensiero computazionale (o uno strumento di analisi degli elaborati come DrScratch, http://drscratch.org/, – grazie Massimo per la segnalazione – che pure potrebbe essere utile); ma che una Piano Nazionale dovrebbe dotarsi dall’inizio di un protocollo e di strumenti per valutare la qualità di quello che fa, e non solo la quantità e le opinioni. Se Google ha costruito la sua fortuna sull’analisi dei testi e dei comportamenti della popolazione mondiale, ci sarà pure una ragione. Che, nel nostro caso, non è poter vendere pubblicità e servizi mirati, ma valutare globalmente un piano nazionale (non il coding), e per una volta non a posteriori.
E’ un suggerimento per il terzo anno…

Dietro il coding

Set
25

copertina

In occasione dei due seminari in Piemonte (Ivrea e Torino), di cui qui trovate maggiori informazioni, ho preparato delle slide. Troppe slide. Alla fine mi hanno fatto notare che più che una presentazione stava diventando un libro.

 

 

E allora ho colto l’occasione, reimpaginato, aggiunto, corretto, e ho realizzato un piccolo ebook dal titolo “Dietro il Coding”. Non è una difesa del coding né una sua condanna. E’ semplicemente una raccolta di domande e di riflessioni che hanno lo scopo di stimolare quelle degli altri, soprattutto di quelli che intendono dedicare qualche ora al Coding con i propri ragazzi. Riflessioni che partono da lontano, da almeno venticinque anni fa, ma che ho cercato di aggiornare andando a caccia di opinioni, di proposte e di alternative. Una parte importante è dedicata al progetto “Programma il Futuro” e a Scratch, ma purtroppo solo poche righe al nuovo tema dei curricoli digitali, che andrà seguito con attenzione.

Questo è l’indice:

Come nasce questo testo
1. Che cos’è il Coding
2. Perché è così importante
3. Una valutazione storica
4. Come si parla del Coding?
Primo Intermezzo: che significa opensource?
5. A che serve il Coding?
6. Chi può insegnare il Coding?
Secondo Intermezzo: le differenze tra linguaggi
7. Che linguaggio?
8. Il modello didattico dietro Scratch
9. Come andrà praticato il Coding
10. Un po’ di storia…
11. E oggi?
12. Come potrebbe funzionare davvero
Suggerimenti di lettura

L’ebook è rilasciato con licenza CC BY/SA e lo potete scaricare da  qui.

C’è una cura per la disillusione digitale?

Ago
11

La Disillusione Digitale è una forma di disagio che colpisce alcune persone, tipicamente over 50, maschi e femmine, indipendentemente dal censo o dal fisico. Tra i suoi tipici sintomi:  sentirsi stonati  in un coro di lodi del Digitale, avere sempre vent’anni di più degli altri seduti al tavolo di progettazione, provare fastidio per le terminologie anglicizzanti e per la parola di moda (ma vedi la Nota in fondo a questo testo).

I Disillusi Digitali vedono la storia alla maniera di Vico: c’è stata un’Età degli Eroi, in cui sono stati fatte tutte le scoperte più importanti, sono stati inventati i paradigmi e sono stati dati i nomi veri alle cose; e ora c’è l’Età degli Uomini, in cui il digitale è democratico e di tutti, ma se ne è perso il significato profondo.

La Disillusione Digitale in fondo assomiglia alla disillusione politica: c’è stata la Rivoluzione, poi l’era grigia del Digitale Reale, e poi il Crollo del Muro Digitale. Come quella, ha forti connotati affettivi, ma cerca di spiegare se stessa in termini di processi sociali, economici, tecnologici.

Ma forse conviene vederla in una prospettiva meno storica e più psicologica. Anzi psicoterapeutica.

Quando si parla di Digital Divide si pensa ad una linea di demarcazione tra generazioni. I giovani nativi e i vecchi immigrati, etc. Invece è un confine che ci troviamo davanti tutti, spesso, a tutte le età.

La caffettiera del masochista

La caffettiera del masochista

Intanto cominciamo a dire che il Digital Divide è solo un caso del Technology Divide (per restare all’Inglese che fa più fico). Ovvero quella sensazione, brillantemente descritta ne “La Caffettiera del Masochista” di Donald Norman, di essere dei cretini, inadeguati agli artefatti che popolano la nostra vita quotidiana.

Per esempio, andiamo al bagno al ristorante. Bagno molto chic, bellissimo, luci soft, rumori attutiti, magari pure una musichetta di sottofondo. Il cesso è il cesso, va bene, ma il rubinetto… come diavolo si usa? cerchiamo manopole, leve, pulsanti, ma niente. Agitiamo le mani sopra, sotto, ci avviciniamo, ci allontaniamo: nemmeno una goccia. Frustrazione.

Qui la semantica dell’oggetto  è chiara (è un rubinetto, deve uscire dell’acqua) ma la grammatica no (come si usa?). La nostra aspettativa di trovare appigli per le dita è frustrata. Come direbbe Norman, l’affordance dell’oggetto è scarsissima.

Un altro caso: il taglia erba si rifiuta di accendersi. Riusciamo più o meno a togliere il coperchio di plastica che copre il motore. Qui ci sono leve, levette, viti, … ma a che serviranno? Cosa regolano? Come bisogna intervenire?

In questo caso ci sfugge anche la grammatica; l’unica cosa che ci sembra di comprendere è il vocabolario  o meglio l’alfabeto (una leva è una leva, una vite è una vite). Ma da solo l’alfabeto non serve. E’ come trovarsi davanti al Cippo di Perugia: di sicuro quelle sono lettere, ma poi?

L’incapacità di regolare un orologio digitale dotato di DUE SOLI pulsante è dello stesso tipo. Ci manca lo schema mentale “menù ad albero” (un pulsante per muoversi nell’albero, un pulsante per scendere di livello o per confermare) che invece è naturale per i bambini. Di qui all’espressione ebete che assumiamo quando ci troviamo davanti una nuova app il passo è brevissimo. Non abbiamo idea di cosa siano quelle tre lineette orizzontali in alto a destra, la freccia a sinistra, i tre pallini collegati, e pazienza. Non sappiamo come si usano, e questo è un po’ peggio. Ma non abbiamo nemmeno idea di a cosa possa servire quella app. Sentiamo che dovremmo fare qualcosa, ma cosa?

Quindi il Digital Divide è solo un caso particolare della incapacità di affrontare con i vecchi strumenti concettuali le nuove tecnologie.

Ma facciamo un altro piccolo passo avanti: le nuove tecnologie non esistono. Sono una categoria psicologica, nel senso che è “nuova” la tecnologia che non c’era quando ci siamo affacciati al mondo delle macchine. Per esempio, per mio padre la radio era una “nuova tecnologia”. Ognuno di noi è portato ad accettare come naturali le tecnologie che esistevano, e guardare con sospetto le altre. Vale per la scrittura, il libro, la televisione, i computer, gli smartphone, la realtà aumentata, etc. Il libro cartaceo è più vero e giusto dell’ebook solo perché c’era nella mia infanzia.

I bambini, ovviamente, non hanno particolari problemi con le nuove tecnologie. E per forza; per loro non sono affatto nuove. Non le vedono nemmeno come tecnologie, sono semplicemente parte dell’ambiente, della natura. Ci sono abituati, non provano nessun’emozione particolare ad usarle; ma questo non è sufficiente perché le capiscano, e nemmeno perché abbiano interesse a capirle.

Radio a galena

Radio a galena

Ci sono delle persone particolari, curiose, che invece per le “nuove” tecnologie non provano ribrezzo immediato, ma le affrontano per capirle. Si domandano da dove vengono, come funzionano. Ci giocano, come farebbero i bambini. Le smontano e le rimontano, le cominciano a usare, se ne impadroniscono (per tornare a mio padre, a distanza di settant’anni mi raccontava con passione di quando aveva costruito la prima radio a galena). Qualche volta ne parlano in maniera entusiasta, come del “nuovo orizzonte” (della didattica, della medicina, etc). Diventano degli apostoli (scusate: degli evangelists), organizzano seminari, scrivono libri.

Quando queste persone sono insegnanti, trasmettono questo atteggiamento positivo, curioso, partecipativo, ai propri studenti. E’ quello che faceva il compianto Seymour Papert, scomparso di recente e mai abbastanza ricordato. L’effetto è che gli studenti – in particolare i più piccoli – non solo si divertono, ma si divertono ad imparare. Si affezionano alla macchina che hanno costruito, ci tengono, le vogliono bene. Riescono a vedere attraverso la macchina la parte che dipende da loro (le idee) e quella che è indipendente (le regole). Probabilmente – ma non è sicuro – manterranno questo atteggiamento positivo e curioso anche in futuro, non si faranno stregare dal canto delle sirene, per ogni nuovo regalo si domanderanno: ma come funziona? cosa c’è dietro?

Quello di questi insegnanti è un atteggiamento fortunato, che purtroppo non dura per sempre, perché negli ultimi cento anni le tecnologie cambiano in fretta. Succede perciò che anche queste persone si ritrovino imbarazzate quando quella tecnologia, con cui pure avevano fatto amicizia, comincia a diventare incomprensibile. Non la riconoscono più, come un cucciolo che è diventato un animale adulto, con personalità e pulsioni che li escludono. La tecnologia buona era quell’altra, quella di prima. C’è un distacco affettivo, oltre che cognitivo. A quel punto anche queste persone fortunate cominciano a parlare di “deriva”, di “usi impropri”, di “evoluzione distorta” eccetera, e si vanno a collocare nella terza schiera: dopo gli apocalittici e gli integrati, i disillusi. Ma non è un fenomeno storico che stanno descrivendo, è il loro (nostro) percorso attraverso la linea del Digital Divide.

Come si evita questo progressivo allontanamento? Non lo so con certezza. Ci si osserva, si studiano i segnali della disillusione. Ci si educa alla tolleranza. Non si smette mai di studiare e di fare, ci si continua a mettere alla prova, ci si fa aiutare da qualcuno più giovane e aggiornato. Personalmente è quello che cerco di fare, con risultati alterni.

Riassumendo: è una buona cosa affezionarsi ad una nuova tecnologia, perché ci mette in una disponibilità mentale tale da permetterci di capirla, ma non è un’acquisizione che dura per sempre. Comunicare questa disposizione agli studenti è una parte fondamentale del compito degli insegnanti. Più importante, secondo me, che insegnare il Computational Thinking.

Nota: quella della lingua del digitale è una questione che un giorno andrebbe studiata per bene. I Disillusi Digitali sono quelli che usano la parola “computer”, e mentre lo fanno pensano che è sinonimo di “calcolatore”. La generazione che attualmente ha in mano il digitale (quelli che oggi hanno trenta-trentacinque anni) non parla di “computer” ma di “device”, intendendo qualsiasi cosa sia connessa a Internet. D’altra parte, all’inizio degli anni ’80 del millennio passato (gli anni dell’Apple II, dell’Atari 400, del Commodore VIC 20 e del PC IBM) non erano nemmeno nati. Non conoscono il significato di “IBM-compatibile” e non vedono cosa c’entri con il loro tablet Android, e in generale non gliene frega nulla dell’etimologia. La lingua, come il digitale, si usa, anche senza capirla.

Learning Analytics o solo tracciamento?

Mag
25

Anni fa sostenevo che la valutazione (online) andava arricchita con i dati. Che raccogliere le informazioni prodotte dalle azioni dei partecipanti ad un ambiente di apprendimento (discenti e docenti) poteva fornire strumenti utili ai docenti e ai discenti – per migliorare il percorso di apprendimento, per migliorare il corso. Ma avvertivo anche che non si trattava solo del “tracking“, del tracciamento di orari di ingresso e di uscita, di contare il numero di accessi. Occorreva raccogliere dati più significativi: per esempio, i percorsi (da dove a dove), per ricostruire lo stile cognitivo dello studente, i messaggi, i contenuti prodotti, le richieste di supporto, in generale le interazioni con i colleghi. Questo ovviamente avrebbe potuto essere fatto se l’ambiente registrava ogni azione, il contesto dell’azione, i suoi contenuti, e se questi dati venivano esposti in modo tale da poter essere visualizzati, confrontati e usati per avvertire il docente di anomalie di percorso (positive: originalità, e negative: ritardo) e permettergli di agire subito, o di ristrutturare il corso per il futuro. Di sicuro sarebbe stato necessaria anche un’analisi dei testi prodotti, cercando di categorizzarli in base a parametri (oggi si parla di sentiment analysis, ma in un senso ristretto). Ma soprattutto sarebbe stata necessaria una visione d’insieme degli obbiettivi, degli indicatori. Un paio di esempi modesti di lavori condotti in quest’ottica, con le tecnologie dell’epoca: questa presentazione (analisi_forum) che descrive l’analisi dei forum nella piattaforma Ansas (INDIRE) per i Dirigenti Scolastici nel 2006/2007 e quest’altra (strum_valutazione_2006) che descrive un possibile modello di interpretazione dei testi prodotti dai corsisti in un ambiente di apprendimento online. Cose di nessun valore ma che almeno cercavano di porre qualche questione in un periodo in cui del monitoraggio – in quanto puramente quantitativo – non interessava a nessuno.

Sono passati dieci anni, e il termine “Learning Analytics” è diventato un mantra, adottato da progetti , da fondazioni, e a cui si dedicano ricerche e  articoli divulgativi. Persino l’obsoleto SCORM (nel senso che anche chi l’ha proposto ha smesso di sostenerlo, anche se qui da noi non ce ne siamo ancora accorti) è stato sostituito dalle eXperience API che permettono di inviare informazioni sulle diverse attività di apprendimento ad un archivio esterno (LRS) secondo un vocabolario controllato per permettere analisi successive.

Non posso che esserne felice. Finalmente ci sono le risorse, economiche, tecniche e umane, per cercare di capire e migliorare i contesti di apprendimento sfruttando l’enorme quantità di dati che sono sottoprodotti dell’interazione didattica.

Quello che però sto vedendo recentemente sono tante proposte di ambienti che mettono l’accento sul termine “analytics” (a volte sinonimo di “accountability“, come qui ) ma per parlare semplicemente di tracciamento: “Know if your students are watching your videos, how many times and see the answers they give.” Piattaforme per docenti in cui è facilissimo inserire un video, poi un quiz, e voilà ecco i dati. Qui mi viene da chiedere: ma tutto quello che vuoi sapere dei tuoi studenti è quante volte accedono ad una risorsa? E per fare cosa?

Ma in effetti questo è quello che viene registrato. Poi però si scomodano i big data, il data ming, il machine learning, il cloud, per estrarre conoscenza dalle informazioni. Cioè invece di aumentare la qualità dei dati raccolti in partenza, si registrano informazioni atomiche (e banali) e poi si applicano complessi algoritmi per cercare di far emergere configurazioni significative.

Mi auguro che i prossimi passi siano invece quelli di definire meglio cosa si vuole raccogliere, di strutturare i dati in partenza, di permettere ai docenti e ai discenti di crearsi i propri strumenti di visualizzazione. Mi auguro che tutti gli esperimenti di MOOC interuniversitari adottino un approccio di questo tipo, nel rispetto della privacy e con l’obbiettivo di migliorare l’apprendimento e non di profilare gli utenti.

Elaborazione di testi e fogli di calcolo: ma che palle…

Mag
21

Ieri ultima lezione prima delle presentazioni dei “project work” degli studenti (ovvero dei lavori di gruppo come preesoneri dell’esame). Avevo scelto un tema che  in realtà mi inquietava: elaborazione di testi e fogli di calcolo. Tradotto: Word e Excel. Il resto del corso  è stato sulle reti, i diritti dei cittadini, la privacy, l’accessibilità, e poi avrebbe dovuto toccare mappe, strumenti di collaborazione online, software didattico. Ma mi sentivo in dovere di parlare anche di strumenti che gli studenti di un’Università si suppone che sappiano usare, anche se nessuno gliel’ha insegnato.
Siccome non sono un guru di Word, non conosco a memoria tutte le funzioni di Excel, anzi per la verità non uso nessuno dei dueda quindici anni, mi sono domandato come faccio spesso: qual è la specificità di questa situazione? cosa posso proporre io a  questi studenti di terzo anno, in procinto di laurearsi, che non possano trovare su Youtube o in un libro “Word for Dummies”? Come può aiutarli il fatto che trent’anni fa ho scritto il codice sorgente di un word processor, in Pascal? Qual è il mio valore aggiunto?

Le risposte che mi sono date le elenco qui, magari sono utili a qualcun altro.
1. La storia delle tecnologie della scrittura e del calcolo (supporti, strumenti, conservazione) serve a capire che ci sono modelli d’uso che non si capiscono se non riportandoli alle tecnologie precedenti. Il Caps Lock sulle tastiere dei computer…
2. La storia serve a distinguere gli aspetti davvero nuovi da quelli di re-mediation. Invenzioni, passione. Cosa ha provato il tizio che ha inventato Visicalc, quando non esisteva niente di simile nel mondo? Perché la gente scrive programmi, inventando modi che non esistono di trattare le rappresentazioni del mondo?
3. La storia serve pure a relativizzare la maniera di fare le cose che pensiamo sia unica. La pietra è stata superata dal papiro, dalla pergamena, dalla carta, dal CDROM e dal disco a stato solido. Quando vogliamo lasciare una traccia per gli alieni sulla luna, quale supporto scegliamo? e quale formato?
4. Distinguere alcuni concetti base  può essere util a cavarsela quando le cose non vanno come pensiamo. Usiamo file di cui non sappiamo quasi nulla (chi ha mai aperto un file ODT o DOCX per vedere cosa c’è dentro?) e confondiamo formati, oggetti e supporti. Così a volte siamo bloccati.
5. Word ed Excel non sono solo programmi che fanno cose, sono ambienti dentro cui io posso fare cose. Ambienti che posso usare per scopi diversi. Li posso estendere, adattare, ridurre. Li posso collegare ad altri software. Li posso usare da solo o con altri.
6. Non c’è solo scrivere o mettere numeri, c’è anche – eventualmente, non necessariamente ! – progettare e costruire un testo o gruppo di testi, una matrice o una serie di matrici collegate. Gli artefatti digitali sono flessibili “per loro natura”: si può partire dalla fine e tornare indietro.
7. Ci sono modelli d’uso diversi e obiettivi diversi: risparmiare tempo automatizzando compiti, assicurarsi della validità dei dati, scoprire cose nuove (con le statistiche  o con la risoluzione delle equazioni lineari).
8. Prima dei menù ci sono gli obiettivi. Voglio fare questa cosa: ci saranno una o più strade per farla, me le vado a cercare. Sono ambienti da scoprire un po’ alla volta. Non serve studiare tutto il manuale prima di lanciare Excel.
9. Distinguere i dati dalla struttura di quei dati e dall’interfaccia verso quella struttura è utile, perché permette di fare più cose: strutturare diversamente i dati, applicare interfacce diverse.
10. Non conosco MS Excel 🙁 , ma conosco Libre Office Calc. Ho verificato che in generale gli studenti non sanno nemmeno che esistono alternative.E così non possono scegliere.

Alla fine è questo che ho fatto: ho provato a suggerire visioni allargate, a condividere la mia passione e creare un po’ più di consapevolezza. Tanto peggio per le tabelle pivot e i documenti master, li studieranno un’altra volta.

Formazione e PNSD: il nuovo sito

Mag
17

Finalmente oggi (17 maggio) è online il sito di accompagnamento alla formazione del PNSD.

Schermata da 2016-05-18 11:15:13

http://www.formazionepnsd.it/

Premessa dovuta: non ce l’ho a priori né col MIUR, né con il ministro (la ministra?) né con chi orchestra il piano o chi lo realizza concretamente.

Sono solo un cittadino che ha due figli in età scolastica, che ha una certa esperienza in siti, piattaforme e didattica con le tecnologie digitali. Per cui avendo in mente questi destinatari finali e con questo ingombrante bagaglio, pieno di buona volontà, vado a vedere come è fatto e cosa contiene il sito che fino a ieri era fantasma. Giuro, senza preconcetti. Il sito è fatto con WordPress. Perché no?

E’ colpa mia se provo a leggere i documenti sull’accessibilità (che è un obbligo sancito da una legge dello stato) e non li trovo? Nel senso che il link (in basso a destra) c’è, ma non porta da nessun parte, al momento. Arriverà.

Vado alla sezione “contenuti digitali”, guardo il video di Gino Roncaglia e poi cerco le risorse relative all’Azione 22 “Standard minimi e interoperabilità degli ambienti on line per la didattica“. Non c’è ancora nulla. Peccato, era un tema interessante, che doveva secondo me trovare il giusto spazio anche nel recentissimo bando sulle biblioteche scolastiche. Dove si lascia che 500 scuole progettino un ambiente fisico e digitale per permettere l’accesso da parte degli studenti a contenuti digitali, ma senza indicare appunto standard minimi per l’interoperabilità di questi 500 ambienti. Standard non di digitalizzazione di libri, ma appunto di interoperabilità, che permetterebbero di far parlare questi 500 ambienti, fare ricerca trasversali, e chissà che altro. E’ vero, ci sono anche 44.000 € per un progetto che appunto dovrebbe costruire un sistema informatico che metta in rete tutti gli altri, ma… a posteriori? Senza indicare un minimo di regole generali per facilitare appunto l’interoperabilità?

Pazienza, arriveranno risorse anche in questa sezione. Ci sono però già risorse nelle altre aree, per esempio l’Azione 23 Biblioteche Scolastiche come ambienti di alfabetizzazione all’uso delle risorse informative digitali. Ci sono quattro articoli con fonte INDIRE. Ma come si punta a queste risorse? Come sono categorizzate? Che metadati? Che licenze? Niente.

Per esempio, la URL di una risorsa è http://www.fupress.net/index.php/formare/article/download/15439/15119. Dalla URL non capisco nemmeno che è un file PDF. Un altro link invece punta a  http://www.scuolavalore.indire.it/nuove_risorse/il-podcast-a-scuola-3/. Se vado sul sito Scuolavalore di  INDIRE (anche lui fatto con WordPress, per dire) trovo finalmente qualche metadato (argomento, grado, tipologia, condizioni d’uso, livello didatec) e delle tag (podcast, flipped learning, mobile learning). Posso fare una ricerca per argomento, grado, etc.

Schermata da 2016-05-18 11:09:45

Invece le risorse censite sul sito formazionepnsd.it non hanno una URL “parlante” e univoca (che so, http://www.formazionepnsd.it/competenze-e-contenuti/contenuti-digitali/3) che si possa inserire in un percorso di formazione, linkare, condividere. E non c’è nemmeno una ricerca, al momento.

Ma non sarebbe stato più utile, che so, un censimento dei repository di risorse didattiche di qualità? O meglio un meta-motore di ricerca che permettesse ai docenti di cercare risorse contemporaneamente su http://www.scuolavalore.indire.it, su https://www.oercommons.org/advanced-search, http://freeloms2.pa.itd.cnr.it/xmlui/advanced-search ?

Schermata da 2016-05-18 11:12:48

 

O magari – esagero – un pezzettino di HTML da copiare e  inserire in qualsiasi sito scolastico e permette di fare la stessa ricerca direttamente da lì? O al contrario, un modulo dove segnalare al MIUR il proprio repository scolastico di risorse educative in modo che sia possibile includerlo tra quelli ricercabili?

Ergo: non è un portale di risorse per la formazione, è una vetrina in cui vengono selezionati e mostrati link ad altre cose. Non è un archivio di risorse, né una porta verso altri archivi; è solo un sito gestito con WordPress. Non è pensato per essere usato da altri siti e portali o piattaforme, cioè per essere interoperabile. Bisogna entrare e navigare, e poi andare altrove.

Niente, non avevo capito.

 

No More Pencils, No More Books

Mag
08

Grazie alla segnalazione di Gino Roncaglia, ho letto l’interessante  (e lungo) articolo di Will Oremus su Slate

No More Pencils, No More Books
Artificially intelligent software is replacing the textbook—and reshaping American education.

http://www.slate.com/articles/technology/technology/2015/10/adaptive_learning_software_is_replacing_textbooks_and_upending_american.single.html

L’articolo parte da una classe di pre-algebra al Westchester Community College di Valhalla, New York.
Gli studenti lavorano individualmente con ALEKS (Assessment and Learning in Knowledge Spaces), che è un software di istruzione programmata sviluppato da un  team di  matematici, scenziati cognitivi e ingegnieri software all’università UC–Irvine negli anni  1990.
L’articolo parte dal fenomeno della conversione degli editori di manuali, come McGraw-Hill e Pearson, verso il digitale, cioè verso la produzione di “corsi adattivi”, e risale alle teaching machines skinneriana memoria, al Learning’s Cognitive Tutor for algebra della Carnegie University, per poi citare i risultati controversi di vari studi sull’efficiacia degli strumenti digitali, MOOC compresi.

Oremus parla di un settore particolare dell’apprendimento digitale, che sembrerebbe stare riprendendo vigore in USA – quello dell’adaptive learning, ovvero degli strumenti automatici di insegnamento –  ma il tema ne tocca da vicino altri. Vale la pena farne una lettura approfondita, e ve lo consiglio. Approfitto per qualche nota a margine, con l’occhio naturalmente alla situazione italiana. Dove ci sono siti che offrono ripetizioni online, corsi su Youtube e MOOC, ma ancora non si vede un mercato per l’adaptive learning.

Anni fa, Roberto Maragliano parlava di tre possibili rapporti tra media ed educazione. Si possono insegnare i media, insegnare con i media e insegnare dentro i media. Applicato ai media digitali, la classificazione forse non è così facile (un ambiente come Scratch a quale categoria appartiene?) ma è comunque utile. Oremus sta parlando della seconda categoria.

Un primo elemento intessante che emerge dall’analisi (ma forse è abbastana scontato) è senz’altro l’ambito disciplinare: possono essere oggetto di didattica digitale solo gli ambiti in cui c’è una risposta esatta. Dice Ulrik Christensen, McGraw-Hill Education:

How much you can automate depends on what you’re trying to teach. In a math class like Whelan’s, the educational objectives are relatively discrete and easily measured.[…]
ALEKS is designed only to work for math, chemistry, and business classes.[…]
Adaptive technologies presume that knowledge can be modularized and sequenced

Non dovrebbe essere una sorpresa, no? La prima domanda è se tutta la conoscenza può essere modularizzata e messa in sequenza, e se convenga farlo. Wikipedia è un esempio di conoscenza modularizzata ma non sequenzializzata. La nostra ADA (non il linguaggio e nemmeno la signorina Lovelace, ma la piattaforma di elearning) si basa su frammenti di conoscenza reticolare, collegati fra loro.

Con le parole di un ricercatore del MIT che si occupa di “digital learning “,  Justin Reich, i computer “are good at assessing the kinds of things—quantitative things, computational things—that computers are good at doing. Which is to say that they are good at assessing things that we no longer need humans to do anymore”

Qui l’accento si è spostato sulla valutazione. E’ interessante notare che il punto critico non sembra essere l’organizzazione della disciplina, ma la tecnologia. Cioè non si dice che il problema è che dove non è facile descrivere in una struttura competenze, conoscenza, relazioni, test, allora non è possibile creare una versione automatica (digitale o meno) del tool adattivo, ma semplicemente che i computer sono troppo stupidi per trattare cose complesse.
Mi pare che questo abbia a che fare con la visione dicotomica delle scienze  in scientifiche e umanistiche. Quelle scientifiche sono quelle in cui ci sono fatti e teorie verificabili, quelle umanistiche sono le discipline in cui vale solo il forse, può darsi, credo che. Quindi dove non si può fare valutazione quantitativa.

Ho dei dubbi che questa divisione sia accettabile. Così si ignora completamente la storia delle discipline, la storia degli errori, il rapporto tra teorie di fondo e “fatti”. Anni di studi di epistemologia e storia delle scienza buttati al vento.

Quando il dominio non è quantatitivo, comunque, McGraw-Hill propone un altro software, Learn Smart, e un nuovo sistema, che si chiama Connect Master.

But Connect Master takes less of a behaviorist approach than a conceptual one, asking a student to show his work on his way to solving a problem. If he gets it wrong, it tries to do something few other programs have attempted: analyze each step he took and try to diagnose where and why he went wrong

L’esempio che viene portato nell’articolo è divertente. E’ un pezzetto di software (del Carnegie Mellon’s Pittsburgh Advanced Cognitive Tutoring Center) che chiede di svolgere un’addizione tra frazioni, riportando i denominatori ad un mcm. Se si commettono errori, il software commenta e suggerisce.
Ma se, ad esempio, si sceglie un denominatore comune più grande del mcm, il sofware non sa bene che fare. Obiettivamente il risultato è corretto, ma il software non riesce ad accorgersene. Qui chiaramente, come riconosce Oremus, non c’è intelligenza artificiale. Sarebbe meglio dire che la conscenza del dominio è cablata nel software.

Il problema però è che

Accurately diagnosing a student’s misconceptions is a harder conundrum than you might think, explains McGraw-Hill Education’s Christensen. An algebra problem may have only one correct answer. But there are countless not-incorrect steps that a student could theoretically take on the path to solving it. If you’re not careful, your software will tell you you’re on the wrong track, when in fact you’re just on a different track than the one your textbook authors anticipated.

E qui sono daccordo. Per un breve periodo, parecchi anni fa, ho perso il mio tempo in un gruppo di ricerca di IA applicata all’educazione, in un Università romana. Uno dei temi era il modello dello studente, basato sulle misconception, cioè sui punti di partenza (sbagliati) del ragionamento (corretto). Ricordo che quando ho provato a intrudurre l’idea di un modello di studente in cui non fossero tanto errati i punti di partenza, ma le regole di deduzione, mi hanno guardato come un marziano.
E poi mi hanno rispedito a casa.
Non era il MIT e non era il 2016.

Più o meno nello stesso periodo, ma in un’altra facoltà, lavoravo ad un software che cercava di ricostruire i modelli di categorizzazione di ragazzini con difficoltà di apprendimento.
Al ragazzino veniva proposto una figura geometrica colorata e gli si chiedeva di collocarlo insieme ad altri, selezionando le caratteristiche significative (colore, forma, dimensione). Il software in origine non aveva scopi diagnostici, ma solo terapeutici. Quello che ho cercato di fare  è raccogliere i dati dell’interazione e far costruire al software un’ipotesi sul modello di categorizzazione usato dal ragazzino.
Ora io lavoravo da solo con competenze scarse e raffazzonate, e qundi ho lasciato perdere. Mi fa piacere scoprire che da qualche parte c’è qualcuno che sta ancora studiando il problema.

Però mi stupisce che vent’anni dopo si stia più o meno allo stesso punto. Che ciclicamente ritorni l’idea di un software che propone contenuti, valuta la conoscenza dello studente e poi gli propone altri contenuti. Senza provare a costruire un modello della disciplina insegnata che possa comprendere non solo l’algebra, senza provare a introdurre il lavoro di gruppo, la costruzione di conoscenza collaborativa, gli stili cognitivi personali. Senza immaginare ambienti in cui la connessione tra parti sia esplicita, visibile per il corsista, che può scegliere e costruirsi percorsi.

Vedo, da vent’anni, sempre e solo due strade: la presentazione di contenuti in sequenza oppure il ritorno alle teaching machine ma con computer più potenti e più multimedia. Due strade che hanno in comune la svalutazione dello studente e delle sue metacompetenze.

Verso il termine dell’articolo viene affrontato il tema del’uso dei dati e della privacy.

By tracking everything they read, every problem they solve, every concept they master, Knewton could compile a “psychometric profile” on each student that includes not only what she learned but how readily she learned it, and at what sorts of problem-solving she struggled and exceled. That sort of data could be of great interest to admission committees and employers. It could also, in theory, erode the privacy that has traditionally surrounded young people’s schoolwork.

Ecco: dopo che ormai tutti hanno capito che i profili delle persone che usano i servizi gratuiti offerti sono un valore molto più grande dell’eventuale ritorno da abbonamenti agli stessi servizi, Oremus si accorge che nel momento in cui questo avvenisse per l’educazione ci sarebbe un mercato ghiotto. Con buona pace dei progetti di Learning Analytics (es. LACE http://www.laceproject.eu/)

La conclusione riporta un aneddoto famoso, di trent’anni fa, che suona più o meno così.

Un professore pone ai suoi alunni il seguente problema “Ci sono 125 pecore e 5 cani in un gregge. Quanti hanni ha il pastore?”
Tre quarti degli studenti rispondono con un numero, dopo aver tentato varie operazioni.
Il succo dell’articolista è che gli “adaptive software” formeranno generazioni di studenti capaci di applicare operazioni, ma non di dare la risposta “corretta” (che dovrebbe essere “che significa questo problema? ho abbastanza dati per rispondere?”).
Ora temo che il dubbio legittimo di Oremus non si applichi solo ai software, ma a tutta la formazione scolastica, che non punta a mettere i discenti in condizioni da porre domande, ma solo di trovare risposte a problemi di dubbia utilità. Ed è naturale che i software didattici (adaptive) non facciano che replicare questo schema.