Tra le parole più consumate per il cattivo uso quella di cui parliamo oggi è piattaforma. Ne avevo parlato qualche tempo fa qui ma oggi vorrei approfondire perché sono scoraggiato da quanto leggo qua e là.
Due etti di storia della parola: derivata dal medio francese, in inglese è attestata a partire dal 1550 nel senso di “piano, disegno, progetto”; poi ha perso questo significato metaforico per orientarsi verso uno più letterale. A partire dal XIX secolo si usa in geografia, in tecnica ferroviaria e poi in politica. La piattaforma petrolifera è una cosa piatta, in mezzo al mare, sulla quale ci si sta a lavorare come se fosse un’isola, come se fosse terraferma. E infatti ci sono anche le piattaforme per i tuffi… divertitevi qui a trovare tutti gli usi censiti dal dizionario Treccani. Se cercate il significato di “piattaforma informatica” invece sarete delusi perché è definita piattaforma praticamente qualsiasi cosa, hardware o software, che ne permette altre. E infatti i software per la creazione e gestione di corsi online (che, tanto per ricordarlo ai distratti, NON significa a distanza) potrebbero essere chiamati “piattaforme”, invece che software e basta, quando si volesse sottolineare che non sono soluzioni autosufficienti, ma che sono dei piani dove si può sostare e fare cose come se si fosse a terra, cioè sono delle tecnologie abilitanti ad altro. Oppure per dire che le attività che si fanno lì dentro non sono cablate dentro al software, ma sono optional, moduli autonomi che si possono aggiungere e togliere a piacimento. Ora seguitemi mentre cerco di spiegare cosa possono essere questi moduli: contenuti, pezzi di software, altre applicazioni, e chissà che altro. In questo modo magari riusciamo anche a capire le differenze tra piattaforma, suite, groupware, cloud.
Non tutti i software per l’apprendimento online sono letteralmente piattaforme. Alcuni sono perfettamente autonomi: anche se non è definito a priori ciò che contiene il singolo corso (i contenuti, la loro struttura, le modalità di comunicazione e collaborazione tra corsisti si possono decidere volta per volta), tutto quello che serve si fa lì dentro senza bisogno di aggiunte esterne. Sono ambienti di apprendimento, ma non piattaforme. Non è né un bene né un male in sé: sono il frutto di una scelta e seguono una filosofia precisa con vantaggi e svantaggi. Un paio di vantaggi come esempio: il monitoraggio e la valutazione sono molto semplici, perché tutto quello che corsisti e docenti fanno avviane lì dentro. Inoltre, è molto più facile garantire la privacy degli utenti, perché niente fugge verso altri lidi dove non si sa bene cosa capita ai dati personali. Ci sono ovviamente svantaggi: le attività possibili sono solo quelle previste da chi ha progettato il software; altre attività possono essere suggerite, segnalate, ma non integrate in maniera trasparente nel percorso di apprendimento.
Un software per l’e-learning che sicuramente è una piattaforma è invece Moodle. Moodle è stato chiamato così (Modular Object-Oriented Dynamic Learning Environment) dall’inventore per far notare che è un software modulare, cioè che le attività didattiche non sono cablate all’interno una volta per tutte ma sono pezzetti di software che si possono a) aggiungere ad un corso b)aggiungere alla piattaforma e c) aggiungere al repository del codice sorgente di Moodle. La prima operazione spetta all’autore del corso (il docente) la seconda al sistemista che configura la piattaforma, la terza agli sviluppatori che seguono le linee guida e producono nuovi moduli che si possono agganciare alla piattaforma (b) e aggiungere al corso (a).
Questo approccio si basa su due linee di pensiero collegate ma diverse: la prima è quella che pensa le attività come oggetti che si possono descrivere, circoscrivere, prendere da un deposito e riusare. Questa linea di pensiero è quella che è stata resa famosa (e anche presa in giro e vilipesa), con lo standard SCORM: Shareable Content Object Reference Model. Standard inventato dall’Advanced Distributed Learning, presso il Dipartimento della Difesa degli Stati Uniti. Standard che si è evoluto fino all’ultima versione, che è del 2009, e poi è stato abbandonato dagli stessi promotori a vantaggio di un approccio diverso: “qualsiasi cosa può essere un’attività didattica, purché sia in grado di inviare dati sull’utilizzo da parte dello studente secondo un linguaggio standardizzato”. Inviare a chi? Ad una piattaforma (detta Learning Record Store) che non ha uno scopo preciso, ma si limita a ricevere e organizzare i dati in modo che possano essere interrogati dai software di e-learning. Un po’ più avanti, sempre su questa linea tecnico-didattica si colloca lo standard LTI proposto dal consorzio IMS. Qui si tratta, più modestamente, di un protocollo che permette ad una piattaforma di e-learning come Moodle di parlare con un sistema di videoconferenza come se fosse un oggetto SCORM , cioè di inviare i dati di accesso di un utente e ricevere i dati sul suo utilizzo.
La seconda linea di pensiero è quella più strettamente informatica, quella dell’Open Source. Visto che il codice sorgente dei software open source è riusabile anche da altri, è possibile tecnicamente, ma anche legalmente, aggiungere librerie, moduli, oggetti realizzati da altri sviluppatori all’interno del proprio software. Naturalmente, perché non sia un furto, occorre assicurarsi che la licenza originale lo permetta e specificare l’autore iniziale. Prendere il codice altrui e ricopiarlo senza citare è poco diverso da un furto. Questa bella opportunità – che non è tipica delle piattaforme, ma di tutto il software opensource – però nasconde anche dei rischi: siccome è facile copiare e incollare, o includere, non è detto che chi include abbia il tempo di controllare linea per linea il codice sorgente incluso e verificarne la qualità. Potrebbe farlo, tecnicamente e legalmente, ma non è detto che lo faccia. Per questo esistono versioni di software open source (ad esempio, versioni di Moodle) che sono garantite da qualcuno che si è preso la briga di leggere tutto il codice sorgente, eliminare la robaccia e i pezzi sospetti e tenere solo i moduli robusti e sicuri. I software proprietari (non nel senso che sono di qualcuno, ma nel senso che il codice non è opensource) ovviamente non permettono questo tipo di controllo. Di qui l’obbligo previsto dal CAD per la pubblica amministrazione di effettuare sempre una valutazione comparativa che prenda in considerazione il software opensource.
Un altro tipo di piattaforme, nel senso di software non mono-blocco ma modulare, sono le suite per ufficio. Quelle che tutti conoscono oggi sono Google Gsuite e Microsoft Office365, ma le suite per ufficio esistono dalla metà degli anni ’80. Sono collezioni di software indipendenti, online o offline, che dialogano tra loro. Nel caso di software installati sullo stesso computer, questo “dialogare” significa che condividono l’interfaccia e il linguaggio; che si possono copiare e incollare dei pezzi di documento dall’uno all’altro oppure convertire facilmente da un formato all’altro. Nel caso di applicazioni remote, a cui si accede tramite internet, il dialogo è anche a livello di accesso: quando un utente è registrato e fa il login nella piattaforma/suite non ha bisogno di essere registrato anche nei software satelliti ma può passare da uno all’altro senza apparente interruzione. Le applicazioni sono remote nel senso che stanno su computer accessibili solo via Internet, ma anche perché per ragioni di convenienza, cioè di flessibilità e di sfruttamento degli investimenti fatti, sono divise in pezzetti sparsi su più computer. In questo secondo caso si parla di cloud, per indicare appunto che l’utente non ha modo di sapere esattamente dove stanno le applicazioni che usa, i documenti che produce e in generale i propri dati. E’ una situazione di incertezza che è diventata problematica con l’applicazione del GDPR. Peraltro parliamo qui di suite “per la produttività”, non di software per l’apprendimento, anche se è molto percepibile il tentativo di far passare una cosa al posto di un’altra cambiando terminologia. Non è solo una questione di marketing, ma anche di modello sottostante: se la scuola è palestra di vita, niente di anormale che fin da piccoli occorra abituarsi ad usare un word processor, un foglio di calcolo, un database. Si può essere d’accordo o meno con questa impostazione, ma va tenuta ben presente.
I groupware sono ancora diversi: sono software per la collaborazione e il lavoro di gruppo online. L’esempio più noto oggi è Microsoft Teams, ma anche in questo caso i primi sistemi del genere datano da almeno i primi anni novanta, se non si vuole considerare NLS di Engelbart che era addirittura della fine degli anni ’60’. L’unità di significato minima qui è il gruppo di persone, non la persona, e quindi le funzionalità principali sono appunto quelle che consentono di comunicare tra i membri del gruppo (chat, bacheca condivisa, videoconferenza), di scambiarsi files, organizzati in cartelle fisse o personalizzabili, e organizzare il lavoro (agenda e rubrica, progetti e tracciamento delle attività). Per un fenomeno ben noto di marketing aggressivo e concorrenza spietata per cui ogni software vuole diventare piattaforma, e quindi sostituire tutti gli altri, ai groupware si possono aggiungere altri pezzetti di software, e quindi diventa difficile distinguerli dalle suite di cui sopra.
Tra le funzionalità dei groupware quella che oggi è davvero irrinunciabile (ma c’era già in NLS…) è la videoconferenza; il che complica le cose, perché si tende a confondere un groupware che ha al suo interno la videoconferenza (come Teams) con un sistema di videoconferenza vero e proprio (come Zoom o Jitsi). Chiamare Zoom una piattaforma è chiaramente improprio, sia perché non è una base dove si aggiungono moduli, sia perché parlare guardandosi in faccia non è sufficiente per collaborare.
Se è vero che collaborare è sicuramente una parte importante del processo di apprendimento di gruppo, e collaborare e comunicare online diventa fondamentale quando la collaborazione fisica e la comunicazione orale non-mediata è impossibile, va tenuto presente che una suite di produttività per ufficio o un software pensato per supportare un gruppo di lavoro non sono necessariamente ambienti ottimali per l’apprendimento. Di qui tante durezze, giri improbabili, gerarchie e controlli esagerati, funzioni inutili e altre inspiegabilmente mancanti.
Per chiudere, spero che la parola piattaforma ora sia più chiara per tutti e venga usata in maniera coerente (e questa sarebbe una magra soddisfazione), ma soprattutto che non ci si butti ad usare X solo perché qualcuno ha sentito dire da qualcun altro che “è una piattaforma per la didattica digitale”.
Attenzione: se volete scaricare una versione leggibile offline di questo testo, potete andare qui.
Postfazione (settembre 2020)
Dopo aver completato la prima bozza del nostro lavoro, l’abbiamo
fatta circolare tra un po’ di persone che sapevamo interessate e
critiche; anzi, le sapevamo critiche ma interessate all’uso delle TIC nel campo della conoscenza (e del lavoro, perché no?) in funzione di uno sviluppo caratterizzato da emancipazione, equità, sostenibilità.
Questo è infatti il nucleo del nostro ragionamento, che pensiamo sia
particolarmente importante mettere in circolazione ora, dal momento che
al periodo di emergenza non è seguita una vera e propria elaborazione
culturale ed etica, ma piuttosto la prosecuzione esasperata della di per
sé sterile contrapposizione assoluta tra “digitale-sì” e “digitale-no”.
Ci sono tornate indietro varie osservazioni, sulla base delle quali
abbiamo operato alcuni interventi e scritto queste righe, che forse
avremmo potuto intitolare “Confessioni”, o qualcosa di simile. Abbiamo,
per esempio, inserito al fondo del testo un breve glossario a
proposito delle istituzioni che hanno agito negli ultimi decenni nel
campo delle TIC a scuola: non potevamo infatti presumere che esse
fossero conosciute nemmeno dagli addetti ai lavori, in particolare dai
più giovani, perché non tutte sono sopravvissute al percorso. Abbiamo
preso atto che il nostro dialogo – questa è la forma che
abbiamo deciso di dare a riflessioni che un’esposizione tradizionale
avrebbe rischiato di rendere ancora meno sopportabili – avviene tra due
soggetti che presentano delle sfumature diverse, ma che sul filo rosso
del ragionamento sono (troppo?) d’accordo. Non ci contrapponiamo mai,
non polemizziamo, nemmeno neghiamo l’uno le tesi dell’altro.
Cerchiamo invece e volutamente di convergere su alcuni punti e
prospettive culturali, etici e operativi che ci sembrano importanti per
ribaltare la posizione – destinata a rimanere subalterna alla cultura e
all’agenda degli attuali decisori – di chi si rinchiude nella semplice
negazione e nell’inerte rifiuto del pensiero mainstream
sull’uso delle tecnologie a scuola, che considera l’innovazione
strumento di competizione e, di conseguenza, l’istruzione come
erogazione, pratica e verifica selettiva di skills adattive
allo scenario attualmente prevalente. Abbiamo ripensato a come abbiamo
usato uno strumento potente e tipico dello scrivere su supporto dinamico
e aperto come quello digitale, i link. In linea generale, li abbiamo utilizzati come “citazioni attive”,
anche di materiali nostri, non solo per testimoniare un percorso
pluridecennale che ci ha portato dove siamo ora (senza alcuna intenzione
di restare fermi), ma anche per evitare di riscrivere ciò che avevamo
già esposto altrove.
Marco Guastavigna e Stefano Penge
Introduzione
Estate 2020. Ci guardiamo in faccia – via monitor, of course – e ci rendiamo conto che ambedue siamo in stagione di ripensamenti, ma che entrambi non abbiamo intenzione di mollare: dobbiamo trovare una strada o (meglio) più sentieri per dare un senso a ciò che ha connotato la gran parte della nostra attività intellettuale, l’uso dei dispositivi digitali per migliorare la didattica. Meglio se virtuoso, rivolto cioè non all’innovazione fine a se stessa e alla competizione, ma all’aumento del benessere di tutt* e di ciascun*.
E decidiamo di farci reciprocamente un regalo, un percorso di scrittura, attraverso domande, per quanto possibili stranianti e provocatorie. Ciò che segue è l’intero lavoro.
Dialogo
MarcoG
Eccoci ancora qui a ragionare insieme, come abbiamo fatto a partire almeno da…
StefanoP
Dal 1993, la data di uscita di Io Bambino Tu Computer. Erano gli anni
in cui pensavo ingenuamente che un software educativo avrebbe cambiato
il mondo.
MarcoG
Vero, abbiamo cominciato quell’anno lì; poi ci siamo incrociati più
volte sull’uso delle mappe concettuali e oggi eccoci di nuovo a cercare
di capire il “nuovissimo” di turno. Ovvero la didattica dell’emergenza,
ovvero il distanziamento forzato dell’istruzione, che ha costretto molti
a ripensare il proprio approccio culturale e cognitivo e le proprie
categorie concettuali a proposito del “digitale”.
StefanoP
Infatti. Vanno ripensate e soprattutto criticate perché spesso sono
categorie manicheiste, e questo non è mai una buona cosa. Sono convinto
che sia necessario, soprattutto ora, provare a indicare delle vie
alternative, senza accettare la banale opposizione tra “il digitale è
buono” e “il digitale è cattivo”.
Anzi, sono convinto che si debba partire con il rifiuto della forma
stessa che assume questa opposizione. C’è un soggetto e c’è un
predicato, e in più si tratta di un giudizio di valore.
MarcoG
Lo vuoi insegnare proprio a me?
StefanoP
No, no, abbi pazienza. Cominciamo dal soggetto, il digitale: esiste
davvero una cosa così? Ovvero: le caratteristiche delle esperienze che
facciamo utilizzando i computer grandi e piccoli, locali e remoti, sono
talmente specifiche da permetterci di parlarne come se fossero una sola
cosa, e di opporle alle altre esperienze?
Il secondo aspetto che pone problemi in questa opposizione è il
predicato: il digitale è buono o cattivo? Ma che significa buono? Buono
per qualcuno, per tutti? Buono per uno scopo specifico, per tutti gli
scopi? Buono per oggi, per domani, per sempre?
Vista un po’ da vicino, mi pare, questa opposizione non regge: il
digitale è fatto di tante esperienze diverse, e non si riesce a
riassumerle tutte in un soggetto unico che si possa giudicare e
accettare o rigettare in toto. Di qui la necessità dell’analisi e della
riflessione, meglio se fatta a più cervelli e più mani. Ed è necessario
che a valle della riflessione si possano fare delle scelte, a livello
sia individuale sia di gruppo: questo digitale va bene per questo uso,
quest’altro invece no. Forse a te sembrerà una constatazione ovvia, ma
per me non lo è.
MarcoG
Infatti. Ai tempi in cui abbiamo iniziato a frequentarci mi sembravi
più tecno-ottimista. Per altro, non è la prima volta che ti capita di
cambiare idea, no?
StefanoP
No, e non me ne vergogno. Una volta pensavo che il digitale fosse
tutto buono. Pensavo che le caratteristiche del digitale fossero
talmente potenti da generare un cambiamento obbligatorio nella maniera
di creare e utilizzare la conoscenza. Per esempio, pensavo che il fatto
che il costo (cognitivo, ma anche tecnico e quindi economico) delle
operazioni di scrittura e lettura fosse sostanzialmente identico avrebbe
portato ad una parità di ruoli tra scrittore e lettore, e quindi ad un
cambiamento nella maniera di pensare l’autore, l’autorialità,
l’autorità. Il fatto che la rappresentazione digitale di un testo, o di
una musica o di un quadro, potesse essere facilmente, e indefinitamente,
modificata, copiata, trasformata mi portava a immaginare infiniti modi
di esercitare l’immaginazione creativa. Questi due fatti (il costo
paragonabile tra scrittura e lettura e l’infinita modificabilità di un
documento) dipendono da come è stato immaginato e realizzato il
digitale; ma la loro interpretazione non era affatto scontata. La forma
di determinismo tecnologico di cui in qualche modo soffrivo mi portava a
pensare che ci fosse un solo modo di sfruttare le potenzialità del
digitale, che nella mia testa era il migliore: quello di permettere a
tutti gli utilizzatori di diventare produttori, innescando un circolo
virtuoso per cui ogni prodotto sarebbe potuto diventare materiale di
partenza per altri prodotti e ogni ambiente sarebbe potuto entrare a far
parte di ambienti più ricchi e complessi.
In sintesi, pensavo che la novità tecnica portasse con sé
l’innovazione in maniera quasi automatica, e – secondo punto, più
importante – pensavo che l’innovazione fosse comunque positiva, cioè
indirizzata ad uno sviluppo delle persone, a partire dai bambini che
erano il “pubblico” a cui pensavo praticamente. Non tenevo conto, per
inesperienza, degli interessi dei singoli e dei gruppi professionali che
a volte possono prevalere su quelli di tutti. Non mi ero soffermato
sulle difficoltà, cognitive e affettive, delle competenze necessarie.
Pur conoscendo la storia dell’informatica, che è una storia anche di
imprese e prodotti, di marketing, mi ero concentrato solo sulle
potenzialità che qui in Italia non erano state sfruttate. Non tenevo
conto della possibilità che quei fatti tecnologici potessero essere
utilizzati o no, piegati in una direzione o in un’altra. Su questo
torneremo più avanti, immagino.
Dopo quasi trent’anni di tentativi di creare ambienti di
trasformazione digitale (cioè software educativi) penso di aver
raggiunto una consapevolezza banale: non è sufficiente che una cosa sia
tecnicamente possibile perché venga anche realizzata. Tutto quello che
pensavo di aver capito delle caratteristiche del digitale resta
probabilmente vero, aiuta a capire le potenzialità, ma non basta a
garantirne uno uso sensato e rivolto allo sviluppo di tutti.
Del resto, cambiare idea ed essere anzi consapevoli di poterlo fare sono risorse intellettuali. A te non capita mai?
MarcoG
Anche nella mia storia personale con il “digitale” (più se ne parla
più risulta sconosciuto!) ci sono momenti di profonda trasformazione
della prospettiva.
Inizialmente, ho colto soprattutto quelli che mi sembravano gli
aspetti positivi e più promettenti, in particolare la plasticità del
supporto – e qui ti devo da sempre parecchio – come spazio operativo e
cognitivo a vocazione propedeutica, in particolare per la scrittura di
testi, e le potenzialità della organizzazione ipertestuale di senso e
significato in rapporto alla complessità del sapere umano.
Ci torneremo, anche perché si tratta di aspetti tuttora
sottoutilizzati, sul piano non solo didattico, ma anche professionale e
intellettuale.
Qualcosa ha cominciato a cambiare nella mia testa a inizio millennio,
quando ho cominciato a intravvedere lo spettro del Pensiero
(tecno)Pedagogico Unico, di matrice istituzionale: incubatore principale
ANSAS-Indire con la rete degli ex IRRSAE, poi IRRE, perno organizzativo
e fulcro dei finanziamenti il Ministero, anche nelle sue articolazioni
regionali. Sulla base di un’adesione superficiale e spesso posticcia al
paradigma costruttivista, presentato in forma assoluta come strumento
per rimediare ai molti limiti della scuola, sono state condotte numerose
campagne massive di formazione, in genere legate alla distribuzione di
strumenti, per esempio le LIM, e/o all’infatuazione per il marchingegno
elettronico del momento: il caso più spassoso i learning object,
passati in breve tempo dagli altari della novità alla polvere del
fallimento. Sarebbe per contro interessante ricostruire bene le vicende
di due istituti – l’Osservatorio Tecnologico del Miur e l’ITD CNR – che
si sono invece caratterizzati per serietà della ricerca e senso critico.
In parallelo, l’editoria privata tradizionale – probabilmente perché
incapace di definire un modello di business nel campo dei
prodotti digitali, in particolare per quanto riguarda la versione
elettronica dei libri – si è rapidamente adeguata ed ha adottato
l’intera gamma degli slogan e delle mode (making, robotica, internet of
things,gaming e – peggio! – gamification, storytelling, tinkering e così
via) via via messi in campo dalla forma culturale che caratterizzava la
governance mainstream, nel frattempo passata dalle campagne di
diffusione massiva al modello dei bandi di concorso tra le istituzioni
scolastiche. Al centro di tutto questo, non un riferimento pedagogico
vero e proprio, ma il – deleterio e fallimentare, come vedremo –
concetto di innovazione, che era alla base di un processo culturale e
organizzativo che si configurava sempre più come un “dispositivo” di
potere capace di influenzare il sapere e le scelte in proposito.
In questo contesto, ho cominciato a maturare opinioni sempre più
differenti da quelle precedenti. Non una vera e propria abiura, ma la
consapevolezza che era (ed è) più che mai necessario svincolarsi e
svincolare colleghi e studenti dall’entusiasmo acritico e da quel
determinismo ottimistico di cui parli anche tu.
Più o meno per caso, poi, qualche anno fa mi è tornato in mano un volume che avevo comperato e mai letto, “Gli algoritmi del capitale: Accelerazionismo, macchine della conoscenza e autonomia del comune”, reperibile anche in rete.
Questo libro è stato la prima di una serie di letture che mi hanno
fatto scoprire prima e approfondire poi l’esistenza di numerose voci
fortemente alternative e – appunto – radicalmente critiche di ciò che,
con sfumature di significato importanti ma per ora trascurabili, viene
chiamato “capitalismo digitale” o “capitalismo cognitivo” e,
ultimamente, “capitalismo di sorveglianza”. L’elemento comune di tutte
queste posizioni (significativamente poco o per nulla considerate
dall’accademia nazionale) sono l’individuazione, l’analisi e la messa in
discussione etica e civile, e quindi politica, del massiccio, globale e
quotidiano processo di appropriazione della conoscenza da parte delle
piattaforme multinazionali di intermediazione (Google, Facebook, Uber.
Amazon e così via). Questi giganteschi dispositivi digitali non solo
hanno accumulato e accumulano immensi profitti attraverso il ciclo di produzione e sfruttamento dei Big Data,
ma – per quanto riguarda gli studenti e molti insegnanti e dirigenti
scolastici attraverso il concetto di innovazione – sono riusciti a
costruire una rappresentazione del mondo in cui le skills necessarie ad
adeguarsi al loro funzionamento sono diventate una dote operativa e
culturale imprescindibile, di cui l’istruzione pubblica deve farsi
carico o almeno palestra di esercizio.
StefanoP
Anche secondo me le strategie delle piattaforme capitalistiche, esplicite o meno, vengono da lontano. Oggi si propongono come ambienti di intermediazione digitale tra persone: dai motori di ricerca generici e specializzai ai social network system, ai sistemi di condivisione e distribuzione di media. Ma non sono strategie improvvisate, derivano dalla forma capitalista di produzione di valore, ma anche dalla storia dell’informatica e dal suo scopo generale di creare una versione del mondo più trattabile dell’originale. E a monte c’è la distinzione pubblico/privato, quella che in pratica è negata dalle aziende come Google che si presentano come superiori agli Stati nazionali. Lo fanno assumendo alcune caratteristiche del pubblico: il motto di Google (“Don’t be evil”) non suona come un motto aziendale. Forse, anzi, non dovremmo parlare di azienda, perché ci fa immaginare un soggetto semplice, con delle persone che prendono decisioni limitate che hanno per scopo il profitto immediato. Il discorso è troppo ampio per affrontarlo compiutamente qui, ma va almeno citato: nel contesto statunitense che il privato si sostituisca allo stato è visto come non solo logico ma anche come positivo. Nel nostro contesto storico e sociale, un po’ meno; ma è in quella direzione che stiamo andando?
MarcoG
Temo proprio di sì. Anche se in questo processo il distanziamento
della didattica è stato un avvenimento molto significativo, perché ha
segnato, almeno a mio giudizio, il crollo epistemologico del concetto
dominante quest’ultimo periodo della scuola, l’innovazione, e di tutti i
suoi derivati, in particolare la cosiddetta didattica innovativa. È
vero che vi è stato (soprattutto nei primi giorni del lockdown
della didattica erogata e interagita in prossimità) addirittura chi ha
avuto il coraggio di sostenere che il nostro sistema scolastico era di
fronte a una straordinaria opportunità – appunto – di innovazione, ma
questa posizione ha rivelato quasi immediatamente la propria assoluta
insensatezza. Lo rendevano concretamente inapplicabile troppi e subito
evidenti fattori: diffuso deficit di dispositivi adeguati alle esigenze
comunicative e debolezza o mancanza delle connessioni alla rete in
alcune zone del Paese e/o fasce sociali. Per non parlare dello
smarrimento delle famiglie e degli insegnanti a fronte all’assenza di
strategie e alla mancanza di pratiche per venire incontro ad allievi in
particolari condizioni personali, della dispersione delle relazioni e
della comunicazione e così via.
Non a caso – anche se quasi nessuno ha avuto il coraggio di parlare
in modo aperto di “crisi” organizzativa e metodologica – è prevalso
l’approccio fondato sull’emergenza. La scelta di adoperarsi per ridurre
il danno indubbiamente determinato dalla distanza tra pratiche di
insegnamento e allievi, oltre a essere più congruente con la realtà, era
accettabile anche da parte di chi fino a quel momento aveva sostenuto
posizioni di assoluto “tecno-snobismo” nei confronti della comunicazione
su base digitale, che così ha potuto avviare una qualche interazione
con i propri allievi. Purtroppo, non senza che alcuni cantori della
“centralità dei docenti” nei percorsi di apprendimento attivassero la
retorica della generosità professionale e personale.
Del resto, affrontando la questione su di un piano più generale – mi
verrebbe da dire teorico – di fronte all’imperante necessità di
ricostruire e di governare rapporti comunicativi efficaci, non poteva
certo funzionare la visione più diffusa dell’innovazione e dei suoi
derivati, ovvero la soluzione di continuità, la disruption a
vocazione competitiva, vista come rottura e come adattamento
necessitato, in una sorta di darwinismo tecnocratico. Questo approccio,
per altro, ha orientato il Piano Nazionale per la Scuola Digitale, che
ha costruito un sistema di istruzione pubblica a fortissime
differenziazioni interne, fatto di scuole-polo, con infrastrutture
potenti e centri di formazione, sempre più contrapposte a istituti
emarginati, stabilmente a rimorchio, ripetutamente perdenti nei bandi e
nelle altre iniziative concepite sul modello della gara, del “talent”,
impostazione che per altro ha caratterizzato e funestato l’autonomia
scolastica su vari altri piani, sia logistici sia culturali.
Non è di nuovo un caso che fosse diffusa la locuzione “fare
innovazione” o che si parlasse, per esempio, di ambienti “innovativi” – e
non innovati. Queste scelte lessicali non sono un vezzo, ma il modo di
assegnare deterministicamente al “nuovo” – in particolare se “digitale” –
il ruolo di fine anziché quello di mezzo. Nella scuola, insomma, era
dominante la visione tecnocratica, che – come abbiamo già affermato –
sostituisce all’idea di progresso e di miglioramento quella di rottura.
La mancanza di una vera declinazione dei bisogni di apprendimento e di
un’autentica analisi delle potenzialità delle tecnologie digitali dal
punto di vista operativo, cognitivo e culturale ha fatto il resto,
consentendo anzi, nelle fasi precedenti il distanziamento forzato, che
non vi fosse alcuna autentica valutazione delle implicazioni effettive
delle “innovazioni” introdotte.
Tornando agli aspetti concreti della (prima?) fase emergenziale, non è
un caso che molti insegnanti, soprattutto nelle realtà più complicate,
abbiano scelto di utilizzare il “digitale” che conoscevano già e che
quindi erano in grado di controllare e di dotare rapidamente di senso e
di scopo. Penso all’adattamento di WhatsApp come strumento di
interazione con i genitori e quindi all’indicazione di compiti da
eseguire. Penso alle videoconferenze (potenzialmente gestibili da più
relatori) utilizzate per riprodurre il modello della lezione frontale,
uno-a-molti, per altro utilizzatissimo anche in ambito universitario.
Penso agli interrogativi su come condurre le verifiche, intervenuti ad
onta delle paternalistiche indicazioni emesse dopo la fase della
spontaneità: i social hanno spesso rievocato modalità di interrogazione
davvero grottesche, volte ad impedire suggerimenti ed altri trucchi da
parte degli studenti, dal loro canto attivissimi in forme di resistenza
all’impegno (dalle webcam in stallo perenne, al pauperismo dei “giga”).
StefanoP
Questa delle “nuove tecnologie educative” è una storia vecchia. Un investimento, economico e umano, su qualcosa il cui valore sta solo nell’essere nuovo. Il vocabolario online Treccani dice che innovare significa mutare uno stato di cose, introducendo norme, metodi, sistemi nuovi. Se è questo il senso, allora la didattica innovativa non dovrebbe essere solo nuova, ma aprire un nuovo corso storico. Supponendo a) che il vecchio non funzioni bene, e b) che il nuovo sia migliore. Qui non entro nella discussione per il semplice motivo che questa novità è vecchia di decine e decine di anni, e personalmente sono stato coinvolto negli ultimi trenta nel tentativo di fare qualcosa di educativo con i software; quindi per me di nuovo, nel digitale, non c’è proprio nulla. Ma sono d’accordo con te che è nuovo il contesto emergenziale, sono nuove l’attenzione e le discussioni che improvvisamente si sono accese sulle tecnologie applicate alla didattica. Cosa è successo stavolta? Che i docenti si sono visti costretti ad usare computer, telefoni, webcam, microfoni per fare lezione. Hanno dovuto capire come si fa a tenere alta l’attenzione degli studenti, a individuare lo studente che bara, il genitore che si impiccia troppo, attraverso la ristretta banda informativa di un audio-video. Hanno dovuto cercare e chiedere aiuto ai colleghi per trovare strumenti e servizi gratuiti per la valutazione, contenuti già pronti per sostituire il loro lavoro quotidiano con la lavagna e la voce. E per la prima volta, questo bagno non ha riguardato solo una piccola parte del corpo docente, ma proprio tutti, dalla scuola dell’infanzia all’università. Chi aveva seguito dei corsi di formazione ha scoperto che erano invecchiati precocemente, chi non l’aveva fatto ha potuto lamentarsi di non essere stato messo in condizione di lavorare.
Sono ricostruzioni chiaramente parziali e un po’ ridicole, mi rendo conto. Le faccio solo per giustificare il fastidio con cui non solo quel modo di usare il “digitale”, ma qualsiasi modo viene percepito adesso dalla maggioranza dei docenti, e direi anche degli studenti e dei genitori. Basta didattica a distanza, basta computer, torniamo al porto tranquillo della presenza e della prossimità. Non perché sia meglio, ma solo perché lì le acque sono placide. Bene, ma non è possibile. E quindi? Usiamolo facendo finta che non ci sia? Ignoriamolo, come un parente poco presentabile? Questa trasparenza da lavoratore domestico è quella che in fondo vorrebbero i grandi venditori di servizi digitali: un maggiordomo che c’è ma non si vede, e piano piano diventa indispensabile anche per legarsi i lacci delle scarpe.
A voler essere pignoli, queste raffigurazioni che stiamo facendo –
che speriamo esagerate – testimoniavano a loro volta l’esigenza di
continuità perfino nell’ambito di relazioni fondate su sfiducia e
disistima.
Le pratiche didattiche innovative, dal canto loro, hanno spesso
mostrato tutta la propria intrinseca debolezza. Per esempio, si sono
rivelati del tutto inutili a fronteggiare l’emergenza i “saperi
aggiuntivi della modernità”, in particolare coding e il pensiero computazionale.
Ancor più cocente la sconfitta della multimedialità – intesa come
fruizione di audio e soprattutto di video – sostitutiva della
testualità, una forma di provvedimento dispensativo davvero subdola
perché, presentata come scelta positiva, esclude invece chi ne è vittima
da esperienze di apprendimento fondamentali. Il tutto corredato da un
altro dei terribili slogan della banalizzazione dell’imparare: rendere i
contenuti “accattivanti”.
Insomma: l’innovazione autoreferenziale poco aveva da dire e da dare e
non ha sedimentato alcunché. La didattica innovativa esce dal lockdown
dell’istruzione in prossimità con le ossa rotte.
Non ti pare?
StefanoP
Innovativo, accattivante, moderno… È vero che prima ancora che le tecnologie bisognerebbe ripensare il discorso sulle tecnologie (non solo digitali). Sono parole che usiamo senza molta attenzione, una volta che abbiamo deciso, o che ci hanno convinto, che hanno un valore a prescindere dal loro contenuto. Importanza del lessico ma anche della grammatica, della retorica: l’uso del singolare (il digitale, la didattica a distanza, la didattica digitale integrata) invece del plurale, le categorie dei media (a distanza, in presenza) usate al posto di quelle didattiche, le sigle che diventano troppo facilmente concetti (DAD, DDI,BYOD). Non è solo un problema della scuola: basta vedere come si intende oggi lo “smart working”. Di questo schiacciamento dei significati delle parole delle conoscenza sul loro contorno tecnico si potrebbe parlare per ore.
MarcoG
Del resto questo era – e rischia di continuare a essere – l’approccio
globale: le “nuove” tecnologie introdotte per ragioni puramente di
mercato.
StefanoP
In generale è vero, nel senso che i tentativi di trasformare l’introduzione di uno strumento nuovo in una occasione di miglioramento e di sviluppo della didattica sono rimasti isolati e non hanno smosso il mondo, come invece hanno fatto le campagne di promozione di sistemi operativi, di suite per ufficio e di browser, di laboratori linguistici e di LIM. Ma secondo me il punto non è più quello dei prodotti: ora il vero mercato è quello dei dati, a cui del resto abbiamo già accennato. Non è un caso che l’espressione che si usa per definire questo millennio è “i dati sono il nuovo petrolio”.
MarcoG
Non capisco cosa c’entrano adesso i dati…
StefanoP
Qui non abbiamo solo nuovi prodotti che si gettano su un mercato esistente, abbiamo un mercato che si crea quasi da zero grazie a questi servizi. Provo a spiegarmi meglio (ma è un po’ lunga, mettiti comodo). Ragionando in termini strettamente economici, il modo di produzione di reddito capitalistico (semplificando all’estremo) richiede una quantità di un bene (la “materia prima”) e dei mezzi di trasformazione massivi. Materie e mezzi hanno un costo tale da richiedere un grande investimento che non può essere fatto a livello artigianale o familiare. Da questo punto di partenza puramente dimensionale derivano gli altri aspetti che conosciamo bene: la riproducibilità tecnica che richiede la standardizzazione del prodotto, i magazzini necessari per lo stoccaggio delle merci in attesa della distribuzione capillare verso gli acquirenti finali, la comunicazione pubblicitaria che punta a stimolare il consumo per abbassare i costi di magazzino, eccetera.
Cosa succede se la materia prima sono i dati, le merci sono servizi digitali e i mezzi di trasformazione sono computer? Ovviamente perché si avvii il pesante volano capitalista ci vogliono tanti dati e ci vogliono computer molto potenti; perché le merci siano acquistate bisogna che tutti i consumatori abbiano gli strumenti per consumarle e siano spinti a farlo. Non è difficile capire Google in questi termini.
Ma da dove vengono le materie prime digitali? Possiamo immaginarle divisi in tre categorie. I dati si estraggono prima di tutto leggendo fenomeni analogici e assegnando un numero: sensori che catturano la luce, il suono, l’umidità. Questi dati sono abbastanza oggettivi, anche se portano con sé almeno le coordinate spazio-temporali del rilevamento. Poi ci sono i dati che hanno senso solo se riferiti a qualcuno, e derivano dal rapporto di quel qualcuno nel contesto: la posizione assoluta, calcolata tramite triangolazione satellitare o usando le celle dei dati, oppure relativa ad altri soggetti. Un terzo tipo di dati, ancora più centrati sul soggetto, è quello relativo al nostro uso dei servizi digitali stessi. Questo tipo di dati è quello che si sposa alla perfezione con il modello capitalistico perché genera un accumulo a valanga: più utenti usano un servizio, più la qualità di quel servizio migliora e più altri utenti lo useranno. Basta pensare a come funziona Waze, l’app israeliana ora di proprietà di Google: segnala il traffico e prevede i tempi di percorrenza usando i dati degli utenti che usano l’applicazione stessa. Peraltro, in questo modello di business, non è l’utente che paga il servizio, ma le aziende “partner” a cui Waze vende spazi pubblicitari ultra contestualizzati, esattamente come fa Google Maps. Lens/Socratic, l’app di cui si è parlato di recente in connessione all’apprendimento della matematica, è basata sullo stesso principio.
La trasformazione della qualità in quantità non è un’idea nuova: corona il sogno di Galileo, è la dimostrazione che davvero il mondo è scritto in caratteri matematici. Già la fisica quantitativa, quella nata appunto nel Seicento, usava la matematica per elaborare i dati e prevedere il futuro, basandosi sulle regolarità dell’esperienza; ma l’informatica offre la possibilità di conservare le rappresentazioni numeriche del mondo e poi usarle al posto del mondo stesso. Sono i modelli digitali, non più solo matematici; sono i software che simulano dinamicamente un pezzo di mondo. L’ultimo e importantissimo passo è quello dell’interfaccia sensoriale con i modelli, quella che ci permette di interagire con queste simulazioni come se fosse realtà. Il modello viene rappresentato in modo significativo per noi (la previsione di pioggia sotto forma di nuvolona nera) e ci vengono date delle maniglie per manipolare la simulazione (spostare il centro delle previsioni nello spazio o nel tempo). Ai tempi dei miei ragionamenti astratti parlavo di dati, struttura e interfaccia come i tre componenti di qualsiasi software. L’interfaccia-utente è quella che permette di interagire con i modelli, e dal tracciamento delle interazioni si generano nuovi dati. Così siamo tornati al punto di partenza: i servizi digitali basati su dati producono i dati stessi. È una specie di moto perpetuo che produce valore.
Come ci sembra naturale la fisica quantitativa che ha sostituito quella qualitativa, così ci sembra naturale che ogni fenomeno possa essere tradotto in dato digitale. Non ci facciamo più tante domande e diamo per scontato che il rispecchiamento digitale sia sempre possibile e che sia perfetto.
Dietro la digitalizzazione c’è però sempre un filtro. Non vengono presi in considerazione tutti gli aspetti del mondo, come è ovvio (altrimenti la mappa sarebbe il territorio). Alcuni aspetti sono più interessanti, perché possono produrre valore. Altri si possono tranquillamente trascurare. La parola “rispecchiamento” ci dovrebbe fare pensare subito che lo specchio offre un’immagine diversa dal reale, che dipende dalla curvatura della superficie, dalla luce, dall’umidità. Insomma, tutto tranne che fedele.
Quando si acquisisce un’immagine con uno scanner o quando si fa una foto con un telefono si prendono solo alcuni punti e si buttano gli altri. Quanti punti? Dipende dalla memoria disponibile, dall’uso futuro, dalla potenza di calcolo che si può usare per trattarli. E cosa prendiamo di ogni punto? La luminosità, il colore, la distanza? Prendiamo un solo dato per ogni punto, oppure varie versioni a distanza di qualche centesimo di secondo, da posizioni leggermente diverse, che poi mettiamo insieme per ottenere un’immagine “migliore”?
Il problema è che tendiamo a pensare che la rappresentazione digitale sia perfetta; esattamente come pensiamo che, se un’informazione (un libro, un articolo, un prodotto) non è citata da una risorsa web, non esiste, O peggio, anche se esiste, ma non è censita da Google o da altri motori di ricerca, non esiste lo stesso. Ci abituiamo all’idea che quello che non è rispecchiato digitalmente non esiste affatto.
C’è un secondo senso per cui il rispecchiamento non è assoluto: i numeri dell’informatica sono sempre discreti, a prescindere dal fatto che si usi la numerazione binaria o meno. Un orologio digitale permette di rappresentare solo 86.400 secondi in un giorno. Non c’è modo di rappresentare quel momento che stra tra le 22:02:59 e le 22:03:00 . Quando si usano tre interi compresi tra 0 e 255 per rappresentare un colore naturale (ad esempio rosso, verde e blu) si stanno definendo 16 777 216 colori, e quindi si sta rinunciando a rappresentare gli altri colori possibili; cioè si decide che alcuni colori naturali che sono diversi verranno rappresentati come lo stesso colore.
Anche in questo caso, l’abitudine ci spinge a trascurare questo filtro e a immaginare che il tempo sia il tempo digitale e lo spazio dei colori sia quello del sensore CCD del nostro telefono.
Ma l’immagine memorizzata è fin da subito manipolata da un software. Che fa cose ancora più complesse: non si limita a trascurare dei dati, ma ne crea di nuovi mettendo insieme quelli che riceve, a volte secondo le nostre indicazioni (come per i filtri creativi), a volte senza – come quando i dati creati al momento di scattare la foto (data, luogo, marca, modello) vengono inviati al servizio “cloud” che usiamo per la conservazione delle immagini stesse e magari rivenduti per creare statistiche aggiornate. Alla fine l’immagine che salviamo nella memoria del telefono è frutto di un “rispecchiamento” della realtà che è molti di più di una duplicazione in scala ridotta e portatile.
È questo stesso meccanismo che è alla base della profilazione dei comportamenti degli utenti. Un profilo è una composizione di più valori lungo diverse dimensioni. Lo scopo è quello di classificare, di mettere nella stessa classe comportamenti e persona che “in realtà” sappiamo essere diversi. La conversione della vita analogica in profilo digitale elimina necessariamente delle aree intermedie, e quindi standardizza le persone; non solo, ma tratta i dati, li modifica, crea altri dati sulla base di quelli.
Qui c’è la difficoltà centrale, a mio avviso: da un lato, questa creazione di una realtà parallela è naturale per l’informatica, è così che funziona anche nel caso più trasparente; dall’altro, gli effetti negativi sulle nostre vite non sono attribuibili alla cattiveria dell’algoritmo che crea un profilo a partire da una collezione di dati, ma ad una scelta precisa nel progettare il software sottostante e soprattutto nello scegliere quali pesi vanno utilizzati per attribuire più valore ad un dato anziché ad un altro per categorizzare un comportamento.
MarcoG
Secondo te questo significa che non possiamo fare niente?
StefanoP
No, certo, un margine di azione c’è sempre. Non è facile vedere quale…
Io sto maturando una convinzione “tattica”. Dobbiamo ragionare su
come depurare i dispositivi digitali dalla subalternità alle skills del
capitalismo di sorveglianza da una parte e della immotivata e anzi
controproducente discontinuità professionale dall’altra per verificare
se possano contribuire non solo a ridurre il danno ma anche a migliorare
l’apprendimento. Il ministero ha fatto scelte ancora una volta molto
chiare: partnership con le multinazionali digitali e rinuncia
alla realizzazione di una infrastruttura pubblica, negoziata, flessibile
e aperta a modifiche. Si preferisce insomma adeguarsi allo scenario
prevalente presentandolo come l’unico possibile, senza metterlo in
discussione, e quindi scaricare sui singoli utenti il carico
dell’autotutela e della adozione di comportamenti corretti, per esempio
nei confronti della diffusione intenzionale e manipolatoria di campagne
d’odio o di notizie false, ricorrendo alla già di per sé ambigua nozione
di “cittadinanza digitale”, per di più ridotta a confusa forma di
insegnamento.
Esistono però anche altri scenari e altre impostazioni, con intenzioni alternative a quelle dei dispositivi mainstream:
dal software libero alle piattaforme destinate alla cooperazione non
tracciata e ai motori di ricerca che non mettono in atto la profilazione
degli utenti.
Sei d’accordo sul fatto che ciò dovrebbe diventare patrimonio concettuale e operativo condiviso?
StefanoP
Condiviso da chi?
MarcoG
Da parte di tutti coloro che si battono per un approccio critico alla
“questione digitale” che non sia soltanto respingimento, ma
progettazione alternativa, difesa della libertà di insegnamento come
garanzia culturale, diritto collettivo e pratica dell’emancipazione
professionale e intellettuale.
StefanoP
Non sono ottimista come te, anche se sono vent’anni che lavoro solo con software libero… Comincio col riconoscere che hai ragione a mettere in relazione la licenza del software con tutto quello che abbiamo detto. Non lo fanno in tanti, non lo fa (sempre) il Ministero, ma nemmeno la UE nei suoi questionari sull’uso delle tecnologie digitali nell’era del COVID se ne ricorda. Quella del software libero è una questione etica ma anche sociale, nel senso che rilasciare il codice sorgente con una certa licenza modifica la maniera di lavorare, di apprendere, di vendere e comprare, e non solo di utilizzare un software. Il software libero non avvantaggia solo l’utente finale, che non spende soldi per acquistarlo, ma soprattutto l’ambiente dove l’utente agisce. Però bisogna essere franchi a costo di essere sgradevoli: il mito del software per imparare la matematica sviluppato da un genio sconosciuto nascosto nel suo scantinato e regalato al mondo per amore dell’umanità è, appunto, un mito. Certo, ci sono casi di docenti con un po’ di competenza di programmazione che per aiutare lo studente amico del figlio abbozzano un software per fare la tabelline in Visual Basic (l’ho fatto anch’io). Ci sono casi di informatici che hanno un lavoro tradizionale ma di notte lavorano ad un progetto personale. Ma non è su questi casi sporadici che si costruisce una soluzione sostenibile al problema di come produrre, distribuire, manutenere del software per la scuola.
MarcoG
Proprio tu che lavori allo sviluppo di software open source non sei a favore del software gratis per tutti?
StefanoP
No. O meglio: sono a favore di una dotazione di software educativo a tutte le scuole, come ci sono banchi, attaccapanni e cestini, ma anche lavagne, cartine e mappamondi, laboratori di fisica e chimica e palestre. Questo però non significa che chi produce attaccapanni e mappamondi debba consegnarli gratis alle scuole: qualcuno dovrà progettarli e costruirli, qualcuno dovrà consegnarli e ripararli quando si rompono, qualcuno di cui ci si possa fidare e che si possa chiamare in qualsiasi momento. Allo stesso modo, qualcuno deve studiare, progettare, sviluppare, testare, distribuire e aggiornare il software, esattamente come qualsiasi altro artefatto; non si può pensare che questo lavoro posso essere svolto gratuitamente da volontari sparsi a caso nel mondo.
MarcoG
E allora Wikipedia? La cito come esempio di iniziativa libera, frutto
del lavoro di volontari in opposizione alle enciclopedie prodotte da
dipendenti pagati.
StefanoP
Appunto, Wikipedia costa circa 2,5 milioni di dollari l’anno solo di hosting, e 40 milioni di dollari di personale. La fondazione che gestisce oggi Wikipedia ha 350 dipendenti e si sostiene con donazioni milionarie da parte di Google, di Virgin, di Amazon, di George Soros, di altre fondazioni private e delle donazioni dei singoli, arrivando ad un bilancio di 120 milioni di dollari. Wikipedia nasce come progetto profit (Nupedia) da parte di un azienda che aveva provato un po’ di tutto, compreso il porno (Bomis); ma siccome il modello di business non funzionava, viene trasformata in un progetto no-profit nel 2003 con la creazione di una fondazione, Wikimedia. Insomma, tenere in piedi un progetto delle dimensioni di Wikipedia non richiede solo persone di buona volontà ma anche una visione imprenditoriale, molta organizzazione e tanti soldi.
Il mondo dell’opensource è composto in buona parte da aziende (in generale PMI, ma alcune piuttosto grandi) che pur permettendo il download del codice sorgente forniscono a pagamento software opensource garantito, con un contratto annuale che assomiglia molto ad una licenza e comprende assistenza e supporto. Un esempio che molti conoscono è Moodle Pty Ltd, la società australiana che gestisce lo sviluppo della piattaforma di e-learning Moodle. Con circa 150 impiegati, Moodle si sostiene vendendo direttamente servizi (hosting, formazione) ma anche con i contratti annuali dei partner certificati. Nel 2017 ha ricevuto un investimento di 6 milioni di dollari da un fondo di proprietà della famiglia Leclerq (quella di Decathlon). Un altro esempio è la società Canonical ltd che mantiene Ubuntu, una distribuzione Linux molto conosciuta. Fondata da un miliardario sudafricano (uno di quelli che si sono pagati un viaggio turistico sulla Soyuz), Canonical ha oggi 600 dipendenti; dopo averne licenziati 200, nel 2017 ha avuto un margine operativo di 2 milioni di dollari.
Qui siamo molto lontani dallo sviluppatore che di giorno lavora alla posta e di notte sviluppa il suo motore di ricerca alternativo: sono aziende for profit, che hanno dei costi, dei ricavi, un bilancio. Non c’è niente di male, ma queste aziende non vanno confuse con associazioni di volontari idealisti. A volte si usa la distinzione tra “opensource” e “free software” proprio per distinguere tra un approccio funzionalista e uno etico-politico. Ci sono entrambi, vanno tenuti presenti entrambi.
È vero che una parte del software libero è anche gratuito; questo è un volano potente ed è significativo soprattutto per gli sviluppatori singoli e le micro-imprese che possono permettersi di sviluppare software senza dover pagare migliaia di euro di sistemi operativi e strumenti di sviluppo, o per le piccole società che offrono hosting a prezzi bassi utilizzando server Linux con Apache, MariaDB, Php, Python etc. Ma non avrebbe senso pretendere che questi servizi venissero offerti gratis alle scuole, perché sarebbe solo un modo per privilegiare le grandissime aziende che possono permettersi di investire in pubblicità e offrire piattaforme e banda in cambio di un ingresso dal portone principale della Scuola.
E allora dove sta il free? Come si dice: il software libero è free nel senso di free speech, non nel senso di free beer. Il software libero ha il codice sorgente aperto, che significa che chi lo ottiene può ispezionarlo, leggerlo, imparare da esso; ma anche modificarlo e ridistribuire la versione modificata. Questo vuol dire che può essere ragionevolmente sicuro che non ci siano parti nascoste che rubano dati personali e li spediscono allo sviluppatore all’insaputa dell’utente; vuol dire che se lo sviluppatore muore, il progetto può continuare. Vuol dire che progetti più grandi si possono costruire utilizzando librerie e parti di progetti più piccoli. Questi aspetti sono molto più importanti del fatto contingente che un software sia gratuito: potrebbe essere gratuito ma non libero, cioè senza codice sorgente aperto, come il cosiddetto freeware o il software di pubblico dominio.
Insomma, software libero è un modo di sviluppo del software che si adatta particolarmente bene al software educativo; ma bisogna trovare un modo di sostenerne economicamente lo sviluppo nel tempo, altrimenti si finisce per fare un guaio peggiore: far scomparire dalla faccia della terra quel tessuto di sviluppatori, di piccole imprese, di cooperative che potrebbero costituire un’alternativa alle multinazionali digitali. E la scuola potrebbe fare la sua parte.
Ti ho messo in crisi?
MarcoG
No, sei stato ancora una volta illuminante e mi hai donato birra
intellettuale, anche se nel mio caso analcolica, e mi spingi a ragionare
meglio e più da vicino sul tema del software libero, che per un lungo
periodo ho sottovalutato, considerandolo la versione naïf di quello commerciale.
È vero: il software in generale – libero o commerciale – esercita la
“dittatura del calcolo” cui tu hai accennato e di cui parla in modo
particolarmente illuminante Zellini,
e ogni realtà rispecchiata è il frutto di computazione in funzione di
variabili e di criteri che sono per forza delle cose frutto di scelte
vincolanti e limitative. Ma il free software dà un messaggio che vale la
pena di cogliere, valorizzare e diffondere, in contrapposizione
esplicita con l’assetto mainstream: la conoscenza è cooperazione sociale
in continuo evolversi dinamico e nessuno se ne può appropriare in forma
esclusiva o anche solo dominante. Di conseguenza, la costruzione di
dispositivi digitali che influenzano la conoscenza e il lavoro e le
modalità del loro impiego, individuale e collettivo, deve fare i conti
con i diritti e non determinare condizionamenti.
Sono convinto, insomma, che dobbiamo continuare a ragionare in modo
critico, in particolare sul capitalismo di sorveglianza, ma che sia
anche urgente e possibile dare indicazioni alternative, per una cultura
positiva e pratiche fattive nel campo delle tecnologie digitali
dell’informazione e della comunicazione per la didattica.
Dobbiamo, cioè, diventare e considerarci capaci di applicare e
diffondere una prospettiva differente e di concepire e praticare
soluzioni diverse dal rifiuto aprioristico, versione del “senza se e senza ma” destinata a subalternità operativa e ad asfissia politica e – quindi – ad auto-emarginazione.
È quanto mai evidente, infatti, che – nonostante il fallimento della
prospettiva dell’innovazione – le piattaforme capitalistiche di
intermediazione digitale proprietaria hanno sfruttato il lockdown
e le richieste e le disponibilità di ministero, di singoli istituti e
di molti insegnanti per estendere e rafforzare la propria egemonia,
fondata sulla conoscenza sorvegliata e sull’estrazione di dati spacciate
per cooperazione e per altro già molto diffusa nell’istruzione in
generale e nelle varie scuole.
E quindi, se vogliamo riuscire a resistere in misura efficace
all’irruzione della logica e della logistica tecno-liberiste
nell’istruzione della Repubblica, secondo il “dispositivo digitale
mainstream”, dobbiamo prioritariamente svincolarci dall’uso delle
categorie e del lessico totalizzanti e polarizzanti – per esempio, “la”
didattica a distanza, “il” digitale, “le” tecnologie – per costruire
quadri concettuali autonomi, divergenti, a vocazione esplicitamente
emancipante.
In particolare, non possiamo continuare a (lasciar) confondere la
sfera e il discorso pubblico con l’insieme dei rapporti di comunicazione
mediati da aziende private multinazionali, come troppi fanno, per
esempio rappresentandosi Facebook come un’agorà.
Penso che sia utile approfondire il tema della conoscenza così come i
differenti dispositivi digitali – sì, perché possono non essere tutti
uguali! – se e ce la rappresentano.
La “platform society” del capitalismo digitale, come abbiamo già
accennato, pratica continui processi di appropriazione unilaterale della
rete internet e dei dati e dei comportamenti degli utenti. Non
stupiamoci: questa logica produce strumenti di accumulazione, di
profitto e considera la conoscenza come una risorsa per la creazione di
valore economico ed aspira ad accumularla e sfruttarla in modo
tendenzialmente monopolistico.
Dell’atteggiamento culturale sotteso al movimento per il free
software, invece, mi convince e mi dà speranza il rapporto ideale con la
conoscenza che ho descritto poco fa. Preciso per altro che sono
assolutamente d’accordo con te sul fatto che questo debba sfociare nel
pieno riconoscimento del lavoro prestato, strumento fondamentale per
l’incremento della conoscenza di tutt* e di ciascun*. Non vogliamo
riders dell’istruzione e nemmeno possiamo contare sul volontariato.
Alle tue osservazioni critiche, io aggiungerei anche che nel mondo
dell’opensource ci si imbatte ancora troppo spesso in una fastidiosa
tendenza elitaria, quella di chi pensa che in fondo la vera capacità
d’uso passa per l’interfaccia a comandi, l’unica a permettere e
dimostrare la piena comprensione del funzionamento del dispositivo.
Oppure di coloro che invitano sdegnosamente a consultare help e manuale
di istruzioni anziché fornire la risposta a qualche domanda di
chiarimento. Non per caso, del resto, scrissi anni fa un articoletto
intitolato “Codice aperto. Mentalità chiusa?”, purtroppo ora non più
reperibile, in cui in sostanza affermavo la necessità di uscire da un
approccio che allora mi appariva troppo auto-selettivo e che oggi mi
sembra più che mai ingiustificatamente individualistico.
Credo però che proprio l’emergenza sanitaria e formativa possa
permetterci non solo di criticare posizioni di questo tipo, ma di
provare a farle evolvere nel loro opposto, assumendo e proponendo in
ogni sede di discussione in modo intenzionale – sono affezionatissimo a
questa parola – una prospettiva sociale.
Cerco di spiegarmi meglio.
Detto in un altro modo, voglio valorizzare l’approccio etico-politico
e non economicista, in particolare l’idea che ciascun singolo e
soprattutto ogni comunità hanno diritto al controllo di ciò che
utilizzano e dei propri dati.
In riferimento alla costruzione di un dispositivo digitale
alternativo a quello del capitalismo di piattaforma, “apertura” e
“libertà” mi sembrano insomma significare soprattutto trasparenza e
consapevolezza da parte di tutti coloro che sono coinvolti.
Bene, questo approccio e le sue implicazioni devono assumere
esplicita valenza collettiva. Smettere di essere patrimonio più o meno
esibito di alcun* o accesso iniziatico a gruppi particolari, per
dispiegare invece tutta la propria potenza politica nella sfera
pubblica, intesa come dibattito, sintesi, scelta, ma anche come
dimensione operativa su mandato collettivo, appunto consapevole e
aperto.
La prospettiva open/free, insomma, se intesa come sto cercando di
ri/definirla, può costituire la base su cui costruire un uso sociale e
autenticamente democratico delle tecnologie digitali con lo scopo di
accrescere conoscenza e benessere in modo equo.
Prendiamo ad esempio il caso del tracciamento a scopo di prevenzione e
intervento sanitario, testimoniato dalle discussioni sull’installazione
di “Immuni”:
è una buona idea, ma – oltre a garantire a ciascun* la riservatezza dei
propri dati sensibili – l’impiego dell’intelligenza artificiale deve
essere il frutto di un mandato consapevolmente finalizzato all’utilità
pubblica e indirizzato con procedure che garantiscano chiarezza e
trasparenza sulla raccolta e sull’uso dei dati, secondo criteri
bio-medici e statistici, ma anche civici, etici, ecologici, economici e
sociali, espliciti e condivisi, non sulla base dell’affidamento a un
golem postumano.
Certo, la realizzazione concreta e tutti gli aspetti operativi
connessi sono compito di coloro che possiedono le capacità tecniche, ma
va denunciata e scardinata l’impostazione tecnocratica – ahimè! in
vigore – che si arroga non solo il diritto di individuare i problemi su
cui investire risorse, ma anche la potestà esclusiva di articolarne gli
aspetti, di definire parametri e criteri di soluzione, di valutare
l’efficacia dei meccanismi prodotti.
Nella condizione tecnocratica attuale, alla cittadinanza
digitalizzata – a volte addirittura a sua insaputa – spesso non è
richiesto nemmeno il consenso informato, quanto piuttosto un adeguamento
fiduciario, firmato in bianco.
Questo rovesciamento dell’impostazione – che per brevità possiamo
chiamare algoretica – può essere estesa a tutti i campi d’esercizio
della potenza di calcolo e interpretativa dell’IA.
Certo, sarebbero necessarie modalità di istruzione molto diversa da
quella attuale (prerequisito una visione emancipata e non adattiva del
pensiero computazionale), investimenti in infrastrutture pubbliche,
sinergie aperte tra diversi saperi specialistici – dalla medicina alla
filosofia, dal diritto alla statistica e così via –, volontà di
confronto.
Non ci possiamo nascondere, inoltre, che un’impostazione che vuole
restituire agli esseri umani la capacità decisionale collettiva deve
fare i conti con l’algocrazia attualmente dispiegata dal capitalismo di
sorveglianza, sulle cui procedure operative vige il segreto industriale,
ormai molto vicino a quello militare, dal momento che con ogni evidenza
è alla base dell’esercizio di un potere condizionante la quotidianità
della vita umana. L’iniziativa culturale e politica dovrebbe mandare in
corto circuito l’acquiescenza acritica, ormai così diffusa da aver di
fatto accettato che alla sovranità fondata su territori, popoli e
istituzioni si aggiunga – e spesso si sovrapponga – quella
dell’intermediazione messa in atto da data server digitali con consumi
di energia non per caso paragonabili a quelli di Stati, come tu stesso
sottolinei.
Affermare e praticare la necessità che le scelte nel campo dell’ICT
applicata alla vita umana debbano essere aperte, cioè trasparenti e
collettive, costruendo le sinergie necessarie, è, insomma, a mio
giudizio il solo modo per recuperare un senso di auto-efficacia sociale
capace di invogliare alla partecipazione attiva e alla fatica
intellettuale che un’autentica cittadinanza critica richiede.
Ora facciamo però un salto in un futuro forse utopico. Gli assi
portanti dell’intervento pubblico in materia di istruzione digitalizzata
sono l’approccio etico e il riconoscimento della conoscenza e del
lavoro come risorse sociali di emancipazione individuale e collettiva e
viviamo un quadro politico-istituzionale davvero costituzionale, privo
di “secondi fini”, trasparente e libero da operazioni di tracciamento a
fini di profitto. Come potremmo valorizzare le caratteristiche dei
dispositivi digitali nella direzione di un autentico e pieno diritto all’apprendimento individuale e collettivo?
StefanoP
Mi piace la tua domanda, formulata in questo modo. Per me la risposta, o una delle risposte, è: per aiutare gli apprendenti a costruire delle teorie, cioè delle rappresentazioni complesse e dinamiche del mondo. Perché questa operazione (costruire un modello sperimentale del mondo, una simulazione dinamica di un processo), malgrado quello che ci ostiniamo a pensare, non si riesce a fare del tutto con la parola, con il disegno, con i libri, con le lavagne: tutti questi sono strumenti di rappresentazione statici, in cui statico non è opposto a multimediale o animato, ma a dinamico. Con i computer si possono rappresentare simboli e definire delle regole con le quali questi simboli si combinano_ nel tempo_ e creano nuove strutture.
Un esempio di questa operazione: scrivere un testo. Qualcuno potrebbe dire: ma perché, non si poteva fare con la penna e il foglio di carta?
MarcoG
Io no. Anche perché sono notoriamente un amanuense disgrafico con centinaia di pubblicazioni.
StefanoP
È vero. Comunque: sì, si poteva usare la carta se l’obiettivo fosse stato quello di produrre un testo, come in ufficio, come a casa. Invece a scuola – voglio dire in un contesto educativo – l’obiettivo finale non è produrre, e nemmeno imparare a produrre, ma capire. In un ambiente digitale educativo si impara a scrivere un testo, ma soprattutto si capisce cos’è un testo, di quali parti è composto, come nasce, come evolve quel testo nelle mani dell’autore o di altri autori successivi o contemporanei. Un ambiente digitale educativo permette di capire che un testo non è solo una sequenza di righe scritte su un foglio di carta, perché permette di astrarlo dal supporto, duplicarlo, distribuirlo indipendentemente da quello. Un testo è, in ogni momento, una fotografia di un universo (ad esempio, narrativo), una rappresentazione che utilizza diversi livelli (lessico, grammatica, sintassi, stilistica, retorica).
Naturale. Anche se non so quanti la vedano in questo modo. Ma dov’è che interviene il digitale educativo?
StefanoP
Ci arrivo. Intanto devo dirti che trovo strano che normalmente non si distingua tra due usi dell’informatica, o meglio due livelli: l’elaborazione dei dati e quella dei simboli. Mi pare una distinzione fondamentale, e quindi provo a farla io, perché ci serve per capire cosa dovrebbe fare un ambiente digitale educativo.
L’informatica è nata per accelerare e automatizzare le trasformazioni dei numeri, cioè i calcoli. Quali calcoli? Quelli che servivano alla balistica per calcolare la traiettoria di un missile (l’ENIAC, nato per questo scopo nel 1946 ma usato poi per la meteorologia); o quelli che servivano alla statistica per il censimento della popolazione (i primi UNIVAC in uso al Census Bureau USA nel 1951). Questo scopo è ben presente anche oggi: le centraline delle automobili, ad esempio, sono piccoli computer che prendono i dati dai sensori del motore (fase, pressione, temperatura), li elaborano e restituiscono dei valori che sono usati per regolare la miscela aria-benzina, l’accensione delle candele, insomma il funzionamento ottimale del motore. L’IoT, l’internet delle cose, è un modo di dire che la distanza fisica tra i sensori e gli elaboratori dei dati non è rilevante, e che monitorare un processo critico – raccogliere dati continuamente – può servire a evitare danni peggiori. I computer possono continuamente fare calcoli fino a mostrare cosa succederebbe se…, in modo da consentirci di prendere decisioni più in fretta senza aspettare di vedere effetti macroscopici.
In tutti questi casi, i dati che vengono trattati sono numeri che rappresentano grandezze fisiche, in ogni caso aspetti primari della realtà. Vale naturalmente anche per i suoni e i colori.
Ma i numeri si possono usare anche per rappresentare simboli, che sono già a loro volta rappresentazioni della realtà. Per esempio, le lettere dell’alfabeto di una lingua naturale sono simboli che si possono rappresentare con numeri secondo una tabella standard (ASCII, 1968). Quindi con i computer si possono raccogliere e contare lettere, parole e frasi. Non è che sia una scoperta recente: uno dei primissimi computer, il Colossus, serviva a decifrare i messaggi tedeschi, giapponesi e italiani per conto della Royal Navy, quindi lavorava proprio su serie di lettere. Ma da qui nasce anche l’informatica umanistica negli anni ‘50, quando padre Roberto Busa SJ si mette in testa di costruire un lessico completo dell’opera di Tommaso d’Aquino usando un calcolatore a schede perforate che gli presta l’IBM. Oltre a contare, però, i simboli si possono anche trasformare e si possono produrre nuove raccolte di simboli, cioè dei testi. Come in un word processor o un editor HTML.
Questo dell’elaborazione simbolica è un livello diverso, anche se dal punto di vista dei computer non è che cambi poi tanto. Dal nostro punto di vista, invece, lo è davvero, perché noi siamo abituati da qualche centinaio di migliaia di anni a presupporre di essere l’unico agente in grado di trattare simboli, e quindi siamo piuttosto ingenui quando si tratta di valutare le produzioni simboliche di altri agenti. Di qui l’Intelligenza Artificiale, i virus, i BOT dei social network, i software che producono plot narrativi.
Da qui deriva anche le possibilità di applicazione del digitale nell’educazione, perché nell’educazione si lavora con le parole, con i concetti, con le relazioni tra concetti, e si impara come costruirne di nuove. E quindi un software che sia capace di trattare questo tipo di oggetti e di fornire un piano dove collocarli, spostarli, cancellarli e richiamarli diventa fondamentale.
Allora: un ambiente educativo per la scrittura digitale permette di lavorare a tutti questi livelli (fonetico, lessicale, sintattico, stilistico) in maniera indipendente, perché questi livelli sono stati codificati come simboli, e con i simboli i computer si rapportano piuttosto bene, come abbiamo visto. Insomma, ci sono tonnellate di articoli e libri che raccontano come si possa capire cosa significa “testo” usando un software senza che io ti tedi oltre.
MarcoG
Infatti. Si può usare anche Word… pardon, Libre Office Writer…
StefanoP
Qui dobbiamo stare attenti: più lo strumento è standard, da adulti, mirato al risultato, più occorre che il docente faccia un lavoro di adattamento alla situazione, di completamento, di astrazione dalle modalità standard. Ma è possibile, nella misura in cui lo strumento può essere modificato per adattarlo al contesto dell’apprendente.
La scrittura è un esempio forse un po’ tirato per i capelli (ma l’ho fatto perché so che te ne sei occupato a lungo), ma ce ne sono tanti altri più diretti: ad esempio, una mappa concettuale per rappresentare un contesto storico/geografico in cui si possano filtrare i link o espandere i nodi per una navigazione differenziata in base alla domanda di fondo. Oppure, per spostarci in ambito scientifico “duro”, una simulazione del comportamento di un ambiente basata sull’equazione di una legge fisica in cui si possano variare i valori dei parametri. Una simulazione interattiva in cui si possa accelerare la rivoluzione terrestre o il ciclo della pioggia per vedere cosa succede dopo dieci, mille, un milione di ripetizioni.
Per costruire da zero questo tipo di modello dinamico (non solo usarlo) non si possono usare i simboli del linguaggio naturale, ma ci vogliono quelli di un linguaggio artificiale, di un linguaggio di programmazione; e qui passiamo al coding, o almeno ad una forma possibile di coding. Anzi, potremmo immaginare un ventaglio continuo di possibili ambienti educativi che va da quelli fortemente strutturati (in cui non si può fare altro che reagire a stimoli e rispondere a quiz), e poi passando per vari gradi di apertura (i software didattici da esplorare liberamente) arriva fino all’estremo del coding, in cui la struttura va creata da zero prima di poterla esplorare.
In tutti questi casi, infatti, quello che conta è che l’ambiente digitale sia pensato come educativo. Il che non significa che deve essere “pieno di contenuti semplificati”, ma che deve essere progettato appositamente per permettere all’apprendente di prendere confidenza man mano che lo utilizza, modificandone l’interfaccia e la logica, adattandolo al suo personale e attuale livello di competenza.
Questa plasticità dell’ambiente digitale (che è possibile appunto perché è digitale, e non lo sarebbe se fosse un ambiente fisico rigido) deve essere accompagnata da una forma di consapevolezza di quello che accade al suo interno. Niente intelligenza artificiale, solo monitoraggio delle operazioni; una raccolta continua di dati che non serve a profilare l’apprendente per vendergli qualcosa, ma a valutare l’apprendimento per personalizzare l’ambiente stesso in maniera più pronta e utile a chi apprende al suo interno. Un monitoraggio esplicito, i cui dati siano disponibili per l’apprendente e per il docente, o per il gruppo formato da apprendenti e docenti.
Tra parentesi: questa è la giustificazione dei cosiddetti strumenti di Learning Analytics. I dati – quegli stessi dati che oggi fanno la fortuna di Google, di Amazon e di tutti gli altri grandi – possono e devono essere di proprietà di chi li ha prodotti, ed essere resi pubblici in forma anonima, come open data. Qui bisogna essere ragionevoli e smettere di confondere strumento e utilizzo. Come per gli “algoritmi cattivi” di cui hai già parlato tu: non si tratta di demonizzare i dati, ma di ripensarne il processo di produzione e distribuzione in un’ottica di sviluppo delle persone. I nostri dati ci appartengono, ma dobbiamo essere messi in condizione di usarli.
Tu ti occupi di formazione degli insegnanti, di queste cose ha scritto tanto. Mi dai un po’ di link?
MarcoG
Certo. Per primi, cito gli ausili
in campo sensoriale e motorio, che sono numerosissimi e vengono via via
perfezionati, con lo scopo di facilitare – e in alcuni casi di
permettere – l’accesso e la pratica di percorsi di istruzione e di
contesti operativi da parte di tutt* con il massimo di autonomia e di
efficacia possibili, proprio sfruttando quella possibilità di elaborare
simboli in modo dinamico che hai appena descritto.
In questa medesima prospettiva si colloca la multimodalità, ovvero la
possibilità di realizzare facilmente contenuti fruibili in modi diversi
e il più possibile equivalenti sul piano espressivo e concettuale:
l’esempio tipico è il testo digitale, che – digitato una volta – può poi
essere letto a schermo e su carta, stampato in braille e ascoltato via
sintesi vocale.
Se ragioniamo sul testo,
dobbiamo riflettere sulla plasticità operativa e cognitiva che gli
conferiscono trasferimento o elaborazione diretta su “supporto
flessibile” (chi non ha apprezzato il taglia-e-incolla o la possibilità
di cancellare senza conservare residui?). Si configura uno spazio
propedeutico permanente, in cui la scrittura di testi articolati può
essere concepita anche operativamente come processo di apprendimento
mediante la pratica: si possono infatti perseguire e raggiungere
risultati accettabili mediante intenzionali perfezionamenti successivi,
messi in atto in un consapevole rapporto dialettico tra alliev* e
insegnanti. L’idea della “bozza progressiva e collaborativa” è per altro
estensibile a qualsiasi processo di elaborazione da parte degli allievi
di un prodotto culturale e intellettuale mediante dispositivi digitali,
sempre supervisionabile da parte degli insegnanti, non più costretti a
limitarsi a correzione e valutazione finali, ma in grado di attuare, se
necessario, interventi di mediazione e di supporto costanti, lungo tutta
la produzione. Questa prospettiva professionale può incrementare e
valorizzare lo spazio formativo e l’auto-efficacia della funzione
docente, in termini di capacità inclusiva e di individualizzazione
compensativa dei percorsi e delle attività didattiche.
Disporre di testo su supporto flessibile consente inoltre agli
insegnanti di mettere in atto in prima persona gli interventi di
adattamento previsti dai relativi protocolli per i libri di testo.
Voglio anzi sottolineare che la “semplificazione” non è banalizzazione,
dispensa, riduzione, ma la messa in atto di strategie – in questo caso
di tipo linguistico – per migliorare la comprensibilità dei quadri
concettuali e dei contenuti culturali proposti, eliminando le
complicazioni di cui si può fare a meno. Che spesso sono molte più di
quanto si possa immaginare, soprattutto quando si impara a non dare
nulla per scontato.
In questa stessa logica si colloca la presentazione di contenuti affiancando più canali, con una prospettiva non dispensativa (l’immagine al posto del testo), ma integrativa e compensativa (l’immagine oltre
al testo; lo schema come strumento di decostruzione e ricostruzione di
altri materiali di apprendimento). Questo significa anche rifiutare,
come accennavo prima, l’uso di filmati invece di libri, che si fonda
sull’illusione che sia possibile surrogare l’approccio alla conoscenza
permesso dalla più astratta e quindi più potente per estensione e
intensità delle tecnologie della comunicazione – la scrittura e la
lettura di testi complessi – con immagini in movimento, sia pure
corredate di contenuti sonori.
Fino a questo momento ti ho rapidamente declinato alcuni approcci che
vanno nella direzione soprattutto dell’estensione del campo di
efficacia dell’istruzione collettiva, della garanzia democratica in
ordine agli apprendimenti di base, volti a incrementare l’autonomia di
tutt* e di ciascun*, in un sistema di relazioni sociali positive, di
valorizzazione reciproca, in cui il dispositivo digitale è elemento di
coesione e di equità.
Sono però convinto, anche per averlo praticato, del fatto che i
dispositivi digitali abbiano rilevanti potenzialità di salvaguardia e di
cura democratica anche per quanto riguarda un approccio emancipante
alla complessità dei saperi, sempre in virtù della elaborazione dinamica
di linguaggi simbolici.
Innanzitutto, la diffusione di infrastrutture di rete pubbliche e
aperte, con funzionalità negoziate, flessibili e adattabili (anziché
preimpostate e modificate in modo centralizzato e autocratico) può
estendere gli spazi per la condivisione critica e la classificazione
professionale di materiali, attività, proposte, in una logica di
autentica cooperazione, aliena da pratiche competitive e gerarchizzanti.
Le varie rappresentazioni grafiche–
ai cui differenti modelli logico-visivi sono per altro ispirati in modo
rigoroso parecchi software free – possono supportare, esemplificare e
rendere visivi stili di ragionamento anche molto diversi tra di loro,
con diverse modalità cognitive e diverse finalità e implicazioni
formative, ampliando lo spettro e l’estensione del patrimonio di
riflessione e di schematizzazione a disposizione di tutt*, a cominciare
dagli insegnanti.
Il ricorso intenzionale a una consapevole tessitura ipertestuale è
una pratica concettuale con grande potenza sintattica e semantica, di
cui ogni cittadin* deve impadronirsi sul piano cognitivo e culturale:
può costruire percorsi all’interno della rete nel suo insieme, può
chiarire, esemplificare, contrapporre, definire, integrare e così via. A
questo va aggiunta la potenzialità dei QRCode. Facilissimi da generare,
essi consentono di puntare ad un indirizzo web – per limitarci a ciò
che consentono le applicazioni gratuite – anche a partire da oggetti
materiali. Non solo: per attivare il collegamento è necessario
inquadrare il codice attraverso il proprio smartphone e poi confermare
l’operazione. In questo modo, si utilizzano, due diversi supporti, on
funzioni diverse: l’oggetto di partenza e – appunto – lo smartphone,
marcabdo una netta distinzione tra flusso culturale principale e
informazioni aggiuntive. Sul versante cognitivo, questa pratica può
facilitare la strutturazione di interconnesioni logiche congruenti alla
situazione formativa. In modo analogo funzionano i TAG Near Field
Communication (NFC), a loro volta ponte tra atomi e bit.
StefanoP
L’idea di ponte tra mondo fisico e mondo digitale – veicolata da un puntatore univoco e pubblico – è interessante. A differenza dei vari visori di realtà aumentata questo collegamento è pubblico e può essere controllato prima di essere seguito: alla fine si tratta semplicemente di una URL. Può essere un modo facile di aggiungere media diversi: la URL potrebbe essere quella di un audio, di un video…
MarcoG
Infatti. Alla fine del discorso – per ora – c’è proprio la dimensione
multimediale. Come ho già detto forse fin troppo, ne va immediatamente
abbandonata ogni visione sostitutiva e per ciò stesso dispensativa (il
filmato anziché il testo; il film anziché il capitolo di storia o la
lezione di scienze) e va invece praticata l’integrazione tra media
diversi. In particolare, oltre alla possibilità di tessitura ipermediale
a partire da uno o più testi guida, sottolineiamo quella – fornita da
un numero crescente di ambienti – di costruire manufatti multimediali
imperniati su integrazioni, commenti, ampliamenti e così via di uno o più filmati disponibili in rete.
Sono fortemente convinto, anzi, che la possibilità di interrogarsi a
proposito di come esplicitare e rappresentare in più modi e
dinamicamente il verso, il senso e il significato delle relazioni tra
gli elementi di uno o più aggregati informativi e comunicativi
costituiti da elementi di matrice mediale diversa sia la più potente
risorsa formativa della dimensione digitale della cultura, la più vicina
alla natura reticolare, aperta e libera della cognizione umana.
Per ora, mi fermerei qui. Cosa ne dici?
StefanoP
Che abbiamo detto tanto, ma non tutto. Quindi questa conversazione per ora la chiudiamo qui, ma solo per condividerla e renderla pubblica, ovviamente in forma il più possibile libera e aperta. Sperando che qualcun altro voglia iniziare a discuterne con noi…
Anzi no, prima di chiudere raccogliamo qualche indicazione di lettura per approfondire le questioni che abbiamo toccato. Comincio io con le cose che sono andato scrivendo sul mio blog a proposito di algoritmi, coding, monopolio e opensource:
Va bene. Io cito il mio blog preferito, “Concetti contrastivi”,
che si propone niente meno che di “Descrivere le tecnologie digitali
come prodotto sociale e svelarne le ambiguità in modo emancipato e con
scopo emancipante” e un mio recente intervento in un convegno, sull’impossibile neutralità delle e verso le piattaforme.
ANSAS-INDIRE: La Biblioteca di Documentazione
Pedagogica, ente di importanza nazionale istituito nel 1974, ha assunto a
partire dal 1995 anche la funzione di supportare le scuole nell’uso di
Internet. Nel 2001 è diventata Istituto Nazionale di Documentazione per
l’Innovazione e la Ricerca Educativa, nome modificato nel 2006 in
Agenzia Nazionale per lo Sviluppo dell’Autonomia Scolastica (ANSAS) e
poi ripreso nel 2012. Come sintetizzato nella pagina di autoricostruzione storica:
“Nel periodo 2001-2011, l’Istituto è impegnato in grandi iniziative
online per la formazione degli insegnanti italiani e nella promozione
dell’innovazione tecnologica e didattica nelle scuole”.
ITD: L’Istituto Tecnologie Didattiche è frutto dell’unione nel 2002 di due centri precedentemente realizzati dal Consiglio Nazionale delle Ricerche:
l’Istituto Tecnologie Didattiche di Genova (1970) e l’Istituto
Tecnologie Didattiche e Formative di Palermo (1993). Come ricordato
nella pagina iniziale del sito,
che permette anche l’accesso immediato ai progetti più recenti, “è il
solo istituto scientifico italiano interamente dedicato alla ricerca
sull’innovazione educativa veicolata dall’integrazione di strumenti e
metodi basati sull’uso delle tecnologie dell’informazione e della
comunicazione”. Segnaliamo in particolare il servizio Essediquadro, l’attenzione alla didattica inclusiva e – più di recente – le riflessioni sulla didattica di emergenza.
IRRSAE-IRRE: gli Istituti di ricerca regionali, di
sperimentazione e aggiornamento educativi sono stati istituiti nel 1974
in tutte le regioni italiane, impiegando personale “comandato”, ovvero
distaccato dalle funzioni direttive, docenti e tecnico-amministrative
ordinarie sulla base di procedure concorsuali, per svolgere attività di
supporto alla ricerca educativa, alla sperimentazione didattica e
all’aggiornamento metodologico. Nel 1999 gli IRRSAE hanno assunto il
nome di IRRE – Istituti regionali di Ricerca educativa, enti strumentali
del Ministero dell’istruzione -, per essere infine assorbiti nell’ANSAS
(2007).
OTE: L’Osservatorio Tecnologico per la scuola è
stato un servizio nazionale di consulenza e informazione erogato in rete
tra il 2000 e il 2009 a proposito delle tecnologie dell’informazione e
della comunicazione, particolarmente attento alla accessibilità dei
siti, alla navigazione sicura, al software open source e ai contenuti
aperti. Il sito è tuttora raggiungibile, anche se non è più aggiornato.
MAPPE CONCETTUALI Sintesi del contenuto del testo
CREDITI
Per l’immagine di copertina (a sx Marco e a dx Stefano, entrambi fans di Don Chisciotte): elaborazione di foto di André SAAD da Pixabay
Dunque si inizia: in presenza ma lontani, a distanza ma connessi. I professionisti, le aziende, le associazioni, le fondazioni, le università e le scuole devono essere pronti in caso di X (con X=lockdown totale, ma anche dimezzamento dei docenti o degli studenti). Nella Scuola e nell’Università italiane sono pochi (da quello che vedo) quelli che colgono l’occasione per riformare la maniera di apprendere e insegnare una volta per tutte, per esempio abbandonando il modello trasmissivo e adottandone uno di costruzione collettiva di conoscenza. Pochi hanno utilizzato questi mesi per risistemare il “capitale” di metodi, risorse, informazioni esistente ma frammentato e nascosto nelle teste o nei file dei docenti, in modo da renderlo accessibile, manutenibile, incrementabile, insomma usabile davvero. Ancora meno, mi pare, hanno ripensato la valutazione, arricchendola con elementi che derivano proprio dall’esistenza di un piano digitale comune dove studenti e docenti si muovono insieme.
Adesso però bisognerà scegliere il sistema di videoconferenza (che come si sa è IL canale deputato a tutto: formare, valutare, controllare, supportare, selezionare, anche se probabilmente nessuna scuola italiana è oggi in grado di reggere la connessione contemporanea di tutti gli studenti e docenti) ed, eventualmente, la piattaforma dove collocare i “contenuti didattici da far fruire”. Sic.
Quale piattaforma? Beh, naturalmente lo decide il dirigente, che però non necessariamente ha tutte le conoscenze tecniche e legali che servono. Forse si fa consigliare dall’animatore digitale, forse da un consulente esterno, oppure dai colleghi dirigenti più in vista. Oppure va sul sito del MIUR e poi torna trionfante: “Bisogna usare X, lo dice il Ministero!”. Allora, parliamone.
Nella pagina https://www.istruzione.it/coronavirus/didattica-a-distanza.html si trovano solo tre proposte di piattaforma: Google Suite, MS Teams e TIM Weschool. Visto? Ma se cliccate sul bottone “Continua a leggere” (che sarebbe stato meglio chiamare: inizia a leggere) magicamente appare un testo che dice:
Da questa sezione è possibile accedere a: strumenti di cooperazione, scambio di buone pratiche e gemellaggi fra scuole, webinar di formazione, contenuti multimediali per lo studio, piattaforme certificate, anche ai sensi delle norme di tutela della privacy, per la didattica a distanza. I collegamenti delle varie sezioni di questa pagina consentono di raggiungere ed utilizzare a titolo totalmente gratuito le piattaforme e gli strumenti messi a disposizione delle istituzioni scolastiche grazie a specifici Protocolli siglati dal Ministero. Tutti coloro che vogliono supportare le scuole possono farlo aderendo alle due call pubblicate dal Ministero che contengono anche i parametri tecnici necessari.
“[…] tutte le piattaforme devono essere rese disponibili gratuitamente nell’uso e nel tutorial; la gratuità va intesa sia nella fase di adesione ed utilizzo dello strumento sia al termine di tale fase. Nessun onere, pertanto, potrà gravare sulle Istituzioni scolastiche e sull’Amministrazione;
per le piattaforme di fruizione di contenuti didattici e assistenza alla community scolastica: sicurezza, affidabilità, scalabilità e conformità alle norme sulla protezione dei dati personali, nonché divieto di utilizzo a fini commerciali e/o promozionali di dati, documenti e materiali di cui gli operatori di mercato entrano in possesso per l’espletamento del servizio;
per le piattaforme di collaborazione on line: qualifica di “cloud service provider della PA” inerente alla piattaforma offerta, ai sensi delle circolari Agid n. 2 e 3 del 9 aprile 2018.”
Insomma, prima di tutto servizio gratis ma con assistenza. Poi una divisione che a me sembra un po’ sospetta:
da un lato piattaforme per la fruizione di contenuti didattici e assistenza alla communità scolastica, che devono soddisfare requisiti più stringenti in termini di sicurezza, protezione della privacy;
dall’altro le piattaforma di collaborazione online, che NON hanno bisogno di soddisfare questi requisiti.
Indovinate in che categoria vanno certe piattaforme gratuite a cui sicuramente state pensando adesso? Chi si può permettere questo tipo di offerta gratuita a tutte le scuole italiane? E’ un modo chiaro per estromettere ogni piccolo fornitore locale, ogni proposta fatta una piccola cooperativa di ex-studenti dell’istituto tecnico. E’ un modo per aumentare il monopolio e per rinunciare a promuovere una crescita del comparto in Italia. Ne ho già parlato qui. A parte il fatto che ci sono dei requisiti di legge (GDPR) che nessuna circolare o nota ministeriale può aggirare, non c’è traccia del requisito “a codice sorgente aperto”. Che non è una bizza di qualche hacker fuori tempo massimo: la legge del 7 agosto 2012, n. 134 ha modificato l’art. 68 del codice dell’amministrazione digitale introducendo per tutta la PA l’obbligo di effettuare “analisi comparativa di soluzioni“, comprese quelle basata su software libero o codice sorgente aperto. Inoltre, nelle Linee Guida per l’adozione e il riuso del software da parte delle PA che sono in vigore dal 9 maggio 2019, si aggiunge, tra i criteri di valutazione, l’uso di dati aperti, di interfacce aperte e di standard per l’interoperabilità. Sarebbe ragionevole che questi criteri venissero ricordati, perché non sono curiosità o suggerimenti benevoli. Anche a prescindere dalla questione recente del Privacy Shield statunitense e della sentenza della Corte Europea che lo invalida. Insomma, caro Dirigente, vogliamo farla, questa valutazione comparativa?
Sempre dalla pagina del MIUR si accede ad altri elenchi di iniziative, servizi, insomma cosa che dovrebbero aiutare le scuole sull’onda del #damosenamano. Come https://www.istruzione.it/coronavirus/didattica-a-distanza_altre-iniziative.html dove ci sono delle pubblicità a società e servizi, oppure quello delle proposte universitarie https://www.istruzione.it/coronavirus/didattica-a-distanza_uni-afam.html dove si trova lo stesso livello di “valutazione”. Se poi si vuole raggiungere l’apice, si legga l’elenco dei servizi di solidarietà digitale offerti questa volta da MITD e Agid, ma linkato sempre nella pagina MIUR: https://solidarietadigitale.agid.gov.it/#/ dove c’è, francamente, la qualunque. Insomma: a oggi, non c’è uno straccio di niente che dica che la piattaforma X è adatta mentre la Y no.
La doverosa attenzione dell’ente pubblico per il bilancio è sicuramente meritoria. In un Paese dove si spende troppo e male, ancora di più.
Quando si decide di utilizzare un servizio gratuito, di qualità, dal punto di vista del bilancio va tutto bene, e anche dal punto di vista della funzionalità.
Però occorrerebbe pensare agli effetti collaterali – non solo a quelli immediati all’interno della scuola. Perché la scuola pubblica ha anche un piede nella società e nel futuro.
Quando il servizio è virtuale, digitale, sembra che questi effetti non ci siano. Invece non si vedono, ma ci sono.
Prima parte
Facciamo allora un esempio più concreto: prendiamo la carta igienica. Ogni scuola ha una voce di budget annuale per la pulizia, immagino, che comprende anche la carta igienica. Un tot per ogni bagno? Le scuole superiori ne consumano di più, di meno? non importa. Facciamo sia 100.
Quei 100 € vengono dallo Stato, o dai Comuni, o dalle Regioni? non lo so, ma ipotizzo derivino dalle tasse pagate dai cittadini e dalle imprese.
Immaginiamo il flusso di quei 100 €. Marchiamoli come fa la polizia per i soldi dei riscatti e seguiamo la strada che fanno.
Ogni anno viene contattato un fornitore e gli vengono dati 100 €.
Il fornitore di quei 100 € ne trattiene una parte (per pagare stipendi, furgoncino, benzina), e una parte la dà al grossista.
Della sua parte, il grossista ne tiene una quota (per pagare stipendi, magazzino), e il resto la dà al produttore, per esempio alla fabbrica di carta igienica di Lucca.
La fabbrica di Lucca con la sua quota compra la materia prima e produce la carta igienica.
Ognuno di questi attori spende parte del proprio incasso in stipendi, in affitto di mezzi.
Poi su quel 100 € vanno calcolate le tasse, cioè la parte di denaro che torna nella casse dello Stato, delle Regioni etc. Sembra che la pressione fiscale in Italia sia alta, è una bella fetta che torna indietro.
Insomma c’è un flusso di denaro dal cittadino allo stato al cittadino.
Ci sono dei limiti.
Si potrebbero selezionare i fornitori, o tutta la filiera, per garantirsi che non ci sia sfruttamento minorile, che la carta sia riciclata e non vengano tagliati troppi alberi, o inquinati fiumi; o che l’elettricità sia presa da fonti rinnovabili, etc etc. Ma questo farebbe aumentare il costo della carta igienica.
Non solo: quei 100 € sono probabilmente insufficienti per coprire il bisogno effettivo di carta igienica della scuola.
Cosa fa allora il dirigente accorto? Inventa.
1. Affigge un regolamento che limita i centimetri quadri di CI a disposizione dell’utente per ogni seduta
2. Ricicla le circolari
3. Lancia il piano BYOTP (Bring Your Own Toilet Paper)
4. Produce della carta con le stampanti 3D
etc.
Ora immaginiamo che il signor Paapre, multinazionale di QualchepostoLand, decida di regalare carta igienica quadruplo velo, profumata alla lavanda, a tutte le scuole italiane.
Perché lo fa? sono affari suoi, possiamo immaginare che non sia per altruismo, ma per ora ignoriamolo.
Per quanto tempo lo fa? Non lo sappiamo. Certo non si impegna a farlo per sempre.
Intanto le scuole sono contente perché risolvono il problema e risparmiano. La carta igienica è di ottima qualità e viene consegnata direttamente alla scuola.
Si può discutere sul fatto che gli studenti si abituino alla carta quadruplo velo profumata alla lavanda e poi in futuro – ma anche a casa – vogliano usare solo quella.
Ma il punto è un altro: si crea una situazione di monopolio. Anche potendo scegliere, chi comprerebbe mai carta igienica se si può avere gratis?
Che succede? che quel flusso di denaro si ferma. O meglio, i 100 € vengono utilizzati altrimenti (forse per cose più utili) ma gli attori prima elencati hanno un ammanco rispetto alle entrate previste.
Cosa fanno? Ricordate che non è UNA scuola, ma TUTTE le scuole. Cambiano settore, mettono a part time gli operai, licenziano, chiudono….
Diminuiscono anche le entrate del fisco. Forse quella voce di bilancio scolastico viene cancellata.
Sono eventi che non riguardano la scuola?
Quella scuola che preparava gli studenti ad un mercato del lavoro, che però grazie (anche) all’operato della scuola piano piano scompare?
E che succederà quando il signor Paapre decidera di far pagare 1 € (invece di 100) la sua fornitura? Niente, sempre economia per la scuola. Ma siccome c’è un monopolio, da 1 € si può passare anche a 100 €, senza che nessuno possa fare niente. Tornare indietro? ma ormai il tessuto imprenditoriale non c’è più. Niente più fornitori locali, niente grossisti.
Ora cosa c’è di diverso se invece di carta igienica parliamo di servizi digitali (software, connettività, cloud, antivirus, ….)?
Economia e praticità possono davvero bilanciare il danno che si fa all’ecosistema delle imprese digitali locali?
Seconda parte Ma allora come la metti con il software opensource, che è gratis? Neanche quello va bene? Si. Ma non perché è gratis.
Anche qui possiamo fare una simulazione. Su 100 € di licenze di software Megasoft, una quota (piccola) va al fornitore; la maggior parte va al produttore, che ha sede a Vattelappesca City. Siccome il fornitore ha un piccolo margine, deve moltiplicare le vendite; tendenzialmente deve acquisire il monopolio. Quindi spinge, fa sconti, fa formazione sulla versione Educational di Megasoft, quella adatta per il Coding. Un giorno anche quella sarà a pagamento, ma per ora va bene…
Invece su 100 € di servizi connessi con il software opensource (formazione, installazione, adattamento, hosting), tutto va al fornitore locale. Il quale paga le tasse, paga gli stipendi etc etc. Il fornitore locale NON ha bisogno di monopolizzare il mercato, perché ha margine a sufficienza. C’è spazio per soluzioni diverse e fornitori diversi.
I servizi sono di qualità inferiore? Forse, ma visto che il software è aperto si possono migliorare. Si possono unire le risorse di più scuole per sviluppare migliorie e funzionalità di cui tutti beneficeranno.
Quando la scuola decide di installare Moodle per l’e-learning (perché è gratis) e WordPress per il sito (perché è gratis) e poi di gestirli internamente, fa un’opera meritoria dal punto di vista del bilancio. Meno meritoria dal punto di vista dell’economia del Paese.
Il bando http://www.istruzione.it/scuola_digitale/curricoli_digitali.shtml per i curricoli digitali attualmente in corso (scade il 10 Novembre 2016) prevede 4,3 M€, riservati alle reti di scuole pubbliche e paritarie, destinati alla produzione di 25 curricoli digitali su 10 tematiche, divise in Fondamentali e Caratterizzanti, secondo il seguente schema:
Fondamentali:
diritti in internet
educazione ai media (e ai social)
educazione all’informazione
Caratterizzanti:
STEM (competenze digitali per robotica educativa, making e stampa 3D, internet delle cose)
big e open data
coding
arte e cultura digitale
educazione alla lettura e alla scrittura in ambienti digitali
economia digitale
imprenditorialità digitale
Dal mio punto di vista, non è troppo condivisibile questa biforcazione: da un lato le “educazioni a…”, dall’altro il coding, la robotica, i dati aperti. Così si introducono già nei temi e nei curricoli le separazioni che poi è difficile recuperare: tra riflessione teorica e attività tecnica, tra aspetti etici (diritti, doveri) e pratici, tra apprendimento cognitivo e affettività. Ma pazienza, in qualche modo si doveva distinguere.
Il dettaglio dei possibili contenuti dei curriculi è descritto nell’Allegato 2 (http://www.istruzione.it/scuola_digitale/allegati/2016/Allegato_2_Avviso_Curricoli_Digitali.pdf). A mio avviso, si tratta di testi non particolarmente omogenei, perché scritti da persone diverse, come si capisce dal linguaggio utilizzato e dalla formattazione libera. Si può supporre quindi che sia stato dato l’incarico di definire i contenuti a esperti di dominio che non si sono parlati tra loro. Noto che di opensource non si parla mai, e pazienza (ma anche no).
Non mi è chiarissimo il processo di valutazione delle proposte di curriculo. Da quanto ho capito io, ci saranno tre fasi: in una prima vengono richieste solo poche slide di presentazione e un formulario in cui vengano definite le scuole partecipanti, di cui almeno una deve avere esperienze dimostrabili nel settore (solo una?). In una seconda fase, viene stilata una graduatoria e vengono selezionate 125 proposte. Ai soggetti selezionati viene chiesto di inviare il progetto con un esempio, e solo 25 proposte vengono alle fine finanziate, con un massimo di 170.000 € per proposta. Ci sono poi altri 50.000 € per la migliore proposta di comunicazione del progetto (mi è sfuggito come si partecipa a questa speciale categoria).
La commissione di valutazione verrà scelta solo dopo la chiusura della prima fase. I dettagli delle altre due, come pure i processi di monitoraggio, verranno, si spera, chiariti in seguito. Potrebbe succedere, ad esempio, che i curricoli prodotti si sovrappongano oppure che lascino scoperte delle aree? Che seguano modelli completamente diversi? Che lo sviluppo non rispetti le premesse? Speriamo di no, speriamo che sia prevista anche una fase di aggiustamento in corsa.
Ma a prescindere da questi dettagli, ci sono molti aspetti che giudicherei positivi: la sottolineatura dell’importanza degli aspetti di cittadinanza digitale, la richiesta esplicita che i curricoli siano rilasciati come OER (peccato non si diano indicazioni di licenze specifiche: i contenuti prodotti si potranno usare gratis, ma si potranno anche modificare?), la citazione almeno della possibilità di analytics ovvero di raccolta dei dati di utilizzo.
Nel passato, il Ministero dell’Istruzione aveva scritto e pubblicato Programmi e Indicazioni per i vari ordini di scuola. Con la “scuola dell’autonomia”, con il passaggio dalla scuola dei programmi alla scuola dei curricoli, questo compito spetta alla scuola. Le indicazioni ministeriali però esistono ancora, e quattro anni fa per esempio sono state sottoposte ad un processo di verifica pubblica quelle per la scuola dell’infanzia e del primo ciclo, cioè fino alla scuola secondaria di primo grado inclusa. Per altro, nel documento finale (http://hubmiur.pubblica.istruzione.it/alfresco/d/d/workspace/SpacesStore/162992ea-6860-4ac3-a9c5-691625c00aaf/prot5559_12_all1_indicazioni_nazionali.pdf , mi spiace ma non c’era un link più corto) la parola digitale compare solo quattro volte: due nel conteste delle competenze chiave raccomandate dall’Europa, e due nell’area Tecnologia. Leggendo i risultati della consultazione, si capisce che secondo il 24% degli intervistati il digitale avrebbe dovuto essere più presente.
Comunque: in questo caso, forse per la prima volta, si chiede ai diretti interessati, cioè alle scuole – o meglio, a reti di scuole coadiuvate da esperti universitari o altri scelti dalle scuole stesse – di realizzare dei curricoli di livello nazionale, da condividere con le altre scuole.
E’ una buona maniera di affrontare la questione? Non lo so, ma non mi convince in generale la logica dei bandi, che permette di distribuire soldi alla Scuola – anzi, ad alcune scuole – che poi magari le usano come possono, sulla base della loro abilità a scrivere progetti. Bandi che si limitano a finanziare la creazione di un oggetto digitale (che so, un sito, una piattaforma di collaborazione o di e-learning), ma non il suo mantenimento e sviluppo futuro, col risultato che il suddetto sito muore dopo poco. Bandi che stimolano migliaia di proposte, ma ne finanziano solo una piccola percentuale, per cui il lavoro della maggioranza è sprecato. Bandi i cui risultati non sono soggetti a verifica se non contabile. Bandi in cui la coerenza dei prodotti viene cercata a posteriori, magari con un bando ulteriore.
E’ una maniera democratica? Non so nemmeno questo. Va avanti la scuola che ha al suo interno docenti capaci di progettare, nel senso specifico di “scrivere progetti finanziabili”. E si procede in maniera discontinua, per gettiti intermittenti. Per esempio, mi domando: ma una volta creati i curriculi, quali risorse verranno impiegate per aggiornarli? E chi lo farà? O si pensa che in campo come questo si possa creare IL curriculo definitivo?
Si poteva fare diversamente? Io penso di si. Faccio un piccolo esercizio di immaginazione.
1. Si poteva creare un piccolo gruppo di lavoro (di cui venissero pubblicati i nomi dei partecipanti) con almeno quattro compiti diversi:
raccogliere buone pratiche da paesi dove questi curricoli esistono e sono già stati sperimentati con successo
valutare i risultati dei Piani Ministeriali passati sul tema dell’IT, luci e ombre
esaminare le esperienze già realizzate nelle scuole o dalle associazioni
raccogliere idee tramite una ricerca non solo sul materiale cartaceo, ma anche su quello digitale, compresi i social network system.
Alla fine di questo lavoro preliminare, il gruppo di superesperti avrebbe potuto produrre un documento che indicasse obiettivi, limiti, metodi, errori da evitare, buone pratiche. Il documento avrebbe dovuto evidenziare, tra l’altro, gli incroci tra le aree tematiche. Non solo un elenco di argomenti, quindi.
2. Poi il MIUR avrebbe potuto convocare un piccolo numero di esperti, tre per ogni area tematica (per esempio uno di estrazione universitaria, un docente e un esperto di dominio), scelti mediante una procedura concorsuale pubblica, fornirgli il quadro generale e dargli modo di produrre una versione alfa del curriculo.
3. Le versioni alfa avrebbero potuto essere condivise preliminarmente tra tutti i gruppi, per verificarne la coerenza e l’omogeneità e la rispondenza al quadro generale.
4. La versione beta, risultante dal lavoro di omogeneizzazione, sarebbe potuta essere diffusa presso un numero più grande di docenti, dei quali si sarebbero raccolti i commenti. Si sarebbe potuta immaginare una piccola sperimentazione per tutti i curricoli, per permettere ulteriori aggiustamenti.
5. La versione RC (release candidate), risultato della sperimentazione, sarebbe stata pubblicata in una piattaforma aperta dove tutti gli utenti potessero suggerire miglioramenti. Non essendo necessaria una “versione finale” congelata, i curriculi avrebbero potuto essere aggiornati in maniera continua, o “forkati” come si fa nei repository di software opensource.
Costo totale: quasi sicuramente inferiore ai 4,3 milioni investiti nel bando. Immaginando trenta persone che lavorino per un anno a tempo pieno, fanno più o meno un milione di €, più il costo del gruppo iniziale dei superesperti (che voglio sperare non costerebbe altri tre milioni di €…). Con i soldi avanzati si regalava carta igienica a tutti…
Coinvolgimento degli utenti finali: sicuramente maggiore, direi. Nella modalità scelta dal MIUR, supponendo che ogni team di progetto sia composto da 20 tra docenti ed esperti, il numero totale delle persone coinvolte è di 500. Che è meno dei docenti intervistati per le Indicazioni del 2012.
Qualità dei prodotto finale: non so dirlo, ma il processo descritto sarebbe servito a controllarla a più riprese. E la prassi dell’opensource insegna che questo modo funziona abbastanza bene.
In occasione dei due seminari in Piemonte (Ivrea e Torino), di cui qui trovate maggiori informazioni, ho preparato delle slide. Troppe slide. Alla fine mi hanno fatto notare che più che una presentazione stava diventando un libro.
E allora ho colto l’occasione, reimpaginato, aggiunto, corretto, e ho realizzato un piccolo ebook dal titolo “Dietro il Coding”. Non è una difesa del coding né una sua condanna. E’ semplicemente una raccolta di domande e di riflessioni che hanno lo scopo di stimolare quelle degli altri, soprattutto di quelli che intendono dedicare qualche ora al Coding con i propri ragazzi. Riflessioni che partono da lontano, da almeno venticinque anni fa, ma che ho cercato di aggiornare andando a caccia di opinioni, di proposte e di alternative. Una parte importante è dedicata al progetto “Programma il Futuro” e a Scratch, ma purtroppo solo poche righe al nuovo tema dei curricoli digitali, che andrà seguito con attenzione.
Questo è l’indice:
Come nasce questo testo
1. Che cos’è il Coding
2. Perché è così importante
3. Una valutazione storica
4. Come si parla del Coding? Primo Intermezzo: che significa opensource?
5. A che serve il Coding?
6. Chi può insegnare il Coding? Secondo Intermezzo: le differenze tra linguaggi
7. Che linguaggio?
8. Il modello didattico dietro Scratch
9. Come andrà praticato il Coding
10. Un po’ di storia…
11. E oggi?
12. Come potrebbe funzionare davvero
Suggerimenti di lettura
L’ebook è rilasciato con licenza CC BY/SA e lo potete scaricare da qui.
Per chi avesse bisogno di una rinfrescata veloce, coding significa letteralmente “l’attività di scrivere codice sorgente”, che è uno dei quasi-sinonimi di “programmare”. Quasi, perché programmare può significare anche analizzare, progettare, verificare, integrare un codice sorgente, mentre coding fa riferimento solo alla scrittura del codice. Così coder è un quasi-sinonimo di programmer, developer.
Con “coding”, in questo momento e in Italia, ci si riferisce però alle attività di introduzione dei bambini alla programmazione, attraverso ambienti di programmazione visuale, cioè in cui paradossalmente non serve (anche se è possibile) scrivere il codice, ma è sufficiente posizionare oggetti simbolici che stanno al posto di operatori, variabili, condizioni.
Il MIUR, in collaborazione con il CINI, all’interno del programma “La buona scuola” ha spiegato come e perché va introdotto il coding nella scuola in un sito dedicato (http://programmailfuturo.it/come/ora-del-codice). L’obiettivo dichiarato è “fornire alle scuole una serie di strumenti semplici, divertenti e facilmente accessibili per formare gli studenti ai concetti di base dell’informatica”. L’iniziativa in realtà ripropone corsi e ambienti di lavoro creati e gestiti da una associazione no profit statunitense (Code.org) che ha come partner Microsoft, Google e tanti altri. Code.org ha in realtà obiettivi più ampi: punta all’integrazione razziale e a diminuire il gap di genere, a modificare i curricula delle scuole elmentari e medie negli Stati americani, a soddisfare la richiesta di più informatica da parte dei genitori.
Coding è anche praticamente sinonimo dell’uso di Scratch, ambiente/linguaggio sviluppato e messo a disposizione gratuitamente dal MIT.
Ma perché ci tengo così tanto a parlarne?
Perché è così importante parlare del coding?
Perché ritorna improvvisamente anche in Italia, portata da un vento dell’ovest, l’idea che si possa non solo usare la tecnologia digitale a scuola, ma anche produrla. Dopo anni e progetti ministeriali in cui l’informatica (parola desueta) veniva inserita in vari modi nel curriculum, l’idea di far costruire programmi agli studenti era stata abbandonata. La tecnologia andava usata, studiata, ma non prodotta. Ora, sulla spinta di movimenti internazionali presenti in USA, GB, Francia, e sostenuti esplicitamente dai rispettivi Governi, si torna in qualche modo indietro. Come mai?
E’ diventata indiscutibile l’idea che per cavarsela in un mondo sempre più digitale occorra sapere non solo come funziona l’app che usiamo per chattare, ma anche sapere come si sviluppa. Per ragioni economiche, etiche, politiche: “Program, or be programmed.”
Ora, al di là della condivisibilità dell’idea in sé – che pure andrebbe analizzata meglio – è il ruolo della scuola pubblica che è in gioco. La scuola, viene detto, si deve occupare di questa esigenza, deve investire risorse non per educare nelle materie tradizionali anche tramite l’uso di tecnologie ma per salvare i bambini da un futuro di cui non avranno la possibilità di essere attori. Questo è ben diverso da quanto ipotizzato nei vari Multilab, PNTD, Scuola 2.0 etc. Lì si parlava di didattica multimediale o di alfabetizzazione digitale – cioè in qualche modo del presente. Qui si parte dal futuro. E’ un passo importante, a cui potrebbe corrispondere un analogo interesse per il ruolo che avranno nel futuro le competenze linguistiche, matematiche, storiche che vengono acquisite oggi. Serviranno? Saranno fondamentali? Salveranno i giovani? Vanno aggiornate sulla base di come sarà la società tra dieci, venti anni? Belle domande.
Sarebbe però altrettanto importante, a mio parere, riesaminare tutti questi programmi ministeriali e farne una valutazione: cosa ha funzionato? Quali obiettivi sono ancora condivisibili e quali strategie si sono rivelate sostenibili? Sono stati investite risorse ingenti: prima di lanciarci in un ennesimo programma – anche se, in questo caso, quasi a costo zero – non sarà il caso di sviluppare una critica onesta delle azioni passate? Magari si scopre che qualcosa si può ancora recuperare. Ad esempio, ci sono migliaia di lavori fatti a partire almeno dagli anni ’80 da insegnanti con il Logo nelle prime classi (vedi sotto): vogliamo provare a riprendere e a capire cosa ha funzionato, che effetti hanno portato? I bambini che hanno giocato con la tartaruga oggi hanno forse trenta o persino quarant’anni: vogliamo provare a vedere se quelle attività gli sono state utili ad avere un diverso approccio al digitale (oltre che una migliore comprensione della geometria piana)?
Insomma parlare del coding in Italia significa ripensare quello che stiamo facendo con i computer nelle scuole, quello che abbiamo fatto e quello che vorremmo fare. E scusate se è poco.
In attesa di questo ripensamento, almeno auspicato, quando leggo di “coding” cerco dei pareri oggettivi, delle valutazioni delle esperienze fatte, dei progetti a medio termine.
Gli schieramenti in campo
Quelli che ho trovato finora, con rare eccezioni, sono due partiti schierati: quelli che sono incondizionatamente a favore del “coding in classe”, dei Dojo, della settimana, il giorno e l’ora dei codice; e quelli che sono contrari per principio all’insegnamento della programmazione ai bambini.
Chiarisco subito che non faccio parte di nessuno dei due partiti e faccio fatica a discutere con entrambi. Dei primi, non condivido l’entusiasmo acritico, senza radici nella storia e senza una visione degli aspetti culturali, sociali, economici che sono intorno al coding. Non capisco come ci si possa dedicare a Scratch come se non esistesse altro, e Scratch non fosse nato sulle ceneri del LOGO. Non capisco come si possa copiare un modello educativo statunitense senza adattarlo al contesto italiano, o almeno senza capirlo.
Dei secondi, non condivido l’idiosincrasia verso tutto quello che sa di macchina e ancora di più la netta separazione tra mondo digitale e mondo “vero” (complesso, affettivo, etc). Sarà perché la mia vita professionale si è giocata tutta nello spazio tra questi due mondi: non solo perché sono nato in uno e mi sono trasferito nell’altro, ma perché il dialogo tra questi due mondi mi sembra interessante, anzi fondamentale. O ancora: perché finisco, oggi, per non vederla più, questa differenza. C’è un mondo solo e noi ci siamo dentro.
Provo a dettagliare le ragioni di questa posizione intermedia esaminando alcuni elementi della proposta di coding corrente, partendo dagli obiettivi.
A che serve il coding?
Un’attività didattica non può essere raccomandata solo perché è “carina” e facile, perché docenti e discenti si divertono. Deve avere uno o più obiettivi. Quali?
Ne ho raccolta una lista disordinata prendendo qua e là; alcuni secondo me sono condivisibili, altri meno. Alcuni sono molto alti, altri del tutto pratici. Ma è fondamentale che chi organizza l’attività ce li abbia chiari, altrimenti si muove casualmente, spreca tempo ed energie e rischia pure di fare danni.
Quello dell’insegnamento del computational thinking? La questione è spinosa. Intanto non è facile definire il pensiero computazionale. Computazionale dovrebbe voler dire “calcolabile”. Una funzione è computabile se esiste un algoritmo – cioè una serie di passaggi predefiniti, eseguibili da una macchina senza necessità di intervento esterno – che la calcola in un tempo finito. Ma sempre citando dal sito MIUR, “[i]l lato scientifico-culturale dell’informatica, definito anche pensiero computazionale, aiuta a sviluppare competenze logiche e capacità di risolvere problemi in modo creativo ed efficiente, qualità che sono importanti per tutti i futuri cittadini”. Qui il termine “creativo” è quello che stona di più con la nozione classica di “computazionale”. Non voglio dire che non serva creatività per programmare, anzi; ma che la relazione tra creatività e computazione è quanto meno intrigante e andrebbe approfondita: ci sono aspetti estetici nella logica? E come si coniugano con esigenze di rigore e efficienza? Non basta mettere due aggettivi insieme in una frase.
E’ anche facile obiettare che il modo di ragionare analitico, scomponendo problemi complessi in passi più semplici, è sicuramente una competenza utile, come lo è il modo opposto per aggregazioni, per sintesi, in cui si cercano somiglianze tra situazioni a livello più alto. Il pensiero computazionale ha a che fare con uno solo di questi modi, o con entrambi?
Inoltre mi pare discutibile l’identità tra coding e pensiero computazionale, nel senso che mentre è chiaro che non si possono costruire programmi se non si ha in testa un algoritmo, scrivere programmi non è solo implementare algoritmi in un certo linguaggio di programmazione. Non si scrivono programmi solo per risolvere problemi, e l’ideazione (appunto, la creatività) serve quanto il rigore, altrimenti staremmo da anni a risolvere gli stessi problemi in maniera più efficiente. Affidarsi solo al pensiero computazionale mi pare molto restrittivo e poco fedele alla realtà.
In ogni caso: tanti anni fa un ricercatore del CNR, Giovanni Lariccia, proponeva nelle scuole un approccio didattica all’informatica senza computer (“carta e matita”). Lo faceva sia perché di computer, onestamente, ce n’erano pochi, sia perché così era possibile collegare l’informatica all’esperienza quotidiana. Non sarebbe male, per una volta, ripartire da esperienze Italiane invece di importare modelli statunitensi senza adattamenti. Ma di questo, più avanti.
Quello di preparare le nuove generazioni ai nuovi lavori? Questa è una delle argomentazioni più stupide che abbia mai sentito. Non c’è nessuna connessione tra un ambiente come Scratch e gli ambienti di programmazione professionali. E vista la distanza che c’è tra concetti, modelli, strumenti di dieci anni fa e quelli di adesso, la pretesa che insegnare oggi quello che sarà utile tra dieci anni è ridicola. Come è ridicolo pensare che l’informatica sia solo programmazione. Ci sono milioni di posti di lavoro in attesa nel comparto informatico, là nel 2025, ma non abbiamo nessun’idea precisa di quali saranno, e certamente non sono tutti posti di sviluppatori di app. Anzi, c’è chi sostiene che di programmatori domani non ne servirà nessuno, visto che la programmazione sarà gestita autonomamente dai programmi stessi (http://steve.lynxlab.com/?p=426)
Quello di far costruire ai ragazzi delle storie in maniera alternativa alla scrittura? Bene, è un’attività molto utile e interessante, ma che si può fare benissimo in altri modi, dal disegno al teatro, dai fumetti al video. In qualche modo, però, questa è la motivazione che condivido di più, ma per un motivo diverso. Programmare – progettare e scivere qualsiasi programma – è un altro modo di raccontare una storia: inventare un contesto, degli attori, un plot. Sapere creare delle storie (o saperle smontare) è una competenza significativa in tanti campi, e mostrare come questi campi non siano poi così lontani è un obiettivo sensato. Un po’ paradossalmente: se a scuola si insegnasse diffusamente e coerentemente a costruire storie, allora farlo con un programma sarebbe un’estensione utile. Però attività di costruzione in classe di problemi di matematica, o di scenari storici alternativi, non ne vedo tante in circolazione.
Quello di vaccinare i giovani contro lo sfruttamento indebito dei loro dati raccolti da un’app o da un social network system, o contro la pratica di spacciare come utilities gratuite programmi e siti che hanno scopi diversi da quelli dichiarati? Daccordo, ma allora occorre parlare anche di altro: di codice aperto e licenze, di privacy, di diritti, di mercato dei dati, di equilibrio tra gratuità e sostenibilità. C’è da affrontare un discorso vasto sul ruolo egemone di Google e di Facebook, sul diritto all’anonimato o all’oblio. Niente che non si possa spiegare ai bambini, con qualche attenzione, ma vorrei almeno vedere qualche passo in questa direzione critica.
Quello di dare ad ognuno le competenze minime per scriversi un programma per risolvere i propri problemi? Questo sarebbe un obiettivo pratico, utile almeno quanto far sì che uscendo dalla scuola un ragazzo sappia sostituire un interruttore, curarsi una ferita, fare la dichiarazione dei redditi o cambiare l’olio alla macchina (temo che non sia così). Ma allora lo strumento da proporre dovrebbe essere qualcosa in grado di produrre programmi che girano su PC, smartphone, tablet, su sistemi operativi diversi, non un ambiente esclusivamente web. Forse non tutti conoscono, ad esempio, http://www.catrobat.org/ che è un’iniziativa ispirata da Scratch ma supportata dall’Università di Graz, Austria. E’ per questo, tra parentesi, che era stato inventato il BASIC (vedi sotto).
Quello di affrontare la didattica di qualsiasi disciplina in maniera costruttiva? Nessuno più di me sarebbe daccordo, e tra l’altro questo è uno degli obiettivi dichiarati di Scratch. Qui però il centro non è la tecnologia, è la didattica. Che un ambiente di apprendimento debba essere aperto, modificabile, che si capisca meglio qualcosa se si sperimenta e si costruisce, dovrebbero essere tutte premesse che una didattica moderna accetta senza troppi problemi (ma probabilmente nei fatti le cose stanno diversamente). Ma allora deve essere chiaro che il punto non è né divertirsi, né imparare le iterazioni, ma comprendere il funzionamento di una cellula o la struttura di un romanzo. E direi anche che non serve per forza partire sempre da zero: si potrebbe iniziare con simulazioni già preparate e poi modificarle, estenderle, riapplicarle altrove.
Come si vede, di obiettivi possibili ce ne sarebbero molti. Ma servono revisioni dei programmi (quelli scolastici) e risorse umane preparate. Ci sono?
Chi può insegnare il coding?
Questo è un tema delicato, mi rendo conto. Si tocca non solo la preparazione dei docenti, ma in generale il rapporto col digitale, gli aspetti sociali, la reputazione, la divisione tra umanistico e scientifico.
Sul sito citato di “Programma il futuro” si dice che gli strumenti adottati sono “[…] progettati e realizzati in modo da renderli utilizzabili in classe da parte di insegnanti di qualunque materia. Non è necessaria alcuna particolare abilità tecnica né alcuna preparazione scientifica”. Non si parla degli studenti, ma dei docenti. Strumenti scelti perché sono facili da insegnare, non da imparare. Come si arriva a proporre un metodo e un set di strumenti in funzione non della specificità e dell’adeguatezza a uno scopo ma in funzione del numero di operatori che sono in grado di gestirli?
In breve, gli insegnanti di materie umanistiche si sono sempre sentiti esclusi dal mondo digitale. Perché era troppo complesso. Creare un programma con un linguaggio come C o Java, o anche con il meno blasonato Javascript, o persino creare a mano una pagina HTML+CSS, è un’attività che richiede troppe competenze. Alcuni ne hanno sofferto, altri se ne sono fatti una ragione. Molti hanno alzato come una bandiera la loro impermeabilità al digitale (“ah io di queste cose… insegno letteratura”).
Poi sono arrivati i CMS, e chiunque oggi può creare un sito web – magari con WordPress – senza avere la più pallida idea di cosa sta facendo. E l’onnipresente MS PowerPoint, con la possibilità di creare degli slideshow per mostrarli in classe, complice la LIM. Poi è arrivato Code.org.
Il coding (inteso come attività all’interno di un ambiente visuale come Scratch) è qualcosa che può fare, e insegnare, chiunque. I concetti informatici da comprendere sono pochi: lo stato di una variabile, le istruzioni condizionate, i cicli. E’ la grande rivincita del docente non informatico.
Ora io vorrei guardare un po’ in avanti. Cosa succede dopo che si è costruita la storia del lupo e dell’agnello con i bambini? Ci si ferma qui? O questo è solo il primo passo – come sembrerebbe a giudicare dagli obiettivi – di un percorso che dalla programmazione visuale porta a guardare il codice sorgente, e poi a scriverlo, e poi alla conoscenza di altri linguaggi ed ambienti diversi? Se si, allora “non avere abilità tecniche e preparazione scientifica” non è un requisito sufficiente. Non servirà avere un dottorato in basi di dati non relazionali, ma sapere cosa sono le basi di dati e come si può usare un file CSV per simularle, si. Sapere che significa codice sorgente, la differenza tra compilare e interpretare, saper assegnare una licenza o dare un permesso d’autore. Allora i docenti di coding vanno formati. Sempre che ne abbiano voglia.
Prima che partano delle obiezioni facili: non sto dicendo che basta essere informatici per insegnare ai bambini, o che solo gli informatici possono farlo. Sto dicendo che oltre a tutte le altre competenze, che do per scontate (pedagogiche, organizzative, psicologiche, valutative) servono anche quelle informatiche, e queste come quelle non si improvvisano. E’ faticoso? Senza dubbio. E’ più facile far finta di niente? Altrettanto.
Ma dovendo imparare un linguaggio, quale?
Che linguaggio?
Mi pare che in Italia ci sia una totale, incondizionata adesione alla (validissima) proposta del MIT. Coding uguale Scratch. Ma con una breve indagine via Wikipedia si scopre che di linguaggi “facili”, educativi, visuali, giocosi, ne sono esistiti, e ne nascono ogni giorno, una marea. Non servono tutti esattamente allo stesso scopo, sono diversi per espandibilità, possibilità di eseguirli su dispositivi diversi, licenze d’uso. Alcuni sono dichiaratamente alternativi a Scratch, come ad esempio Kojo (http://www.kogics.net/kojo). Sarebbe bello che una volta decisi gli obiettivi e preparate le risorse umane, si andasse a scegliere il linguaggio più adatto, tra tutti quelli disponibili, invece di scegliere sempre e solo quello più conosciuto.
Comunque, Scratch non è nato dal nulla: deriva da Squeak!, che deriva a sua volta da SmallTalk ma innestando le idee pedagogiche del Logo. Un breve riepilogo di questi linguaggi e ambienti educativi, per lo più visuali, è qui http://steve.lynxlab.com/?p=334.
Ma per essere precisi, tutto è iniziato con il bistrattato BASIC, negli anni sessanta del millennio scorso. Per dare un’idea, non erano ancora nati né il C (1973), né il PERL (1987) per non parlare di Java (1995). In quella caverna preistorica c’erano degli uomini forse primitivi, ma con delle idee luminose.
1. Quando Kemeny e Kurtz nel maggio del 1964 inventano il BASIC (Beginners’All-purpose Symbolic Instruction Code) l’idea era quella di proporre uno strumento con cui chiunque potesse programmare (e si, il pensiero va a Ratatouille e al motto dello chef Gusteau “Chiunque può cucinare”). Un linguaggio talmente facile da poter essere imparato senza conoscenze pregresse in matematica e logica. Perché? Perché a quell’epoca programmare era un’attività riservata a pochi super esperti, che avessero accesso a macchine costose. E perché c’era l’idea – stiamo parlando degli anni ’60 ! – che sapere programmare fosse una competenza che avrebbe migliorato la vita di chiunque. Nasce perciò un linguaggio con una sintessi semplice, con delle istruzioni che assomigliano all’inglese, pensato in funzione dell’utente.
Un’idea che avrebbe dovuto aspettare ancora dieci anni prima di essere davvero realizzata, con la diffusione degli home computer con un interprete BASIC, capace di fare grafica e suonare. Incidentalmente, l’interprete che ha contribuito di più alla diffusione del linguaggio è stato scritto da Paul Allen, Monte Davidoff e Bill Gates.
2. Il Logo, altro elemento chiave del discorso, nasce pochi anni dopo l’invenzione del BASIC, cioè nel 1967. L’obiettivo è completamente diverso: in origine era stato pensato da un gruppo ricercatori nel campo della nascente Intelligenza Artificiale (del calibro di Bobrow, Feurzeig e Salomon) per insegnare la programmazione in LISP agli studenti, ma con l’intervento di un matematico (Seymour Papert) Logo diventa una maniera alternativa di imparare la geometria che non passasse per la lettura di teoremi ma per la costruzione automatica di figure in soggettiva, dal punto di vista dell’utente, che si identifica in un avatar digitale: la famosa tartaruga. Dunque con un obiettivo didattico, non legato alle tecnologie. Anche stavolta il linguaggio è progettato per essere semplice, alla portata di bambini. La base di partenza scelta è un po’ più nobile del BASIC, in termini di “generazioni dei linguaggi”: viene scelto il LISP che è un linguaggio funzionale, non imperativo. Il modello di interazione è quello dell’insegnamento ad un robot. Quando – molto più tardi – vengono realizzati degli interpreti per Apple e per PC IBM, cominciano a essere disponibili delle traduzioni nelle lingue nazionali, cioè in cui le istruzioni fossero parole comuni della lingua madre di chi lo utilizzava (SE…ALLORA, RIPETI…FINCHE), con l’idea di facilitare la scrittura di programmi da parte di bambini che non conoscono l’inglese.
Dal Logo originale sono gemmate altre versioni che hanno lasciato da parte la geometria piana e si sono concentrati sulla concorrenza o sulla multimedialità, fino a versioni in cui non era più necessario scrivere i programmi, ma era sufficiente selezionare le azioni da un menù e comporle.
3. Con un finanziamento considerevole dell’ARPA, mirato a ripensare il mondo dell’interazione uomo-macchina, Alan Kay e altri colleghi del Learning Research Group allo Xerox Parc nel 1971 creano il linguaggio SmallTalk. Per dire, quel gruppo di lavoro e quelle ricerche sono all’origine di innovazioni come finestre, mouse, ipertesti, tablet, programmazione ad oggetti e altre quisquilie.
SmallTalk introduce un nuovo modo di programmare, in forma di dialogo tra oggetti. E’ semplice, ha una sintassi elegante e coerente (per sommare due numeri si “dice” al primo di sommarsi con il secondo). Nasconde completamente i dettagli di implementazione, punta a far concentrare chi programma sulla struttura del problema, non sul come della sua risoluzione.
Scratch è figlio – tra l’altro – di queste tre idee potenti nate negli anni sessanta. Un linguaggio semplice, un ambiente pensato per l’educazione, una logica ad oggetti. Ma che ne è stato di quelle idee?
E oggi?
Se oggi ci guardiamo intorno, vediamo una situazione completamente diversa da quella che avevano immaginato i mitici precursori. I programmatori sono aumentati moltissimo di numero, ma non è l’uomo qualunque che programma, è solo chi ha intrapreso un percorso formativo specializzato. I programmi sono ovunque, ma quasi nessuno sa/può modificarli (o almeno sceglierli con consapevolezza di quello che fanno). Tutti sanno cos’è un’app, ma nessuno ha un’idea vaga di come funziona, quali dati gestisce, a chi li invia. Con gli evidenti rischi per la privacy, e con l’arricchimento velocissimo di chi costruisce e vende profili e pubblicità, eccetera eccetera. Tutti hanno in bocca il termine “opensource”, usandolo magari a sproposito e confondendolo con “gratis”, ma dimenticano che quasi nessuna delle app che hanno felicemente installato sul proprio smartphone lo è.
Il sogno di Kemeny dell’uomo qualunque in grado di programmare non si è realizzato, ma anche quello di Papert di cambiare radicalmente la didattica tramite la tecnologia digitale non sembra passarsela molto meglio. SmallTalk non è più utilizzato, anche se ha dato origine a quasi tutti i linguaggi moderni.
Una domanda che a me viene spontanea è: ma se, sostanzialmente, non c’è grande differenza tra le caratteristiche dei primi linguaggi “educativi” e quelli di oggi, perché stavolta dovrebbe andare meglio?
Perché il BASIC è stato snobbato (pure se esistono implementazioni moderne, per Windows e per Linux) e il Logo dimenticato nelle scuole? Come facciamo ad assicurarci che non succeda di nuovo? Non sarà il caso, stavolta, di fare attenzione alla situazione globale e di assicurarci che le condizioni di successo per l’iniziativa ci siano tutte?
A proposito di risorse, ma quanto tempo ci va dedicato?
Un’ora di coding è sufficiente?
No. Ma non perché bisogna fare due ore di coding.
Perché insieme al coding vanno affrontati altri temi. Ci deve essere un piano didattico più esteso che comprenda le competenze di cittadinanza digitale, i nuovi diritti e i doveri “digitali” – la privacy, la condivisione, l’attenzione alle risorse.
E in questo piano devono essere prese in carico (o smontate e rimontate) le altre “materie”, senza le quali il coding perde di senso a scuola. Perché non può essere un’attività ricreativa incastrata tra matematica e storia, ma deve fare i conti con entrambe.
Deve essere rivalutata la componente linguistica del coding, la sua parentela con le altre forme di scrittura. Il coding deve essere affrontato nel quadro di un ripensamento della didattica che prepari non solo alla soluzione di problemi dati, ma anche alla posizione di nuovi problemi, all’invenzione di narrazioni in tutti campi.
Si dovrebbero andare a ristudiare le esperienze passate, valutarle, estrapolarne, se ci sono, gli aspetti positivi.
Deve essere scelto un ambiente e un linguaggio adatto, in funzione dell’età, degli obiettivi, dei dispositivi.
Per tutto questo, si devono formare i docenti in maniera non randomica e superficiale.
Scratch è ormai diventato una moda. Quando si parla di “coding”, di programmazione per bambini, si parla inevitabilmente di Scratch. Questa equazione mi infastidisce un po’, come se non si potesse giocare con la programmazione in altro modo, come se Scratch avesse una patente speciale e tutto il resto non fosse mai esistito. Questo naturalmente non è colpa di Scratch e dei suoi creatori, ma è una miopia tutta nostra. Probabilmente in Italia non è chiaro nemmeno il significato del nome: “scratch” è la linea di partenza di una corsa. Costruire qualcosa “from scratch” significa cominciare da zero.
Penso di fare un servizio utile provando a fare un po’ di chiarezza intorno al tema, all’oggetto Scratch e al suo modello didattico. Credo che chiunque voglia organizzare un pomeriggio di gioco con Scratch – ma come ho già scritto in precedenza, non basta un pomeriggio – dovrebbe almeno riflettere un po’ su questi argomenti.
Perché Scratch? Cosa ha di particolare? Almeno due aspetti mi sembrano alla base della sua fortuna. Ed entrambi meritano analisi e discussione.
Il fatto che intorno a Scratch ci sia una comunità internazionale. Scratch è una “online community where children program and share interactive stories, games, and animations”. Bisogna quindi essere necessariamente connessi per programmare? In realtà esiste un editor offline, basato su Adobe Air. E’ una scelta strana per il MIT; né Adobe Air né l’editor offline sono OpenSource (a differenza di quasi tutti gli altri ambienti dello stesso genere). Non ho idea di quanti usino la versione offline, talmente è più facile utilizzare la versione online. In ogni caso c’erano, e ci sono ancora, anche altre comunità dello stesso genere. Quasi ognuno degli ambienti di programmazione per bambini ha un team di sviluppo che mantiene un sito con esempi, suggerimenti, guide. La comunità intorno a Scratch è la più recente, probabilmente la più attiva, non necessariamente la più interessante. Potrebbe valere la pena andare a curiosare anche nelle altre.
Il fatto che non sia necessario scrivere codice sorgente (il che è piuttosto curioso, visto l’uso continuo del termine “coding”). La questione è rilevante. Uno dei passaggi chiave nella storia degli ambienti di programmazione per bambini è proprio il passaggio dalla scrittura di codice alla programmazione visuale. Significa che invece di scrivere “if questo then quest’altro” il programmatore deve trascinare oggetti grafici, disporli in un certo ordine, e scrivere solo dati all’interno di buchi (le variabili). La sintassi è affidata alla posizione degli oggetti, la semantica alla scrittura. Ci sono enormi vantaggi: il rischio di commettere errori di sintassi è annullato, la struttura del codice è rappresentata in forma visuale ed è più comprensibile con uno sguardo d’insieme. Si introduce però uno iato forte tra l’attività presente (visuale) e quella futura (scrittura). Infatti gli ambienti di programmazione visuale per adulti professionisti sono piuttosto pochi, dedicati di solito a domini specifici come il multimedia e, nel 99% dei casi, un programmatore scrive o modifica codice scritto. Ci sono degli evidenti vantaggi anche nell’uso della scrittura: un codice scritto in qualsiasi epoca e in qualsiasi linguaggio può essere modificato con un editor di testo (se la licenza lo permette). E abituarsi a leggere e rileggere, vale per un testo scritto in una lingua naturale come per un codice sorgente, non è un’attività poco utile nella vita.
Scratch nasce al MIT nel 2003 con un grant della NSF, in collaborazione con diverse altre università statunitensi (Pennsylvania, Harvard, Washington e altre). Tra i ringraziamenti, vengono citati Seymour Papert e Alan Kay, ovvero l’autore del LOGO e uno degli inventori della programmazione orientata agli oggetti e delle finestre, nonché di Squeak, Etoys e Tweak.
Ognuno ha delle particolarità interessanti. Ad esempio Alice era basata sul modello della programmazione orientata agli oggetti, NetLogo sugli agenti concorrenti, Stagecast Creator sulle programmazione per regole. Sono tutti modelli alternativi alla programmazione “imperativa” (che è la più vecchia, quella in cui si comanda il computer con istruzioni e test, IF_THEN_ELSE), modelli che oggi sono studiati ed adottati su larga scala.
L’autorità principale dietro Scratch, Mitch Resnik (LEGO professor al MIT Media Lab), parla degli obiettivi del progetto in questi termini: “Quando qualcuno impara a programmare con Scratch impara allo stesso tempo importanti strategie per risolvere problemi, creare progetti e comunicare le proprie idee.” Le stesse idee sono espresse nella guida del 2011 pubblicata dall’Università di Harvard (http://scratched.gse.harvard.edu/sites/default/files/CurriculumGuide-v20110923.pdf). La guida è una miniera di idee e contenuti, declinati in 20 sessioni didattiche. Nell’introduzione si dice fra l’altro:
“Engaging in the creation of computational artifacts prepares young people for more than careers as computer scientists or as programmers. It supports young people’s development as computational thinkers – individuals who can draw on computational concepts, practices, and perspectives in all aspects of their lives, across disciplines and contexts.”
Il pensiero computazionale (traduzione dubbia; ma in questi casi è difficile resistere al calco) è quindi visto come una maniera di affrontare i problemi della vita, attraverso concetti come sequenze, cicli, parallelismo, eventi, condizioni, operatori e dati. Le pratiche che vengono incoraggiate come più adatte sono “essere iterativi e incrementali, verificare e correggere, riusare e mescolare, astrarre e modulare”.
Da un lato questa visione mi attrae, dall’altra devo confessare un po’ di spavento. Davvero i problemi reali vanno affrontati in termini di algoritmi formalizzabili? Davvero le azioni nei complessi contesti quotidiani vanno regolate in funzione di condizioni, operatori e dati? I bambini devono giocosamente imparare a comportarsi nella vita come automi perfettamente informati?
Persino l’idea dell’introduzione giocosa alla programmazione, per preparare i futuri sviluppatori di cui avremo bisogno nei prossimi dieci anni, andrebbe esaminata un po’ di più prima di essere accettata come una verità incontestabile. Non solo perché nel comparto informatico ci serviranno molte figure professionali diverse dagli sviluppatori; e non solo perché la programmazione richiede tanta creatività nell’inventare quanta abilità nel portare a termine l’idea.
Il punto centrale, il fulcro, è la strategia didattica.
Che “chi impara prima, impara meglio”, sembra essere un proverbio uscito dalla saggezza popolare, e quindi poco discutibile. Per diventare un musicista, un ballerino, un calciatore, un cantante, bisogna cominciare da bambini. Vale anche per le lingue straniere, vale anche per la matematica. Lo sappiamo per esperienza. Vale anche per la programmazione dei computer? Beh, qui troppi dati statistici non ci sono, dobbiamo procedere per analogia; e le analogie vanno tenute sotto controllo perché tendono a sfuggire.
Come si insegna ad un bambino una materia complessa, composta di tecnica e conoscenze, senza che le difficoltà impediscano i progressi?
Tradizionalmente, abbassando il livello della qualità richiesta, semplificando gli obiettivi, ma lasciando intatti gli elementi e le regole. Non si insegna ad una bambina di sei anni a suonare il violino con uno strumento con due sole corde, ma con un violino ¾, che ha la stessa complessità di uno 4/4 . Ma c’è una sterminata letteratura didattica composta per guidare lo studente dal facile al difficile. Non si semplifica il contesto, si modulano le richieste. La strategia didattica è lineare: c’è una gradazione infinita di modi di far vibrare una corda, e chi apprende procede lungo questo sentiero infinito. Limiti: la bambina si annoia, soprattutto se non capisce dove la porterà questa lunga strada, perché i risultati iniziali non sono troppo incoraggianti. Finirà probabilmente per abbandonare.
C’è un altro modo, più moderno: si crea un ambiente “didattico”, semplificato, in cui elementi e regole sono ridotti rispetto all’originale. Un flauto con i tasti invece dei fori; un toy piano diatonico. Qui i risultati gradevoli si raggiungono presto, la motivazione è rafforzata.
Questi giocattoli educativi non sono in continuità con il mondo reale. C’è una cesura netta: da un lato il giocattolo, dall’altro lo strumento vero, da un lato gli spartiti colorati, dall’altro i pentagrammi.
Questa strategia è senz’altro più efficace per iniziare, è più “democratica”, ha successo nella quasi totalità dei casi. Non serve a preparare musicisti professionisti, ma a comunicare l’amore per la musica (per esempio, io ho cominciato a suonare su un pianoforte giocattolo, e da allora amo disturbare il vicinato con ogni tipo di strumento – per questo vivo in campagna). E’ molto chiaro che non c’è un passaggio graduale dal modo “semplificato” a quello “avanzato”. Sono due mondi diversi, che si assomigliano in alcune parti, ma che non sono in connessione diretta. Alcuni degli studenti arrivati ai confini di uno si affacceranno sull’altro, si accorgeranno che la complessità è enormemente più elevata, ma decideranno di entrare lo stesso; altri si fermeranno nel primo mondo, come ho fatto io.
Tra gli ambienti di programmazione per bambini, però, alcuni sono stati pensati proprio come un raccordo, una via di mezzo tra i giocattoli e le cose serie. Sono ambienti dinamici, modificabili, evolutivi, in cui il bambino può iniziare in un contesto semplice e poi aggiungere complessità fino ad arrivare all’editor testuale di codice sorgente che è identico a quello del programmatore professionista. Questo è uno dei motivi per cui gli oggetti digitali sono più potenti di quelli fisici.
Ora, quali sono gli obiettivi di Scratch? Apparentemente, due: preparare futuri programmatori e iniziare i bambini all’amore per il computational thinking.
E la strategia didattica dietro Scratch, di quale delle due categorie delineate sopra fa parte? Direi della seconda, visto che l’ambiente che si propone è giocoso, facile, divertente, ma non ha le stesse regole del “mondo adulto” della programmazione. Non si scrive e legge codice. Non ci si preoccupa della correttezza sintattica. Non ci si preoccupa dell’efficienza, della velocità, della comprensibilità, della standardizzazione, dello stile, etc etc. Non c’è niente di male, come non c’è niente di male in un toy piano. Ma solo nei fumetti Schroeder suona Beethoven con quello.
Il problema nasce proprio quando si immagina che entrambi gli obiettivi possano essere raggiunti con una sola strategia, ovvero quando questa differenza di approcci strategici non viene proprio percepita, cioè quando si pensa che iniziare a programmare con Scratch sia solo il gradino più basso di una scala che porta, gradualmente, alla produzione dei software che usiamo ogni minuto. E questo è tipicamente un errore di chi non ha una grande esperienza della programmazione.
Programmare non è solo un po’ più difficile di creare un gioco con Scratch, è enormemente più complesso; come realizzare un film o registrare un concerto non è solo un po’ più difficile di girare un video con uno smartphone.
Personalmente ho visto tanti bambini (studenti, figli, figli di amici) giocare con ambienti di programmazione fatti apposta per costruire giochi. Di tutti questi, solo uno, che io sappia, ha avuto la voglia e la costanza di continuare. Gli altri, quando hanno capito che programmare è difficile, si sono arresi e sono tornati a giocare.
____
Ci sono infine alcune domande che credo sia importante porsi quando si inizia un progetto didattico con Scratch.
1. Possono condurre un curriculum (nel senso di un progetto didattico) basato su Scratch anche docenti che non sono informatici di estrazione? Non è ovvia la risposta. Nel senso che le competenze tecniche per usare e far usare Scratch sono ovviamente molto basse. Ma non avere il background necessario potrebbe essere un limite grosso quando si cerca di espandere le idee e i concetti di Scratch e applicarle al mondo quotidiano (gli smartphone, il web, i programmi per PC). Non significa che solo i laureati in informatica possono condurre un laboratorio Scratch. Servono competenze pedagogiche, capacità di giocare insieme ai bambini e competenze informatiche.
2. Le idee dietro Scratch hanno una lunga storia, quasi tutta scritta negli Stati Uniti, quindi legata a quel modello educativo e sociale. Possiamo prenderle in prestito così come sono o possiamo/dobbiamo pensare ad un adattamento europeo e italiano? Ad esempio, se il peso delle attività di scrittura/lettura è diverso nei curricula statunitensi e italiani dei primi anni scolastici, non dobbiamo tenerne conto?
3. Perché dobbiamo sempre ricominciare “from scratch”? Ci sono, in tutto il mondo, migliaia di esperienze di introduzione alla programmazione con altri linguaggi e ambienti, in Italia almeno a partire dagli anni ’80. Possiamo ritrovarli, studiarli, verificarne i risultati? Potremmo, ad esempio, andare a vedere quali effetti hanno avuto nel tempo sui bambini coinvolti (quanti hanno scelto l’informatica come professione, quanti riconoscono un valore a quelle esperienze)?
Insomma, mi sembra che ci sia ancora tanto da fare e tanto su cui riflettere.
Il 2014, per chi non lo sapesse, è stato dichiarato “Year of Code” nel Regno Unito. Anno del codice, nel senso di “anno della programmazione”. Da settembre, la programmazione verrà insegnata nelle scuole elementari e medie, ovvero tra i 5 e i 16 anni. http://yearofcode.org/
“In September 2014 coding will be introduced to the school timetable for every child aged 5-16 years old, making the UK the first major G20 economy in the world to implement this on a national level”.
Questa decisione ha portato con sé – o forse è la parte visibile e ufficiale di – una miriade di attività collaterali, su base volontaristica, tutte mirate a diffondere la programmazione tra i ragazzi, ma non solo. Coding is empowering: programmare rende più fichi. http://issuu.com/techmixmag/docs/techmix_magazine_issue__3/15?e=0/8750602
E’ interessante andare a vedere l’immaginario che viene costruito per coinvolgere la popolazione, non solo in UK ma anche negli USA e altrove. Quella che viene presentata non è più la figura del geek, dell’informatico tipico, un po’ secchione e un po’ sfigato, ma quella della mamma disoccupata che si ricicla in un altro settore, quella del genio artistico che inventa una startup, del ragazzino qualunque che tira fuori la app da 200.000 dowload in una settimana http://www.codecademy.com/stories/99-how-to-outgrow-the-fear-of-starting
Premesso che chi scrive ha passato alcuni anni ad insegnare a programmare a classi di bambini tra 10 e i 14 anni, che è da sempre un appassionato di Logo, di cui ha seguito con interesse tutte le evoluzioni (da MicroWorlds a StarLogo a NetLogo), e che ha continuato ad avere un interesse “estetico” per gli ambienti di programmazione visuale in qualche modo derivati (Alice, Squeak/Etoys, Scratch, ….) che oggi vanno per la maggiore e che rendono il termine “coding” abbastanza pretestuoso. Premesso che anche ora che non la pratico quotidianamente trovo la programmazione un’attività molto gratificante, come ogni tipo di creazione artistica, e che al pari della musica o delle arti grafiche mi dispiace che questo piacere non venga condiviso da molti.
Tutto ciò ed altro premesso, non è quindi per avversione preconcetta verso l’apprendimento della programmazione in giovane età che mi è venuta l’idea di scrivere queste note. Non penso che i bambini debbano essere tenuti lontani dalle macchine, né che la logica dell’utenza passiva multimediale debba restare l’unica, o quella privilegiata, fino alla maturità.
Ma il recente fiorire di iniziative per introdurre i bambini alla programmazione (diciamola meglio: per portare dei ragazzini a sviluppare delle app in una sola giornata) mi lascia invece perplesso.
Cerco, nelle presentazioni delle giornate di introduzione alla programmazione organizzate, per esempio, da CoderDojo, le ragioni di questo rinnovato interesse. Le cerco anche con una certa invidia tutta italiana perché mi ricordo il triste destino che ha avuto da noi quella parte di curriculum informatico scolastico dedicata alla programmazione. Ricordo le ragioni di quell’esclusione: ad esempio, che i bambini, nella scuola dell’obbligo, non devono imparare a programmare più di quanto non debbano imparare a riparare una lavatrice. Ricordo l’informatica “carta e matita” di Giovanni Lariccia, ma anche la scoperta dell’ECDL, l’attenzione per gli strumenti di produzione di media più che su quelli per la produzione di programmi, etc … Oggi, quando vedo gli entusiastici commenti a queste iniziative, mi chiedo: quali sono, stavolta, le ragioni? Perché passare un pomeriggio a programmare, a 10 anni, è meglio di passare un pomeriggio a giocare a pallone? Perché organizzare spazi e tempi extrascolastici per offrire questa possibilità? Perché dedicarci risorse pubbliche, o private?
Mi pare che le ragioni citate siano di almeno due ordini:
1. Aspetti economici: sono facili da citare, molto meno da dimostrare.
Nel 2015 ci saranno in Europa 700.000 posti di lavoro vuoti nel settore ICT (fonte: Commissione Europea, http://europa.eu/rapid/press-release_IP-13-52_it.htm). Negli USA, entro il 2022 ci saranno 2.600.000 posti di lavoro nel settore dell’informazione; di questi, 750.000 per i programmatori, con una crescita del 22,8 % (fonte: Bureau of Labor Statistics, http://www.bls.gov/news.release/pdf/ecopro.pdf).
“This means that U.S. companies would be forced to outsource valuable coding jobs to India, China, Eastern Europe, and other countries with growing IT sectors, while thousands of Americans remain unemployed or stuck in low-skilled, low-wage positions” (http://opensource.com/education/13/4/teaching-kids-code).
A parte il fatto che di questi milioni di posti di lavoro solo una parte è riservata ai programmatori propriamente detti, mentre la maggioranza è lasciata a tutti gli altri lavoratori del settore (analisti, progettisti, sistemisti, grafici, esperti di reti, di sicurezza, commerciali, docenti, installatori, …), e a parte il fatto che il lavoro di programmatore non è necessariamente così ben pagato e attraente, il punto è: quale politica educativa e del lavoro porterà a colmare questi vuoti. Da dove si comincia? Dalla riforma dei curricula universitari? Da quella delle scuole tecniche? Dalla riforma del mercato del lavoro? O dai Coding Day per i ragazzi?
Ad esempio, quale legame ci sarebbe tra la giornata festosa in cui si sviluppa un videogioco con gli amici e la capacità di svolgere un lavoro del tipo di quelli di cui il mercato ha bisogno? Non è detto che quello che si apprende oggi sia ancora utile domani. Il ragazzino di 10 anni che oggi produce – in una giornata – una app per Android avrà 18 anni nel 2022, e allora non avrà davanti le stesse piattaforme, gli stessi linguaggi e nemmeno gli stessi concetti. Basti guardare quali erano appunto linguaggi e sistemi operativi dieci anni fa e la distanza abissale che li separa da quelli di oggi. Manca, a mio avviso, uno studio che dimostri gli effetti a medio o lungo termine di queste iniziative. Effetti che potrebbero essere cercati sulla scelta della scuola, sul percorso di apprendimento personale, sulle letture scelte, sull’uso del tempo libero, sullo scambio di conoscenze con i pari. E magari si potrebbe anche ragionare meglio su quali linguaggi, quali sistemi, quali tipi di problemi, quali domini applicativi sono più adatti per avviare il giovane programmatore verso il suo radioso futuro rendendolo più concorrenziale rispetto ad altri.
2. Aspetti sociali: subito dopo quelle economiche, vengono citate le ragioni più “etico-politiche”. Il ragionamento è più o meno questo: la nostra vita è costellata di apparecchiature elettroniche del cui funzionamento non sappiamo nulla; se avessimo le competenze digitali attive (coding specials) saremmo in grado di difenderci; quindi è bene acquisire queste competenze fin da piccoli.
E’ un po’ la motivazione che sottintendeva lo studio dei mass media e della pubblicità a scuola qualche anno fa: se li conosci, li smascheri.
Ad esempio, sempre con le parole di Rebecca Lindegren:
“Children’s personal and professional lives will increasingly be shaped by computer programs. Without the ability to code, they will become passive consumers at the mercy of programmers working for technology giants, unable to construct or meaningfully interact with the virtual reality that surrounds them” (http://opensource.com/education/13/4/teaching-kids-code).
Questo passaggio dell’articolo è, a mio avviso, il più interessante. Senza la capacità di programmare, i bambini diventeranno passivi consumatori etc etc. Con la capacità di programmare (acquisita in un paio di pomeriggi tra amici) invece saranno vaccinati e potranno interagire significativamente con il mondo virtuale che li circonda.
Da notare almeno due cose: la prima è che la capacità di programmare vaccina dallo strapotere dei giganti della tecnologia. Si può anche essere d’accordo in teoria, ma va definito cosa intendiamo per “capacità di programmare”. Un’attitudine? Un’esperienza, anche limitata? Una competenza specifica e verificata da terzi?
Stiamo parlando della buona abitudine di leggere il codice sorgente di ogni programma che si utilizza? Della curiosità verso ogni nuova soluzione che viene presentata, curiosità che non si contenta di un’etichetta o di una descrizione ma vuole arrivare a capire come funziona oggi e come funzionerà domani? O della capacità di progettare, sviluppare e manutenere soluzioni alternative?
Sono “capacità” completamente diverse. Si raggiungono, e si perdono, in tempi diversi e in modi diversi. Alcune di queste non sono generiche, ma possibili solo in connessione con certi contesti tecnologici e legali, primo fra tutti quello dell’apertura del codice sorgente.
Ora in generale aumentare la quota di competenze creative che viene appresa a scuola è probabilmente utile a preparare un cittadino capace di costruire narrazioni originali, oltre che di ascoltare quelle degli altri. Competenze che si possono sviluppare componendo musica, scrivendo sceneggiature, disegnando fumetti e persino programmando (uno spartito o un programma non sono poi così diversi, da questo punto di vista). Qui però è in gioco una riforma del curriculum scolastico, e non solo qualche ora di laboratorio.
La seconda cosa da notare è che la possibilità di interagire pienamente con la realtà (virtuale, nel senso dell’insieme di dispositivi, reti, server, …) non sembra dipendere solo da queste competenze. Anche qui, andrebbe forse ricordato che, oggi molto più di ieri, ognuno di noi ha comprato già preinstallati o consentito a installare sui propri dispositivi digitali – pc, tablet, smartphone, televisori, frigoriferi,… – centinaia di programmi del cui funzionamento effettivo non possiamo sapere quasi nulla, se non quello che esplicitamente ci dicono i produttori. Il codice sorgente di questi programmi (che a volte chiamiamo “applicazioni” o amichevolmente “app” per farceli sembrare meno complessi e e pericolosi) non è disponibile per la lettura o la modifica. Sapere programmare non aiuta minimamente a evitare che raccolgano i nostri dati e ne facciano un uso non previsto (da noi). Sapere programmare non ci permette di evitare di usarli: alzi la mano chi si può permettere di non avere un account gmail o una pagina FB. Senz’altro non ci aiuta a modificarli, a impedire che svolgano azioni se non illecite, almeno non gradite. Interagire significativamente con gli altri tramite app e reti, ricevere e fornire dati – filtrandoli – richiede delle competenze, che oggi fanno sicuramente parte di quelle di base di ogni cittadino. Ma allora non è sufficiente un pomeriggio di manipolazione di Scratch, serve anche qualche informazione in più. Informazione che in effetti né la scuola dell’obbligo, né quella superiore, né l’università consegnano.
3. Vengono in mente però anche altre ragioni, forse meno nobili. Per esempio, una generazione di ragazzini che sono in grado di produrre un’app in poche ore significa da un lato un serbatoio immenso da cui andare a pescare i migliori developers senza doversi assumere l’impegno e la responsabilità di formarli adeguatamente e di aspettare il momento in cui, accanto ad altre competenze utili per una vita completa, sviluppino anche quelle di coding; e dall’altro un enorme mercato per quelle app…
Ad esempio la Scuola 42, a Parigi, dichiara esplicitamente di porsi come un’alternativa ai percorsi scolastici tradizionali per scovare dei geni informatici che probabilmente sarebbero degli esclusi nel sistema tradizionale (http://www.42.fr/ledito-de-xavier-niel/). Da notare che la scuola 42 è gratuita. Un progetto simile, ma più orientato al sociale (e quindi finanziato con fondi pubblici) è quello di Simplon (http://lafrancesengage.fr/toutes-les-actions/simplonco.html).
Soprattuto nel primo caso, si unisce l’idea della selezione anticipata con quella dell’investimento vantaggioso: i migliori – indipendentemente dalla posizione sociale – possono ricevere la migliore formazione e avere una via privilegiata per l’accesso al lavoro. Investire in formazione rende meglio che affidarsi ad una selezione, permette di arrivare prima e assicurarsi i servigi di uno sviluppatore che è sempre più giovane.
Non che queste ragioni siano necessariamente quelle che motivano gli organizzatori delle giornate; ma è lecito domandarsi se non sono quelle che motivano gli sponsor, che sono spesso grandi imprese del settore telecom se non direttamente dell’ICT.
Dopo tutto, perché perdere tempo a formare tutti gli studenti alla programmazione per poi verificare con un test quali sono adatti al lavoro? Basta farlo solo con i più svegli.
Riandando a quelle lezioni con ragazzi delle scuole medie, in cui per gruppetti cercavamo di costruire dei videogiochi con i limitati strumenti a disposizione (erano gli anni ’90), la differenza che mi salta agli occhi è che allora si aveva in mente un progetto educativo. Ovvero: si sceglieva un linguaggio perché era stato pensato per i bambini (e non solo perché era una versione semplificata di un ambiente di simulazione di Android); si sceglieva un dominio (ad esempio, ma non necessariamente, quello matematico) perché alcuni aspetti del programma di matematica erano più comprensibili affrontandoli dal punto di vista della costruzione anziché da quello della analisi – per esempio la geometria; ma si usava anche il Prolog per studiare la grammatica. L’obiettivo era pienamente didattico: imparare a programmare all’interno del percorso scolastico non era la preparazione a qualcos’altro, ma un’attività degna di per sé, che aiutava a imparare meglio e più in profondità. Programmare era un modo generale per affrontare l’apprendimento. L’oggetto e le finalità dell’apprendimento però erano determinati da altre considerazioni.
E’ possibile, lo riconosco, che io abbia una visione un po’ edulcorata, mitica, di quelle ore. Forse tutta questa chiarezza teorica non c’era e la consapevolezza del progetto educativo la sto inserendo a posteriori. Allora, come adesso, c’era molta buona volontà e una speranza di fare qualcosa di diverso, e di utile.
Mi auguro almeno che questo stesso spirito animi i volontari che oggi supportano i ragazzi nello sviluppo della loro prima app.
Tra le ragioni degli opendata sento raramente citare quella che secondo me si potrebbe definire come un’assicurazione sulla vita dei dati stessi.
Dati aperti significa leggibili adesso, da tutti, ovunque.
Un elemento che viene poco preso in considerazione è il tempo.
Rispetto al tempo, sono due le dimensioni interessanti nella valutazione dei dati:
– la persistenza
– la rappresentatività
La persistenza è la probabilità che i dati non vengano aggiornati in tempi troppo rapidi.
La rappresentatività è la probabilità che i dati mantengano significato nel futuro perché “fotografano” una situazione che può essere confrontata con altre.
Per esempio, i nomi dei deputati e senatori eletti in una certa legislatura non sono soggetti a cambiare nel tempo, quindi hanno un’alta persistenza; ma non ha molto senso confrontare questi dati con quelli di un’altra legislatura, quindi hanno una bassa rappresentatività.
Se invece prendiamo gli stipendi percepiti dagli stessi deputati e senatori possono essere confrontati in serie storiche per valutare la dipendenza dall’inflazione, è probabile che si tratti di informazione a bassa persistenza (dura una sola legislatura) ma alta rappresentatività.
Ora proprio quando siamo in presenza di dati con bassa persistenza e/o con alta rappresentatività è molto importante poter contare in futuro sulla possibilità di leggere quei dati con la stessa o con altre modalità, ma che soddisfino ugualmente i requisiti dei dati aperti (lettura automatica, possibilità di correzione di errore).
Si possono fare infiniti esempi: dai dati restituiti dalle centraline per il controllo della percentuale di CO2 a quelli sui lavori disponibili presso i centri per l’impiego.
Secondo Tim Berners-Lee, gli opendata possono essere “premiati” con delle stelline in base ad alcune proprietà fondamentali (essere pubblici, machine-readable, in formati aperti, referenziati univocamente, linkati). /
Lo stesso Berners-Lee ha sostenuto spesso che comunque è meglio pubblicare, in qualsiasi modo (“raw data now!”), piuttosto che non pubblicare. Ma se si guardano le tipologie dei dataset pubblici se ne trovano ancora pochi che possono fregiarsi di almeno tre stelle.
Quando i dati vengono pubblicati come CSV, vuol dire che sono file in formato ASCII in cui i campi sono separati da virgole o punto e virgola e i record dal caratteri di acapo. Non è il massimo, ma è leggibile con qualsiasi sistema operativo e qualsiasi editor di testi. ASCII è uno degli standard più longevi; creato nel 1968, definito come standard ISO dal 1972 (ISO 646), benché limitato a solo 127 codici è sopravvissuto anche perché inglobato nel più recente e potente UTF , che consente di rappresentare virtualmente quasi tutte le lingue del mondo, passate e presenti.
Quando i dati vengono pubblicati come fogli di calcolo (che almeno per le PA Italiane equivale a dire XLS ,cioè MS Excel) possono contenere oltre ai dati veri e propri anche indicazioni di formattazione, grafici, metadati (data, autore, programma). Ma quello che è significativo è il fatto che il formato XLS è di per sé proprietario, binario, non basato su standard internazionli pubblici.
Il formato è stato documentato pubblicamente da MS a partire dal 2008, quando il formato standard per i documenti Office è diventato OOXML, che è divenuto anche uno standard ISO alternativo a quello OASIS, riconosciuto due anni prima e adottato da diversi paesi.
Oggi è possibile leggere i file XLS anche utilizzando un programma diverso da quello con cui è stato scritto (anche se la realizzazione di tale software potrebbe violare delle patenti). Ma domani? Potrebbe semplicemente non essere più disponibile alcun programma in grado di farlo.
Non è uno scenario fantascientifico. Basti guardare quel che è successo con formati che sembravano incrollabili, come quello dei documenti WordStar. La mia personale vicenda con un file Wordstar è raccontata qui.
La soluzione più elegante e potente è quella di utilizzare un formato basato su XML, che – oltre a poter in teoria contenere anche indicazioni sul significato dei dati, e non solo informazioni sulla loro posizione nella tabella – poggiandosi su UTF 8 sembra garantire una leggibilità futura.
I file XLSX e ODT (ma anche i meno conosciuti .gnm prodotti con Gnumeric) sono appunto basati su XML – anche se seguono standard diversi – ma sono entrambi compressi con l’algoritmo ZIP, che è uno standard de facto, creato nel 1989 da Phil Katz e con specifiche pubbliche.
ZIP è un contenitore di file diversi, i quali possono essere compressi separatamente e protetti con algoritmi differenti (come AES). Purtroppo ZIP non è regolato da uno standard internazionale. Il che significa che, in teoria, potrebbe un giorno diventare obsoleto…
In conclusioni, parafrasando Berners-Lee, si potrebbe dire “We want raw data now and tomorrow”.