Tra le parole più consumate per il cattivo uso quella di cui parliamo oggi è piattaforma. Ne avevo parlato qualche tempo fa qui ma oggi vorrei approfondire perché sono scoraggiato da quanto leggo qua e là.
Due etti di storia della parola: derivata dal medio francese, in inglese è attestata a partire dal 1550 nel senso di “piano, disegno, progetto”; poi ha perso questo significato metaforico per orientarsi verso uno più letterale. A partire dal XIX secolo si usa in geografia, in tecnica ferroviaria e poi in politica. La piattaforma petrolifera è una cosa piatta, in mezzo al mare, sulla quale ci si sta a lavorare come se fosse un’isola, come se fosse terraferma. E infatti ci sono anche le piattaforme per i tuffi… divertitevi qui a trovare tutti gli usi censiti dal dizionario Treccani. Se cercate il significato di “piattaforma informatica” invece sarete delusi perché è definita piattaforma praticamente qualsiasi cosa, hardware o software, che ne permette altre. E infatti i software per la creazione e gestione di corsi online (che, tanto per ricordarlo ai distratti, NON significa a distanza) potrebbero essere chiamati “piattaforme”, invece che software e basta, quando si volesse sottolineare che non sono soluzioni autosufficienti, ma che sono dei piani dove si può sostare e fare cose come se si fosse a terra, cioè sono delle tecnologie abilitanti ad altro. Oppure per dire che le attività che si fanno lì dentro non sono cablate dentro al software, ma sono optional, moduli autonomi che si possono aggiungere e togliere a piacimento. Ora seguitemi mentre cerco di spiegare cosa possono essere questi moduli: contenuti, pezzi di software, altre applicazioni, e chissà che altro. In questo modo magari riusciamo anche a capire le differenze tra piattaforma, suite, groupware, cloud.
Non tutti i software per l’apprendimento online sono letteralmente piattaforme. Alcuni sono perfettamente autonomi: anche se non è definito a priori ciò che contiene il singolo corso (i contenuti, la loro struttura, le modalità di comunicazione e collaborazione tra corsisti si possono decidere volta per volta), tutto quello che serve si fa lì dentro senza bisogno di aggiunte esterne. Sono ambienti di apprendimento, ma non piattaforme. Non è né un bene né un male in sé: sono il frutto di una scelta e seguono una filosofia precisa con vantaggi e svantaggi. Un paio di vantaggi come esempio: il monitoraggio e la valutazione sono molto semplici, perché tutto quello che corsisti e docenti fanno avviane lì dentro. Inoltre, è molto più facile garantire la privacy degli utenti, perché niente fugge verso altri lidi dove non si sa bene cosa capita ai dati personali. Ci sono ovviamente svantaggi: le attività possibili sono solo quelle previste da chi ha progettato il software; altre attività possono essere suggerite, segnalate, ma non integrate in maniera trasparente nel percorso di apprendimento.
Un software per l’e-learning che sicuramente è una piattaforma è invece Moodle. Moodle è stato chiamato così (Modular Object-Oriented Dynamic Learning Environment) dall’inventore per far notare che è un software modulare, cioè che le attività didattiche non sono cablate all’interno una volta per tutte ma sono pezzetti di software che si possono a) aggiungere ad un corso b)aggiungere alla piattaforma e c) aggiungere al repository del codice sorgente di Moodle. La prima operazione spetta all’autore del corso (il docente) la seconda al sistemista che configura la piattaforma, la terza agli sviluppatori che seguono le linee guida e producono nuovi moduli che si possono agganciare alla piattaforma (b) e aggiungere al corso (a).
Questo approccio si basa su due linee di pensiero collegate ma diverse: la prima è quella che pensa le attività come oggetti che si possono descrivere, circoscrivere, prendere da un deposito e riusare. Questa linea di pensiero è quella che è stata resa famosa (e anche presa in giro e vilipesa), con lo standard SCORM: Shareable Content Object Reference Model. Standard inventato dall’Advanced Distributed Learning, presso il Dipartimento della Difesa degli Stati Uniti. Standard che si è evoluto fino all’ultima versione, che è del 2009, e poi è stato abbandonato dagli stessi promotori a vantaggio di un approccio diverso: “qualsiasi cosa può essere un’attività didattica, purché sia in grado di inviare dati sull’utilizzo da parte dello studente secondo un linguaggio standardizzato”. Inviare a chi? Ad una piattaforma (detta Learning Record Store) che non ha uno scopo preciso, ma si limita a ricevere e organizzare i dati in modo che possano essere interrogati dai software di e-learning. Un po’ più avanti, sempre su questa linea tecnico-didattica si colloca lo standard LTI proposto dal consorzio IMS. Qui si tratta, più modestamente, di un protocollo che permette ad una piattaforma di e-learning come Moodle di parlare con un sistema di videoconferenza come se fosse un oggetto SCORM , cioè di inviare i dati di accesso di un utente e ricevere i dati sul suo utilizzo.
La seconda linea di pensiero è quella più strettamente informatica, quella dell’Open Source. Visto che il codice sorgente dei software open source è riusabile anche da altri, è possibile tecnicamente, ma anche legalmente, aggiungere librerie, moduli, oggetti realizzati da altri sviluppatori all’interno del proprio software. Naturalmente, perché non sia un furto, occorre assicurarsi che la licenza originale lo permetta e specificare l’autore iniziale. Prendere il codice altrui e ricopiarlo senza citare è poco diverso da un furto. Questa bella opportunità – che non è tipica delle piattaforme, ma di tutto il software opensource – però nasconde anche dei rischi: siccome è facile copiare e incollare, o includere, non è detto che chi include abbia il tempo di controllare linea per linea il codice sorgente incluso e verificarne la qualità. Potrebbe farlo, tecnicamente e legalmente, ma non è detto che lo faccia. Per questo esistono versioni di software open source (ad esempio, versioni di Moodle) che sono garantite da qualcuno che si è preso la briga di leggere tutto il codice sorgente, eliminare la robaccia e i pezzi sospetti e tenere solo i moduli robusti e sicuri. I software proprietari (non nel senso che sono di qualcuno, ma nel senso che il codice non è opensource) ovviamente non permettono questo tipo di controllo. Di qui l’obbligo previsto dal CAD per la pubblica amministrazione di effettuare sempre una valutazione comparativa che prenda in considerazione il software opensource.
Un altro tipo di piattaforme, nel senso di software non mono-blocco ma modulare, sono le suite per ufficio. Quelle che tutti conoscono oggi sono Google Gsuite e Microsoft Office365, ma le suite per ufficio esistono dalla metà degli anni ’80. Sono collezioni di software indipendenti, online o offline, che dialogano tra loro. Nel caso di software installati sullo stesso computer, questo “dialogare” significa che condividono l’interfaccia e il linguaggio; che si possono copiare e incollare dei pezzi di documento dall’uno all’altro oppure convertire facilmente da un formato all’altro. Nel caso di applicazioni remote, a cui si accede tramite internet, il dialogo è anche a livello di accesso: quando un utente è registrato e fa il login nella piattaforma/suite non ha bisogno di essere registrato anche nei software satelliti ma può passare da uno all’altro senza apparente interruzione. Le applicazioni sono remote nel senso che stanno su computer accessibili solo via Internet, ma anche perché per ragioni di convenienza, cioè di flessibilità e di sfruttamento degli investimenti fatti, sono divise in pezzetti sparsi su più computer. In questo secondo caso si parla di cloud, per indicare appunto che l’utente non ha modo di sapere esattamente dove stanno le applicazioni che usa, i documenti che produce e in generale i propri dati. E’ una situazione di incertezza che è diventata problematica con l’applicazione del GDPR. Peraltro parliamo qui di suite “per la produttività”, non di software per l’apprendimento, anche se è molto percepibile il tentativo di far passare una cosa al posto di un’altra cambiando terminologia. Non è solo una questione di marketing, ma anche di modello sottostante: se la scuola è palestra di vita, niente di anormale che fin da piccoli occorra abituarsi ad usare un word processor, un foglio di calcolo, un database. Si può essere d’accordo o meno con questa impostazione, ma va tenuta ben presente.
I groupware sono ancora diversi: sono software per la collaborazione e il lavoro di gruppo online. L’esempio più noto oggi è Microsoft Teams, ma anche in questo caso i primi sistemi del genere datano da almeno i primi anni novanta, se non si vuole considerare NLS di Engelbart che era addirittura della fine degli anni ’60’. L’unità di significato minima qui è il gruppo di persone, non la persona, e quindi le funzionalità principali sono appunto quelle che consentono di comunicare tra i membri del gruppo (chat, bacheca condivisa, videoconferenza), di scambiarsi files, organizzati in cartelle fisse o personalizzabili, e organizzare il lavoro (agenda e rubrica, progetti e tracciamento delle attività). Per un fenomeno ben noto di marketing aggressivo e concorrenza spietata per cui ogni software vuole diventare piattaforma, e quindi sostituire tutti gli altri, ai groupware si possono aggiungere altri pezzetti di software, e quindi diventa difficile distinguerli dalle suite di cui sopra.
Tra le funzionalità dei groupware quella che oggi è davvero irrinunciabile (ma c’era già in NLS…) è la videoconferenza; il che complica le cose, perché si tende a confondere un groupware che ha al suo interno la videoconferenza (come Teams) con un sistema di videoconferenza vero e proprio (come Zoom o Jitsi). Chiamare Zoom una piattaforma è chiaramente improprio, sia perché non è una base dove si aggiungono moduli, sia perché parlare guardandosi in faccia non è sufficiente per collaborare.
Se è vero che collaborare è sicuramente una parte importante del processo di apprendimento di gruppo, e collaborare e comunicare online diventa fondamentale quando la collaborazione fisica e la comunicazione orale non-mediata è impossibile, va tenuto presente che una suite di produttività per ufficio o un software pensato per supportare un gruppo di lavoro non sono necessariamente ambienti ottimali per l’apprendimento. Di qui tante durezze, giri improbabili, gerarchie e controlli esagerati, funzioni inutili e altre inspiegabilmente mancanti.
Per chiudere, spero che la parola piattaforma ora sia più chiara per tutti e venga usata in maniera coerente (e questa sarebbe una magra soddisfazione), ma soprattutto che non ci si butti ad usare X solo perché qualcuno ha sentito dire da qualcun altro che “è una piattaforma per la didattica digitale”.
Attenzione: se volete scaricare una versione leggibile offline di questo testo, potete andare qui.
Postfazione (settembre 2020)
Dopo aver completato la prima bozza del nostro lavoro, l’abbiamo
fatta circolare tra un po’ di persone che sapevamo interessate e
critiche; anzi, le sapevamo critiche ma interessate all’uso delle TIC nel campo della conoscenza (e del lavoro, perché no?) in funzione di uno sviluppo caratterizzato da emancipazione, equità, sostenibilità.
Questo è infatti il nucleo del nostro ragionamento, che pensiamo sia
particolarmente importante mettere in circolazione ora, dal momento che
al periodo di emergenza non è seguita una vera e propria elaborazione
culturale ed etica, ma piuttosto la prosecuzione esasperata della di per
sé sterile contrapposizione assoluta tra “digitale-sì” e “digitale-no”.
Ci sono tornate indietro varie osservazioni, sulla base delle quali
abbiamo operato alcuni interventi e scritto queste righe, che forse
avremmo potuto intitolare “Confessioni”, o qualcosa di simile. Abbiamo,
per esempio, inserito al fondo del testo un breve glossario a
proposito delle istituzioni che hanno agito negli ultimi decenni nel
campo delle TIC a scuola: non potevamo infatti presumere che esse
fossero conosciute nemmeno dagli addetti ai lavori, in particolare dai
più giovani, perché non tutte sono sopravvissute al percorso. Abbiamo
preso atto che il nostro dialogo – questa è la forma che
abbiamo deciso di dare a riflessioni che un’esposizione tradizionale
avrebbe rischiato di rendere ancora meno sopportabili – avviene tra due
soggetti che presentano delle sfumature diverse, ma che sul filo rosso
del ragionamento sono (troppo?) d’accordo. Non ci contrapponiamo mai,
non polemizziamo, nemmeno neghiamo l’uno le tesi dell’altro.
Cerchiamo invece e volutamente di convergere su alcuni punti e
prospettive culturali, etici e operativi che ci sembrano importanti per
ribaltare la posizione – destinata a rimanere subalterna alla cultura e
all’agenda degli attuali decisori – di chi si rinchiude nella semplice
negazione e nell’inerte rifiuto del pensiero mainstream
sull’uso delle tecnologie a scuola, che considera l’innovazione
strumento di competizione e, di conseguenza, l’istruzione come
erogazione, pratica e verifica selettiva di skills adattive
allo scenario attualmente prevalente. Abbiamo ripensato a come abbiamo
usato uno strumento potente e tipico dello scrivere su supporto dinamico
e aperto come quello digitale, i link. In linea generale, li abbiamo utilizzati come “citazioni attive”,
anche di materiali nostri, non solo per testimoniare un percorso
pluridecennale che ci ha portato dove siamo ora (senza alcuna intenzione
di restare fermi), ma anche per evitare di riscrivere ciò che avevamo
già esposto altrove.
Marco Guastavigna e Stefano Penge
Introduzione
Estate 2020. Ci guardiamo in faccia – via monitor, of course – e ci rendiamo conto che ambedue siamo in stagione di ripensamenti, ma che entrambi non abbiamo intenzione di mollare: dobbiamo trovare una strada o (meglio) più sentieri per dare un senso a ciò che ha connotato la gran parte della nostra attività intellettuale, l’uso dei dispositivi digitali per migliorare la didattica. Meglio se virtuoso, rivolto cioè non all’innovazione fine a se stessa e alla competizione, ma all’aumento del benessere di tutt* e di ciascun*.
E decidiamo di farci reciprocamente un regalo, un percorso di scrittura, attraverso domande, per quanto possibili stranianti e provocatorie. Ciò che segue è l’intero lavoro.
Dialogo
MarcoG
Eccoci ancora qui a ragionare insieme, come abbiamo fatto a partire almeno da…
StefanoP
Dal 1993, la data di uscita di Io Bambino Tu Computer. Erano gli anni
in cui pensavo ingenuamente che un software educativo avrebbe cambiato
il mondo.
MarcoG
Vero, abbiamo cominciato quell’anno lì; poi ci siamo incrociati più
volte sull’uso delle mappe concettuali e oggi eccoci di nuovo a cercare
di capire il “nuovissimo” di turno. Ovvero la didattica dell’emergenza,
ovvero il distanziamento forzato dell’istruzione, che ha costretto molti
a ripensare il proprio approccio culturale e cognitivo e le proprie
categorie concettuali a proposito del “digitale”.
StefanoP
Infatti. Vanno ripensate e soprattutto criticate perché spesso sono
categorie manicheiste, e questo non è mai una buona cosa. Sono convinto
che sia necessario, soprattutto ora, provare a indicare delle vie
alternative, senza accettare la banale opposizione tra “il digitale è
buono” e “il digitale è cattivo”.
Anzi, sono convinto che si debba partire con il rifiuto della forma
stessa che assume questa opposizione. C’è un soggetto e c’è un
predicato, e in più si tratta di un giudizio di valore.
MarcoG
Lo vuoi insegnare proprio a me?
StefanoP
No, no, abbi pazienza. Cominciamo dal soggetto, il digitale: esiste
davvero una cosa così? Ovvero: le caratteristiche delle esperienze che
facciamo utilizzando i computer grandi e piccoli, locali e remoti, sono
talmente specifiche da permetterci di parlarne come se fossero una sola
cosa, e di opporle alle altre esperienze?
Il secondo aspetto che pone problemi in questa opposizione è il
predicato: il digitale è buono o cattivo? Ma che significa buono? Buono
per qualcuno, per tutti? Buono per uno scopo specifico, per tutti gli
scopi? Buono per oggi, per domani, per sempre?
Vista un po’ da vicino, mi pare, questa opposizione non regge: il
digitale è fatto di tante esperienze diverse, e non si riesce a
riassumerle tutte in un soggetto unico che si possa giudicare e
accettare o rigettare in toto. Di qui la necessità dell’analisi e della
riflessione, meglio se fatta a più cervelli e più mani. Ed è necessario
che a valle della riflessione si possano fare delle scelte, a livello
sia individuale sia di gruppo: questo digitale va bene per questo uso,
quest’altro invece no. Forse a te sembrerà una constatazione ovvia, ma
per me non lo è.
MarcoG
Infatti. Ai tempi in cui abbiamo iniziato a frequentarci mi sembravi
più tecno-ottimista. Per altro, non è la prima volta che ti capita di
cambiare idea, no?
StefanoP
No, e non me ne vergogno. Una volta pensavo che il digitale fosse
tutto buono. Pensavo che le caratteristiche del digitale fossero
talmente potenti da generare un cambiamento obbligatorio nella maniera
di creare e utilizzare la conoscenza. Per esempio, pensavo che il fatto
che il costo (cognitivo, ma anche tecnico e quindi economico) delle
operazioni di scrittura e lettura fosse sostanzialmente identico avrebbe
portato ad una parità di ruoli tra scrittore e lettore, e quindi ad un
cambiamento nella maniera di pensare l’autore, l’autorialità,
l’autorità. Il fatto che la rappresentazione digitale di un testo, o di
una musica o di un quadro, potesse essere facilmente, e indefinitamente,
modificata, copiata, trasformata mi portava a immaginare infiniti modi
di esercitare l’immaginazione creativa. Questi due fatti (il costo
paragonabile tra scrittura e lettura e l’infinita modificabilità di un
documento) dipendono da come è stato immaginato e realizzato il
digitale; ma la loro interpretazione non era affatto scontata. La forma
di determinismo tecnologico di cui in qualche modo soffrivo mi portava a
pensare che ci fosse un solo modo di sfruttare le potenzialità del
digitale, che nella mia testa era il migliore: quello di permettere a
tutti gli utilizzatori di diventare produttori, innescando un circolo
virtuoso per cui ogni prodotto sarebbe potuto diventare materiale di
partenza per altri prodotti e ogni ambiente sarebbe potuto entrare a far
parte di ambienti più ricchi e complessi.
In sintesi, pensavo che la novità tecnica portasse con sé
l’innovazione in maniera quasi automatica, e – secondo punto, più
importante – pensavo che l’innovazione fosse comunque positiva, cioè
indirizzata ad uno sviluppo delle persone, a partire dai bambini che
erano il “pubblico” a cui pensavo praticamente. Non tenevo conto, per
inesperienza, degli interessi dei singoli e dei gruppi professionali che
a volte possono prevalere su quelli di tutti. Non mi ero soffermato
sulle difficoltà, cognitive e affettive, delle competenze necessarie.
Pur conoscendo la storia dell’informatica, che è una storia anche di
imprese e prodotti, di marketing, mi ero concentrato solo sulle
potenzialità che qui in Italia non erano state sfruttate. Non tenevo
conto della possibilità che quei fatti tecnologici potessero essere
utilizzati o no, piegati in una direzione o in un’altra. Su questo
torneremo più avanti, immagino.
Dopo quasi trent’anni di tentativi di creare ambienti di
trasformazione digitale (cioè software educativi) penso di aver
raggiunto una consapevolezza banale: non è sufficiente che una cosa sia
tecnicamente possibile perché venga anche realizzata. Tutto quello che
pensavo di aver capito delle caratteristiche del digitale resta
probabilmente vero, aiuta a capire le potenzialità, ma non basta a
garantirne uno uso sensato e rivolto allo sviluppo di tutti.
Del resto, cambiare idea ed essere anzi consapevoli di poterlo fare sono risorse intellettuali. A te non capita mai?
MarcoG
Anche nella mia storia personale con il “digitale” (più se ne parla
più risulta sconosciuto!) ci sono momenti di profonda trasformazione
della prospettiva.
Inizialmente, ho colto soprattutto quelli che mi sembravano gli
aspetti positivi e più promettenti, in particolare la plasticità del
supporto – e qui ti devo da sempre parecchio – come spazio operativo e
cognitivo a vocazione propedeutica, in particolare per la scrittura di
testi, e le potenzialità della organizzazione ipertestuale di senso e
significato in rapporto alla complessità del sapere umano.
Ci torneremo, anche perché si tratta di aspetti tuttora
sottoutilizzati, sul piano non solo didattico, ma anche professionale e
intellettuale.
Qualcosa ha cominciato a cambiare nella mia testa a inizio millennio,
quando ho cominciato a intravvedere lo spettro del Pensiero
(tecno)Pedagogico Unico, di matrice istituzionale: incubatore principale
ANSAS-Indire con la rete degli ex IRRSAE, poi IRRE, perno organizzativo
e fulcro dei finanziamenti il Ministero, anche nelle sue articolazioni
regionali. Sulla base di un’adesione superficiale e spesso posticcia al
paradigma costruttivista, presentato in forma assoluta come strumento
per rimediare ai molti limiti della scuola, sono state condotte numerose
campagne massive di formazione, in genere legate alla distribuzione di
strumenti, per esempio le LIM, e/o all’infatuazione per il marchingegno
elettronico del momento: il caso più spassoso i learning object,
passati in breve tempo dagli altari della novità alla polvere del
fallimento. Sarebbe per contro interessante ricostruire bene le vicende
di due istituti – l’Osservatorio Tecnologico del Miur e l’ITD CNR – che
si sono invece caratterizzati per serietà della ricerca e senso critico.
In parallelo, l’editoria privata tradizionale – probabilmente perché
incapace di definire un modello di business nel campo dei
prodotti digitali, in particolare per quanto riguarda la versione
elettronica dei libri – si è rapidamente adeguata ed ha adottato
l’intera gamma degli slogan e delle mode (making, robotica, internet of
things,gaming e – peggio! – gamification, storytelling, tinkering e così
via) via via messi in campo dalla forma culturale che caratterizzava la
governance mainstream, nel frattempo passata dalle campagne di
diffusione massiva al modello dei bandi di concorso tra le istituzioni
scolastiche. Al centro di tutto questo, non un riferimento pedagogico
vero e proprio, ma il – deleterio e fallimentare, come vedremo –
concetto di innovazione, che era alla base di un processo culturale e
organizzativo che si configurava sempre più come un “dispositivo” di
potere capace di influenzare il sapere e le scelte in proposito.
In questo contesto, ho cominciato a maturare opinioni sempre più
differenti da quelle precedenti. Non una vera e propria abiura, ma la
consapevolezza che era (ed è) più che mai necessario svincolarsi e
svincolare colleghi e studenti dall’entusiasmo acritico e da quel
determinismo ottimistico di cui parli anche tu.
Più o meno per caso, poi, qualche anno fa mi è tornato in mano un volume che avevo comperato e mai letto, “Gli algoritmi del capitale: Accelerazionismo, macchine della conoscenza e autonomia del comune”, reperibile anche in rete.
Questo libro è stato la prima di una serie di letture che mi hanno
fatto scoprire prima e approfondire poi l’esistenza di numerose voci
fortemente alternative e – appunto – radicalmente critiche di ciò che,
con sfumature di significato importanti ma per ora trascurabili, viene
chiamato “capitalismo digitale” o “capitalismo cognitivo” e,
ultimamente, “capitalismo di sorveglianza”. L’elemento comune di tutte
queste posizioni (significativamente poco o per nulla considerate
dall’accademia nazionale) sono l’individuazione, l’analisi e la messa in
discussione etica e civile, e quindi politica, del massiccio, globale e
quotidiano processo di appropriazione della conoscenza da parte delle
piattaforme multinazionali di intermediazione (Google, Facebook, Uber.
Amazon e così via). Questi giganteschi dispositivi digitali non solo
hanno accumulato e accumulano immensi profitti attraverso il ciclo di produzione e sfruttamento dei Big Data,
ma – per quanto riguarda gli studenti e molti insegnanti e dirigenti
scolastici attraverso il concetto di innovazione – sono riusciti a
costruire una rappresentazione del mondo in cui le skills necessarie ad
adeguarsi al loro funzionamento sono diventate una dote operativa e
culturale imprescindibile, di cui l’istruzione pubblica deve farsi
carico o almeno palestra di esercizio.
StefanoP
Anche secondo me le strategie delle piattaforme capitalistiche, esplicite o meno, vengono da lontano. Oggi si propongono come ambienti di intermediazione digitale tra persone: dai motori di ricerca generici e specializzai ai social network system, ai sistemi di condivisione e distribuzione di media. Ma non sono strategie improvvisate, derivano dalla forma capitalista di produzione di valore, ma anche dalla storia dell’informatica e dal suo scopo generale di creare una versione del mondo più trattabile dell’originale. E a monte c’è la distinzione pubblico/privato, quella che in pratica è negata dalle aziende come Google che si presentano come superiori agli Stati nazionali. Lo fanno assumendo alcune caratteristiche del pubblico: il motto di Google (“Don’t be evil”) non suona come un motto aziendale. Forse, anzi, non dovremmo parlare di azienda, perché ci fa immaginare un soggetto semplice, con delle persone che prendono decisioni limitate che hanno per scopo il profitto immediato. Il discorso è troppo ampio per affrontarlo compiutamente qui, ma va almeno citato: nel contesto statunitense che il privato si sostituisca allo stato è visto come non solo logico ma anche come positivo. Nel nostro contesto storico e sociale, un po’ meno; ma è in quella direzione che stiamo andando?
MarcoG
Temo proprio di sì. Anche se in questo processo il distanziamento
della didattica è stato un avvenimento molto significativo, perché ha
segnato, almeno a mio giudizio, il crollo epistemologico del concetto
dominante quest’ultimo periodo della scuola, l’innovazione, e di tutti i
suoi derivati, in particolare la cosiddetta didattica innovativa. È
vero che vi è stato (soprattutto nei primi giorni del lockdown
della didattica erogata e interagita in prossimità) addirittura chi ha
avuto il coraggio di sostenere che il nostro sistema scolastico era di
fronte a una straordinaria opportunità – appunto – di innovazione, ma
questa posizione ha rivelato quasi immediatamente la propria assoluta
insensatezza. Lo rendevano concretamente inapplicabile troppi e subito
evidenti fattori: diffuso deficit di dispositivi adeguati alle esigenze
comunicative e debolezza o mancanza delle connessioni alla rete in
alcune zone del Paese e/o fasce sociali. Per non parlare dello
smarrimento delle famiglie e degli insegnanti a fronte all’assenza di
strategie e alla mancanza di pratiche per venire incontro ad allievi in
particolari condizioni personali, della dispersione delle relazioni e
della comunicazione e così via.
Non a caso – anche se quasi nessuno ha avuto il coraggio di parlare
in modo aperto di “crisi” organizzativa e metodologica – è prevalso
l’approccio fondato sull’emergenza. La scelta di adoperarsi per ridurre
il danno indubbiamente determinato dalla distanza tra pratiche di
insegnamento e allievi, oltre a essere più congruente con la realtà, era
accettabile anche da parte di chi fino a quel momento aveva sostenuto
posizioni di assoluto “tecno-snobismo” nei confronti della comunicazione
su base digitale, che così ha potuto avviare una qualche interazione
con i propri allievi. Purtroppo, non senza che alcuni cantori della
“centralità dei docenti” nei percorsi di apprendimento attivassero la
retorica della generosità professionale e personale.
Del resto, affrontando la questione su di un piano più generale – mi
verrebbe da dire teorico – di fronte all’imperante necessità di
ricostruire e di governare rapporti comunicativi efficaci, non poteva
certo funzionare la visione più diffusa dell’innovazione e dei suoi
derivati, ovvero la soluzione di continuità, la disruption a
vocazione competitiva, vista come rottura e come adattamento
necessitato, in una sorta di darwinismo tecnocratico. Questo approccio,
per altro, ha orientato il Piano Nazionale per la Scuola Digitale, che
ha costruito un sistema di istruzione pubblica a fortissime
differenziazioni interne, fatto di scuole-polo, con infrastrutture
potenti e centri di formazione, sempre più contrapposte a istituti
emarginati, stabilmente a rimorchio, ripetutamente perdenti nei bandi e
nelle altre iniziative concepite sul modello della gara, del “talent”,
impostazione che per altro ha caratterizzato e funestato l’autonomia
scolastica su vari altri piani, sia logistici sia culturali.
Non è di nuovo un caso che fosse diffusa la locuzione “fare
innovazione” o che si parlasse, per esempio, di ambienti “innovativi” – e
non innovati. Queste scelte lessicali non sono un vezzo, ma il modo di
assegnare deterministicamente al “nuovo” – in particolare se “digitale” –
il ruolo di fine anziché quello di mezzo. Nella scuola, insomma, era
dominante la visione tecnocratica, che – come abbiamo già affermato –
sostituisce all’idea di progresso e di miglioramento quella di rottura.
La mancanza di una vera declinazione dei bisogni di apprendimento e di
un’autentica analisi delle potenzialità delle tecnologie digitali dal
punto di vista operativo, cognitivo e culturale ha fatto il resto,
consentendo anzi, nelle fasi precedenti il distanziamento forzato, che
non vi fosse alcuna autentica valutazione delle implicazioni effettive
delle “innovazioni” introdotte.
Tornando agli aspetti concreti della (prima?) fase emergenziale, non è
un caso che molti insegnanti, soprattutto nelle realtà più complicate,
abbiano scelto di utilizzare il “digitale” che conoscevano già e che
quindi erano in grado di controllare e di dotare rapidamente di senso e
di scopo. Penso all’adattamento di WhatsApp come strumento di
interazione con i genitori e quindi all’indicazione di compiti da
eseguire. Penso alle videoconferenze (potenzialmente gestibili da più
relatori) utilizzate per riprodurre il modello della lezione frontale,
uno-a-molti, per altro utilizzatissimo anche in ambito universitario.
Penso agli interrogativi su come condurre le verifiche, intervenuti ad
onta delle paternalistiche indicazioni emesse dopo la fase della
spontaneità: i social hanno spesso rievocato modalità di interrogazione
davvero grottesche, volte ad impedire suggerimenti ed altri trucchi da
parte degli studenti, dal loro canto attivissimi in forme di resistenza
all’impegno (dalle webcam in stallo perenne, al pauperismo dei “giga”).
StefanoP
Questa delle “nuove tecnologie educative” è una storia vecchia. Un investimento, economico e umano, su qualcosa il cui valore sta solo nell’essere nuovo. Il vocabolario online Treccani dice che innovare significa mutare uno stato di cose, introducendo norme, metodi, sistemi nuovi. Se è questo il senso, allora la didattica innovativa non dovrebbe essere solo nuova, ma aprire un nuovo corso storico. Supponendo a) che il vecchio non funzioni bene, e b) che il nuovo sia migliore. Qui non entro nella discussione per il semplice motivo che questa novità è vecchia di decine e decine di anni, e personalmente sono stato coinvolto negli ultimi trenta nel tentativo di fare qualcosa di educativo con i software; quindi per me di nuovo, nel digitale, non c’è proprio nulla. Ma sono d’accordo con te che è nuovo il contesto emergenziale, sono nuove l’attenzione e le discussioni che improvvisamente si sono accese sulle tecnologie applicate alla didattica. Cosa è successo stavolta? Che i docenti si sono visti costretti ad usare computer, telefoni, webcam, microfoni per fare lezione. Hanno dovuto capire come si fa a tenere alta l’attenzione degli studenti, a individuare lo studente che bara, il genitore che si impiccia troppo, attraverso la ristretta banda informativa di un audio-video. Hanno dovuto cercare e chiedere aiuto ai colleghi per trovare strumenti e servizi gratuiti per la valutazione, contenuti già pronti per sostituire il loro lavoro quotidiano con la lavagna e la voce. E per la prima volta, questo bagno non ha riguardato solo una piccola parte del corpo docente, ma proprio tutti, dalla scuola dell’infanzia all’università. Chi aveva seguito dei corsi di formazione ha scoperto che erano invecchiati precocemente, chi non l’aveva fatto ha potuto lamentarsi di non essere stato messo in condizione di lavorare.
Sono ricostruzioni chiaramente parziali e un po’ ridicole, mi rendo conto. Le faccio solo per giustificare il fastidio con cui non solo quel modo di usare il “digitale”, ma qualsiasi modo viene percepito adesso dalla maggioranza dei docenti, e direi anche degli studenti e dei genitori. Basta didattica a distanza, basta computer, torniamo al porto tranquillo della presenza e della prossimità. Non perché sia meglio, ma solo perché lì le acque sono placide. Bene, ma non è possibile. E quindi? Usiamolo facendo finta che non ci sia? Ignoriamolo, come un parente poco presentabile? Questa trasparenza da lavoratore domestico è quella che in fondo vorrebbero i grandi venditori di servizi digitali: un maggiordomo che c’è ma non si vede, e piano piano diventa indispensabile anche per legarsi i lacci delle scarpe.
A voler essere pignoli, queste raffigurazioni che stiamo facendo –
che speriamo esagerate – testimoniavano a loro volta l’esigenza di
continuità perfino nell’ambito di relazioni fondate su sfiducia e
disistima.
Le pratiche didattiche innovative, dal canto loro, hanno spesso
mostrato tutta la propria intrinseca debolezza. Per esempio, si sono
rivelati del tutto inutili a fronteggiare l’emergenza i “saperi
aggiuntivi della modernità”, in particolare coding e il pensiero computazionale.
Ancor più cocente la sconfitta della multimedialità – intesa come
fruizione di audio e soprattutto di video – sostitutiva della
testualità, una forma di provvedimento dispensativo davvero subdola
perché, presentata come scelta positiva, esclude invece chi ne è vittima
da esperienze di apprendimento fondamentali. Il tutto corredato da un
altro dei terribili slogan della banalizzazione dell’imparare: rendere i
contenuti “accattivanti”.
Insomma: l’innovazione autoreferenziale poco aveva da dire e da dare e
non ha sedimentato alcunché. La didattica innovativa esce dal lockdown
dell’istruzione in prossimità con le ossa rotte.
Non ti pare?
StefanoP
Innovativo, accattivante, moderno… È vero che prima ancora che le tecnologie bisognerebbe ripensare il discorso sulle tecnologie (non solo digitali). Sono parole che usiamo senza molta attenzione, una volta che abbiamo deciso, o che ci hanno convinto, che hanno un valore a prescindere dal loro contenuto. Importanza del lessico ma anche della grammatica, della retorica: l’uso del singolare (il digitale, la didattica a distanza, la didattica digitale integrata) invece del plurale, le categorie dei media (a distanza, in presenza) usate al posto di quelle didattiche, le sigle che diventano troppo facilmente concetti (DAD, DDI,BYOD). Non è solo un problema della scuola: basta vedere come si intende oggi lo “smart working”. Di questo schiacciamento dei significati delle parole delle conoscenza sul loro contorno tecnico si potrebbe parlare per ore.
MarcoG
Del resto questo era – e rischia di continuare a essere – l’approccio
globale: le “nuove” tecnologie introdotte per ragioni puramente di
mercato.
StefanoP
In generale è vero, nel senso che i tentativi di trasformare l’introduzione di uno strumento nuovo in una occasione di miglioramento e di sviluppo della didattica sono rimasti isolati e non hanno smosso il mondo, come invece hanno fatto le campagne di promozione di sistemi operativi, di suite per ufficio e di browser, di laboratori linguistici e di LIM. Ma secondo me il punto non è più quello dei prodotti: ora il vero mercato è quello dei dati, a cui del resto abbiamo già accennato. Non è un caso che l’espressione che si usa per definire questo millennio è “i dati sono il nuovo petrolio”.
MarcoG
Non capisco cosa c’entrano adesso i dati…
StefanoP
Qui non abbiamo solo nuovi prodotti che si gettano su un mercato esistente, abbiamo un mercato che si crea quasi da zero grazie a questi servizi. Provo a spiegarmi meglio (ma è un po’ lunga, mettiti comodo). Ragionando in termini strettamente economici, il modo di produzione di reddito capitalistico (semplificando all’estremo) richiede una quantità di un bene (la “materia prima”) e dei mezzi di trasformazione massivi. Materie e mezzi hanno un costo tale da richiedere un grande investimento che non può essere fatto a livello artigianale o familiare. Da questo punto di partenza puramente dimensionale derivano gli altri aspetti che conosciamo bene: la riproducibilità tecnica che richiede la standardizzazione del prodotto, i magazzini necessari per lo stoccaggio delle merci in attesa della distribuzione capillare verso gli acquirenti finali, la comunicazione pubblicitaria che punta a stimolare il consumo per abbassare i costi di magazzino, eccetera.
Cosa succede se la materia prima sono i dati, le merci sono servizi digitali e i mezzi di trasformazione sono computer? Ovviamente perché si avvii il pesante volano capitalista ci vogliono tanti dati e ci vogliono computer molto potenti; perché le merci siano acquistate bisogna che tutti i consumatori abbiano gli strumenti per consumarle e siano spinti a farlo. Non è difficile capire Google in questi termini.
Ma da dove vengono le materie prime digitali? Possiamo immaginarle divisi in tre categorie. I dati si estraggono prima di tutto leggendo fenomeni analogici e assegnando un numero: sensori che catturano la luce, il suono, l’umidità. Questi dati sono abbastanza oggettivi, anche se portano con sé almeno le coordinate spazio-temporali del rilevamento. Poi ci sono i dati che hanno senso solo se riferiti a qualcuno, e derivano dal rapporto di quel qualcuno nel contesto: la posizione assoluta, calcolata tramite triangolazione satellitare o usando le celle dei dati, oppure relativa ad altri soggetti. Un terzo tipo di dati, ancora più centrati sul soggetto, è quello relativo al nostro uso dei servizi digitali stessi. Questo tipo di dati è quello che si sposa alla perfezione con il modello capitalistico perché genera un accumulo a valanga: più utenti usano un servizio, più la qualità di quel servizio migliora e più altri utenti lo useranno. Basta pensare a come funziona Waze, l’app israeliana ora di proprietà di Google: segnala il traffico e prevede i tempi di percorrenza usando i dati degli utenti che usano l’applicazione stessa. Peraltro, in questo modello di business, non è l’utente che paga il servizio, ma le aziende “partner” a cui Waze vende spazi pubblicitari ultra contestualizzati, esattamente come fa Google Maps. Lens/Socratic, l’app di cui si è parlato di recente in connessione all’apprendimento della matematica, è basata sullo stesso principio.
La trasformazione della qualità in quantità non è un’idea nuova: corona il sogno di Galileo, è la dimostrazione che davvero il mondo è scritto in caratteri matematici. Già la fisica quantitativa, quella nata appunto nel Seicento, usava la matematica per elaborare i dati e prevedere il futuro, basandosi sulle regolarità dell’esperienza; ma l’informatica offre la possibilità di conservare le rappresentazioni numeriche del mondo e poi usarle al posto del mondo stesso. Sono i modelli digitali, non più solo matematici; sono i software che simulano dinamicamente un pezzo di mondo. L’ultimo e importantissimo passo è quello dell’interfaccia sensoriale con i modelli, quella che ci permette di interagire con queste simulazioni come se fosse realtà. Il modello viene rappresentato in modo significativo per noi (la previsione di pioggia sotto forma di nuvolona nera) e ci vengono date delle maniglie per manipolare la simulazione (spostare il centro delle previsioni nello spazio o nel tempo). Ai tempi dei miei ragionamenti astratti parlavo di dati, struttura e interfaccia come i tre componenti di qualsiasi software. L’interfaccia-utente è quella che permette di interagire con i modelli, e dal tracciamento delle interazioni si generano nuovi dati. Così siamo tornati al punto di partenza: i servizi digitali basati su dati producono i dati stessi. È una specie di moto perpetuo che produce valore.
Come ci sembra naturale la fisica quantitativa che ha sostituito quella qualitativa, così ci sembra naturale che ogni fenomeno possa essere tradotto in dato digitale. Non ci facciamo più tante domande e diamo per scontato che il rispecchiamento digitale sia sempre possibile e che sia perfetto.
Dietro la digitalizzazione c’è però sempre un filtro. Non vengono presi in considerazione tutti gli aspetti del mondo, come è ovvio (altrimenti la mappa sarebbe il territorio). Alcuni aspetti sono più interessanti, perché possono produrre valore. Altri si possono tranquillamente trascurare. La parola “rispecchiamento” ci dovrebbe fare pensare subito che lo specchio offre un’immagine diversa dal reale, che dipende dalla curvatura della superficie, dalla luce, dall’umidità. Insomma, tutto tranne che fedele.
Quando si acquisisce un’immagine con uno scanner o quando si fa una foto con un telefono si prendono solo alcuni punti e si buttano gli altri. Quanti punti? Dipende dalla memoria disponibile, dall’uso futuro, dalla potenza di calcolo che si può usare per trattarli. E cosa prendiamo di ogni punto? La luminosità, il colore, la distanza? Prendiamo un solo dato per ogni punto, oppure varie versioni a distanza di qualche centesimo di secondo, da posizioni leggermente diverse, che poi mettiamo insieme per ottenere un’immagine “migliore”?
Il problema è che tendiamo a pensare che la rappresentazione digitale sia perfetta; esattamente come pensiamo che, se un’informazione (un libro, un articolo, un prodotto) non è citata da una risorsa web, non esiste, O peggio, anche se esiste, ma non è censita da Google o da altri motori di ricerca, non esiste lo stesso. Ci abituiamo all’idea che quello che non è rispecchiato digitalmente non esiste affatto.
C’è un secondo senso per cui il rispecchiamento non è assoluto: i numeri dell’informatica sono sempre discreti, a prescindere dal fatto che si usi la numerazione binaria o meno. Un orologio digitale permette di rappresentare solo 86.400 secondi in un giorno. Non c’è modo di rappresentare quel momento che stra tra le 22:02:59 e le 22:03:00 . Quando si usano tre interi compresi tra 0 e 255 per rappresentare un colore naturale (ad esempio rosso, verde e blu) si stanno definendo 16 777 216 colori, e quindi si sta rinunciando a rappresentare gli altri colori possibili; cioè si decide che alcuni colori naturali che sono diversi verranno rappresentati come lo stesso colore.
Anche in questo caso, l’abitudine ci spinge a trascurare questo filtro e a immaginare che il tempo sia il tempo digitale e lo spazio dei colori sia quello del sensore CCD del nostro telefono.
Ma l’immagine memorizzata è fin da subito manipolata da un software. Che fa cose ancora più complesse: non si limita a trascurare dei dati, ma ne crea di nuovi mettendo insieme quelli che riceve, a volte secondo le nostre indicazioni (come per i filtri creativi), a volte senza – come quando i dati creati al momento di scattare la foto (data, luogo, marca, modello) vengono inviati al servizio “cloud” che usiamo per la conservazione delle immagini stesse e magari rivenduti per creare statistiche aggiornate. Alla fine l’immagine che salviamo nella memoria del telefono è frutto di un “rispecchiamento” della realtà che è molti di più di una duplicazione in scala ridotta e portatile.
È questo stesso meccanismo che è alla base della profilazione dei comportamenti degli utenti. Un profilo è una composizione di più valori lungo diverse dimensioni. Lo scopo è quello di classificare, di mettere nella stessa classe comportamenti e persona che “in realtà” sappiamo essere diversi. La conversione della vita analogica in profilo digitale elimina necessariamente delle aree intermedie, e quindi standardizza le persone; non solo, ma tratta i dati, li modifica, crea altri dati sulla base di quelli.
Qui c’è la difficoltà centrale, a mio avviso: da un lato, questa creazione di una realtà parallela è naturale per l’informatica, è così che funziona anche nel caso più trasparente; dall’altro, gli effetti negativi sulle nostre vite non sono attribuibili alla cattiveria dell’algoritmo che crea un profilo a partire da una collezione di dati, ma ad una scelta precisa nel progettare il software sottostante e soprattutto nello scegliere quali pesi vanno utilizzati per attribuire più valore ad un dato anziché ad un altro per categorizzare un comportamento.
MarcoG
Secondo te questo significa che non possiamo fare niente?
StefanoP
No, certo, un margine di azione c’è sempre. Non è facile vedere quale…
Io sto maturando una convinzione “tattica”. Dobbiamo ragionare su
come depurare i dispositivi digitali dalla subalternità alle skills del
capitalismo di sorveglianza da una parte e della immotivata e anzi
controproducente discontinuità professionale dall’altra per verificare
se possano contribuire non solo a ridurre il danno ma anche a migliorare
l’apprendimento. Il ministero ha fatto scelte ancora una volta molto
chiare: partnership con le multinazionali digitali e rinuncia
alla realizzazione di una infrastruttura pubblica, negoziata, flessibile
e aperta a modifiche. Si preferisce insomma adeguarsi allo scenario
prevalente presentandolo come l’unico possibile, senza metterlo in
discussione, e quindi scaricare sui singoli utenti il carico
dell’autotutela e della adozione di comportamenti corretti, per esempio
nei confronti della diffusione intenzionale e manipolatoria di campagne
d’odio o di notizie false, ricorrendo alla già di per sé ambigua nozione
di “cittadinanza digitale”, per di più ridotta a confusa forma di
insegnamento.
Esistono però anche altri scenari e altre impostazioni, con intenzioni alternative a quelle dei dispositivi mainstream:
dal software libero alle piattaforme destinate alla cooperazione non
tracciata e ai motori di ricerca che non mettono in atto la profilazione
degli utenti.
Sei d’accordo sul fatto che ciò dovrebbe diventare patrimonio concettuale e operativo condiviso?
StefanoP
Condiviso da chi?
MarcoG
Da parte di tutti coloro che si battono per un approccio critico alla
“questione digitale” che non sia soltanto respingimento, ma
progettazione alternativa, difesa della libertà di insegnamento come
garanzia culturale, diritto collettivo e pratica dell’emancipazione
professionale e intellettuale.
StefanoP
Non sono ottimista come te, anche se sono vent’anni che lavoro solo con software libero… Comincio col riconoscere che hai ragione a mettere in relazione la licenza del software con tutto quello che abbiamo detto. Non lo fanno in tanti, non lo fa (sempre) il Ministero, ma nemmeno la UE nei suoi questionari sull’uso delle tecnologie digitali nell’era del COVID se ne ricorda. Quella del software libero è una questione etica ma anche sociale, nel senso che rilasciare il codice sorgente con una certa licenza modifica la maniera di lavorare, di apprendere, di vendere e comprare, e non solo di utilizzare un software. Il software libero non avvantaggia solo l’utente finale, che non spende soldi per acquistarlo, ma soprattutto l’ambiente dove l’utente agisce. Però bisogna essere franchi a costo di essere sgradevoli: il mito del software per imparare la matematica sviluppato da un genio sconosciuto nascosto nel suo scantinato e regalato al mondo per amore dell’umanità è, appunto, un mito. Certo, ci sono casi di docenti con un po’ di competenza di programmazione che per aiutare lo studente amico del figlio abbozzano un software per fare la tabelline in Visual Basic (l’ho fatto anch’io). Ci sono casi di informatici che hanno un lavoro tradizionale ma di notte lavorano ad un progetto personale. Ma non è su questi casi sporadici che si costruisce una soluzione sostenibile al problema di come produrre, distribuire, manutenere del software per la scuola.
MarcoG
Proprio tu che lavori allo sviluppo di software open source non sei a favore del software gratis per tutti?
StefanoP
No. O meglio: sono a favore di una dotazione di software educativo a tutte le scuole, come ci sono banchi, attaccapanni e cestini, ma anche lavagne, cartine e mappamondi, laboratori di fisica e chimica e palestre. Questo però non significa che chi produce attaccapanni e mappamondi debba consegnarli gratis alle scuole: qualcuno dovrà progettarli e costruirli, qualcuno dovrà consegnarli e ripararli quando si rompono, qualcuno di cui ci si possa fidare e che si possa chiamare in qualsiasi momento. Allo stesso modo, qualcuno deve studiare, progettare, sviluppare, testare, distribuire e aggiornare il software, esattamente come qualsiasi altro artefatto; non si può pensare che questo lavoro posso essere svolto gratuitamente da volontari sparsi a caso nel mondo.
MarcoG
E allora Wikipedia? La cito come esempio di iniziativa libera, frutto
del lavoro di volontari in opposizione alle enciclopedie prodotte da
dipendenti pagati.
StefanoP
Appunto, Wikipedia costa circa 2,5 milioni di dollari l’anno solo di hosting, e 40 milioni di dollari di personale. La fondazione che gestisce oggi Wikipedia ha 350 dipendenti e si sostiene con donazioni milionarie da parte di Google, di Virgin, di Amazon, di George Soros, di altre fondazioni private e delle donazioni dei singoli, arrivando ad un bilancio di 120 milioni di dollari. Wikipedia nasce come progetto profit (Nupedia) da parte di un azienda che aveva provato un po’ di tutto, compreso il porno (Bomis); ma siccome il modello di business non funzionava, viene trasformata in un progetto no-profit nel 2003 con la creazione di una fondazione, Wikimedia. Insomma, tenere in piedi un progetto delle dimensioni di Wikipedia non richiede solo persone di buona volontà ma anche una visione imprenditoriale, molta organizzazione e tanti soldi.
Il mondo dell’opensource è composto in buona parte da aziende (in generale PMI, ma alcune piuttosto grandi) che pur permettendo il download del codice sorgente forniscono a pagamento software opensource garantito, con un contratto annuale che assomiglia molto ad una licenza e comprende assistenza e supporto. Un esempio che molti conoscono è Moodle Pty Ltd, la società australiana che gestisce lo sviluppo della piattaforma di e-learning Moodle. Con circa 150 impiegati, Moodle si sostiene vendendo direttamente servizi (hosting, formazione) ma anche con i contratti annuali dei partner certificati. Nel 2017 ha ricevuto un investimento di 6 milioni di dollari da un fondo di proprietà della famiglia Leclerq (quella di Decathlon). Un altro esempio è la società Canonical ltd che mantiene Ubuntu, una distribuzione Linux molto conosciuta. Fondata da un miliardario sudafricano (uno di quelli che si sono pagati un viaggio turistico sulla Soyuz), Canonical ha oggi 600 dipendenti; dopo averne licenziati 200, nel 2017 ha avuto un margine operativo di 2 milioni di dollari.
Qui siamo molto lontani dallo sviluppatore che di giorno lavora alla posta e di notte sviluppa il suo motore di ricerca alternativo: sono aziende for profit, che hanno dei costi, dei ricavi, un bilancio. Non c’è niente di male, ma queste aziende non vanno confuse con associazioni di volontari idealisti. A volte si usa la distinzione tra “opensource” e “free software” proprio per distinguere tra un approccio funzionalista e uno etico-politico. Ci sono entrambi, vanno tenuti presenti entrambi.
È vero che una parte del software libero è anche gratuito; questo è un volano potente ed è significativo soprattutto per gli sviluppatori singoli e le micro-imprese che possono permettersi di sviluppare software senza dover pagare migliaia di euro di sistemi operativi e strumenti di sviluppo, o per le piccole società che offrono hosting a prezzi bassi utilizzando server Linux con Apache, MariaDB, Php, Python etc. Ma non avrebbe senso pretendere che questi servizi venissero offerti gratis alle scuole, perché sarebbe solo un modo per privilegiare le grandissime aziende che possono permettersi di investire in pubblicità e offrire piattaforme e banda in cambio di un ingresso dal portone principale della Scuola.
E allora dove sta il free? Come si dice: il software libero è free nel senso di free speech, non nel senso di free beer. Il software libero ha il codice sorgente aperto, che significa che chi lo ottiene può ispezionarlo, leggerlo, imparare da esso; ma anche modificarlo e ridistribuire la versione modificata. Questo vuol dire che può essere ragionevolmente sicuro che non ci siano parti nascoste che rubano dati personali e li spediscono allo sviluppatore all’insaputa dell’utente; vuol dire che se lo sviluppatore muore, il progetto può continuare. Vuol dire che progetti più grandi si possono costruire utilizzando librerie e parti di progetti più piccoli. Questi aspetti sono molto più importanti del fatto contingente che un software sia gratuito: potrebbe essere gratuito ma non libero, cioè senza codice sorgente aperto, come il cosiddetto freeware o il software di pubblico dominio.
Insomma, software libero è un modo di sviluppo del software che si adatta particolarmente bene al software educativo; ma bisogna trovare un modo di sostenerne economicamente lo sviluppo nel tempo, altrimenti si finisce per fare un guaio peggiore: far scomparire dalla faccia della terra quel tessuto di sviluppatori, di piccole imprese, di cooperative che potrebbero costituire un’alternativa alle multinazionali digitali. E la scuola potrebbe fare la sua parte.
Ti ho messo in crisi?
MarcoG
No, sei stato ancora una volta illuminante e mi hai donato birra
intellettuale, anche se nel mio caso analcolica, e mi spingi a ragionare
meglio e più da vicino sul tema del software libero, che per un lungo
periodo ho sottovalutato, considerandolo la versione naïf di quello commerciale.
È vero: il software in generale – libero o commerciale – esercita la
“dittatura del calcolo” cui tu hai accennato e di cui parla in modo
particolarmente illuminante Zellini,
e ogni realtà rispecchiata è il frutto di computazione in funzione di
variabili e di criteri che sono per forza delle cose frutto di scelte
vincolanti e limitative. Ma il free software dà un messaggio che vale la
pena di cogliere, valorizzare e diffondere, in contrapposizione
esplicita con l’assetto mainstream: la conoscenza è cooperazione sociale
in continuo evolversi dinamico e nessuno se ne può appropriare in forma
esclusiva o anche solo dominante. Di conseguenza, la costruzione di
dispositivi digitali che influenzano la conoscenza e il lavoro e le
modalità del loro impiego, individuale e collettivo, deve fare i conti
con i diritti e non determinare condizionamenti.
Sono convinto, insomma, che dobbiamo continuare a ragionare in modo
critico, in particolare sul capitalismo di sorveglianza, ma che sia
anche urgente e possibile dare indicazioni alternative, per una cultura
positiva e pratiche fattive nel campo delle tecnologie digitali
dell’informazione e della comunicazione per la didattica.
Dobbiamo, cioè, diventare e considerarci capaci di applicare e
diffondere una prospettiva differente e di concepire e praticare
soluzioni diverse dal rifiuto aprioristico, versione del “senza se e senza ma” destinata a subalternità operativa e ad asfissia politica e – quindi – ad auto-emarginazione.
È quanto mai evidente, infatti, che – nonostante il fallimento della
prospettiva dell’innovazione – le piattaforme capitalistiche di
intermediazione digitale proprietaria hanno sfruttato il lockdown
e le richieste e le disponibilità di ministero, di singoli istituti e
di molti insegnanti per estendere e rafforzare la propria egemonia,
fondata sulla conoscenza sorvegliata e sull’estrazione di dati spacciate
per cooperazione e per altro già molto diffusa nell’istruzione in
generale e nelle varie scuole.
E quindi, se vogliamo riuscire a resistere in misura efficace
all’irruzione della logica e della logistica tecno-liberiste
nell’istruzione della Repubblica, secondo il “dispositivo digitale
mainstream”, dobbiamo prioritariamente svincolarci dall’uso delle
categorie e del lessico totalizzanti e polarizzanti – per esempio, “la”
didattica a distanza, “il” digitale, “le” tecnologie – per costruire
quadri concettuali autonomi, divergenti, a vocazione esplicitamente
emancipante.
In particolare, non possiamo continuare a (lasciar) confondere la
sfera e il discorso pubblico con l’insieme dei rapporti di comunicazione
mediati da aziende private multinazionali, come troppi fanno, per
esempio rappresentandosi Facebook come un’agorà.
Penso che sia utile approfondire il tema della conoscenza così come i
differenti dispositivi digitali – sì, perché possono non essere tutti
uguali! – se e ce la rappresentano.
La “platform society” del capitalismo digitale, come abbiamo già
accennato, pratica continui processi di appropriazione unilaterale della
rete internet e dei dati e dei comportamenti degli utenti. Non
stupiamoci: questa logica produce strumenti di accumulazione, di
profitto e considera la conoscenza come una risorsa per la creazione di
valore economico ed aspira ad accumularla e sfruttarla in modo
tendenzialmente monopolistico.
Dell’atteggiamento culturale sotteso al movimento per il free
software, invece, mi convince e mi dà speranza il rapporto ideale con la
conoscenza che ho descritto poco fa. Preciso per altro che sono
assolutamente d’accordo con te sul fatto che questo debba sfociare nel
pieno riconoscimento del lavoro prestato, strumento fondamentale per
l’incremento della conoscenza di tutt* e di ciascun*. Non vogliamo
riders dell’istruzione e nemmeno possiamo contare sul volontariato.
Alle tue osservazioni critiche, io aggiungerei anche che nel mondo
dell’opensource ci si imbatte ancora troppo spesso in una fastidiosa
tendenza elitaria, quella di chi pensa che in fondo la vera capacità
d’uso passa per l’interfaccia a comandi, l’unica a permettere e
dimostrare la piena comprensione del funzionamento del dispositivo.
Oppure di coloro che invitano sdegnosamente a consultare help e manuale
di istruzioni anziché fornire la risposta a qualche domanda di
chiarimento. Non per caso, del resto, scrissi anni fa un articoletto
intitolato “Codice aperto. Mentalità chiusa?”, purtroppo ora non più
reperibile, in cui in sostanza affermavo la necessità di uscire da un
approccio che allora mi appariva troppo auto-selettivo e che oggi mi
sembra più che mai ingiustificatamente individualistico.
Credo però che proprio l’emergenza sanitaria e formativa possa
permetterci non solo di criticare posizioni di questo tipo, ma di
provare a farle evolvere nel loro opposto, assumendo e proponendo in
ogni sede di discussione in modo intenzionale – sono affezionatissimo a
questa parola – una prospettiva sociale.
Cerco di spiegarmi meglio.
Detto in un altro modo, voglio valorizzare l’approccio etico-politico
e non economicista, in particolare l’idea che ciascun singolo e
soprattutto ogni comunità hanno diritto al controllo di ciò che
utilizzano e dei propri dati.
In riferimento alla costruzione di un dispositivo digitale
alternativo a quello del capitalismo di piattaforma, “apertura” e
“libertà” mi sembrano insomma significare soprattutto trasparenza e
consapevolezza da parte di tutti coloro che sono coinvolti.
Bene, questo approccio e le sue implicazioni devono assumere
esplicita valenza collettiva. Smettere di essere patrimonio più o meno
esibito di alcun* o accesso iniziatico a gruppi particolari, per
dispiegare invece tutta la propria potenza politica nella sfera
pubblica, intesa come dibattito, sintesi, scelta, ma anche come
dimensione operativa su mandato collettivo, appunto consapevole e
aperto.
La prospettiva open/free, insomma, se intesa come sto cercando di
ri/definirla, può costituire la base su cui costruire un uso sociale e
autenticamente democratico delle tecnologie digitali con lo scopo di
accrescere conoscenza e benessere in modo equo.
Prendiamo ad esempio il caso del tracciamento a scopo di prevenzione e
intervento sanitario, testimoniato dalle discussioni sull’installazione
di “Immuni”:
è una buona idea, ma – oltre a garantire a ciascun* la riservatezza dei
propri dati sensibili – l’impiego dell’intelligenza artificiale deve
essere il frutto di un mandato consapevolmente finalizzato all’utilità
pubblica e indirizzato con procedure che garantiscano chiarezza e
trasparenza sulla raccolta e sull’uso dei dati, secondo criteri
bio-medici e statistici, ma anche civici, etici, ecologici, economici e
sociali, espliciti e condivisi, non sulla base dell’affidamento a un
golem postumano.
Certo, la realizzazione concreta e tutti gli aspetti operativi
connessi sono compito di coloro che possiedono le capacità tecniche, ma
va denunciata e scardinata l’impostazione tecnocratica – ahimè! in
vigore – che si arroga non solo il diritto di individuare i problemi su
cui investire risorse, ma anche la potestà esclusiva di articolarne gli
aspetti, di definire parametri e criteri di soluzione, di valutare
l’efficacia dei meccanismi prodotti.
Nella condizione tecnocratica attuale, alla cittadinanza
digitalizzata – a volte addirittura a sua insaputa – spesso non è
richiesto nemmeno il consenso informato, quanto piuttosto un adeguamento
fiduciario, firmato in bianco.
Questo rovesciamento dell’impostazione – che per brevità possiamo
chiamare algoretica – può essere estesa a tutti i campi d’esercizio
della potenza di calcolo e interpretativa dell’IA.
Certo, sarebbero necessarie modalità di istruzione molto diversa da
quella attuale (prerequisito una visione emancipata e non adattiva del
pensiero computazionale), investimenti in infrastrutture pubbliche,
sinergie aperte tra diversi saperi specialistici – dalla medicina alla
filosofia, dal diritto alla statistica e così via –, volontà di
confronto.
Non ci possiamo nascondere, inoltre, che un’impostazione che vuole
restituire agli esseri umani la capacità decisionale collettiva deve
fare i conti con l’algocrazia attualmente dispiegata dal capitalismo di
sorveglianza, sulle cui procedure operative vige il segreto industriale,
ormai molto vicino a quello militare, dal momento che con ogni evidenza
è alla base dell’esercizio di un potere condizionante la quotidianità
della vita umana. L’iniziativa culturale e politica dovrebbe mandare in
corto circuito l’acquiescenza acritica, ormai così diffusa da aver di
fatto accettato che alla sovranità fondata su territori, popoli e
istituzioni si aggiunga – e spesso si sovrapponga – quella
dell’intermediazione messa in atto da data server digitali con consumi
di energia non per caso paragonabili a quelli di Stati, come tu stesso
sottolinei.
Affermare e praticare la necessità che le scelte nel campo dell’ICT
applicata alla vita umana debbano essere aperte, cioè trasparenti e
collettive, costruendo le sinergie necessarie, è, insomma, a mio
giudizio il solo modo per recuperare un senso di auto-efficacia sociale
capace di invogliare alla partecipazione attiva e alla fatica
intellettuale che un’autentica cittadinanza critica richiede.
Ora facciamo però un salto in un futuro forse utopico. Gli assi
portanti dell’intervento pubblico in materia di istruzione digitalizzata
sono l’approccio etico e il riconoscimento della conoscenza e del
lavoro come risorse sociali di emancipazione individuale e collettiva e
viviamo un quadro politico-istituzionale davvero costituzionale, privo
di “secondi fini”, trasparente e libero da operazioni di tracciamento a
fini di profitto. Come potremmo valorizzare le caratteristiche dei
dispositivi digitali nella direzione di un autentico e pieno diritto all’apprendimento individuale e collettivo?
StefanoP
Mi piace la tua domanda, formulata in questo modo. Per me la risposta, o una delle risposte, è: per aiutare gli apprendenti a costruire delle teorie, cioè delle rappresentazioni complesse e dinamiche del mondo. Perché questa operazione (costruire un modello sperimentale del mondo, una simulazione dinamica di un processo), malgrado quello che ci ostiniamo a pensare, non si riesce a fare del tutto con la parola, con il disegno, con i libri, con le lavagne: tutti questi sono strumenti di rappresentazione statici, in cui statico non è opposto a multimediale o animato, ma a dinamico. Con i computer si possono rappresentare simboli e definire delle regole con le quali questi simboli si combinano_ nel tempo_ e creano nuove strutture.
Un esempio di questa operazione: scrivere un testo. Qualcuno potrebbe dire: ma perché, non si poteva fare con la penna e il foglio di carta?
MarcoG
Io no. Anche perché sono notoriamente un amanuense disgrafico con centinaia di pubblicazioni.
StefanoP
È vero. Comunque: sì, si poteva usare la carta se l’obiettivo fosse stato quello di produrre un testo, come in ufficio, come a casa. Invece a scuola – voglio dire in un contesto educativo – l’obiettivo finale non è produrre, e nemmeno imparare a produrre, ma capire. In un ambiente digitale educativo si impara a scrivere un testo, ma soprattutto si capisce cos’è un testo, di quali parti è composto, come nasce, come evolve quel testo nelle mani dell’autore o di altri autori successivi o contemporanei. Un ambiente digitale educativo permette di capire che un testo non è solo una sequenza di righe scritte su un foglio di carta, perché permette di astrarlo dal supporto, duplicarlo, distribuirlo indipendentemente da quello. Un testo è, in ogni momento, una fotografia di un universo (ad esempio, narrativo), una rappresentazione che utilizza diversi livelli (lessico, grammatica, sintassi, stilistica, retorica).
Naturale. Anche se non so quanti la vedano in questo modo. Ma dov’è che interviene il digitale educativo?
StefanoP
Ci arrivo. Intanto devo dirti che trovo strano che normalmente non si distingua tra due usi dell’informatica, o meglio due livelli: l’elaborazione dei dati e quella dei simboli. Mi pare una distinzione fondamentale, e quindi provo a farla io, perché ci serve per capire cosa dovrebbe fare un ambiente digitale educativo.
L’informatica è nata per accelerare e automatizzare le trasformazioni dei numeri, cioè i calcoli. Quali calcoli? Quelli che servivano alla balistica per calcolare la traiettoria di un missile (l’ENIAC, nato per questo scopo nel 1946 ma usato poi per la meteorologia); o quelli che servivano alla statistica per il censimento della popolazione (i primi UNIVAC in uso al Census Bureau USA nel 1951). Questo scopo è ben presente anche oggi: le centraline delle automobili, ad esempio, sono piccoli computer che prendono i dati dai sensori del motore (fase, pressione, temperatura), li elaborano e restituiscono dei valori che sono usati per regolare la miscela aria-benzina, l’accensione delle candele, insomma il funzionamento ottimale del motore. L’IoT, l’internet delle cose, è un modo di dire che la distanza fisica tra i sensori e gli elaboratori dei dati non è rilevante, e che monitorare un processo critico – raccogliere dati continuamente – può servire a evitare danni peggiori. I computer possono continuamente fare calcoli fino a mostrare cosa succederebbe se…, in modo da consentirci di prendere decisioni più in fretta senza aspettare di vedere effetti macroscopici.
In tutti questi casi, i dati che vengono trattati sono numeri che rappresentano grandezze fisiche, in ogni caso aspetti primari della realtà. Vale naturalmente anche per i suoni e i colori.
Ma i numeri si possono usare anche per rappresentare simboli, che sono già a loro volta rappresentazioni della realtà. Per esempio, le lettere dell’alfabeto di una lingua naturale sono simboli che si possono rappresentare con numeri secondo una tabella standard (ASCII, 1968). Quindi con i computer si possono raccogliere e contare lettere, parole e frasi. Non è che sia una scoperta recente: uno dei primissimi computer, il Colossus, serviva a decifrare i messaggi tedeschi, giapponesi e italiani per conto della Royal Navy, quindi lavorava proprio su serie di lettere. Ma da qui nasce anche l’informatica umanistica negli anni ‘50, quando padre Roberto Busa SJ si mette in testa di costruire un lessico completo dell’opera di Tommaso d’Aquino usando un calcolatore a schede perforate che gli presta l’IBM. Oltre a contare, però, i simboli si possono anche trasformare e si possono produrre nuove raccolte di simboli, cioè dei testi. Come in un word processor o un editor HTML.
Questo dell’elaborazione simbolica è un livello diverso, anche se dal punto di vista dei computer non è che cambi poi tanto. Dal nostro punto di vista, invece, lo è davvero, perché noi siamo abituati da qualche centinaio di migliaia di anni a presupporre di essere l’unico agente in grado di trattare simboli, e quindi siamo piuttosto ingenui quando si tratta di valutare le produzioni simboliche di altri agenti. Di qui l’Intelligenza Artificiale, i virus, i BOT dei social network, i software che producono plot narrativi.
Da qui deriva anche le possibilità di applicazione del digitale nell’educazione, perché nell’educazione si lavora con le parole, con i concetti, con le relazioni tra concetti, e si impara come costruirne di nuove. E quindi un software che sia capace di trattare questo tipo di oggetti e di fornire un piano dove collocarli, spostarli, cancellarli e richiamarli diventa fondamentale.
Allora: un ambiente educativo per la scrittura digitale permette di lavorare a tutti questi livelli (fonetico, lessicale, sintattico, stilistico) in maniera indipendente, perché questi livelli sono stati codificati come simboli, e con i simboli i computer si rapportano piuttosto bene, come abbiamo visto. Insomma, ci sono tonnellate di articoli e libri che raccontano come si possa capire cosa significa “testo” usando un software senza che io ti tedi oltre.
MarcoG
Infatti. Si può usare anche Word… pardon, Libre Office Writer…
StefanoP
Qui dobbiamo stare attenti: più lo strumento è standard, da adulti, mirato al risultato, più occorre che il docente faccia un lavoro di adattamento alla situazione, di completamento, di astrazione dalle modalità standard. Ma è possibile, nella misura in cui lo strumento può essere modificato per adattarlo al contesto dell’apprendente.
La scrittura è un esempio forse un po’ tirato per i capelli (ma l’ho fatto perché so che te ne sei occupato a lungo), ma ce ne sono tanti altri più diretti: ad esempio, una mappa concettuale per rappresentare un contesto storico/geografico in cui si possano filtrare i link o espandere i nodi per una navigazione differenziata in base alla domanda di fondo. Oppure, per spostarci in ambito scientifico “duro”, una simulazione del comportamento di un ambiente basata sull’equazione di una legge fisica in cui si possano variare i valori dei parametri. Una simulazione interattiva in cui si possa accelerare la rivoluzione terrestre o il ciclo della pioggia per vedere cosa succede dopo dieci, mille, un milione di ripetizioni.
Per costruire da zero questo tipo di modello dinamico (non solo usarlo) non si possono usare i simboli del linguaggio naturale, ma ci vogliono quelli di un linguaggio artificiale, di un linguaggio di programmazione; e qui passiamo al coding, o almeno ad una forma possibile di coding. Anzi, potremmo immaginare un ventaglio continuo di possibili ambienti educativi che va da quelli fortemente strutturati (in cui non si può fare altro che reagire a stimoli e rispondere a quiz), e poi passando per vari gradi di apertura (i software didattici da esplorare liberamente) arriva fino all’estremo del coding, in cui la struttura va creata da zero prima di poterla esplorare.
In tutti questi casi, infatti, quello che conta è che l’ambiente digitale sia pensato come educativo. Il che non significa che deve essere “pieno di contenuti semplificati”, ma che deve essere progettato appositamente per permettere all’apprendente di prendere confidenza man mano che lo utilizza, modificandone l’interfaccia e la logica, adattandolo al suo personale e attuale livello di competenza.
Questa plasticità dell’ambiente digitale (che è possibile appunto perché è digitale, e non lo sarebbe se fosse un ambiente fisico rigido) deve essere accompagnata da una forma di consapevolezza di quello che accade al suo interno. Niente intelligenza artificiale, solo monitoraggio delle operazioni; una raccolta continua di dati che non serve a profilare l’apprendente per vendergli qualcosa, ma a valutare l’apprendimento per personalizzare l’ambiente stesso in maniera più pronta e utile a chi apprende al suo interno. Un monitoraggio esplicito, i cui dati siano disponibili per l’apprendente e per il docente, o per il gruppo formato da apprendenti e docenti.
Tra parentesi: questa è la giustificazione dei cosiddetti strumenti di Learning Analytics. I dati – quegli stessi dati che oggi fanno la fortuna di Google, di Amazon e di tutti gli altri grandi – possono e devono essere di proprietà di chi li ha prodotti, ed essere resi pubblici in forma anonima, come open data. Qui bisogna essere ragionevoli e smettere di confondere strumento e utilizzo. Come per gli “algoritmi cattivi” di cui hai già parlato tu: non si tratta di demonizzare i dati, ma di ripensarne il processo di produzione e distribuzione in un’ottica di sviluppo delle persone. I nostri dati ci appartengono, ma dobbiamo essere messi in condizione di usarli.
Tu ti occupi di formazione degli insegnanti, di queste cose ha scritto tanto. Mi dai un po’ di link?
MarcoG
Certo. Per primi, cito gli ausili
in campo sensoriale e motorio, che sono numerosissimi e vengono via via
perfezionati, con lo scopo di facilitare – e in alcuni casi di
permettere – l’accesso e la pratica di percorsi di istruzione e di
contesti operativi da parte di tutt* con il massimo di autonomia e di
efficacia possibili, proprio sfruttando quella possibilità di elaborare
simboli in modo dinamico che hai appena descritto.
In questa medesima prospettiva si colloca la multimodalità, ovvero la
possibilità di realizzare facilmente contenuti fruibili in modi diversi
e il più possibile equivalenti sul piano espressivo e concettuale:
l’esempio tipico è il testo digitale, che – digitato una volta – può poi
essere letto a schermo e su carta, stampato in braille e ascoltato via
sintesi vocale.
Se ragioniamo sul testo,
dobbiamo riflettere sulla plasticità operativa e cognitiva che gli
conferiscono trasferimento o elaborazione diretta su “supporto
flessibile” (chi non ha apprezzato il taglia-e-incolla o la possibilità
di cancellare senza conservare residui?). Si configura uno spazio
propedeutico permanente, in cui la scrittura di testi articolati può
essere concepita anche operativamente come processo di apprendimento
mediante la pratica: si possono infatti perseguire e raggiungere
risultati accettabili mediante intenzionali perfezionamenti successivi,
messi in atto in un consapevole rapporto dialettico tra alliev* e
insegnanti. L’idea della “bozza progressiva e collaborativa” è per altro
estensibile a qualsiasi processo di elaborazione da parte degli allievi
di un prodotto culturale e intellettuale mediante dispositivi digitali,
sempre supervisionabile da parte degli insegnanti, non più costretti a
limitarsi a correzione e valutazione finali, ma in grado di attuare, se
necessario, interventi di mediazione e di supporto costanti, lungo tutta
la produzione. Questa prospettiva professionale può incrementare e
valorizzare lo spazio formativo e l’auto-efficacia della funzione
docente, in termini di capacità inclusiva e di individualizzazione
compensativa dei percorsi e delle attività didattiche.
Disporre di testo su supporto flessibile consente inoltre agli
insegnanti di mettere in atto in prima persona gli interventi di
adattamento previsti dai relativi protocolli per i libri di testo.
Voglio anzi sottolineare che la “semplificazione” non è banalizzazione,
dispensa, riduzione, ma la messa in atto di strategie – in questo caso
di tipo linguistico – per migliorare la comprensibilità dei quadri
concettuali e dei contenuti culturali proposti, eliminando le
complicazioni di cui si può fare a meno. Che spesso sono molte più di
quanto si possa immaginare, soprattutto quando si impara a non dare
nulla per scontato.
In questa stessa logica si colloca la presentazione di contenuti affiancando più canali, con una prospettiva non dispensativa (l’immagine al posto del testo), ma integrativa e compensativa (l’immagine oltre
al testo; lo schema come strumento di decostruzione e ricostruzione di
altri materiali di apprendimento). Questo significa anche rifiutare,
come accennavo prima, l’uso di filmati invece di libri, che si fonda
sull’illusione che sia possibile surrogare l’approccio alla conoscenza
permesso dalla più astratta e quindi più potente per estensione e
intensità delle tecnologie della comunicazione – la scrittura e la
lettura di testi complessi – con immagini in movimento, sia pure
corredate di contenuti sonori.
Fino a questo momento ti ho rapidamente declinato alcuni approcci che
vanno nella direzione soprattutto dell’estensione del campo di
efficacia dell’istruzione collettiva, della garanzia democratica in
ordine agli apprendimenti di base, volti a incrementare l’autonomia di
tutt* e di ciascun*, in un sistema di relazioni sociali positive, di
valorizzazione reciproca, in cui il dispositivo digitale è elemento di
coesione e di equità.
Sono però convinto, anche per averlo praticato, del fatto che i
dispositivi digitali abbiano rilevanti potenzialità di salvaguardia e di
cura democratica anche per quanto riguarda un approccio emancipante
alla complessità dei saperi, sempre in virtù della elaborazione dinamica
di linguaggi simbolici.
Innanzitutto, la diffusione di infrastrutture di rete pubbliche e
aperte, con funzionalità negoziate, flessibili e adattabili (anziché
preimpostate e modificate in modo centralizzato e autocratico) può
estendere gli spazi per la condivisione critica e la classificazione
professionale di materiali, attività, proposte, in una logica di
autentica cooperazione, aliena da pratiche competitive e gerarchizzanti.
Le varie rappresentazioni grafiche–
ai cui differenti modelli logico-visivi sono per altro ispirati in modo
rigoroso parecchi software free – possono supportare, esemplificare e
rendere visivi stili di ragionamento anche molto diversi tra di loro,
con diverse modalità cognitive e diverse finalità e implicazioni
formative, ampliando lo spettro e l’estensione del patrimonio di
riflessione e di schematizzazione a disposizione di tutt*, a cominciare
dagli insegnanti.
Il ricorso intenzionale a una consapevole tessitura ipertestuale è
una pratica concettuale con grande potenza sintattica e semantica, di
cui ogni cittadin* deve impadronirsi sul piano cognitivo e culturale:
può costruire percorsi all’interno della rete nel suo insieme, può
chiarire, esemplificare, contrapporre, definire, integrare e così via. A
questo va aggiunta la potenzialità dei QRCode. Facilissimi da generare,
essi consentono di puntare ad un indirizzo web – per limitarci a ciò
che consentono le applicazioni gratuite – anche a partire da oggetti
materiali. Non solo: per attivare il collegamento è necessario
inquadrare il codice attraverso il proprio smartphone e poi confermare
l’operazione. In questo modo, si utilizzano, due diversi supporti, on
funzioni diverse: l’oggetto di partenza e – appunto – lo smartphone,
marcabdo una netta distinzione tra flusso culturale principale e
informazioni aggiuntive. Sul versante cognitivo, questa pratica può
facilitare la strutturazione di interconnesioni logiche congruenti alla
situazione formativa. In modo analogo funzionano i TAG Near Field
Communication (NFC), a loro volta ponte tra atomi e bit.
StefanoP
L’idea di ponte tra mondo fisico e mondo digitale – veicolata da un puntatore univoco e pubblico – è interessante. A differenza dei vari visori di realtà aumentata questo collegamento è pubblico e può essere controllato prima di essere seguito: alla fine si tratta semplicemente di una URL. Può essere un modo facile di aggiungere media diversi: la URL potrebbe essere quella di un audio, di un video…
MarcoG
Infatti. Alla fine del discorso – per ora – c’è proprio la dimensione
multimediale. Come ho già detto forse fin troppo, ne va immediatamente
abbandonata ogni visione sostitutiva e per ciò stesso dispensativa (il
filmato anziché il testo; il film anziché il capitolo di storia o la
lezione di scienze) e va invece praticata l’integrazione tra media
diversi. In particolare, oltre alla possibilità di tessitura ipermediale
a partire da uno o più testi guida, sottolineiamo quella – fornita da
un numero crescente di ambienti – di costruire manufatti multimediali
imperniati su integrazioni, commenti, ampliamenti e così via di uno o più filmati disponibili in rete.
Sono fortemente convinto, anzi, che la possibilità di interrogarsi a
proposito di come esplicitare e rappresentare in più modi e
dinamicamente il verso, il senso e il significato delle relazioni tra
gli elementi di uno o più aggregati informativi e comunicativi
costituiti da elementi di matrice mediale diversa sia la più potente
risorsa formativa della dimensione digitale della cultura, la più vicina
alla natura reticolare, aperta e libera della cognizione umana.
Per ora, mi fermerei qui. Cosa ne dici?
StefanoP
Che abbiamo detto tanto, ma non tutto. Quindi questa conversazione per ora la chiudiamo qui, ma solo per condividerla e renderla pubblica, ovviamente in forma il più possibile libera e aperta. Sperando che qualcun altro voglia iniziare a discuterne con noi…
Anzi no, prima di chiudere raccogliamo qualche indicazione di lettura per approfondire le questioni che abbiamo toccato. Comincio io con le cose che sono andato scrivendo sul mio blog a proposito di algoritmi, coding, monopolio e opensource:
Va bene. Io cito il mio blog preferito, “Concetti contrastivi”,
che si propone niente meno che di “Descrivere le tecnologie digitali
come prodotto sociale e svelarne le ambiguità in modo emancipato e con
scopo emancipante” e un mio recente intervento in un convegno, sull’impossibile neutralità delle e verso le piattaforme.
ANSAS-INDIRE: La Biblioteca di Documentazione
Pedagogica, ente di importanza nazionale istituito nel 1974, ha assunto a
partire dal 1995 anche la funzione di supportare le scuole nell’uso di
Internet. Nel 2001 è diventata Istituto Nazionale di Documentazione per
l’Innovazione e la Ricerca Educativa, nome modificato nel 2006 in
Agenzia Nazionale per lo Sviluppo dell’Autonomia Scolastica (ANSAS) e
poi ripreso nel 2012. Come sintetizzato nella pagina di autoricostruzione storica:
“Nel periodo 2001-2011, l’Istituto è impegnato in grandi iniziative
online per la formazione degli insegnanti italiani e nella promozione
dell’innovazione tecnologica e didattica nelle scuole”.
ITD: L’Istituto Tecnologie Didattiche è frutto dell’unione nel 2002 di due centri precedentemente realizzati dal Consiglio Nazionale delle Ricerche:
l’Istituto Tecnologie Didattiche di Genova (1970) e l’Istituto
Tecnologie Didattiche e Formative di Palermo (1993). Come ricordato
nella pagina iniziale del sito,
che permette anche l’accesso immediato ai progetti più recenti, “è il
solo istituto scientifico italiano interamente dedicato alla ricerca
sull’innovazione educativa veicolata dall’integrazione di strumenti e
metodi basati sull’uso delle tecnologie dell’informazione e della
comunicazione”. Segnaliamo in particolare il servizio Essediquadro, l’attenzione alla didattica inclusiva e – più di recente – le riflessioni sulla didattica di emergenza.
IRRSAE-IRRE: gli Istituti di ricerca regionali, di
sperimentazione e aggiornamento educativi sono stati istituiti nel 1974
in tutte le regioni italiane, impiegando personale “comandato”, ovvero
distaccato dalle funzioni direttive, docenti e tecnico-amministrative
ordinarie sulla base di procedure concorsuali, per svolgere attività di
supporto alla ricerca educativa, alla sperimentazione didattica e
all’aggiornamento metodologico. Nel 1999 gli IRRSAE hanno assunto il
nome di IRRE – Istituti regionali di Ricerca educativa, enti strumentali
del Ministero dell’istruzione -, per essere infine assorbiti nell’ANSAS
(2007).
OTE: L’Osservatorio Tecnologico per la scuola è
stato un servizio nazionale di consulenza e informazione erogato in rete
tra il 2000 e il 2009 a proposito delle tecnologie dell’informazione e
della comunicazione, particolarmente attento alla accessibilità dei
siti, alla navigazione sicura, al software open source e ai contenuti
aperti. Il sito è tuttora raggiungibile, anche se non è più aggiornato.
MAPPE CONCETTUALI Sintesi del contenuto del testo
CREDITI
Per l’immagine di copertina (a sx Marco e a dx Stefano, entrambi fans di Don Chisciotte): elaborazione di foto di André SAAD da Pixabay
Il professor De Faustiis non ce la fa più. Guarda le facce dei colleghi riuniti per il collegio dei docenti e gli viene voglia di alzarsi, uscire, camminare, persino andare a fare la spesa. Già, la spesa: anche ieri si è scordato di comprare le crocchette per il gatto. Mi sa che tocca cambiare marca, Pallino sembra svogliato. Forse passare ai bocconcini? “Che facciamo, De Faustiis, ci distraiamo come al solito?” La voce viene dal monitor, da una faccetta apparsa a fianco alle altre. Ma non è un docente, almeno non uno che De Faustiis riconosce. Assomiglia.. sì, assomiglia a Guy Fawkes. “Scusi, lei chi è? E come si permette…” “Ma dai, tanto non ci sente nessuno. Anzi non mi vede nessuno, sono qui solo per te.” In effetti, i colleghi continuano a litigare tranquillamente come se non si fossero accorti di nulla. “E chi sarebbe lei, Anonymous? La Legione?” “Quasi. Ma qui non si parla di me, ma di te. Ma ti sei visto? Sei pallido, curvo, hai pure preso qualche chilo nei posti sbagliati”
De Faustiis si guarda nello specchio della videoconferenza. E’ vero, non sta proprio una favola. Sarà la luce del monitor, ma la pelle è un po’ verdina.
L’altro incalza.
“Sei stanco, sei scocciato, non ne puoi più. Si capisce, eh. Con le vostre condizioni di lavoro anch’io sarei stufo da un pezzo. “
“Ma come? A me insegnare piace, cosa crede?”
“Certo, come no. Anche correggere ventiquattro versioni in una serata. Anche preparare per l’ennesima volta la lezione su Tacito e Domiziano. Anche parlare sei ore con i genitori dei progressi degli adorati pargoletti e partecipare ai collegi docenti, vedo.”
“…”
“E soprattutto: collegarsi di qua e di là, tutto il tempo online, rispondere, chiedere, cercare, provare… e mai, mai qualcosa che funzioni al primo colpo”
“Questo sì, in effetti, ma è solo l’emergenza, tra poco…”
“Ma che emergenza, questo è il presente continuo, è il futuro perfetto, mio caro. Ti devi arrendere, d’ora in poi questa sarà la tua vita. “
Un futuro orrendo e distopico si affaccia alla mente di De Faustiis per un attimo. Un incrocio tra Matrix e il castello di Kafka.
Emette involontariamente un gemito.
“E cosa ci posso fare?”
“E’ qui che entro in gioco io. Ti faccio una proposta davvero vantaggiosa: ti risolvo tutti i tuoi problemi con un sistema unico, che non devi nemmeno installare. Tu accedi, parli, schiocchi le dita e da quel momento tutto funziona magicamente, tout se tient. Vuoi parlare con la collega di Arte? Basta che pronunci il nome e parte la videoconferenza, anche dallo specchio del bagno. Vuoi ritrovare i voti della terza B ordinati per profitto? Eccoli qui, stampati, sul comodino. Non ti ricordavi di averglieli dati, quei voti? E’ normale, glieli ho dati io sulla base dei voti degli anni scorsi, tanto che vuoi che cambi?”
De Faustiis comincia ad avere l’acquolina in bocca. “E dove starebbe questo software meraviglioso? Sul Cloud?” “Ma che ti importa di dove sta… e poi tu che ne sai di cosa è veramente il cloud? Sono sicuro che te lo immagini come una specie di paradiso, tra le nuvole, con gli angioletti che spolverano i tuoi dati… vero?” “Beh, sì, in effetti non ho molto chiaro… “ “Comunque, la sostanza è questa: tu accetti le condizioni, e hai risolto tutti i tuoi problemi con la scuola, per sempre. Come diceva il piccoletto verde con le orecchie a punta? Non c’è provare, c’è fare. Non dovrai più pensare, cercare, affaticarti. Vuoi, e fai. Anzi, faccio io prima ancora che tu voglia. Non è questo, il paradiso?” “E… quanto costerebbe?” “Soldi? Tu mi parli di soldi? Oh, ma per chi m’hai preso? Questa roba non si compra. A me basta una sola piccola cosa…” “Oddio no, l’anima!”
Momento di pausa. “Sei veramente un romantico inguaribile. Ma quale anima, voglio i tuoi dati personali. Dai, firma qua.”
Dunque si inizia: in presenza ma lontani, a distanza ma connessi. I professionisti, le aziende, le associazioni, le fondazioni, le università e le scuole devono essere pronti in caso di X (con X=lockdown totale, ma anche dimezzamento dei docenti o degli studenti). Nella Scuola e nell’Università italiane sono pochi (da quello che vedo) quelli che colgono l’occasione per riformare la maniera di apprendere e insegnare una volta per tutte, per esempio abbandonando il modello trasmissivo e adottandone uno di costruzione collettiva di conoscenza. Pochi hanno utilizzato questi mesi per risistemare il “capitale” di metodi, risorse, informazioni esistente ma frammentato e nascosto nelle teste o nei file dei docenti, in modo da renderlo accessibile, manutenibile, incrementabile, insomma usabile davvero. Ancora meno, mi pare, hanno ripensato la valutazione, arricchendola con elementi che derivano proprio dall’esistenza di un piano digitale comune dove studenti e docenti si muovono insieme.
Adesso però bisognerà scegliere il sistema di videoconferenza (che come si sa è IL canale deputato a tutto: formare, valutare, controllare, supportare, selezionare, anche se probabilmente nessuna scuola italiana è oggi in grado di reggere la connessione contemporanea di tutti gli studenti e docenti) ed, eventualmente, la piattaforma dove collocare i “contenuti didattici da far fruire”. Sic.
Quale piattaforma? Beh, naturalmente lo decide il dirigente, che però non necessariamente ha tutte le conoscenze tecniche e legali che servono. Forse si fa consigliare dall’animatore digitale, forse da un consulente esterno, oppure dai colleghi dirigenti più in vista. Oppure va sul sito del MIUR e poi torna trionfante: “Bisogna usare X, lo dice il Ministero!”. Allora, parliamone.
Nella pagina https://www.istruzione.it/coronavirus/didattica-a-distanza.html si trovano solo tre proposte di piattaforma: Google Suite, MS Teams e TIM Weschool. Visto? Ma se cliccate sul bottone “Continua a leggere” (che sarebbe stato meglio chiamare: inizia a leggere) magicamente appare un testo che dice:
Da questa sezione è possibile accedere a: strumenti di cooperazione, scambio di buone pratiche e gemellaggi fra scuole, webinar di formazione, contenuti multimediali per lo studio, piattaforme certificate, anche ai sensi delle norme di tutela della privacy, per la didattica a distanza. I collegamenti delle varie sezioni di questa pagina consentono di raggiungere ed utilizzare a titolo totalmente gratuito le piattaforme e gli strumenti messi a disposizione delle istituzioni scolastiche grazie a specifici Protocolli siglati dal Ministero. Tutti coloro che vogliono supportare le scuole possono farlo aderendo alle due call pubblicate dal Ministero che contengono anche i parametri tecnici necessari.
“[…] tutte le piattaforme devono essere rese disponibili gratuitamente nell’uso e nel tutorial; la gratuità va intesa sia nella fase di adesione ed utilizzo dello strumento sia al termine di tale fase. Nessun onere, pertanto, potrà gravare sulle Istituzioni scolastiche e sull’Amministrazione;
per le piattaforme di fruizione di contenuti didattici e assistenza alla community scolastica: sicurezza, affidabilità, scalabilità e conformità alle norme sulla protezione dei dati personali, nonché divieto di utilizzo a fini commerciali e/o promozionali di dati, documenti e materiali di cui gli operatori di mercato entrano in possesso per l’espletamento del servizio;
per le piattaforme di collaborazione on line: qualifica di “cloud service provider della PA” inerente alla piattaforma offerta, ai sensi delle circolari Agid n. 2 e 3 del 9 aprile 2018.”
Insomma, prima di tutto servizio gratis ma con assistenza. Poi una divisione che a me sembra un po’ sospetta:
da un lato piattaforme per la fruizione di contenuti didattici e assistenza alla communità scolastica, che devono soddisfare requisiti più stringenti in termini di sicurezza, protezione della privacy;
dall’altro le piattaforma di collaborazione online, che NON hanno bisogno di soddisfare questi requisiti.
Indovinate in che categoria vanno certe piattaforme gratuite a cui sicuramente state pensando adesso? Chi si può permettere questo tipo di offerta gratuita a tutte le scuole italiane? E’ un modo chiaro per estromettere ogni piccolo fornitore locale, ogni proposta fatta una piccola cooperativa di ex-studenti dell’istituto tecnico. E’ un modo per aumentare il monopolio e per rinunciare a promuovere una crescita del comparto in Italia. Ne ho già parlato qui. A parte il fatto che ci sono dei requisiti di legge (GDPR) che nessuna circolare o nota ministeriale può aggirare, non c’è traccia del requisito “a codice sorgente aperto”. Che non è una bizza di qualche hacker fuori tempo massimo: la legge del 7 agosto 2012, n. 134 ha modificato l’art. 68 del codice dell’amministrazione digitale introducendo per tutta la PA l’obbligo di effettuare “analisi comparativa di soluzioni“, comprese quelle basata su software libero o codice sorgente aperto. Inoltre, nelle Linee Guida per l’adozione e il riuso del software da parte delle PA che sono in vigore dal 9 maggio 2019, si aggiunge, tra i criteri di valutazione, l’uso di dati aperti, di interfacce aperte e di standard per l’interoperabilità. Sarebbe ragionevole che questi criteri venissero ricordati, perché non sono curiosità o suggerimenti benevoli. Anche a prescindere dalla questione recente del Privacy Shield statunitense e della sentenza della Corte Europea che lo invalida. Insomma, caro Dirigente, vogliamo farla, questa valutazione comparativa?
Sempre dalla pagina del MIUR si accede ad altri elenchi di iniziative, servizi, insomma cosa che dovrebbero aiutare le scuole sull’onda del #damosenamano. Come https://www.istruzione.it/coronavirus/didattica-a-distanza_altre-iniziative.html dove ci sono delle pubblicità a società e servizi, oppure quello delle proposte universitarie https://www.istruzione.it/coronavirus/didattica-a-distanza_uni-afam.html dove si trova lo stesso livello di “valutazione”. Se poi si vuole raggiungere l’apice, si legga l’elenco dei servizi di solidarietà digitale offerti questa volta da MITD e Agid, ma linkato sempre nella pagina MIUR: https://solidarietadigitale.agid.gov.it/#/ dove c’è, francamente, la qualunque. Insomma: a oggi, non c’è uno straccio di niente che dica che la piattaforma X è adatta mentre la Y no.
Repubblica online, Stazione Luna, rubrica a cura di Riccardo Luna. L’articolo di oggi 19 Agosto 2020 si intitola “Lens, la app che ti farà i compiti di matematica (e che si svela il senso di Google)” (proprio così, magari lo correggeranno in seguito). L’ho letto subito con grande interesse, conoscevo Lens ma non sapevo che si occupasse di educazione. La frase finale del titolo, è ancora più attraente: Lens si svela essere il senso di Google? Premetto che non ce l’ho particolarmente con Luna, ma che anzi gli sono grato perché i suoi brevi post mi permettono di riprendere in mano e approfondire delle questioni importanti, anche se il modo in cui le presenta è sempre un po’ troppo semplice e non mi convince del tutto. Forse non è un caso, è la forma che ha scelto per la sua rubrica, e non gli si può chiedere di scrivere diversamente. In poche righe, e per un lettore medio, deve presentare un pezzo del mondo di oggi come se fosse domani, per poi chiudere con una strizzatina d’occhi per dire che lui non ci crede fino in fondo. Stavolta parla dell’intelligenza artificiale applicata all’educazione. Riporto il suo testo integralmente, in corsivo; il resto sono i miei commenti.
Sono abbastanza
sicuro che la app preferita dai ragazzi in autunno non sarà un
social network di selfie e stories tipo Instagram, o di balletti e
sfottò come Tik Tok, e nemmeno l’eterno Whatsapp. Sarà una app di
matematica. Una app che risolve i compiti di matematica più
complessi semplicemente inquadrandoli con la telecamera dello
smartphone. Sarà Google Lens. Google Lens esiste da un paio di anni
ormai, ma la funzione “risolvi il problema di matematica” è
appena stata annunciata.
Google Lens fa parte dei servizi di Google a doppio senso. Ovvero: inquadrata un’immagine, fornisce un aiuto nella ricerca di immagini similari, collegandole poi ad informazioni testuali. Ma contemporaneamente, utilizza l’esperienza degli utenti che l’hanno scaricata (oltre un milione, secondo Play) per migliorare il riconoscimento delle immagini, premiando la risposta scelta dagli utenti umani in modo che abbia più probabilità di essere riproposta in futuro. E’ quello che succede con i Captcha che ci chiedono di riconoscere immagini di ponti, autobus e strisce pedonali acquisite tramite Google Street View per dimostrare che siamo umani, e nel frattempo migliorano il servizio di riconoscimento delle immagini e chissà, forse anche la capacità dei piloti intelligenti del futuro.
C’erano già
altre app che promettevano di fare la stessa cosa, ma con Google è
diverso.
In effetti, il servizio di “risoluzione dei problemi di matematica” non appartiene a Lens, ma a Socratic. Anche questa app esisteva da tempo, inizialmente solo per IOS, e si limitava ad accettare domande e a fornire risposte prese da Wikipedia, da Yahoo Q&A e da altre fonti. Da gennaio 2017 Socratic viene dotata anche di un motore capace di risolvere espressioni ed equazioni, e di mostrare i passaggi necessari (semplificazione, spostamento di un termine da un lato all’altro dell’equazione). Nel 2018 la società che la produce viene acquistata da Google per una somma non dichiarata. La storia di Socratic però la vediamo più avanti.
Nel video di presentazione dell’epoca (ancora disponibile su Youtube ) si vede una ragazza alle prese con una pagina di compiti. Sul foglio la ragazza ha affrontato prima un’equazione semplice:
3 (y+2) = 16
E qui la ragazza non ha avuto problemi. Subito dopo, deve affrontare l’equazione
2y-x = 8x+2
che è ovviamente di difficoltà maggiore, e infatti la ragazza resta bloccata tre-quattro secondi, finché non posa la penna, pronta ad abbandonare il compito, e chissà, anche lo studio della matematica. E’ vero che in alto a sinistra c’è il suo libro di matematica aperto alla pagina “Inequalities and their graphs”, ma la ragazza non sembra ricordarsene. Invece a questo punto inquadra il suo foglio di carta con il suo IPhone, che mostra immediatamente il procedimento “esatto” da seguire per risolverla. Non solo: per ogni passaggio la ragazza può vedere degli approfondimenti sui concetti e i metodi usati (es. aggiunta di uno stesso termine ad entrambi i lati dell’equazione), grafici, video, insomma tutto quello che serve.
Una valutazione dell’app Socratic originale la potete leggere in questa recensione di maggio 2018.
Google sa davvero
tutto. Qualcuno potrebbe obiettare che si tratta di una funzione
anti-educativa perché consente ai ragazzi di non fare i compiti e
farli fare a Google;
Qui tocchiamo il punto cruciale, a mio avviso. Oggi risolvi il problema di matematica, domani quello di fisica o chimica, dopodomani traduci questo passo di Seneca. Non sarà come con la calcolatrice, che ci ha fatto disimparare le quattro operazioni? Non sarà come con l’ascensore che ci ha fatto odiare le scale? Sulla validità dell’obiezione torneremo dopo. Ma la domanda è: perché Google è improvvisamente interessato all’educazione – a partire almeno dalle suite di applicazioni da ufficio etichettate “Education” ? Si tratta di un mercato enorme, è vero, ma Google non ha nessuna particolare competenza in piattaforme e software educativo. Perché ha deciso di comprare una società che produce una app che va usata durante lo studio, non prima o dopo?
Perché è esattamente qui che Google (seguito da tutti gli altri grossi player dell’IT) vuole andare. Google vuole spingere gli studenti a sostituire un supporto esterno generico e spesso obsoleto (come un libro), o costoso e raro (come un docente umano) con un supporto just-in-time, specifico, mirato e virtualmente onnisciente. Forse l’acquisto di Socratic serve a testare il terreno, a raccogliere informazioni e a preparare l’avvento di qualcosa di molto più potente: un tutor intelligente che utilizza il profilo dello studente/utente per accompagnarlo ovunque. Una specie di assistente educativo personale. Perfetto anche in tempi di pandemia per l’educazione familiare senza il rischio del contagio di classe. L’equivalente di Alexa, Cortana e Siri, ma mirato per un’età e per un’attività specifica di quell’età, lo studio. Bello, no? Beh, dipende dai punti di vista.
Prendete i navigatori auto, sia hardware che software. Oggi si percepisce che soprattutto gli utenti più giovani – ma non solo quelli – sono talmente abituati ad usarli da non essere quasi più capaci di leggere una cartina dall’alto, usando i punti cardinali, e grazie a quella costruirsi nella mente una rappresentazione di una regione dello spazio che comprende il luogo in cui sono e il luogo in cui vogliono andare. E non avendo questa visione generale, tendono ad accettare i suggerimenti della voce suadente di turno che fornisce il minimo di informazioni necessarie per agire momento per momento: “esci dalla rotatoria alla terza uscita”. E’ vero: i navigatori sono in grado di consigliare il miglior itinerario possibile tenendo conto della mappa, di alcune personalizzazioni (poche per la verità: il mezzo di trasporto e la disponibilità economica) e soprattutto dei dati di percorso provenienti dagli altri utenti. Ma i navigatori non spiegano perché è meglio fare una strada anziché un’altra, non puntano a educarci in modo che la prossima volta siamo in grado di fare da soli: i navigatori puntano a diventare indispensabili, a renderci dipendenti.
Immaginate una versione intelligente di un assistente per la scrittura. Una volta detto “voglio scrivere una lettera a Giovanni”, l’assistente comincia a suggerire delle parole, una alla volta: “Caro Giovanni, come stai?”. L’utente può accettarle oppure no, può sostituirle con altre (“Caro Giovanni, come te la passi?”), e l’assistente in questo caso capisce che il tono deve essere più colloquiale, si riposiziona nello spazio lessicale della lettera e suggerisce nuovi itinerari verso la conclusione: “Tanti cari saluti, tuo Stefano”. Questo modo di interagire non richiede all’utente di avere in anticipo un piano del testo, della lettera, ma solo una vaga idea della destinazione; assume come modalità di scrittura qualcosa che assomiglia al viaggio assistito dal navigatore, in cui si procede in soggettiva, un passo alla volta, seguendo i suggerimenti dell’assistente. Una forma molto moderna della scrittura automatica di Allan Kardec.
Questo è l’obiettivo finale di ogni servizio digitale, in ogni campo: stare vicino all’utente in ogni momento, aiutarlo, suggerirgli quello che deve fare in tempo reale, fino diventare indispensabile. Rendere l’utente minore, convincerlo che non può fare a meno di un motore di ricerca, di un sistema di comunicazione sociale, di un negozio online, e di un assistente educativo.
E’ curioso (o forse no) che questa strategia si applichi proprio nel campo dell’educazione, perché è tutto il contrario dell’educazione, è la negazione del concetto stesso di educazione, che dovrebbe essere un modo di far crescere le persone e renderle adulte, responsabili e capaci di scelta. Un apprendimento senza deutero-apprendimento, senza mai imparare a imparare, senza riuscire a diventare finalmente autonomi per andare avanti da soli.
Ma Google ha come motto “Don’t be evil”: come è possibile che voglia entrare nelle vite di tutti per il vantaggio solo di qualcuno? Non lo so, ma non credo che serva immaginare un delirio di onnipotenza. E’ sufficiente una strategia globale di dominio economico: il monopolio è molto conveniente e più sostenibile della concorrenza libera. Una volta che l’app Socratic diventa la compagna indispensabile dello studente, sarà difficile cambiarla. Una volta che tutti i tuoi file sono su Drive e la tua posta su Gmail, è difficile passare ad un altro fornitore, anche se dovesse fornire funzionalità superiori. Come minimo dovresti migrare tutti i tuoi contenuti da una piattaforma all’altra: chi ci ha provato sa che è un incubo.
Contemporaneamente, Google non nasconde affatto il suo modello di business. Usa le informazioni di uso dei privati (anonime) per migliorare i suoi servizi e venderli a chi ha veramente capacità di spesa (aziende e enti pubblici), ma non rinuncia alla vendita di spazi mirati di pubblicità. Perché non pensare allora ad una vendita di spazi pubblicitari all’interno di Lens/Socratic, più o meno trasparente, come già accade nel caso del motori di ricerca? Perché non pensare ad una profilazione accurata degli studenti che usano Lens/Socratic per migliorare i suggerimenti di acquisto?
Sono tutte motivazioni lecite, o almeno non illegali. Ma il problema non è tanto la motivazione di Google, quanto il rischio che il tutto ci sfugga di mano. Bernard Minier, nel suo thriller “M. Le bord de l’abime” si diverte a giocare con il motto di Google, e immagina un chatbot intelligente il cui motto sia “Be evil”. Siccome il chatbot malevolo usa dei motori di machine learning sofisticatissimi nutriti di conversazioni, non è facile accorgersi in anticipo dei suoi scopi. Intelligente, oltre un certo limite, significa opaco. Come facciamo a sapere che i suggerimenti di Lens/Socratic non sono deviati da un bias di qualche tipo?
ma usata bene la
nuova funzione di Google Lens può invece essere un aiuto vero a
capire il procedimento: non darà infatti semplicemente il risultato
del problema, ma mostrerà tutti i passaggi per arrivarci. Del resto
i compiti copiati, o svolti da un genitore, o dal compagno di classe
più bravo esistono da sempre: da oggi chi vuole imparare ha uno
strumento in più, chi vuole copiare anche. A noi la scelta.
Ho molti dubbi su questo modo di presentare gli aspetti didattici della questione. Intanto: fino a quando dovremo andare avanti con questa storia dello studente pigro e furbetto che “tanto ci sarà sempre”, degli strumenti neutri, dei fini separati dai mezzi? E’ una favola vecchia. I fini si nutrono dei mezzi disponibili, i mezzi si costruiscono per i fini. Nel caso dei mezzi digitali, che vanno a toccare direttamente concetti e i modi di collegarli, non si può accettare una visione che li separi dai fini
Luna (e gli autori di Socratic) sembrano pensare che per imparare a risolvere un problema basti vedere i passaggi per la sua soluzione. Chi è studioso ci fa attenzione e impara, chi è ciuccio invece salta subito alla soluzione, la copia, e il docente naturalmente non si accorge di nulla. A parte il fatto che qualcuno dovrà pure occuparsi di aiutare anche gli studenti ciucci, ma chi ha detto che imparare significa solo seguire i passaggi mostrati da qualcun altro, che sia un docente o un compagno o un libro? E’ una modalità, è uno stile, che può andar bene in certi momenti ma non in altri, per certi studenti, per certe materie. E’ un pezzettino della strategia complessiva, nella migliore delle ipotesi. Dove è finita la pedagogia attivista e costruttivista? Dov’è la personalizzazione dell’apprendimento? E’ una visione – tutto sommato comune – dell’insegnamento come esposizione dello studente alla verità, e deriva a sua volta dall’idea che ci sia una maniera giusta di fare le cose e che andare a scuola serva a imparare quella maniera. Ma qui siamo anni luce lontani dalla pedagogia degli ultimi cinquant’anni. Perché non dovrebbe essere più un mistero che come non c’è una sola traduzione possibile delle lettere a Lucilio, così non esiste una sola maniera di risolvere un’equazione. Magari il risultato sarà pure unico, ma la maniera di arrivarci no. La matematica non è solo logica, è anche cultura, e si insegna in modi diversi a seconda dell’epoca e del luogo. Chi ha provato a leggere un manuale di matematica in un’altra lingua si è già trovato di fronte a questo problema. Per non parlare ovviamente delle differenze in ambiti meno “duri”, come la storia, la geografia, la filosofia. Insomma, ci sono più modi di trovare una soluzione, e dipendono da aspetti culturali, personali (l’età e le competenze dello studente) e contestuali (è un esame? È un compito a casa? E’ il primo di dieci esercizi tutti uguali o l’ultimo?). Immaginare che un programma possa conoscere IL modo giusto di risolvere un problema per insegnarlo allo studente è soprattutto un errore culturale, direi filosofico. Ma è anche pericoloso, perché la maniera giusta, una volta cablata dentro un programma, rischia di restare rigidamente la stessa.
Non sono
ragionamenti miei, e non sono recenti. Questa cosiddetta novità
dell’insegnamento digitale risale agli anni ‘60, cioè – ogni
tanto fa bene ricordarlo – sessanta anni fa. Il progetto PLATO
(Programmed Logic for Automatic Teaching Operations) è un pezzo di
storia dimenticato. Partito all’università dell’Illinois, poi
preso in mano da un azienda produttrice di mainframe (CDC) con enormi
aspettative non solo economiche ma sociali (democratizzare la
cultura, portare alla formazione superiore anche i cittadini
americano meno benestanti), finì per essere abbandonato per i costi.
Non prima, però, di aver dato origine ad una miriade di progetti di
CAI (Computer Assisted Istruction) e di CAS (Computer Algebra System)
come MATHLAB, Reduce, Derive e Maxima.
Parallelamente, nasceva l’Intelligenza artificiale. Il primo programma in grado di dimostrare un teorema (Logic Theorist) è scritto da Newell, Simon e Shaw nel 1956; ma già nel 1964 Student, il software scritto da Daniel Bobrow per la sua tesi di PhD, era capace di capire e risolvere questo tipo di problemi: “If the number of customers Tom gets is twice the square of 20% of the number of advertisements he runs, and the number of advertisements is 45, then what is the number of customers Tom gets?” Bisogna poi aspettare gli anni ‘80 e la riduzione dei costi dei Personal Computer perché si affermino i primi Intelligent Tutoring System, in grado di mostrare i passi per la soluzione di un problema, di individuare gli errori dello studente e costruirne un profilo, e durante tutto il processo di interagire in linguaggio naturale. A partire dal 1988 si tengono regolarmente conferenze internazionali, come la International Conference on Intelligent Tutoring Systems, e nascono riviste scientifiche.
Stiamo quindi parlando di una “novità” vecchia di almeno trenta anni. E sono almeno venti anni che gli studiosi si affannano a sperimentare, valutare, confrontare, per concludere che il computer intelligente che sa risolvere i problemi non è una strada promettente. E’ limitata ad alcuni domini, è rigida, isola lo studente dal gruppo di pari, non tiene conto degli aspetti attivi dell’apprendimento. Molto meglio creare degli ambienti dove studenti e docenti possano interagire e costruire insieme pezzi di conoscenza, supportati dalla potenza digitale. Insomma la via aperta da PLATO non portava da nessuna parte.
L’annuncio ha
rimesso sotto i riflettori una app che è forse la cosa migliore che
Google può fare per noi: si chiama, appunto, Google Lens e consente
di identificare quasi qualunque cosa semplicemente inquadrandola con
il telefonino. Una pianta rara? Un animale misterioso? In pochi
istanti Google confronta la foto appena scattata con tutte quelle sul
web e propone la definizione migliore.
Migliore? Google Lens io ce l’ho da un po’, e in effetti all’inizio funzionava malino; l’ho riprovato ora inquadrando un oleandro in fiore, e tra le ipotesi che mi presenta c’è anche quella giusta, ma al terzo posto. Lens non ha modo di sapere quale sia la risposta corretta, può solo presentare un elenco di candidati, esattamente come fa il motore di ricerca più classico. Siamo noi che cliccando sul terzo elemento della lista (“Eccolo! È proprio questo”) forniamo un peso che verrà ricordato e usato per nutrire il motore di machine learning che sta dietro.
Funziona anche
con i piatti di tutte le cucine del mondo, e con i luoghi, per
esempio i monumenti, e con le scritte in moltissime lingue. E
funziona con i vestiti: vedete una camicetta che vi piace? In un
attimo ecco il sito dove comprarla al volo.
Bello, eh? Però il fatto che il sito dove comprarla al volo abbia pagato questa forma miratissima di pubblicità, e che quindi non sia necessariamente il migliore per noi, ma il migliore per il venditore e soprattutto per Google, dovrebbe essere tenuto presente.
Google Lens è il
nostro motore di ricerca preferito alla sua massima potenza: scatti
una foto e ti racconta una storia. In vacanza è un compagno di
viaggio inseparabile. E’ come viaggiare con una guida in tasca.
Io uso diversi motori di ricerca, con preferenza per quelli che almeno dichiarano di non tracciare l’utente, come DuckDuck Go. Non so se Luna viaggi usando la guida del Touring oppure la Guide du Routard. Io ho fatto caso agli effetti collaterali di quest’ultima: a forza di raccomandare la spiaggetta seminascosta a cui si accede con un sentiero segreto ha contribuito a distruggere tanti piccoli paradisi, dove adesso si tengono raduni oceanici di adepti del Routard. E per fortuna non tutti la usano. Questo paradosso era stato già descritto da Francesco Antinucci nel 2011 con il suo “L’algoritmo al potere. Vita quotidiana ai tempi di Google” (Laterza). E’ paradossale avere un servizio che consiglia un buon ristorante poco affollato, ma più funziona e viene usato, meno è attendibile.
Con la riapertura
delle scuole, lo sarà per gli studenti. Per diventarlo, Google ha
incorporato in Lens un software chiamato Socratic, che riconosce i
caratteri di un testo, compresa un’equazione, e applica
l’intelligenza artificiale per proporre la soluzione.
Per essere precisi: Google ha comprato la startup che produceva Socratic. Una startup nata nel 2013 da un gruppo di ragazzi che credono nel potere dell’educazione, che fanno partire una comunità di insegnanti che tramite un sito web propone contenuti di qualità e li rilascia con licenza Creative Commons. Nel 2015 la startup ottiene un finanziamento da parte di tre venture capitalist e Socratic si dedica solo allo sviluppo di un app. La quale app, a partire da gennaio 2017, fa due cose ben diverse: la prima è la continuazione del sito, ma stavolta con un motore di machine learning che è in grado di suggerire i contenuti più rilevanti presi da Internet; la seconda è una funzionalità del tutto nuova, per cui l’app è in grado di riconoscere il testo di un’equazione, di rappresentarsela internamente e di risolverla usando la libreria Math.js e infine di presentare i passi per la sua soluzione usando un altro software opensource, Mathsteps. Che però non ha moltissimo di intelligenza artificiale, la matematica di solito è trattabile senza bisogno di particolari intuizioni ed è per questo che è da lì che inizia, storicamente, ogni tentativo di creare dei supporti digitali per l’apprendimento.
A marzo 2018 Google compra Socratic, ma rende nota l’operazione solo un anno dopo. L’app continua a chiamarsi Socratic ma ha accesso ai motori di machine learning di Google; contemporaneamente, offre i suoi servizi anche alle altre app della costellazione Google, come Lens (per ora). Nel frattempo, uno dei fondatori, Shreyans Bhansali, resta come engineering manager, mentre l’altro, Chris Banegal, entra a far parte dei visionari che lavorano nell’Area 120, l’incubatore interno di Google.
Insomma
la solita storia: non c’è
posto per i piccoli. O muoiono, o vengono comprati. Sapendolo, è
chiaro che i ragazzi che dicono di voler fare una startup in realtà
vogliono solo fare abbastanza rumore da poter interessare una
multinazionale e poi passare
ad altro.
Il prossimo
passo, sarà la trasformazione di un testo scritto a mano, in bella
calligrafia, in un testo digitale.
Il riconoscimento della scrittura manuale è in realtà un tema piuttosto vecchio, e almeno dal 1990 esistono delle soluzioni commerciali. Probabilmente diventerà meno significativo man mano che la scrittura manuale verrà abbandonata. Ma la storia di reCAPTCHA, il servizio nato all’università Carnegie Mellon con lo scopo di migliorare le competenze dell OCR (Optical Character Recognition) dovrebbe essere di insegnamento. Siccome c’erano dei testi antichi su cui gli algoritmi di riconoscimento esitavano, i ricercatori della Carnegie Mellon pensarono di far ricorso all’esperienza umana. Così inserirono i caratteri su cui il software faceva cilecca nei sistemi di accesso ai servizi dell’università. Siccome gli umani in genere se la cavano piuttosto bene in questi compiti, le scelte degli studenti servivano ad accrescere le competenze dell’algoritmo di riconoscimento dei caratteri. Funzionò talmente
bene da valer la pena di crearci una startup; e la startup fu
puntualmente comprata da Google nel 2009.
Finito lo
stupore, restano due riflessioni. La prima riguarda i passi da
gigante che sta facendo l’intelligenza artificiale applicata alle
immagini: il tema del riconoscimento facciale automatico nelle
indagini di polizia, dei limiti e dei rischi di questa tecnologia,
diventa sempre più urgente. La seconda riguarda Google, che cos’è
davvero Google per noi utenti. Molti anni fa in un saggio sulla
rivoluzione digitale, Alessandro Baricco parlò per la prima volta di
una generazione che “respirava il mondo con le branchie di
Google”, che aveva insomma un altro modo di apprendere e
relazionarsi. Era una definizione molto efficace.
Il riconoscimento dei volti come strumento di identificazione massiccia al servizio del potere politico è effettivamente un tema caldo. Fa parte della discussione generale sulla tecnologia neutra a cui accennavamo prima. Luna però preferisce dirigersi verso la questione finale, quella del “senso di Google.” Piuttosto che citare “I Barbari” di Baricco, il quale è un attento orecchiatore di discorsi più che uno studioso in presa diretta sulla realtà, meglio dirigersi sul lavoro del collettivo Ippolita e sul loro “Luci e Ombre di Google. Futuro e passato dell’industria dei meta dati” (Feltrinelli, 2007). Ma è vero che tutti noi, giovani e meno giovani, facciamo molta fatica a fare a meno di Google (o di Facebook, di Microsoft, di Amazon) e anzi non vediamo proprio perché dovremmo privarcene. E’ vero che è difficile vedere qualcuno che usa un sistema operativo diverso da Windows o che acquista un libro sul sito della casa editrice invece che farlo su Amazon. E’ difficile vedere qualcuno che in un browser digita una intera URL quando basta scriverne una parte nella barra degli indirizzi (che in realtà è il campo di ricerca). Il punto non è solo che usiamo le branchie di Google per respirare, ma che stiamo dentro un acquario.
Oggi invece
Google Lens ci mostra per la prima volta “il mondo con gli occhi
di Google”: l’infinito catalogo di immagini che memorizza e che
mette a disposizione quando gli chiediamo che pianta è quella che
abbiamo davanti. Lens è il modo migliore per far capire a tutti che
Google ha creato una copia digitale del mondo e grazie a quella ha
tutte le risposte possibili.
Mi pare una semplificazione eccessiva, e peraltro dimentica il (fallito) progetto dei Google Glass, gli occhiali per la realtà aumentata. Che il progetto di Google sia sempre stato quello di creare una copia digitale del mondo, non c’è dubbio. Che il suo scopo iniziale fosse quello di fornire tutte le risposte alle domande, anche. Ma di tempo ne è passato, Google non è solo motore di ricerca, e il suo scopo non è solo quello di fornire risposte, ma quello di fornire una quantità impressionante di servizi, principalmente alle imprese e agli enti pubblici. Questi servizi sono sempre all’avanguardia e in generale di alta qualità, grazie alla raccolta di dati e soprattutto alla raccolta di giudizi, di azioni, di scelte umane. In sostanza, usando gratuitamente i servizi di Google noi forniamo il combustibile che brucia nelle caldaie di Google. Siamo noi che lo rendiamo sempre più potente e rafforziamo il suo monopolio. Google, del tutto legittimamente, ci ringrazia continuando a fornirci servizi sempre migliori. Dal suo punto di vista, è uno scambio win-win. Il problema è che c’è un effetto collaterale piuttosto importante: l’accumulo di troppe informazioni in mano ad un solo soggetto, con enormi rischi relativamente alla privacy degli utenti, e la possibilità che queste informazioni e i processi che le utilizzano diventino sempre più opachi e quindi fuori controllo.
Usare questi servizi gratuiti ci mette anche in una posizione sempre più asimmetrica, sempre più rischiosa rispetto al futuro. Per capire perché, provate a immaginere un giorno in cui Google decidesse di interrompere i servizi di posta. Fantascienza? Allora andate a leggere su Wikipedia la lista dei servizi gratuiti di Google iniziati e poi interrotti, con cancellazione dei contenuti relativi.
In realtà la
copia digitale del mondo, come tutte le copie digitali (si pensi alla
musica, nel passaggio dal vinile a Spotify) si perde per strada
qualcosa: lascia fuori qualche pezzettino di informazione.
Semplifica. Questo vuol dire che il mondo reale assomiglia moltissimo
alla sua copia digitale, ma è molto più complesso e ricco. Insomma,
non è tutto dentro Google Lens: faremmo bene a non dimenticarlo mai.
Su quest’ultimo passaggio posso dire di essere interamente d’accordo. La numerizzazione, la linearizzazione della realtà – che, ricordiamocelo, non è partita con Google, e neanche con Turing, ma con Galileo – è molto, molto efficace; ma ci costringe ad accettare dei limiti pratici. Non possiamo memorizzare e riprodurre tutte le sfumature di colore di un fiore, e nemmeno la forma di un sasso o il suono di una voce; ma possiamo avvicinarci abbastanza perché un occhio e un orecchio umano non siano in grado di accorgersene. La stessa cosa avviene nella categorizzazione delle persone, la profilazione: non possiamo avere una categoria per ogni persona, e quindi forziamo un po’ i valori mettendo più persone nella stessa categoria. Poi prendiamo delle decisioni sulla vita di quella persona in base alle categorie in cui è stata inserita, come se quella persona coincidesse col suo profilo, e questo è meno bello. Questo, alla fine, è il rischio che sta sotto la digitalizzazione dell’universo. Qualcuno usa una copia parziale e opaca del mondo per prendere decisioni sulla vita di qualcun altro.
Lezione obbligatoria di lettura dei giornali online, per chi ha questa brutta abitudine. Per chi non ce l’ha, c’è lo stesso qualcosa da imparare. Prendo come esempio un articolo di Repubblica.it, versione pubblica, apparso il 18 Maggio 2020. In fondo trovate tutti i riferimenti.
Titolo “Sondaggio: la didattica a distanza non piace alla gran parte degli studenti“ Sottotitolo: “Per la rilevazione Di.Te./Cittadinanzattiva/Skuola.net è insoddisfatto il 54% degli studenti, un terzo dichiara che è più faticoso concentrarsi durante le lezioni e il 15% circa dichiara che la possibilità di poter utilizzare computer e smartphone diventa una tentazione per fare altro durante le lezioni”
Fonti Si parla di un sondaggio: dove sta? Ci sono le fonti? No, bisogna andarsele a cercare fuori. E questo già è grave: come si fa a parlare di giornalismo online se uno scrive come se fosse sulla carta? Con un po’ di fortuna trovo la pagina Facebook e quindi il sito di Dipendenze tecnologiche, l’associazione che ha promosso il sondaggio. Dal sito si capisce chi c’è dietro l’associazione e la sua mission, e vi lascio il piacere di scoprirlo, visto che l’articolista non si è degnato di farlo. Curiosamente qui non c’è affatto un articolo dedicato al sondaggio, e nemmeno i risultati, ma solo un breve lancio che rimanda all’articolo vero che sta su Tgcom24, e che è la fonte ripresa pari pari da tutti gli altri siti che parlano dell’argomento, compreso quello del terzo partner, Skuola.net.
Peraltro non si capisce benissimo il ruolo del secondo partner citato, ovvero Cittadinanza attiva. Ma sul sito dell’associazione c’è un articolo esteso che parla del sondaggio (da cui si capisce che coinvolge anche le scuole, e non solo i ragazzi) e dove finalmente si trova un report con i dati. Sembrerebbe insomma che da qui si dovesse partire per correttezza di informazione. Se uno volesse fare informazione corretta.
Percorriamo l’articolo di Dipendenze, che sembra essere l’unica fonte del nostro articolista. Giuseppe Lavenia, psicologo e presidente di Dipendenze, dice: “I ragazzi non riescono più a immaginare un #futuro. Il 58% degli intervistati dice di mangiare di più e di concedersi qualche strappo alla regola, il 40% mangia a qualsiasi orario mentre il 45% non presta attenzione ciò che porta a tavola. L’isolamento forzato ha cambiato anche le loro abitudini del sonno, non solo quelle alimentari.“ Il tema, quindi, è un altro. Il problema è un altro. Le cause sono altre. Certo – visto chi è che scrive – “la tecnologia è si (sic) social ma non è per nulla socializzante. Fa sentire soli e non contiene le ansie“. Altrettanto certamente, “questi dati non fanno che confermare quanto intuivamo già: la tecnologia sta in qualche modo ‘salvando la vita’ ai ragazzi in quarantena“: qui chi parla è Daniele Grassucci, direttore di Skuola.net. Alla fine, lo psicologo propone… indovinate? di costituire dei “gruppi aula virtuale” con uno psicologo al posto del docente. Ma prima in effetti si era parlato anche di didattica a distanza, con il titoletto: “Tante luci e qualche ombra”. Testualmente: “[…] praticamente tutti la stanno facendo e per il 46% del campione Internet e i device sono, infatti, un buon mezzo per continuare a fare attività didattica.“ Come? Ma certo: se si fa 100-46 si ottiene 54. Che non avrei mai chiamato “la gran parte”, semmai “oltre la metà” o ancora “poco più della metà”. Retorica dei numeri.
Testo Torniamo adesso all’articolo di Repubblica. Inizia così: “C’è poco da fare, frequentare la scuola via web è una modalità che non ha conquistato gli studenti italiani: non piace al 54% di loro, la maggioranza.” Infatti c’è poco da fare. Va avanti per 364 parole, poco più di 2000 battute. Non è un articolo, non ci sono approfondimenti, fonti, collegamenti, confronti, nemmeno link ad articoli collegati sulla stessa testata. Non è un copia e incolla dell’originale, per carità: è molto peggio. Questa è la frase della fonte originale: “il 15,4% ammette che la possibilità di accendere pc e smartphone lo tenta a fare altro, distraendolo.” Questa è la riformulazione: “il 15% circa dichiara che la possibilità di poter (sic) utilizzare computer e smartphone diventa una tentazione per fare altro durante le lezioni.” E’ un esercizio utile di lettura quello che si può fare mettendo vicino testo originale e testo derivato. Alcuni cambi sono frutto di vecchia furbizia dumasiana (allungare il brodo), altri sembrano più subdoli. Questa è la tabella delle sostituzioni applicate: – ammette -> dichiara – accendere -> poter utilizzare – pc -> computer – tenta -> diventa una tentazione – distraendolo -> per fare altro durante le lezioni
Pubblicità E’ chiaro che una testata online, al netto delle dichiarazioni di amore per la nazione, la cultura e i valori fondamentali dell’umanità, campa di pubblicità. La misura di questo si vede dal rapporto (in pixel) tra la pubblicità e l’articolo. Devo dire che tra la pagina di Tgcom24 e quella di Repubblica, è la seconda ad essere non solo più piena di pubblicità, ma anche quella che la presenta in forma ambigua e poco riconoscibile. Al netto del messaggio promozionale principale – che è su un progetto benemerito di “oncologia online” – e un altro su un evento “meet the future” (entrambi collegati al contenuto dell’articolo in quanto ..?) in fondo all’articolo ci sono dei blocchetti foto/testo che si fa fatica a capire se siano articoli o pubblicità. Infatti sono mescolati, e c’è solo un piccoliiiissssima etichetta in grigio chiaro che dice “Contenuti sponsorizzati”. Quanti blocchetti? 80. Ottanta per un articolo di 2000 caratteri. 6 blocchetti su 80 sono in effetti dedicati al ministro Azzolina, ma si perdono tra macchine, siti di incontri e casinò online. Personalmente sono un furbetto che non usa un browser blindato ed efficiente, ma uno meno bello che però mi permette di scegliere; uso dei plugin che eliminano tutta la pubblicità dalla pagina; in più disattivo la maggior parte degli script che misurano e tracciano le mie visite. Faccio un danno all’economia mondiale, di sicuro, e in generale me ne dolgo, anche se vista la natura delle pubblicità me ne dolgo di meno. Faccio un danno in particolare ad una specifica testata, ma questo è voluto.
Perché bisogna resistere alla diffidenza verso il “positivo fino
a prova contraria”? Perché bisogna ricordarsi di Adamo e della sua
vera storia.
Per come ce l’hanno
tramandata, la storia dell’Eden e della Caduta mi ha sempre
convinto poco. Il minimo che si possa dire è che sia sessista; che
Dio nella sua infinita preveggenza si sia comportato in modo un po’
avventato seminando conoscenza a casaccio senza prevedere nemmeno una
password per l’accesso, che l’idea di lavoro come punizione non è
così educativa, eccetera.
Secondo me invece è andata diversamente.
Dio creò il tempo e
creò il primo uomo, Adamo.
Adamo non era
immortale: figuriamoci se dopo lo scacco di Lucifero Dio rifaceva lo
stesso errore.
Ad un certo punto
finiva il tempo, Adamo moriva e il suo corpo iniziava a decomporsi,
partendo dai capelli, le unghie la pelle. Restava solo un osso, anzi
il midollo di un osso, che però invece cominciava a moltiplicarsi, a
crescere, a generare nuovi tipi di cellule. Dopo un po’ ecco di
nuovo Adamo, identico in tutto e per tutto al primo. Un clone, in
pratica.
Dio vede tutto ciò,
per un certo numero di cicli di tempo che non possiamo determinare
perché, appunto, il tempo è circolare e tutto ricomincia sempre
uguale. Fatto sta che ad un certo punto si annoia. La noia è un
grande motore creativo. Allora Dio decide di inventare qualcosa di
meglio.
Si ispira alle
carte. Si capisce che, da solo al centro dell’Universo, Dio abbiamo
inventato le carte e i solitari. Uno in particolare, che si gioca
così: si prendono due mazzi di carte, di quelli che dopo si
chiameranno “francesi”. Ogni giocatore ha un mazzo. Uno dei due
giocatori (ma Dio gioca da tutti e due i lati, naturalmente) pesca a
casa una carta dal suo mazzo e la mette sul tavolo, diciamo un Cinque
di Fiori. L’altro giocatore (sempre Dio) per prendere deve giocare
una carta di Cuori (che è l’opposto di Fiori), ma in modo che la
somma delle due carte faccia quattordici: il Nove di Cuori. Se ce
l’ha, prende e poi tocca a lui giocare. Se non ce l’ha, passa.
Siccome tutti e due i giocatori hanno un mazzo intero, il solitario
finisce sempre bene. Alla fine, Dio contempla la serie delle coppie
di carte: Cinque di Fiori con il Nove di Cuori, Otto di Quadri con il
Sei di Picche, eccetera. Una serie sempre diversa, con tante
variazioni delicate che solo Dio è in grado di apprezzare
completamente. Il mazzo con cui gioca Dio è molto, molto grande.
Ecco: a Dio viene in
mente di fare la stessa cosa ma senza carte. Stavolta con due
giocatori diversi, che è l’innovazione principale. Inizialmente
pensava di chiamare i semi C Q F P (perché Come Quando Fuori Piove
si ricorda bene), poi invece decise per A C G T (A Cosa Giochi Tu?).
La storia della somma uguale a quattordici la lasciò cadere perché
era complicata da spiegare e Adamo non era fortissimo in aritmetica;
non per colpa sua, va detto. Contemporaneamente inventa anche un po’
di elementi instabili, radioattivi, che iniziano subito a decadere,
mentre le stelle lontane si raffreddano. Parte il tempo 2.0, lineare.
Insomma crea un
secondo Giocatore leggermente diverso da Adamo e lo chiama Eva (che
in origine era un gioco di parole, tipo Extra Vergine Adamo, ma
siccome era un po’ grossolano lo lascia cadere subito). Lancia il
test della Generazione Sessuata Beta 0.1 e la partita tra i due
giocatori funziona: il nuovo Adamo non è esattamente uguale al
primo. Si può procedere ad una fase 2 su scala più larga, fuori dal
confinamento dell’Eden.
Il sistema della
riproduzione sessuata era veramente una grande idea, riconosciamolo,
e Dio avrebbe voluto brevettarlo. Nell’impossibilità pratica di
farlo, decide almeno di far firmare ai partecipanti al test un Non
Disclosure Agreement. “E che gli diciamo ai nostri figli?”
domanda Eva. “Ma che ne so io, inventatevi qualcosa.”. Così Eva
comincia a raccontare del Baubau che se non obbedisci alla mamma ti
pizzica le dita dei piedi, e piano piano costruisce una storia
bislacca di divieti, di mele stregate, di angeli con spade
fiammeggianti eccetera. Aveva, in effetti, una certa dote naturale,
ma Dio le aveva anche regalato una delle prime copie della
“Morfologia della Fiaba” di Propp, che Eva sfrutta a fondo. I
bambini ascoltano rapiti, un po’ ci credono un po’ no. Ma insomma
è quella la storia che tramandano.
Dio all’inizio avrebbe
voluto cablare nella testa di Adamo ed Eva un imperativo categorico
del tipo “Crescete e moltiplicatevi” a livello di specie, ma poi
scelse una versione che funzionava meglio, e la piazzò nell’amigdala
di Adamo: “Moltiplica i tuoi geni e fa’ in modo che quelli degli
altri si perdano per strada”. Insomma la riproduzione sessuata
aveva una controindicazione: portava con sé la selezione del partner
e la concorrenza. Si vide subito, con il pasticciaccio brutto di
Caino e Abele, che così si rischiava di estinguere la specie in
quattro e quattr’otto. Così Dio corse ai ripari e inventò il
Patto Speciale, cioè quella forma di disturbo della memoria che
faceva sì che i discendenti di Adamo ed Eva provassero un fastidioso
formicolio ogni volta che erano sul punto di eliminare un essere
della loro Specie perché non potevano essere completamente sicuri
che non fosse un parente lontano. E, reciprocamente, quando vedevano
un altro essere umano sul punto di affogare, cercavano di salvarlo
anche a rischio della propria vita, perché non potevano essere
proprio certi che non fosse un cugino lontano per parte di madre.
E’ questo Patto che rischia di venire meno con la paura del contagio. Ricordatevi sempre di Adamo ed Eva.
Trascrivo alcune riflessioni sul tema della valutazione universitaria. Sono iniziate insieme ad Andrea, al telefono, una mattina di primavera, e poi hanno preso vita propria dentro la mia testa. La responsabilità delle tesi esposte è mia.
1. Come si fa a sapere che la valutazione della prestazione di uno studente in un test in aula non è falsata?
Per assicurarsi che lo studente che fa l’esame sia veramente quello che dice di essere si possono utilizzare diverse strategie. La principale si basa sulla difficoltà di produrre documenti falsi e sulla capacità della mente umana (suppongo che appartenga a noi mammiferi) di riconoscere i visi. Si chiede un documento di identità, e si confronta la foto con lo studente in carne ed ossa.
Tutti sono a conoscenza di storielle, vere o false, su gemelli che fanno due volte lo stesso esame, ma questo è quello che abbiamo al momento.
Per assicurarsi che
lo studente non copi, o non si faccia suggerire, o non consulti altre
fonti oltre a quelle ammesse, di solito si crea un ambiente fisico
controllato: uno studente per banco, un assistente che passa fra i
banchi, niente foglietti nelle maniche e cellulare lasciato
all’ingresso.
Per ognuna di queste strategie si può immaginare una contro-tecnica messa in atto dallo studente: appunti scritti sulla pelle, secondo cellulare, etc.
Insomma, nemmeno qui possiamo essere assolutamente sicuri che tutto funzioni come previsto, ma il rischio dell’imbroglio è statisticamente accettabile.
2. Come si fa a sapere che la valutazione della prestazione di uno studente in un test a distanza non è falsata?
Il problema se lo
sono posto in tanti, molto prima della chiusura forzata delle
università del marzo 2020. Perché la formazione a distanza esiste
dalla seconda metà dell’ottocento. Le Università a distanza
esistono (in Italia che ne sono 11), come esistono Università che
erogano una parte dei loro corsi a distanza. Il vantaggio di queste
Università è quello di disaccoppiare studente e docente, nello
spazio e a volte nel tempo. Permettono a studenti che abitano a
decine di migliaia di chilometri dalla sede dell’Università di
frequentare e di laurearsi, o comunque di conseguire un titolo che ha
valore legale. Come hanno risolto il problema della valutazione
certificativa? In molti modi diversi.
Prima di tutto, storicamente, con una valutazione finale in presenza. A volte anche in luoghi diversi sparsi sul territorio. Accordi con altre agenzie formative o semplicemente con soggetti privati che offrono il servizio di verifica dell’identità degli studenti nell’aula dove si tiene l’esame. Così non si elimina il rischio di falsificazione, ma si riporta ad un rischio conosciuto e accettabile.
Quando questo non è possibile, se il numero di candidati per l’esame è relativamente piccolo, si può simulare un esame orale tramite videoconferenza. Quindi si chiede al candidato di esibire un documento di identità e il docente, dall’altra parte della connessione, confronta la foto con l’immagine dello studente. Ovviamente un documento di identità esibito attraverso una webcam a bassa risoluzione è meno facile da identificare come originale, ma pazienza.
Ma si possono usare o immaginare di usare, una serie di tecnologie più sofisticare. Per esempio:
– il riconoscimento
facciale intelligente (quello in uso in alcuni aeroporti, e in Cina)
– il riconoscimento
tramite impronta digitale
– il riconoscimento
tramite esame dell’iride
– un token unico inviato via email immediatamente prima dell’esame e valido per un tempo limitato
– un dongle usb (un oggetto fisico) che contiene un certificato e che è spedito allo studente prima dell’esame
– il riconoscimento grafometrico della scrittura manuale
– il confronto dei
tempi e degli errori della scrittura con un modello dell’utente
costruito in precedenza
– …
Nel caso di esami scritti, per assicurarsi che il candidato non copi o non si faccia dare suggerimenti sono state usate, o si potrebbero usare, altre tecnologie ancora:
– la doppia
telecamera (una che inquadra lo studente e una il monitor) e un
software di analisi delle immagini
– dei computer
appositamente preparati e “blindati”
– un software che gira sul PC del candidato e che impedisce al computer, per il tempo dell’esame, di fare altro
– un proxy che
impedisce tutti i collegamenti tranne quelli elencati in una white
list
– una ricerca della
somiglianza della composizione del candidato con testi disponibili su
web
– …
Anche in questo
caso, ci sono delle contro-strategie possibili, soprattutto se il
candidato è uno studente di informatica.
3. Ora spostiamoci in avanti. Grazie ad una coincidenza di spiriti buoni, il Paese X decide finalmente di finanziare la sanità e la formazione.
Ottimo. Recrudescenza del contagio a parte, anche nel futuro più ottimistico qualcuno potrebbe dire “Perché smettere con la didattica a distanza visto che ha funzionato così bene? In fondo si risparmia tutti, gli studenti fuori sede non devono spostarsi e l’Università risparmia sulle strutture; inoltre potrebbe assumere docenti da ogni parte del mondo”.
Obiezione: “Va
bene la formazione, ma la valutazione? Come la facciamo la
valutazione a distanza?”
Risposta: “Beh, ma
visto che le tecnologie di identificazione dello studente al momento
dell’esame hanno funzionato così bene, perché non usarle ancora?
O perché non investire per studiarne di ancora più efficaci?”
Allora i finanziamenti verrebbero utilizzati per aumentare il controllo, e messi a bilancio come investimenti per risparmiare.
Questo esito a me sembra davvero esiziale. Un investimento in questa direzione – anche a prescindere dagli impatti sullo stipendio dei docenti, sul loro contratto e sulle procedure di selezione – sarebbe un’enorme occasione mancata. Perché non migliorerebbe la formazione come potrebbe e non migliorerebbe la valutazione come potrebbe. Si limiterebbe a rendere efficace un pezzettino del processo lasciando invariato tutto il resto. Invece si potrebbe chiedere o pretendere che i finanziamenti (immaginari, per ora) vadano verso una ricerca sperimentale sui modelli di valutazione online. Questo potrebbe avere un effetto generale molto più potente.
4. Cosa valutiamo, e perché?
Non sempre i docenti
universitari hanno seguito un corso di docimologia, o di teoria della
valutazione, o semplicemente hanno potuto studiarla. Non tutti i
docenti hanno avuto modo di riflettere su cosa valutano. Perciò si
appoggiano sulla propria esperienza personale, sulle prassi
consolidate, sulle intuizioni.
Potrebbe invece
essere il momento per mettere in dubbio quello che sembra ovvio. Ad
esempio:
L’esame finale è l’unico modo possibile di valutare il percorso di uno studente? Non è vero, si può valutare durante tutto il corso la crescita delle competenze dello studente. E l’esame finale, se necessario, non è altro che la conferma di quel percorso.
L’esame certifica le competenze possedute da X ? No: l’esame confronta le competenze di X con un modello. Se l’esame è fatto bene – ci sono delle misure precise di cosa significa “fatto bene”, di questo si occupa la docimologia, e non sono cose che si improvvisano – si può arrivare a dire che X si comporta come ci si aspetta da uno studente che abbia quelle competenze. Non entra nella mente dello studente e non è una palla di vetro.
Chi non supera un esame non ha quelle competenze? Non è sempre vero neanche questo: esiste un effetto “stress da esame” che fa sì che lo studente in certi casi renda meno di quanto potrebbe. Certi tipi di esame sono più stressanti di altri; certe culture favoriscono delle “soft skills” che facilitano il superamento di un esame orale, mettiamo, invece che scritto.
Chi supera un esame in futuro sarà in grado di applicare quelle competenze nei casi reali? E’ possibile, in fondo a questo servono gli esami, se sono fatti bene. Ma non è sicuro. Vogliamo minimizzare i danni che potrebbero derivare dal mandare in giro dei chirurghi con licenza di uccidere, ma non possiamo davvero azzerarli. Anche perché le conoscenze si dimenticano e le competenze non applicate si arrugginiscono.
Si può pensare ad
un corso con una valutazione continua, che abbassa di peso l’esame
finale? Credo di sì, visto che si fa in tanti altri contesti. In
fondo la capacità predittiva di un singolo esame è più bassa di
quella di una serie di prove sparse lungo un percorso, perché queste
permettono di disegnare una curva che si può prolungare.
Si può immaginare una valutazione in cui lo studente possa utilizzare tutti gli strumenti messi a disposizione da Internet? Sì, perché quella è la situazione in cui probabilmente si troverà ad operare nella vita. Si possono immaginare compiti di valutazione autentica, cioè “task sottospecificati” (grazie Andrea), in cui si va a vedere come se la cava lo studente. Copia? E’ una strategia, ma tutti sanno che non è la migliore quando il compito è nuovo. Inventa da zero? E’ una strategia rischiosa, perché spesso la possibilità di verificare gli effetti collaterali è ridotta. Adatta soluzioni verificate? Bene, se le sceglie con criterio è probabilmente la soluzione vincente. Si confronta con gli altri? È esattamente così che funziona il mondo del lavoro. Chi lavora da solo non ce la fa. Basa uscire dalle aule e andare a vedere cosa succede fuori, da tempo, da prima di Stackoverflow e di Github.
5. L’utilizzo dei dati di navigazione è la grande lezione (mancata) dell’e-learning.
Ancora oggi ci si limita a tenere traccia a fini certificativi del tempo trascorso in un ambiente chiuso (una piattaforma di e-learning), o delle visite ai nodi di un corso, per soddisfare dei criteri quantitativi. Questo anche quando esistono modelli e protocolli come le xAPI (eXtended API, una volta tin-can API) che permetterebbero di tenere traccia dei percorsi di uno studente anche fuori da una piattaforma.
Mentre diventa sempre più chiara l’importanza in termini economici delle attività di profilazione degli utenti tramite l’analisi non solo del loro percorso, ma anche dei loro prodotti testuali (ricerche, post, messaggi), è arrivato il momento di iniziare a praticare un utilizzo dei dati dello studente, con il suo consenso, non per i fini economici di un soggetto estraneo, ma proprio per fornire un migliore servizio di valutazione allo studente stesso. Come vado dicendo da quindici anni almeno, e come alcune ricerche sull’applicazione di tecniche di machine learning in campo educativo potrebbero confermare.
Se si riesce a costruire un modello che partendo dal suo stato iniziale e tenendo conto di come ha interagito con gli altri studenti e con il docente durante il corso, di come ha svolto le esercitazioni, di come ha corretto quelle degli altri (peer assessment) riesca a proiettare la curva fino a predire il tipo di risposte attese, allora si potrebbe immaginare una valutazione continua che ha un potere predittivo maggiore del singolo esame finale. In cui l’importanza del controllo dell’identità dello studente è molto minore. In fondo la profilazione degli utenti tramite l’analisi dei dati di navigazione si basa su questo principio: il nostro modo di dire e fare ci individua meglio della nostra carta di identità.
Questo non riguarda solo la formazione a distanza, e infatti c’è chi ha cominciato a raccogliere dati anche per la formazione tradizionale. Ci vogliono tanti dati, bisogna coinvolgere tante discipline e tante professionalità. Bisogna fare molta, molta attenzione alla privacy; bisogna evitare che questi dati possano servire alle università per decidere quali studenti accettare e quali rifiutare, o peggio alle aziende a decidere quali studenti vale la pena di assumere e quali no (è la tentazione più ovvia per recuperare fondi). Bisogna assicurasi che i software che elaborano i modelli siano aperti, e che i dati siano a disposizione del diretto interessato. Insomma non è facile, ma si può fare. Ci si può provare.
6. Ma lo studente potrà sempre cercare di imbrogliare.
Esatto. Uno studente
che non abbia come fine l’apprendimento ma il superamento
dell’esame può investire una quantità di energie enorme verso
l’obiettivo sbagliato. Bisogna spiegarglielo, e bene. Magari
portando in aula un rappresentante delle aziende che ricerca laureati
in quella disciplina, che gli dica la verità: che non è il voto di
laurea, e nemmeno la media che andranno a guardare al momento del
colloquio. Al colloqui, vorranno verificare che il candidato sappia
fare qualcosa. Non conterà niente quanto è stato capace di
imbrogliare prima. A meno che l’azienda non lavori nel settore
truffa&imbroglio.
E’ incredibile quanto ci si possa illudere sulla propria capacità di imbrogliare nella vita. Ad un certo punto, però, se le cose le sai fare, le fai, altrimenti stai a guardare. Magari come dice Hollander, il venditore di bacchette magiche di Harry Potter, sai fare cose malvagie. Ma le devi saper fare, se vuoi diventare Lord Voldemort, non basta il diploma da fattucchiere ordinario.
Questa banalità contrasta con tanta parte della nostra cultura. Contrasta con i corsi in cui la frequenza è gratis ma l’attestato si paga. Contrasta con l’idea stessa di università a distanza che è vista solo come una scorciatoia e non come un’opportunità per chi lavora o abita lontano dai centri abitati. Contrasta con il luogo comune che vuole che la scuola sia un obbligo da cui bisogna sfilarsi al più presto con una menzione onorevole.
7. Il punto fondamentale è l’acquisizione di una cultura della valutazione. Da parte di tutti: docenti, studenti, familiari, decisori pubblici e privati.
Valutazione come
servizio continuo, come parte organica della formazione. Valutazione
non solo degli outcomes ma anche dei processi. Valutazione per il
miglioramento, non per la selezione.
Tempo fa, a proposito degli ipertesti, scrivevo che il digitale è un vampiro, che succhia la realtà. Avrei dovuto scrivere che è più simile agli ultracorpi del film omonimo del 1955 (che penso tutti conoscano, in una delle sue versioni). Il titolo originale del film era “The body snatchers”, i ladri di corpi.
Secondo Bolter e Grusin (che all’epoca non conoscevo), il digitale
“remediates” l’analogico, secondo una dialettica propria
del processo mediatico, di tutti i media: la fotografia rimedia la
pittura, etc. Mescola insieme media diversi (hypermediacy) e così
facendo tenta di diventare trasparente (immediacy) come medium.
A me sembra che il digitale faccia una cosa un po’ diversa e specifica. Imita e sostituisce. Copia con il preciso scopo di prendere il posto dell’originale, come gli ultracorpi appunto.
La maggior parte degli artefatti digitali nasce come imitazioni di
artefatti analogici. A partire da immagini e suoni digitali, che sono
campionamenti discreti e che vengono rimesse insieme con un software
per dare l’illusione della realtà. Lo smartphone imita il telefono,
non solo nel senso che ne assume tutte le funzioni, ma nel senso che
digitalizza tutte le sue parti (la rubrica, la selezione, la codifica
della voce, l’invio e la ricezione) e le trasforma in software e
dati.
Una volta fatta questa operazione, l’intero oggetto telefono si
può rappresentare dentro un altro sistema digitale, cioè un
computer. Per esempio ci sono simulatori di videogiochi, ma anche
simulatori dei computer con cui si giocava a quei videgiochi.
La pagina del quaderno e quella del libro, compreso l’inchiostro,
e poi l’indice e la copertina, sono stati digitalizzati. A questo
punto, l’hardware che li contiene e permette l’interazione da parte
di organismi fisici come noi diventa quasi indifferente (immediacy).
Di qui, tra l’altro, l’ambiguità e confusione tra ebook (contenuto),
ebook reader (software) ed ebook reader (hardware contenente).
Va anche detto che di solito si pensa solo ai dati che vengono convertiti e si mette meno l’accento sul software, che invece è essenziale per imitare i comportamenti che ci sono consueti con quei dati. Se i dati possono essere semplicemente campionati e riprodotti, le funzioni invece vanno analizzate e ricreate (poggiare la punta della penna sul foglio, premere, trascinare, staccare; e poi cancellare, sottolineare, etc.).
Non affronto questo tema per denunciare i rischi della
virtualizzazione e per decantare la bontà del buon vecchio oggetto
fisico o della sua rappresentazione analogica. Voglio solo
sottolineare il fatto che questa capacità di replicare completamente
per sostituire è tipica del digitale ed è una rottura rispetto a
tutta la storia dei media precedenti.
Qual è il vantaggio di questo processo? Sullo stesso hardware
posso simulare infiniti oggetti diversi. Quindi mi costa di meno. Con
lo stesso linguaggio di programmazione posso creare infinite
simulazioni. Quindi ottimizzo le competenze. Lo stesso stile di
interazione si può applicare a infiniti ambiti diversi. Quindi ne
facilito l’uso.
Queste, in breve, le ragioni economiche e sociali che hanno spinto
il digitale fino alla situazione di dominio che oggi gli
riconosciamo. Ma più interessante è, a mio parere, quello che
succede quando ci si allontana dall’imitazione e si provano a creare
modi di interazione del tutto nuovi. Interessante soprattutto per i
fini educativi.
___
L’automobile è stata concepita, e poi presentata e quindi venduta, come carrozza senza cavalli. Si è portata dietro questo schema antico, per evolversi e allontanarsene un po’ alla volta (ma ancora parliamo di potenza in termini di cavalli). Non può staccarsi troppo perché trova dei limiti: il guidatore e il passeggero devono essere seduti comodamente, protetti dalle intemperie, ma contemporaneamente devono poter vedere la strada, etc. Fa qualcosa di diverso del carro con i cavalli: corre molto di più, è più piccola, ha maggiore autonomia, può rimanere ferma per mesi e poi ripartire, se non è in funzione non gli si deve dare da mangiare. Ma in fondo niente di radicalmente diverso dal carro.
Un po’ come la videoconferenza usata per le lezioni a distanza. Oggi è usata come una cattedra molto, molto lontana. Ancora non riusciamo a immaginarne un uso in quanto tale, non come simulazione di qualche altra cosa.
Spostiamoci un attimo nel mondo del coding. Guardando agli ambienti di programmazione visuale (sì, parlo di Scratch; ma pure di Snap! e di tanti altri) viene inevitabilmente in mente il LEGO come metafora. Ora immaginiamo una simulazione digitale proprio del LEGO originale (esiste davvero, in una versione più semplice di come la descrivo nel seguito, http://ldd.lego.com/en-us/). I mattoncini sono parallelepipedi colorati su uno schermo. Si possono girare in tutte le direzioni, spostare, congiungere.
Quali sarebbero le differenze con il LEGO del mondo reale?
il numero dei mattoncini è
teoricamente infinito (non lo è in pratica perché la il software,
e la macchina su cui gira, hanno dei limiti fisici)
è facile assegnare ai mattoncini
digitali altre proprietà o comportamenti. Potrebbero diventare
trasparenti, crescere; ma anche suonare, muoversi da soli, staccarsi
e attaccarsi dopo un certo tempo.
sulla base di queste proprietà si
possono immaginare regole, giochi, interazioni che con i mattoncini
di plastica non sarebbero possibili.
queste nuove regole e interazioni
possono essere immaginati da chi ha progettato il software, ma anche
da chi lo usa, ammesso che il software lo permetta
Insomma questa immaginaria versione digitale del LEGO potrebbe essere riprogrammata, anche dai bambini. Questa è una differenza importante. Non è solo questione di portabilità, leggerezza, facilità, ma di legge costitutiva, di regole che sono in mano all’utente e non solo al produttore.
Qui il digitale mostra la sua potenzialità.
Ecco, questa è la strada. Staccarsi dai limiti che erano appiccicati all’immagine precedente, il LEGO, la cattedra,la carrozza con i cavalli, e creare qualcosa di davvero nuovo.
(Non c’è bisogno di dire questo testo si alza come uno zombie dalle profondità di un hard disk, risvegliato dalla necessità di stare vicini agli studenti nell’emergenza della didattica a distanza di questi giorni. E’ stato scritto per tutt’altro scopo, nel contesto di un master online del 2007, come una lettera rivolta a studenti adulti, e non a bambini o ragazzi. Bisogna fare le dovute distinzioni, ma forse il ragionamento generale sul fading merita un minuto di riflessione)
A volte si ha l’impressione che si intenda la figura del tutor online come un ruolo esistente, stabilito, fissato una volta per tutte; mentre dovrebbe essere chiaro che ciò che intendiamo oggi per tutor online dipende dalla situazione storica in cui ci troviamo: una situazione in cui forse la maggior parte dei problemi legati all’e-learning sono rappresentati dalla mancanza di esperienza personale di contesti di apprendimento online. E’ per questo che – attualmente – le competenze strumentali e le attività di supporto tecnico e metodologico da parte del tutor online sono così importanti; ma è per questo che lo saranno sempre meno, fino a scomparire probabilmente del tutto a regime, in un contesto in cui chi si iscrive ad un corso online è già stato studente, tutor o autore online infinite altre volte.
In quanto segue proverò a riassumere la mia personale posizione proprio su questo punto, che ritengo fondamentale perché permette di rispondere ad un domanda: come deve gestire l’occupazione dello spazio e del tempo (digitale) un tutor di un gruppo di apprendimento online? Quanto deve essere presente, quanto deve sollecitare, quanto deve essere pronto/a nel rispondere alle domande?
Per far questo,
proverò ad usare termini e concetti presi in prestito da un ambito
completamente estraneo – almeno ad un primo sguardo – alla pedagogia
e all’andragogia.
Per essere più
precisi, farò riferimento ad un momento storico importante per
l’occidente, e cioè ai primi anni di vita del Cristianesimo, quando
i primi cristiani si interrogavano intorno al problema dell’annuncio
della Buona Novella al di fuori del mondo israelita.
Anche allora si era posto il problema della costruzione di un nuovo ruolo, oggi diremmo di una nuova professione, che andava a sostituire quella del profeta, ma che se ne differenziava per molti motivi: la posizione nel Tempo (il profeta annuncia un evento ancora da venire, l’apostolo annuncia l’evento già avvenuto), l’utilizzo della parola e in generale dei segni (il linguaggio profetico, che procede per immagini, da un lato, e il linguaggio della testimonianza, che racconta fatti, dall’altro), il target di riferimento (prima un popolo, ora il mondo intero), il suo ruolo rispetto alla comunità (esterno l’uno, interno l’altro).
Sono proprio i concetti di assenza, simbolo, comunità che mi sembrano utili per il nostro tema e che intendo riprendere (senza naturalmente nessuna implicazione nella direzione opposta).
L’idea fondamentale su cui si basa queso testo è che la definizione del ruolo del tutor online debba prendere in considerazione il momento storico particolare in cui ci troviamo, che è un momento di transizione tra la formazione in presenza e qualcosa di nuovo che non abbiamo ancora ben capito. In questo senso, mi paiono prematuri i tentativi di sistematizzazione. Non è possibile – ancora – fissare in maniera definitiva il ruolo del tutor online, perché la sua sostanza attuale è legata fortemente proprio a questa transitorietà. E’ possibile però indicare una strategia generale, fatta di azioni diverse in tempi diversi, che il tutor può adottare.
Di questa strategia, provo a indicare brevemente nel seguito i tre passaggi principali.
1.
Il primo annuncio: l’assenza
1.1 Si potrebbe dire, con un’espressione forte, che oggi (e sottolineo oggi ) il primo compito di un tutor online è quello di aiutare i corsisti a superare il lutto della morte del docente in presenza.
Mi spiego: chi ha partecipato tutta la vita ad attività di formazione tradizionale, in cui un docente gestisce la classe e stimola l’apprendimento dei corsisti, nei corsi a distanza trova insopportabile l’assenzafisica del docente.
Questa situazione è
paragonabile a quella di un gruppo di terapia senza terapeuta, di
un’orchestra senza direttore, di un cast senza regista. Sembra
mancare il polo centrale, la ragione stessa per la quale il gruppo è
gruppo (o meglio comunità) e non semplicemente un assembramento di
persone.
Naturalmente la
maniera in cui il corso online è organizzato può rendere questa
assenza più o meno percepibile. Contenuti scritti in seconda persona
lasciano il corsista con l’illusione che il docente, in qualche modo,
sia presente almeno nei suoi scritti. Contenuti neutri, oggettivi,
scritti in terza persona, lasciano più soli i corsisti. Più in
generale, un’organizzazione forte del corso (forum molteplici,
un’agenda ben riempita, attività formalizzate e riconosciute,
suddivisioni e assegnazione di ruoli) crea una specie di
“ubriacatura” del corsista che ha l’effetto di fargli
dimenticare il significato del termine e-learning, che è
“apprendimento digitale” e non “insegnamento
digitale”, cioè implica già nella sua enunciazione un ruolo
attivo dello studente. Un corso ad organizzazione debole (un semplice
repository di documenti, con alcuni strumenti messi a disposizione
dei corsisti) è probabilmente molto meno efficace, almeno in
contesti di principianti, ma almeno ha il vantaggio di confrontare
subito il corsista con il problema di cui discutiamo qui: l’assenza
del docente.
1.2 Il primo compito del tutor online è dunque proprio questo: annunciare questa “morte” del docente, cioè la necessaria assenza del (ruolo del) docente nei corsi online. Un’assenza che mano a mano che viene percepita lascia uno spazio vuoto; ma che una volta dichiarata esplicitamente dal tutor genera non soltanto disagio, ma una vera e propria sensazione ditradimento, in particolare nel corsista che di professione fa il formatore: “Come”, si dice il corsista, “questo sarebbe un corso? ma senza docente, che corso è? Manca uno dei poli fondamentali dell’insegnamento. Manca il rapporto fondante studente/docente, manca la sorgente della conoscenza, manca il canale stesso della trasmissione del sapere”. E così via.
La prima
raccomandazione da fare al tutor è questa: costi quello che costi,
siate fermi nel sostenere che in un corso online non c’è un
docente dall’altra parte. Senza questa presa di coscienza
inequivocabile, non ha inizio il processo di apprendimento digitale
che in quanto tutor siete chiamati a gestire e facilitare.
1.3 Contemporaneamente, il tutor si presenta inevitabilmente proprio come colui/colei che può facilitare questo passaggio all’età nuova in cui l’apprendente diventa protagonista dell’apprendimento. Nel momento in cui il corsista comprende appieno la forza del messaggio di cui il tutor è portatore, il ruolo del tutor stesso viene a cambiare, e la sua figura viene a crescere di importanza ai suoi occhi. Nel momento in cui il corsista capisce e accetta che l’assenza del docente in presenza non è momentanea, ma definitiva, si lega ancora di più al tutor, sui cui proietta l’immagine del docente.
Questo è il ruolo
paradossale, e insieme il rischio principale, del tutor: è la
tentazione del profeta di divenire oggetto della profezia, la
tentazione del messaggero di divenire messaggio. Il tutor rischia
cioè di presentarsi come sostituto sensibile – anche se ancora
virtuale – del docente, proprio nel momento in cui formalmente ne
dichiara l’assenza. Rischia di assumerne involontariamente il ruolo:
all’inizio semplicemente provando a soddisfare le richieste di aiuto
e supporto da parte del corsista, per poi lasciarsi trascinare in una
dinamica docente/studente che online non è più possibile. Come
evitare che questa disponibilità in buona fede prenda la deriva del
protagonismo? E’ il secondo compito del tutor online, il secondo
momento della sua “strategia”.
2.
Il secondo annuncio: i simboli
2.1 Il corsista è
davvero solo, ma non è “povero”. Non c’è il docente, è
vero, ma ci sono tutti i segni che il docente (diventato “autore”,
progettista, instructional designer, etc.) ha lasciato: i materiali
didattici, i riferimenti bibliografici e i link, l’organizzazione del
tempo e dello spazio. Questi segni hanno duplice valore: sono
strumenti su cui il corsista costruisce il proprio percorso di
apprendimento, ma sono anche strumenti con cui (in cui) il gruppo si
riconosce, che consentono di collaborare, di costruire una comunità
da un semplice gruppo di persone che condividono un accesso ad una
piattaforma. Il tutor dovà quindi presentare al gruppo – in funzione
allo stesso tempo consolatoria e oggettivante – i segni lasciati dal
docente. E’ il secondo annuncio.
2.2 Su questi stessi
segni il tutor deve poggiarsi per far partire il processo di
autogenerazione della comunità. Sono segni che sono importanti non
per se stessi, ma per il ruolo che il tutor gli assegna. La maniera
in cui il tutor usa gli strumenti di comunicazione e collaborazione
messi a disposizione nella piattaforma è capitale: perché funge
immediatamente da modello d’uso di questi strumenti, da implicita
educazione all’uso (indipendentemente da un’eventuale formazione
esplicita al loro uso). Un’educazione che funziona in tanto in quanto
i corsisti percepiscono e riconoscono un valore in questi strumenti.
Per questo motivo, non è tanto il numero e il tipo di
funzioni che la piattaforma offre che fa la differenza, ma la
percezione che i corsisti hanno del valore di queste funzioni;
percezione che non dipende dalla lettura di manuali e tutorial, ma
dalla maniera in cui il tutor mostra di volere e sapere utilizzare
questi strumenti.
3.
Il terzo annuncio: la comunità
3.1 Il corsista a
questo punto è ancora solo, ma scopre che grazie a questi segni la
sua solitudine è destinata a durare poco. L’incontro con gli altri
corsisti nello spazio virtuale della piattaforma, attraverso la
mediazione dei segni lasciati dal docente e portati in evidenza dal
tutor, non è casuale ma necessario. Quasi insieme all’annuncio
dell’assenza, o meglio subito dopo, il tutor deve comunicare con
altrettanta forza un nuovo messaggio positivo: che la responsabilità
dell’apprendimento ricade ora sulla comunità, e non più sul singolo
corsista.
3.2 Detto in termini
generali, l’e-learning non ha un soggetto singolare, ma inerentemente
plurale. Semplicemente, non funziona come l’autoapprendimento,
per intenderci quello dei manuali o dei corsi di lingua su CDROM. E
d’altra parte, lo scopo principale di una piattaforma in Internet è
proprio quello di creare uno spazio digitale pubblico, che permette a
persone diverse di condividere un percorso di apprendimento. Se
l’altro – inteso come parte di un gruppo – non fosse destinato ad
avere un ruolo fondamentale nell’apprendimento, allora ogni corso
online potrebbe semplicemente essere scaricato al primo collegamento,
oppure potrebbe essere inviato via posta su un CDROM.
3.3 Ma dal punto di
vista di queste riflessioni, la necessità della comunità sta
appunto nell’assenza del docente. E il terzo compito del tutor è
allora quello di attivare il processo di autogenerazione della
comunità dando ufficialmente ad essa il riconoscimento di luogo
deputato alla creazione di conoscenza, di valutazione, di supporto.
Per quanto paradossale possa sembrare, l’atto di nascita della
comunità d’apprendimento è il momento in cui il tutor affida le
funzioni di docente alla comunità stessa.
4
L’ingresso nella storia
4.1 Il che non
significa che a questo punto il tutor debba scomparire. Il termine
che si usa a volte (“fading”, cioè dissolvenza, con
riferimento ai “Frammenti di un discorso amoroso” di Roland
Barthes) indica proprio che il tutor deve continuare ad essere
presente, ma con un controllo attento del proprio ingombro. Il tutor
online deve “tendere alla scomparsa” nel senso di non
ostacolare il cammino di crescita della comunità. Deve essere
presente più di prima come esperto cui chiedere supporto e
consiglio, ma da una posizione ormai ridefinita come autonoma e
originale rispetto a quella del docente, su un piano che non è
superiore a quello degli altri corsisti anche se se ne differenzia
(il tutor è coinvolto professionalmente nella comunità, e non a
titolo volontario). Il tutor a questo punto non guida, ma indirizza
su richiesta; non stimola, ma completa; non valuta, ma
fornisce elementi oggettivi di confronto. E’ una risorsa importante
di cui la comunità non deve privarsi nel momento in cui affronta la
sua vita quotidiana.
4.2 I tempi di
questi tre annunci possono essere molto diversi, corso per corso,
caso per caso. E’ responsabilità del tutor non solo portare gli
“annunci” che abbiamo visto sopra, ma anche monitorare il
suo gruppo per capire quando e se è il momento di agire. Il
tutor sa, o può immaginare, che il gruppo attraverserà prima una
fase di smarrimento in cui l’assenza del docente verrà percepita più
fortemente, e poi una in cui crederà di riconoscere nel tutor stesso
quel docente di cui sente la mancanza. Dovrà portare il gruppo a
riappropriarsi di alcune funzioni di gestione dell’apprendimento (che
prima erano di competenza del docente), per poi tornare a delegarle
all’esterno, riconoscendo in questo modo in maniera nuova la sua
funzione di tutor, legittimandolo.
Tutto questo per il
tutor dovrebbe essere noto fin dall’inizio, almeno come
scenario possibile. Non si tratta semplicemente di essere preparati e
avere gli strumenti per affrontare delle possibili crisi del gruppo,
ma di stimolare o procurare queste crisi al momento opportuno.
4.3 Non è detto,
infine, che questa teoria, e la strategia che ne deriva, debba e
possa essere resa esplicita dall’inizio. C’è una quota necessaria di
“interpretazione di un ruolo” (nel senso dell’inglese “to
play a role”) in ogni azione formativa. L’azione migliore può a
volte richiedere – proprio per la sua efficacia – che le sue
motivazioni siano nascoste. Questa è forse la parte più difficile,
che sembra violare un patto di trasparenza tra tutor e corsisti. Il
tutor online deve quanto meno valutare fino a che punto esplicitare
le ragioni dei propri atti, sapendo che questa stessa spiegazione è
un atto di per sé e avrà un impatto sul gruppo.