steve's

apprendimento digitale e dintorni

Piattaforme obbligatorie e non

Set
15

Dunque si inizia: in presenza ma lontani, a distanza ma connessi. I professionisti, le aziende, le associazioni, le fondazioni, le università e le scuole devono essere pronti in caso di X (con X=lockdown totale, ma anche dimezzamento dei docenti o degli studenti).
Nella Scuola e nell’Università italiane sono pochi (da quello che vedo) quelli che colgono l’occasione per riformare la maniera di apprendere e insegnare una volta per tutte, per esempio abbandonando il modello trasmissivo e adottandone uno di costruzione collettiva di conoscenza. Pochi hanno utilizzato questi mesi per risistemare il “capitale” di metodi, risorse, informazioni esistente ma frammentato e nascosto nelle teste o nei file dei docenti, in modo da renderlo accessibile, manutenibile, incrementabile, insomma usabile davvero. Ancora meno, mi pare, hanno ripensato la valutazione, arricchendola con elementi che derivano proprio dall’esistenza di un piano digitale comune dove studenti e docenti si muovono insieme.

Adesso però bisognerà scegliere il sistema di videoconferenza (che come si sa è IL canale deputato a tutto: formare, valutare, controllare, supportare, selezionare, anche se probabilmente nessuna scuola italiana è oggi in grado di reggere la connessione contemporanea di tutti gli studenti e docenti) ed, eventualmente, la piattaforma dove collocare i “contenuti didattici da far fruire”. Sic.

Quale piattaforma? Beh, naturalmente lo decide il dirigente, che però non necessariamente ha tutte le conoscenze tecniche e legali che servono. Forse si fa consigliare dall’animatore digitale, forse da un consulente esterno, oppure dai colleghi dirigenti più in vista. Oppure va sul sito del MIUR e poi torna trionfante: “Bisogna usare X, lo dice il Ministero!”. Allora, parliamone.

Nella pagina https://www.istruzione.it/coronavirus/didattica-a-distanza.html si trovano solo tre proposte di piattaforma: Google Suite, MS Teams e TIM Weschool. Visto? Ma se cliccate sul bottone “Continua a leggere” (che sarebbe stato meglio chiamare: inizia a leggere) magicamente appare un testo che dice:

Da questa sezione è possibile accedere a: strumenti di cooperazione, scambio di buone pratiche e gemellaggi fra scuole, webinar di formazione, contenuti multimediali per lo studio, piattaforme certificate, anche ai sensi delle norme di tutela della privacy, per la didattica a distanza. I collegamenti delle varie sezioni di questa pagina consentono di raggiungere ed utilizzare a titolo totalmente gratuito le piattaforme e gli strumenti messi a disposizione delle istituzioni scolastiche grazie a specifici Protocolli siglati dal Ministero. Tutti coloro che vogliono supportare le scuole possono farlo aderendo alle due call pubblicate dal Ministero che contengono anche i parametri tecnici necessari.

“Le “call” con i “parametri tecnici” stanno alla pagina https://www.miur.gov.it/web/guest/-/coronavirus-pubblicate-due-call-per-sostenere-la-didattica-a-distanza
I requisiti “tecnici” che devono avere le piattaforme sono presto detti:

“[…] tutte le piattaforme devono essere rese disponibili gratuitamente nell’uso e nel tutorial; la gratuità va intesa sia nella fase di adesione ed utilizzo dello strumento sia al termine di tale fase. Nessun onere, pertanto, potrà gravare sulle Istituzioni scolastiche e sull’Amministrazione;

  • per le piattaforme di fruizione di contenuti didattici e assistenza alla community scolastica: sicurezza, affidabilità, scalabilità e conformità alle norme sulla protezione dei dati personali, nonché divieto di utilizzo a fini commerciali e/o promozionali di dati, documenti e materiali di
    cui gli operatori di mercato entrano in possesso per l’espletamento del servizio;
  • per le piattaforme di collaborazione on line: qualifica di “cloud service provider della PA” inerente alla piattaforma offerta, ai sensi delle circolari Agid n. 2 e 3 del 9 aprile 2018.”

Insomma, prima di tutto servizio gratis ma con assistenza. Poi una divisione che a me sembra un po’ sospetta:

  • da un lato piattaforme per la fruizione di contenuti didattici e assistenza alla communità scolastica, che devono soddisfare requisiti più stringenti in termini di sicurezza, protezione della privacy;
  • dall’altro le piattaforma di collaborazione online, che NON hanno bisogno di soddisfare questi requisiti.

Indovinate in che categoria vanno certe piattaforme gratuite a cui sicuramente state pensando adesso?
Chi si può permettere questo tipo di offerta gratuita a tutte le scuole italiane? E’ un modo chiaro per estromettere ogni piccolo fornitore locale, ogni proposta fatta una piccola cooperativa di ex-studenti dell’istituto tecnico. E’ un modo per aumentare il monopolio e per rinunciare a promuovere una crescita del comparto in Italia. Ne ho già parlato qui.
A parte il fatto che ci sono dei requisiti di legge (GDPR) che nessuna circolare o nota ministeriale può aggirare, non c’è traccia del requisito “a codice sorgente aperto”. Che non è una bizza di qualche hacker fuori tempo massimo: la legge del 7 agosto 2012, n. 134 ha modificato l’art. 68 del codice dell’amministrazione digitale introducendo per tutta la PA l’obbligo di effettuare “analisi comparativa di soluzioni“, comprese quelle basata su software libero o codice sorgente aperto. Inoltre, nelle Linee Guida per l’adozione e il riuso del software da parte delle PA che sono in vigore dal 9 maggio 2019, si aggiunge, tra i criteri di valutazione, l’uso di dati aperti, di interfacce aperte e di standard per l’interoperabilità. Sarebbe ragionevole che questi criteri venissero ricordati, perché non sono curiosità o suggerimenti benevoli. Anche a prescindere dalla questione recente del Privacy Shield statunitense e della sentenza della Corte Europea che lo invalida.
Insomma, caro Dirigente, vogliamo farla, questa valutazione comparativa?

A proposito: i protocolli di intesa firmati nel 2020 stanno qua https://www.istruzione.it/ProtocolliInRete/Protocolli_Accordi.html

Sempre dalla pagina del MIUR si accede ad altri elenchi di iniziative, servizi, insomma cosa che dovrebbero aiutare le scuole sull’onda del #damosenamano. Come https://www.istruzione.it/coronavirus/didattica-a-distanza_altre-iniziative.html dove ci sono delle pubblicità a società e servizi, oppure quello delle proposte universitarie https://www.istruzione.it/coronavirus/didattica-a-distanza_uni-afam.html dove si trova lo stesso livello di “valutazione”. Se poi si vuole raggiungere l’apice, si legga l’elenco dei servizi di solidarietà digitale offerti questa volta da MITD e Agid, ma linkato sempre nella pagina MIUR: https://solidarietadigitale.agid.gov.it/#/ dove c’è, francamente, la qualunque.
Insomma: a oggi, non c’è uno straccio di niente che dica che la piattaforma X è adatta mentre la Y no.


Così mi pare si possa dire. Magari mi sbaglio.

Una Lente per osservarli tutti

Ago
19

Repubblica online, Stazione Luna, rubrica a cura di Riccardo Luna. L’articolo di oggi 19 Agosto 2020 si intitola “Lens, la app che ti farà i compiti di matematica (e che si svela il senso di Google)” (proprio così, magari lo correggeranno in seguito). L’ho letto subito con grande interesse, conoscevo Lens ma non sapevo che si occupasse di educazione.
La frase finale del titolo, è ancora più attraente: Lens si svela essere il senso di Google?
Premetto che non ce l’ho particolarmente con Luna, ma che anzi gli sono grato perché i suoi brevi post mi permettono di riprendere in mano e approfondire delle questioni importanti, anche se il modo in cui le presenta è sempre un po’ troppo semplice e non mi convince del tutto. Forse non è un caso, è la forma che ha scelto per la sua rubrica, e non gli si può chiedere di scrivere diversamente. In poche righe, e per un lettore medio, deve presentare un pezzo del mondo di oggi come se fosse domani, per poi chiudere con una strizzatina d’occhi per dire che lui non ci crede fino in fondo. Stavolta parla dell’intelligenza artificiale applicata all’educazione. Riporto il suo testo integralmente, in corsivo; il resto sono i miei commenti.

Sono abbastanza sicuro che la app preferita dai ragazzi in autunno non sarà un social network di selfie e stories tipo Instagram, o di balletti e sfottò come Tik Tok, e nemmeno l’eterno Whatsapp. Sarà una app di matematica. Una app che risolve i compiti di matematica più complessi semplicemente inquadrandoli con la telecamera dello smartphone. Sarà Google Lens. Google Lens esiste da un paio di anni ormai, ma la funzione “risolvi il problema di matematica” è appena stata annunciata.

Google Lens fa parte dei servizi di Google a doppio senso. Ovvero: inquadrata un’immagine, fornisce un aiuto nella ricerca di immagini similari, collegandole poi ad informazioni testuali. Ma contemporaneamente, utilizza l’esperienza degli utenti che l’hanno scaricata (oltre un milione, secondo Play) per migliorare il riconoscimento delle immagini, premiando la risposta scelta dagli utenti umani in modo che abbia più probabilità di essere riproposta in futuro. E’ quello che succede con i Captcha che ci chiedono di riconoscere immagini di ponti, autobus e strisce pedonali acquisite tramite Google Street View per dimostrare che siamo umani, e nel frattempo migliorano il servizio di riconoscimento delle immagini e chissà, forse anche la capacità dei piloti intelligenti del futuro.

C’erano già altre app che promettevano di fare la stessa cosa, ma con Google è diverso.

In effetti, il servizio di “risoluzione dei problemi di matematica” non appartiene a Lens, ma a Socratic. Anche questa app esisteva da tempo, inizialmente solo per IOS, e si limitava ad accettare domande e a fornire risposte prese da Wikipedia, da Yahoo Q&A e da altre fonti. Da gennaio 2017 Socratic viene dotata anche di un motore capace di risolvere espressioni ed equazioni, e di mostrare i passaggi necessari (semplificazione, spostamento di un termine da un lato all’altro dell’equazione). Nel 2018 la società che la produce viene acquistata da Google per una somma non dichiarata. La storia di Socratic però la vediamo più avanti.

Nel video di presentazione dell’epoca (ancora disponibile su Youtube ) si vede una ragazza alle prese con una pagina di compiti. Sul foglio la ragazza ha affrontato prima un’equazione semplice:

3 (y+2) = 16

E qui la ragazza non ha avuto problemi. Subito dopo, deve affrontare l’equazione

2y-x = 8x+2

che è ovviamente di difficoltà maggiore, e infatti la ragazza resta bloccata tre-quattro secondi, finché non posa la penna, pronta ad abbandonare il compito, e chissà, anche lo studio della matematica. E’ vero che in alto a sinistra c’è il suo libro di matematica aperto alla pagina “Inequalities and their graphs”, ma la ragazza non sembra ricordarsene. Invece a questo punto inquadra il suo foglio di carta con il suo IPhone, che mostra immediatamente il procedimento “esatto” da seguire per risolverla. Non solo: per ogni passaggio la ragazza può vedere degli approfondimenti sui concetti e i metodi usati (es. aggiunta di uno stesso termine ad entrambi i lati dell’equazione), grafici, video, insomma tutto quello che serve.

Una valutazione dell’app Socratic originale la potete leggere in questa recensione di maggio 2018.

Google sa davvero tutto. Qualcuno potrebbe obiettare che si tratta di una funzione anti-educativa perché consente ai ragazzi di non fare i compiti e farli fare a Google;

Qui tocchiamo il punto cruciale, a mio avviso. Oggi risolvi il problema di matematica, domani quello di fisica o chimica, dopodomani traduci questo passo di Seneca. Non sarà come con la calcolatrice, che ci ha fatto disimparare le quattro operazioni? Non sarà come con l’ascensore che ci ha fatto odiare le scale?
Sulla validità dell’obiezione torneremo dopo. Ma la domanda è: perché Google è improvvisamente interessato all’educazione – a partire almeno dalle suite di applicazioni da ufficio etichettate “Education” ? Si tratta di un mercato enorme, è vero, ma Google non ha nessuna particolare competenza in piattaforme e software educativo. Perché ha deciso di comprare una società che produce una app che va usata durante lo studio, non prima o dopo?

Perché è esattamente qui che Google (seguito da tutti gli altri grossi player dell’IT) vuole andare. Google vuole spingere gli studenti a sostituire un supporto esterno generico e spesso obsoleto (come un libro), o costoso e raro (come un docente umano) con un supporto just-in-time, specifico, mirato e virtualmente onnisciente. Forse l’acquisto di Socratic serve a testare il terreno, a raccogliere informazioni e a preparare l’avvento di qualcosa di molto più potente: un tutor intelligente che utilizza il profilo dello studente/utente per accompagnarlo ovunque. Una specie di assistente educativo personale. Perfetto anche in tempi di pandemia per l’educazione familiare senza il rischio del contagio di classe. L’equivalente di Alexa, Cortana e Siri, ma mirato per un’età e per un’attività specifica di quell’età, lo studio. Bello, no? Beh, dipende dai punti di vista.

Prendete i navigatori auto, sia hardware che software. Oggi si percepisce che soprattutto gli utenti più giovani – ma non solo quelli – sono talmente abituati ad usarli da non essere quasi più capaci di leggere una cartina dall’alto, usando i punti cardinali, e grazie a quella costruirsi nella mente una rappresentazione di una regione dello spazio che comprende il luogo in cui sono e il luogo in cui vogliono andare. E non avendo questa visione generale, tendono ad accettare i suggerimenti della voce suadente di turno che fornisce il minimo di informazioni necessarie per agire momento per momento: “esci dalla rotatoria alla terza uscita”. E’ vero: i navigatori sono in grado di consigliare il miglior itinerario possibile tenendo conto della mappa, di alcune personalizzazioni (poche per la verità: il mezzo di trasporto e la disponibilità economica) e soprattutto dei dati di percorso provenienti dagli altri utenti. Ma i navigatori non spiegano perché è meglio fare una strada anziché un’altra, non puntano a educarci in modo che la prossima volta siamo in grado di fare da soli: i navigatori puntano a diventare indispensabili, a renderci dipendenti.

Immaginate una versione intelligente di un assistente per la scrittura. Una volta detto “voglio scrivere una lettera a Giovanni”, l’assistente comincia a suggerire delle parole, una alla volta: “Caro Giovanni, come stai?”. L’utente può accettarle oppure no, può sostituirle con altre (“Caro Giovanni, come te la passi?”), e l’assistente in questo caso capisce che il tono deve essere più colloquiale, si riposiziona nello spazio lessicale della lettera e suggerisce nuovi itinerari verso la conclusione: “Tanti cari saluti, tuo Stefano”. Questo modo di interagire non richiede all’utente di avere in anticipo un piano del testo, della lettera, ma solo una vaga idea della destinazione; assume come modalità di scrittura qualcosa che assomiglia al viaggio assistito dal navigatore, in cui si procede in soggettiva, un passo alla volta, seguendo i suggerimenti dell’assistente. Una forma molto moderna della scrittura automatica di Allan Kardec.

Questo è l’obiettivo finale di ogni servizio digitale, in ogni campo: stare vicino all’utente in ogni momento, aiutarlo, suggerirgli quello che deve fare in tempo reale, fino diventare indispensabile. Rendere l’utente minore, convincerlo che non può fare a meno di un motore di ricerca, di un sistema di comunicazione sociale, di un negozio online, e di un assistente educativo.

E’ curioso (o forse no) che questa strategia si applichi proprio nel campo dell’educazione, perché è tutto il contrario dell’educazione, è la negazione del concetto stesso di educazione, che dovrebbe essere un modo di far crescere le persone e renderle adulte, responsabili e capaci di scelta. Un apprendimento senza deutero-apprendimento, senza mai imparare a imparare, senza riuscire a diventare finalmente autonomi per andare avanti da soli.

Ma Google ha come motto “Don’t be evil”: come è possibile che voglia entrare nelle vite di tutti per il vantaggio solo di qualcuno? Non lo so, ma non credo che serva immaginare un delirio di onnipotenza. E’ sufficiente una strategia globale di dominio economico: il monopolio è molto conveniente e più sostenibile della concorrenza libera. Una volta che l’app Socratic diventa la compagna indispensabile dello studente, sarà difficile cambiarla. Una volta che tutti i tuoi file sono su Drive e la tua posta su Gmail, è difficile passare ad un altro fornitore, anche se dovesse fornire funzionalità superiori. Come minimo dovresti migrare tutti i tuoi contenuti da una piattaforma all’altra: chi ci ha provato sa che è un incubo.

Contemporaneamente, Google non nasconde affatto il suo modello di business. Usa le informazioni di uso dei privati (anonime) per migliorare i suoi servizi e venderli a chi ha veramente capacità di spesa (aziende e enti pubblici), ma non rinuncia alla vendita di spazi mirati di pubblicità. Perché non pensare allora ad una vendita di spazi pubblicitari all’interno di Lens/Socratic, più o meno trasparente, come già accade nel caso del motori di ricerca? Perché non pensare ad una profilazione accurata degli studenti che usano Lens/Socratic per migliorare i suggerimenti di acquisto?

Sono tutte motivazioni lecite, o almeno non illegali. Ma il problema non è tanto la motivazione di Google, quanto il rischio che il tutto ci sfugga di mano. Bernard Minier, nel suo thriller “M. Le bord de l’abime” si diverte a giocare con il motto di Google, e immagina un chatbot intelligente il cui motto sia “Be evil”. Siccome il chatbot malevolo usa dei motori di machine learning sofisticatissimi nutriti di conversazioni, non è facile accorgersi in anticipo dei suoi scopi. Intelligente, oltre un certo limite, significa opaco. Come facciamo a sapere che i suggerimenti di Lens/Socratic non sono deviati da un bias di qualche tipo?

ma usata bene la nuova funzione di Google Lens può invece essere un aiuto vero a capire il procedimento: non darà infatti semplicemente il risultato del problema, ma mostrerà tutti i passaggi per arrivarci. Del resto i compiti copiati, o svolti da un genitore, o dal compagno di classe più bravo esistono da sempre: da oggi chi vuole imparare ha uno strumento in più, chi vuole copiare anche. A noi la scelta.

Ho molti dubbi su questo modo di presentare gli aspetti didattici della questione. Intanto: fino a quando dovremo andare avanti con questa storia dello studente pigro e furbetto che “tanto ci sarà sempre”, degli strumenti neutri, dei fini separati dai mezzi? E’ una favola vecchia. I fini si nutrono dei mezzi disponibili, i mezzi si costruiscono per i fini. Nel caso dei mezzi digitali, che vanno a toccare direttamente concetti e i modi di collegarli, non si può accettare una visione che li separi dai fini

Luna (e gli autori di Socratic) sembrano pensare che per imparare a risolvere un problema basti vedere i passaggi per la sua soluzione. Chi è studioso ci fa attenzione e impara, chi è ciuccio invece salta subito alla soluzione, la copia, e il docente naturalmente non si accorge di nulla. A parte il fatto che qualcuno dovrà pure occuparsi di aiutare anche gli studenti ciucci, ma chi ha detto che imparare significa solo seguire i passaggi mostrati da qualcun altro, che sia un docente o un compagno o un libro? E’ una modalità, è uno stile, che può andar bene in certi momenti ma non in altri, per certi studenti, per certe materie. E’ un pezzettino della strategia complessiva, nella migliore delle ipotesi. Dove è finita la pedagogia attivista e costruttivista? Dov’è la personalizzazione dell’apprendimento?
E’ una visione – tutto sommato comune – dell’insegnamento come esposizione dello studente alla verità, e deriva a sua volta dall’idea che ci sia una maniera giusta di fare le cose e che andare a scuola serva a imparare quella maniera. Ma qui siamo anni luce lontani dalla pedagogia degli ultimi cinquant’anni. Perché non dovrebbe essere più un mistero che come non c’è una sola traduzione possibile delle lettere a Lucilio, così non esiste una sola maniera di risolvere un’equazione. Magari il risultato sarà pure unico, ma la maniera di arrivarci no. La matematica non è solo logica, è anche cultura, e si insegna in modi diversi a seconda dell’epoca e del luogo. Chi ha provato a leggere un manuale di matematica in un’altra lingua si è già trovato di fronte a questo problema. Per non parlare ovviamente delle differenze in ambiti meno “duri”, come la storia, la geografia, la filosofia. Insomma, ci sono più modi di trovare una soluzione, e dipendono da aspetti culturali, personali (l’età e le competenze dello studente) e contestuali (è un esame? È un compito a casa? E’ il primo di dieci esercizi tutti uguali o l’ultimo?). Immaginare che un programma possa conoscere IL modo giusto di risolvere un problema per insegnarlo allo studente è soprattutto un errore culturale, direi filosofico. Ma è anche pericoloso, perché la maniera giusta, una volta cablata dentro un programma, rischia di restare rigidamente la stessa.

Non sono ragionamenti miei, e non sono recenti. Questa cosiddetta novità dell’insegnamento digitale risale agli anni ‘60, cioè – ogni tanto fa bene ricordarlo – sessanta anni fa. Il progetto PLATO (Programmed Logic for Automatic Teaching Operations) è un pezzo di storia dimenticato. Partito all’università dell’Illinois, poi preso in mano da un azienda produttrice di mainframe (CDC) con enormi aspettative non solo economiche ma sociali (democratizzare la cultura, portare alla formazione superiore anche i cittadini americano meno benestanti), finì per essere abbandonato per i costi. Non prima, però, di aver dato origine ad una miriade di progetti di CAI (Computer Assisted Istruction) e di CAS (Computer Algebra System) come MATHLAB, Reduce, Derive e Maxima.

Parallelamente, nasceva l’Intelligenza artificiale. Il primo programma in grado di dimostrare un teorema (Logic Theorist) è scritto da Newell, Simon e Shaw nel 1956; ma già nel 1964 Student, il software scritto da Daniel Bobrow per la sua tesi di PhD, era capace di capire e risolvere questo tipo di problemi:
“If the number of customers Tom gets is twice the square of 20% of the number of advertisements he runs, and the number of advertisements is 45, then what is the number of customers Tom gets?”
Bisogna poi aspettare gli anni ‘80 e la riduzione dei costi dei Personal Computer perché si affermino i primi Intelligent Tutoring System, in grado di mostrare i passi per la soluzione di un problema, di individuare gli errori dello studente e costruirne un profilo, e durante tutto il processo di interagire in linguaggio naturale. A partire dal 1988 si tengono regolarmente conferenze internazionali, come la International Conference on Intelligent Tutoring Systems, e nascono riviste scientifiche.

Stiamo quindi parlando di una “novità” vecchia di almeno trenta anni. E sono almeno venti anni che gli studiosi si affannano a sperimentare, valutare, confrontare, per concludere che il computer intelligente che sa risolvere i problemi non è una strada promettente. E’ limitata ad alcuni domini, è rigida, isola lo studente dal gruppo di pari, non tiene conto degli aspetti attivi dell’apprendimento. Molto meglio creare degli ambienti dove studenti e docenti possano interagire e costruire insieme pezzi di conoscenza, supportati dalla potenza digitale. Insomma la via aperta da PLATO non portava da nessuna parte.

L’annuncio ha rimesso sotto i riflettori una app che è forse la cosa migliore che Google può fare per noi: si chiama, appunto, Google Lens e consente di identificare quasi qualunque cosa semplicemente inquadrandola con il telefonino. Una pianta rara? Un animale misterioso? In pochi istanti Google confronta la foto appena scattata con tutte quelle sul web e propone la definizione migliore.

Migliore? Google Lens io ce l’ho da un po’, e in effetti all’inizio funzionava malino; l’ho riprovato ora inquadrando un oleandro in fiore, e tra le ipotesi che mi presenta c’è anche quella giusta, ma al terzo posto. Lens non ha modo di sapere quale sia la risposta corretta, può solo presentare un elenco di candidati, esattamente come fa il motore di ricerca più classico. Siamo noi che cliccando sul terzo elemento della lista (“Eccolo! È proprio questo”) forniamo un peso che verrà ricordato e usato per nutrire il motore di machine learning che sta dietro.

Funziona anche con i piatti di tutte le cucine del mondo, e con i luoghi, per esempio i monumenti, e con le scritte in moltissime lingue. E funziona con i vestiti: vedete una camicetta che vi piace? In un attimo ecco il sito dove comprarla al volo.

Bello, eh? Però il fatto che il sito dove comprarla al volo abbia pagato questa forma miratissima di pubblicità, e che quindi non sia necessariamente il migliore per noi, ma il migliore per il venditore e soprattutto per Google, dovrebbe essere tenuto presente.

Google Lens è il nostro motore di ricerca preferito alla sua massima potenza: scatti una foto e ti racconta una storia. In vacanza è un compagno di viaggio inseparabile. E’ come viaggiare con una guida in tasca.

Io uso diversi motori di ricerca, con preferenza per quelli che almeno dichiarano di non tracciare l’utente, come DuckDuck Go. Non so se Luna viaggi usando la guida del Touring oppure la Guide du Routard. Io ho fatto caso agli effetti collaterali di quest’ultima: a forza di raccomandare la spiaggetta seminascosta a cui si accede con un sentiero segreto ha contribuito a distruggere tanti piccoli paradisi, dove adesso si tengono raduni oceanici di adepti del Routard. E per fortuna non tutti la usano. Questo paradosso era stato già descritto da Francesco Antinucci nel 2011 con il suo “L’algoritmo al potere. Vita quotidiana ai tempi di Google” (Laterza). E’ paradossale avere un servizio che consiglia un buon ristorante poco affollato, ma più funziona e viene usato, meno è attendibile.

Con la riapertura delle scuole, lo sarà per gli studenti. Per diventarlo, Google ha incorporato in Lens un software chiamato Socratic, che riconosce i caratteri di un testo, compresa un’equazione, e applica l’intelligenza artificiale per proporre la soluzione.

Per essere precisi: Google ha comprato la startup che produceva Socratic. Una startup nata nel 2013 da un gruppo di ragazzi che credono nel potere dell’educazione, che fanno partire una comunità di insegnanti che tramite un sito web propone contenuti di qualità e li rilascia con licenza Creative Commons. Nel 2015 la startup ottiene un finanziamento da parte di tre venture capitalist e Socratic si dedica solo allo sviluppo di un app. La quale app, a partire da gennaio 2017, fa due cose ben diverse: la prima è la continuazione del sito, ma stavolta con un motore di machine learning che è in grado di suggerire i contenuti più rilevanti presi da Internet; la seconda è una funzionalità del tutto nuova, per cui l’app è in grado di riconoscere il testo di un’equazione, di rappresentarsela internamente e di risolverla usando la libreria Math.js e infine di presentare i passi per la sua soluzione usando un altro software opensource, Mathsteps. Che però non ha moltissimo di intelligenza artificiale, la matematica di solito è trattabile senza bisogno di particolari intuizioni ed è per questo che è da lì che inizia, storicamente, ogni tentativo di creare dei supporti digitali per l’apprendimento.

A marzo 2018 Google compra Socratic, ma rende nota l’operazione solo un anno dopo. L’app continua a chiamarsi Socratic ma ha accesso ai motori di machine learning di Google; contemporaneamente, offre i suoi servizi anche alle altre app della costellazione Google, come Lens (per ora). Nel frattempo, uno dei fondatori, Shreyans Bhansali, resta come engineering manager, mentre l’altro, Chris Banegal, entra a far parte dei visionari che lavorano nell’Area 120, l’incubatore interno di Google.

Insomma la solita storia: non c’è posto per i piccoli. O muoiono, o vengono comprati. Sapendolo, è chiaro che i ragazzi che dicono di voler fare una startup in realtà vogliono solo fare abbastanza rumore da poter interessare una multinazionale e poi passare ad altro.

Il prossimo passo, sarà la trasformazione di un testo scritto a mano, in bella calligrafia, in un testo digitale.

Il riconoscimento della scrittura manuale è in realtà un tema piuttosto vecchio, e almeno dal 1990 esistono delle soluzioni commerciali. Probabilmente diventerà meno significativo man mano che la scrittura manuale verrà abbandonata. Ma la storia di reCAPTCHA, il servizio nato all’università Carnegie Mellon con lo scopo di migliorare le competenze dell OCR (Optical Character Recognition) dovrebbe essere di insegnamento. Siccome c’erano dei testi antichi su cui gli algoritmi di riconoscimento esitavano, i ricercatori della Carnegie Mellon pensarono di far ricorso all’esperienza umana. Così inserirono i caratteri su cui il software faceva cilecca nei sistemi di accesso ai servizi dell’università. Siccome gli umani in genere se la cavano piuttosto bene in questi compiti, le scelte degli studenti servivano ad accrescere le competenze dell’algoritmo di riconoscimento dei caratteri. Funzionò talmente bene da valer la pena di crearci una startup; e la startup fu puntualmente comprata da Google nel 2009.

Finito lo stupore, restano due riflessioni. La prima riguarda i passi da gigante che sta facendo l’intelligenza artificiale applicata alle immagini: il tema del riconoscimento facciale automatico nelle indagini di polizia, dei limiti e dei rischi di questa tecnologia, diventa sempre più urgente. La seconda riguarda Google, che cos’è davvero Google per noi utenti. Molti anni fa in un saggio sulla rivoluzione digitale, Alessandro Baricco parlò per la prima volta di una generazione che “respirava il mondo con le branchie di Google”, che aveva insomma un altro modo di apprendere e relazionarsi. Era una definizione molto efficace.

Il riconoscimento dei volti come strumento di identificazione massiccia al servizio del potere politico è effettivamente un tema caldo. Fa parte della discussione generale sulla tecnologia neutra a cui accennavamo prima. Luna però preferisce dirigersi verso la questione finale, quella del “senso di Google.” Piuttosto che citare “I Barbari” di Baricco, il quale è un attento orecchiatore di discorsi più che uno studioso in presa diretta sulla realtà, meglio dirigersi sul lavoro del collettivo Ippolita e sul loro “Luci e Ombre di Google. Futuro e passato dell’industria dei meta dati” (Feltrinelli, 2007). Ma è vero che tutti noi, giovani e meno giovani, facciamo molta fatica a fare a meno di Google (o di Facebook, di Microsoft, di Amazon) e anzi non vediamo proprio perché dovremmo privarcene. E’ vero che è difficile vedere qualcuno che usa un sistema operativo diverso da Windows o che acquista un libro sul sito della casa editrice invece che farlo su Amazon. E’ difficile vedere qualcuno che in un browser digita una intera URL quando basta scriverne una parte nella barra degli indirizzi (che in realtà è il campo di ricerca). Il punto non è solo che usiamo le branchie di Google per respirare, ma che stiamo dentro un acquario.

Oggi invece Google Lens ci mostra per la prima volta “il mondo con gli occhi di Google”: l’infinito catalogo di immagini che memorizza e che mette a disposizione quando gli chiediamo che pianta è quella che abbiamo davanti. Lens è il modo migliore per far capire a tutti che Google ha creato una copia digitale del mondo e grazie a quella ha tutte le risposte possibili.

Mi pare una semplificazione eccessiva, e peraltro dimentica il (fallito) progetto dei Google Glass, gli occhiali per la realtà aumentata. Che il progetto di Google sia sempre stato quello di creare una copia digitale del mondo, non c’è dubbio. Che il suo scopo iniziale fosse quello di fornire tutte le risposte alle domande, anche. Ma di tempo ne è passato, Google non è solo motore di ricerca, e il suo scopo non è solo quello di fornire risposte, ma quello di fornire una quantità impressionante di servizi, principalmente alle imprese e agli enti pubblici. Questi servizi sono sempre all’avanguardia e in generale di alta qualità, grazie alla raccolta di dati e soprattutto alla raccolta di giudizi, di azioni, di scelte umane. In sostanza, usando gratuitamente i servizi di Google noi forniamo il combustibile che brucia nelle caldaie di Google. Siamo noi che lo rendiamo sempre più potente e rafforziamo il suo monopolio. Google, del tutto legittimamente, ci ringrazia continuando a fornirci servizi sempre migliori. Dal suo punto di vista, è uno scambio win-win.
Il problema è che c’è un effetto collaterale piuttosto importante: l’accumulo di troppe informazioni in mano ad un solo soggetto, con enormi rischi relativamente alla privacy degli utenti, e la possibilità che queste informazioni e i processi che le utilizzano diventino sempre più opachi e quindi fuori controllo.

Usare questi servizi gratuiti ci mette anche in una posizione sempre più asimmetrica, sempre più rischiosa rispetto al futuro. Per capire perché, provate a immaginere un giorno in cui Google decidesse di interrompere i servizi di posta. Fantascienza? Allora andate a leggere su Wikipedia la lista dei servizi gratuiti di Google iniziati e poi interrotti, con cancellazione dei contenuti relativi.

In realtà la copia digitale del mondo, come tutte le copie digitali (si pensi alla musica, nel passaggio dal vinile a Spotify) si perde per strada qualcosa: lascia fuori qualche pezzettino di informazione. Semplifica. Questo vuol dire che il mondo reale assomiglia moltissimo alla sua copia digitale, ma è molto più complesso e ricco. Insomma, non è tutto dentro Google Lens: faremmo bene a non dimenticarlo mai.

Su quest’ultimo passaggio posso dire di essere interamente d’accordo. La numerizzazione, la linearizzazione della realtà – che, ricordiamocelo, non è partita con Google, e neanche con Turing, ma con Galileo – è molto, molto efficace; ma ci costringe ad accettare dei limiti pratici. Non possiamo memorizzare e riprodurre tutte le sfumature di colore di un fiore, e nemmeno la forma di un sasso o il suono di una voce; ma possiamo avvicinarci abbastanza perché un occhio e un orecchio umano non siano in grado di accorgersene. La stessa cosa avviene nella categorizzazione delle persone, la profilazione: non possiamo avere una categoria per ogni persona, e quindi forziamo un po’ i valori mettendo più persone nella stessa categoria. Poi prendiamo delle decisioni sulla vita di quella persona in base alle categorie in cui è stata inserita, come se quella persona coincidesse col suo profilo, e questo è meno bello.
Questo, alla fine, è il rischio che sta sotto la digitalizzazione dell’universo. Qualcuno usa una copia parziale e opaca del mondo per prendere decisioni sulla vita di qualcun altro.



Valutazione di un gruppo di apprendimento online

Mar
12

Ho letto su un quotidiano nazionale: “Stentano a decollare, invece, le verifiche online: solamente 1 su 4 ha già sperimentato interrogazioni o compiti in classe da remoto. ” Potrebbe essere utile allora ricordare che differenza c’è tra verifica e valutazione, e sottolineare che la valutazione dell’apprendimento online NON è la valutazione online dell’apprendimento.

Introduzione

Un interesse sempre maggiore si concentra attorno ai temi della valutazione delle performances di studenti (adulti e ragazzi) che partecipano ad attività di formazione a distanza, e più in generale intorno alla questione della valutazione di tutto il processo della formazione online.

La questione è oggi in Italia di estrema attualità, in un momento in cui operazioni istituzionali su larga e larghissima scala rendono la formazione a distanza una metodologia concreta e praticabile e non solo un oggetto di ricerca.

D’altro canto, la globalizzazione del lavoro produttivo, oltre che dei prodotti, porta ad una migrazione di studenti e professionisti da un Paese all’altro, il che a sua volta comporta la necessità di certificare competenze (per esempio quelle informatiche: vedi ECDL, EUCIP, MOUSE etc.) in maniera omogenea, attraverso procedure di attribuzione di crediti oggettive e standard, sia in presenza che a distanza.

A questa richiesta di valutazione non corrisponde però ancora – per quel che ci risulta – una pratica evoluta di valutazione online. Al di là della verifica attraverso test a risposta chiusa che ogni piattaforma e-learning propone, e al di là del relativo report dei punteggi raggiunti dai singoli corsisti, non pare ci sia disponibilità di strumenti più raffinati; e questa limitatezza non può non essere percepita da un formatore professionista, che spesso considera – a ragione – la valutazione come l’anello debole dell’e-learning.

La ragione principale di questa diffidenza verso la valutazione online è la ristrettezza dell’orizzonte del valutatore, che ha a disposizione pochi dati, e solo di tipo quantitativo. Un docente abituato a giudicare complessivamente un studente come persona ha certamente delle difficoltà di fronte ad un nome collegato con una serie di numeri, senza un volto cui poterli riferire.

In particolare, questa difficoltà è sentita nelle discipline umanistiche, settore in cui le stesse prove oggettive hanno molta difficoltà ad imporsi anche in ambito tradizionale.

Le prove di valutazione oggettiva

I dati utilizzati per la valutazione a distanza sono di solito ristretti al numero di accessi, al tempo di connessione e ai punteggi ottenuti nelle prove oggettive; dati che vengono – probabilmente a ragione – considerati insufficienti sia per una valutazione dell’apprendimento dei singoli studenti, sia per una valutazione complessiva, relativa all’andamento di tutta la classe e del corso online nel suo complesso.

Più in generale, ci sono due limiti evidenti di questo tipo di prove.

1. Raramente nei corsi online sono previsti moduli per l’esecuzione di prove che tengano effettivamente conto del fatto che lo studente si trova nel momento del loro svolgimento davanti ad uno schermo di computer connesso ad Internet. Questo fatto non è necessariamente un limite, ma può essere una risorsa se inserito esplicitamente nelle prove.

2. Le prove previste sono di solito rigorosamente individuali. Si potrebbero però immaginare prove oggettive in cui la strategia risolutiva deve tenere conto dei dati parziali forniti dagli altri corsisti. Per esempio, un test di lingua potrebbe basarsi, anziché su dialoghi fittizi, su dialoghi reali tra corsisti connessi in chat. Oppure, un problema complesso potrebbe richiedere la scomposizione in sottoproblemi affidati a corsisti diversi e risolto mediante un ambiente di collaborazione via web.

Sono proprio queste due caratteristiche – la connessione e la collettività – che invece secondo noi fanno la specificità dell’e-learning rispetto alla formazione in presenza o all’uso di app per l’apprendimento individuale. Ignorare questi aspetti nella progettazione dei corsi (e quindi nella progettazione della loro valutazione) è mancare un’opportunità importante di comprensione di un processo complesso come quello di un corso online.

È almeno possibile che anche nell’e-learning – dove i dati relativi alle performances degli studenti sono sempre registrati dalla piattaforma – non sia necessario prevedere dei momenti di arresto e di valutazione esplicita: il tutor umano, nel seguire il cammino dello studente e attraverso l’analisi dei suoi comportamenti globali (unità visitate, interazioni con gli altri corsisti, richieste d’aiuto), potrebbe suggerirgli esplicitamente percorsi alternativi o fornire informazioni ulteriori, possibilmente fornendo allo studente tutte i dati su cui si è basato per la decisione.

Cos’è la valutazione online

La valutazione non va intesa come un’analisi che viene fatta a posteriori né come un elemento aggiunto dall’esterno: essa è un aspetto connaturato a qualsiasi processo educativo in quanto vuole rendersi qualitativamente sempre più efficace. Questo vale in misura ancora maggiore per la valutazione dell’apprendimeno online.

Le premesse fondamentali da cui partiamo qui sono tre:

– l’apprendimento del gruppo è qualcosa di diverso dall’apprendimento dei singoli componenti. Un gruppo in apprendimento è in qualche modo un organismo, con i suoi ritmi, le sue strategie, il suo percorso, che non sono ricostruibili semplicemente a partire dalla somma di quelli dei partecipanti. Le competenze di un gruppo non sono uguali alla media delle competenze dei singoli: un gruppo può essere capace di svolgere compiti che i singoli separatamente non sono in grado di affrontare;1

– la valutazione dell’apprendimento del gruppo2 (attraverso un’analisi di tutti i dati disponibili), pur non sostituendo quella del singolo corsista, consente di ottenere delle informazioni fondamentali per la ri/progettazione del corso e la gestione della didattica. La natura del digitale è tale da permettere – e anzi richiedere – un continuo adattamento di un corso online, che non è un oggetto fissato una volta per tutte come un manuale, ma viene co-costruito dal docente insieme ai corsisti; questo processo dinamico collettivo ovviamente non può non tenere conto dei risultati della valutazione (e dell’autovalutazione) del corso;

l’analisi dei testi prodotti all’interno dell’ambiente di apprendimento, che siano testi stimolati dal tutor per essere oggetto di valutazione o testi spontanei, è fondamentale. La tonalità affettiva di fondo del corso, il clima (positivo o negativo) che si è creato, la disponibilità dei corsisti alla cooperazione, sono tutti elementi valutativi che ogni docente utilizza per “aggiustare il tiro”, per modificare la propria strategia didattica in corso d’opera; ed è proprio dalla lettura dei messaggi, dalla partecipazione alla chat, dalla lettura dei documenti inviati dai corsisti che il tutor online trae gli elementi di giudizio.

Dati e tipi di analisi

A causa della sua caratteristica di spazio virtuale pubblico, dove tutto ciò che avviene ha natura digitale, una piattaforma per l’e-learning conserva tutti i dati relativi a ogni tipo di interazione (tra studente e materiale didattico, tra studente e studente, tra studente e tutor, etc). Mentre nella formazione tradizionale il docente deve decidere quali dati archiviare e quali, invece, lasciare che vadano persi, una piattaforma e-learning registra quasi ogni “mossa” dello studente, dal momento in cui si registra come utente della piattaforma; il problema è ovviamente la quantità di tempo, e gli strumenti di analisi, necessari per leggere e interpretare questi dati.

La registrazione di dati bruti non si traduce automaticamente in una disponibilità degli stessi dati in un formato usabile da parte dei docenti preposti alla valutazione. Perché i dati siano significativi, occorre che siano archiviati e organizzati in maniera intelligente e funzionale agli scopi.

Prima di tutto, è utile che le piattaforme forniscano dei report completi delle attività dei corsisti, ai corsisti stessi oltre che ai docenti.

Ogni piattaforma e-learning che si rispetti permette almeno al tutor di avere accesso ad un report che mostra per ogni studente:

– il tempo trascorso online, globalmente e nei singoli ambienti

– il numero di connessioni nell’unità di tempo (settimana, mese), e il loro orario

Ma un report di tutti i dati quantitativi disponibili dovrebbe includere:

– il numero e il tipo di nodi visitati

– il numero e il tipo di collegamenti tra nodi attivati

– il numero e il tipo di elementi multimediali attivati

– il numero di contributi originali inseriti (direttamente nel corso, dove ciò è possibile, o nel forum etc)

– l’ampiezza dei contributi inseriti

– il numero di comunicazioni al tutor (email, messaggi interni) e dal tutor

– il numero di comunicazioni ai colleghi corsisti

etc

E c’è ancora un altro tipo di dati registrati dalla piattaforma che potrebbero essere resi disponibili in una forma sintetica al tutor e agli studenti, e cioè quelli relativi ai contenuti della comunicazione linguistica tra gli studenti, e tra gli studenti e il tutor:

– i testi dei messaggi diretti inviati al tutor (richieste di aiuto, di chiarimento, …)

– i testi dei messaggi diretti inviati agli altri studenti (interpretazioni, proposte di lavoro, …)

– i nuovi testi inseriti dagli studenti tra i materiali del corso

– le note e i commenti apposti alle unità del corso

– i testi degli appuntamenti in agenda

– i testi delle chat

Questi testi nel loro complesso costituiscono un patrimonio fondamentale di proprietà del gruppo d’apprendimento. Se mai dovesse affermarsi l’idea di un “e-portfolio di classe”,3 questo corpus ne farebbe parte integrante.

Anche se probabilmente ogni tutor già utilizza tali testi (in maniera più o meno consapevole) durante lo svolgimento del corso per una valutazione qualitativa, la possibilità di effettuare un’analisi quantitativa attraverso strumenti adeguati renderebbe il loro compito più semplice ed efficace. I risultati dell’analisi sarebbero cumulabili nel tempo e standardizzabili. Sarebbe cioè possibile tracciare una “curva modello” del percorso tipico d’apprendimento di un certo corso online (vedi infra).

Se ognuno di questi dati, presi singolarmente, può risultare abbastanza sterile dal punto di vista della valutazione, incrociati invece possono consentire di evidenziare degli aspetti importanti dell’andamento del gruppo di apprendimento (vedi infra), in particolare rispetto a tre dimensioni fondamentali della valutazione:

  • il grado di partecipazione, di interazione e comunicazione tra i partecipanti
  • il grado di adesione al patto formativo e alle regole del gruppo
  • il grado di interesse per il contenuto del corso

In questo tipo di analisi l’oggetto della valutazione – come sarà ovvio per il lettore – non è più il singolo corsista ma il gruppo classe nel suo complesso.

Purtroppo questo tipo di analisi estemporanea è di solito affidata completamente alle capacità soggettive del tutor, e non è cumulabile nel tempo né standardizzabile.

Sarebbe preferibile avere la possibilità di effettuare un’analisi quantitativa, o ancora meglio più tipi di analisi quantitativa.

[…]

Il modello di Evoluzione Normale del Gruppo d’Apprendimento

Chiamiamo Evoluzione Normale Gruppo d’Apprendimento il percorso che un gruppo d’apprendimento (online) dovrebbe seguire in condizioni ottimali.

L’idea chiave è che, a prescindere dall’applicazione di strumenti di verifica di competenze sui singoli partecipanti, sia possibile monitorare il buon andamento di un gruppo d’apprendimento analizzando i suoi prodotti testuali se ci si basa su un’ipotesi di andamento ottimale del gruppo al quale ogni concreta edizione di un corso si approssima più o meno.

Questo modello prevede che un gruppo in apprendimento non resti statico ma abbia un’evoluzione in quanto gruppo; che questa evoluzione porti il gruppo a controllare sempre meglio il proprio rapporto con l’ambiente educativo in cui si trova (costituito dalla piattaforma, dali materiali del corso, dagli strumenti di interazione che sono a disposizione).

Il controllo acquisito si esprime in una mutazione percepibile sul piano linguistico. Il pratica, il gruppo evolve da una situazione di partenza A in cui:

  • l’interazione linguistica utilizza termini impropri, presi dal linguaggio comune,
  • ha come oggetto le difficoltà comunicative
  • si concentra sul linguaggio, sui termini anziché sui fatti
  • procede per richieste continue

ad una situazione-limite Z (non necessariamente raggiunta alla fine del corso…) in cui:

  • il discorso utilizza termini specialistici corretti
  • si concentra sulle regole e sulla loro applicazione
  • propone nuovi elementi informativi
  • riflette sul lavoro fatto insieme
  • esprime una soddisfazione generale per le attività svolte.

[…]

Il punto chiave di tutte queste analisi, lo ripetiamo, è lo spostamento del focus dal singolo corsista al gruppo di corsisti o a tutta la classe.

L’apprendimento del gruppo è qualcosa di diverso dall’apprendimento dei singoli componenti. Un gruppo è in qualche modo un organismo, con i suoi ritmi, le sue strategie, il suo percorso, che non sono ricostruibili semplicemente a partire dalla somma di quelli dei partecipanti.

Di conseguenza, la valutazione dell’apprendimento del gruppo consente di ottenere delle informazioni fondamentali per la progettazione e la gestione della didattica.

E naturalmente le relazioni che si creano all’interno del gruppo, lo scambio di informazioni esplicite ed implicite tra i partecipanti, la consapevolezza condivisa dell’apprendimento diventano oggetti fondamentali per questo monitoraggio del cammino di un gruppo in apprendimento in quanto percorso di evoluzione in termini di linguaggio (lessico, strutture), di modalità di interazione, di consapevolezza a prescindere dalle competenze apprese dai singoli.

[…]

Conclusioni

Infine, per dovere di completezza, dobbiamo citare il problema ancora aperto della valutazione del corso nel suo complesso. Finché la valutazione verrà confusa con la verifica, continueremo a ignorare il fatto che la misura dell’apprendimento del singolo studente è un elemento di un processo valutativo più complesso che ha per oggetto tutto il processo educativo, e che coinvolge tutta la classe, ma anche il docente, le risorse dell’istituto scolastico, l’organizzazione degli spazi e dei tempi. D’altra parte anche i manuali di valutazione scolastica più recenti insistono sul fatto che la valutazione sistematica del processo formativo è fondamentale ai fini della buona progettazione educativa.

Se questo è vero in presenza, a maggior ragione un progetto di formazione a distanza – ancora per certi versi così fragile nella metodologia e incerto nei risultati – non può esimersi dal comprendere la valutazione come un suo momento fondamentale. La questione valutativa è cioè cruciale per l’e-learning forse ancor più che per altre forme di educazione/apprendimento: laddove nella formazione in presenza ci sono molteplici forme di controllo (e motivi diversi di stimolo per gli studenti), nell’e-learning la possibilità di seguire, monitorare, verificare e insomma valutare l’intero processo tramite i dati forniti dalla piattaforma è l’unico strumento di gestione della didattica.

Ma c’è un’altra ragione: in una prospettiva costruttivista, qual è quella che assumiamo implicitamente qui, non è possibile non riconoscere un ruolo attivo dello studente non solo nella creazione dei propri schemi mentali, ma fino alla modifica dell’ambiente (digitale) nel quale apprende. Significa riconoscere che apprendere non è solo adattarsi, ma anche adattare l’ambiente.

L’ipotesi psicologica sottostanteè che l’apprendimento non sia una semplice acquisizione di informazioni, ma un processo evolutivo, che vede coinvolti un ambiente e un soggetto. C’è apprendimento quando il soggetto progredisce nel controllo, cioè acquista una padronanza sempre maggiore dell’ambiente, fino a modificarlo. In un ambiente educativo questo passaggio del controllo è, a sua volta, regolato, e anzi progettato esplicitamente perché l’ambiente progressivamente ceda il controllo al soggetto. Per inciso, la valutazione, da questo punto di vista, coincide con un’analisi del processo dal punto di vista del passaggio del controllo. Si traduce nel tentare di dare risposta ad una serie di domande: c’è stato questo passaggio, oppure lo studente è restato ancorato al livello iniziale? Ed è stato continuo, fluido, o troppo brusco? Anticipato, o tardivo? In tutti i soggetti nello stesso momento, o ognuno secondo il proprio ritmo? Ci sono stati dei plateaux e dei gradino, o un climax continuo? E così via.

Questo processo di appropriazione, interiore quanto oggettivo, ha una rappresentazione fedele – nel caso dell’apprendimento di un soggetto collettivo – sul piano del linguaggio che lo accompagna.

Ma allora per capire se c’è stato apprendimento non si deve andare a verificare solo il soggetto (o la classe) ma tutto l’ambiente in cui il processo si è svolto, per andare a valutare come e quanto questo sia cambiato. Non si può valutare l’apprendimento di un soggetto senza andare a valutare l’ambiente in cui il processo si è svolto. E’ stato modificato o è rimasto tale e quale?

Allora la valutazione online non può non riguardare anche il corso, inteso come ambiente costruito per facilitare l’apprendimento.

Non solo perché performances scadenti di tutti, o di una larga parte degli studenti, non possono che essere attribuiti al corso, o nella migliore delle ipotesi ad un errore di specifica dei prerequisiti di ingresso, ma perché la stessa valutazione dello studente non sarebbe completa senza l’analisi di come il corso è stato adattato, modificato, personalizzato dallo studente e dalla classe nel suo complesso. Questa modifica è parte integrante del processo di apprendimento, e non un suo effetto collaterale.

Abbiamo visto in che modo il tutor può servirsi dei dati messi a disposizione da una piattaforma di elearning per valutare l’andamento di un corso online in alcune aree: l’interazione e comunicazione tra i partecipanti e l’acquisizione del controllo dell’ambiente educativo.

Se nessuno degli strumenti descritti può essere visto come una soluzione definitiva al problema della valutazione dell’apprendimento online di un gruppo, un uso intelligente e integrato di essi permette al tutor (e ai corsisti) di avere a disposizione degli indicatori significativi, condivisibili e quantificabili, di alcuni parametri fondamentali del processo di apprendimento del gruppo.

In conclusione, rinunciare alla valutazione di un corso online è rendere un cattivo servizio agli studenti.

Limitarsi a considerare solo i dati relativi alle prove oggettive standard è ignorare la natura cooperativa e dinamica di ogni corso.

Analizzare i dati relativi all’interazione linguistica tra corsisti e tutor ci sembra invece un modo interessante, e nuovo, di aggiungere elementi per la valutazione del processo di apprendimento dell’intera classe, in quanto diverso dalla semplice media degli apprendimenti dei singoli corsisti.

(Quella che avete appena letto è una sintesi di un materiale per la formazione docenti INDIRE del 2006. Sono state espunte le parti più tecniche e i riferimenti agli strumenti; restano le intuizioni più visionarie o ingenue, a seconda dei punti di vista)

1 Il riferimento teorico è qui ovviamente il Cooperative Learning. Per una visione d’insieme, si può leggere questo recente testo di Mario Martinelli In gruppo si impara, Torino, SEI, 2004.

2 L’autovalutazione di gruppo nell’apprendimento in presenza è ancora prassi relativamente relativamente nuova anche nella formazione in presenza. Vedi D.W.Johnson, R.T.Johnson, E. Holubec, Apprendimento cooperativo in classe, Trento, Erickson, 1996.


Ambienti digitali per l’apprendimento

Mar
09

(Questo articolo ripropone con minime modifiche il Capitolo 1 del testo omonimo, scritto in collaborazione con Morena Terraschi e pubblicato da Anicia nel 2000. Sì. Avete letto bene.)

Ambienti digitali per l’apprendimento

Bisogna essere onesti: la formazione a distanza ancora non convince completamente. Al di là di chi è contrario per principio (gli umanisti che ne temono la freddezza, i luddisti che ci vedono un attacco alla categoria dei formatori), anche chi è stato entusiasta all’inizio comincia ad essere critico e a non vedere più solo gli aspetti positivi. Questo è senz’altro un bene, perché un atteggiamento acritico e un ottimismo generalizzato hanno permesso di catalogare sotto la voce “formazione a distanza” metodi, tecniche e ambienti molto diversi tra loro, qualche volta anche poco convincenti.

Ma al di là dei limiti della tecnologia, che sono sempre superabili (così almeno dicono i tecnologi…), la domanda di fondo resta questa: siamo sicuri che si possa davvero imparare qualcosa a casa propria, senza un libro e senza la presenza di un vero insegnante, ma soli davanti ad un computer?

È una domanda ingenua, se si vuole, ma non bisogna aver paura di porla. Se il vestito dell’imperatore è una truffa, o nel migliore dei casi un’illusione collettiva, meglio saperlo subito.

A chi sottoporre la questione? Alla pedagogia, naturalmente, anzi alle pedagogie.

I modelli pedagogici prevalenti in questi ultimi cinquanta anni (comportamentismo, cognitivismo, costruttivismo) hanno diversamente descritto il rapporto tra soggetto che apprende e ambiente di apprendimento. Ognuno di questi modelli ha informato di sé la maniera di utilizzare i computer in campo educativo. Anche oggi, ogni software didattico può essere rapportato all’uno o all’altro modello, anche a prescindere da quello che ne dicono gli autori

Facciamo un breve riassunto.

Per il comportamentismo, che negli anni ’50 in nome della scienza sperimentale tentava di espungere l’introspezione e tutta la psicologia che sapeva troppo di “metafisica ottocentesca” dalla teoria dell’apprendimento, il soggetto è una scatola nera di cui non si può sapere nulla. Non ha senso parlare di mutamenti interni del soggetto perché non abbiamo un mezzo per verificarne la presenza; quello che si può fare è modificare la maniera in cui il soggetto interagisce col mondo esterno. Gli effetti dell’apprendimento sono misurabili con test oggettivi, e questa è la sola cosa che interessa.

Il computer è usato dal comportamentista come macchina per somministrare informazioni e batterie di test.

Molti sistemi di FaD sono ancorati a questi solidi presupposti, a dispetto delle pretese di modernità accampate con l’uso di effetti speciali o di agenti software intelligenti. In questa visione, è sicuramente possibile apprendere qualcosa con un computer, anzi le garanzie di standardizzazione dell’informazione che l’informatica offre sono largamente sufficienti e insuperabili.

Per il cognitivismo, che ritiene eccessivamente modesta la proposta del comportamentismo, possiamo invece parlare di come, in seguito ad un apprendimento, sia venuta a modificarsi la rappresentazione interna nel soggetto. Apprendere significa arricchire il proprio patrimonio di conoscenze sia in termini di nuovi dati, sia – e soprattutto – in termini di ristrutturazione dei dati presenti attraverso la creazione di nuovi schemi che strutturano quei dati.

Il cognitivismo ha permesso di far partire molti progetti di ricerca sulla simulazione del ragionamento e dell’apprendimento all’interno di una macchina digitale. L’uso di mappe grafiche per la rappresentazione di ambiti concettuali complessi, mappe che non sono solo presentazioni per l’occhio umano ma anche grafi percorribili da un algoritmo, è un buon esempio – per quanto raro – di come una riformulazione adeguata di conoscenze sia a sua volta un atto che produce conoscenza.

Comportamentismo e cognitivismo, per quanto opposti fra loro, hanno però in comune una concezione statica dell’apprendimento, in cui se il soggetto cambia, lo fa soltanto all’interno dell’universo mentale, mentre l’ambiente in cui avviene l’apprendimento resta immutato. Sembra un’ovvietà, ma non lo è.

Come scrivevamo in un testo di qualche tempo fa:

“L’analisi tradizionale dell’educazione individua due elementi separati: l’io ed il mondo esterno. Questi elementi sono opposti, tanto sul piano morale che su quello conoscitivo. Dal punto di vista etico, si ha da una parte la soggettività irriducibile del bambino, sospinto dal principio di piacere, e dall’altra la società degli adulti, regolata dalla morale del dovere. Dal punto di vista conoscitivo, si ha una coscienza “tabula rasa” da un lato, e la totalità delle conoscenze che sono patrimonio della scienza dall’altro.

Per conciliare la differenza tra i due elementi si inserisce tra di essi la mediazione di un istituto educativo (la scuola), i cui costituenti (docente, libri, etc.) devono servire a portare il soggetto verso l’accettazione delle leggi morali e scientifiche del mondo esterno. La scuola è quindi, da un punto di vista teorico, un deus ex machina che permette di unificare due concetti pensati come opposti.” (Io bambino, tu computer, Anicia, 1993)

L’educazione sarebbe, da questo punto di vista, il tentativo di controllare dall’esterno l’apprendimento meglio di quanto possa accadere naturalmente, attraverso la creazione di ambienti artificiali (la scuola, la bottega) o di strumenti che accelerino il processo (il libro, i software didattici, i sistemi per la FaD).

Nel costruttivismo, il terzo grande filone della pedagogia moderna, non si può parlare di apprendimento a prescindere da tre elementi: il soggetto, il contesto e il tempo. C’è sempre un chi, un dove e un quando dell’apprendimento: l’apprendimento è sempre situato.

Ma soprattutto, il costruttivismo abbandona tutte le metafore di tipo “fotografico”: la conoscenza non viene acquisita, cioè ricopiata dentro la mente, ma elaborata dalla mente. E naturalmente ogni elaborazione è personale e originale.

C’è un Apprendimento con la A maiuscola, che è quello cui di solito si pensa, codificato in momenti specifici della vita e a volte in luoghi specifici (la scuola, la bottega).

E c’è poi un apprendimento con la a minuscola, che è quello che avviene tutti i giorni, e che coinvolge tutti, e che è semplicemente il processo con il quale un organismo acquisisce nuove informazioni, le fa proprie e le riusa per adattarsi meglio all’ambiente.

Tutti apprendiamo in continuazione, i bambini come gli adulti, a scuola come per strada. I bambini, certo, sono professionisti dell’apprendimento; si può anzi dire che apprendere è il loro modo naturale di porsi di fronte al mondo; ma questo non vuol dire che l’apprendimento sia un loro appannaggio esclusivo.

Forse si può dire che l’apprendimento non è nemmeno un comportamento così tipicamente umano come ci piacerebbe pensare. Non soltanto gli animali apprendono, ma anche le piante e i batteri, e insomma tutti gli esseri viventi in quanto modificano il loro comportamento costruendo schemi nuovi che funzionano meglio di quelli precedenti. Provate a immaginare…

Una festa. Dal buio e freddo esterno entri in un locale chiuso, ti togli il cappotto, e cominci a percepire colori, forme, suoni.

I suoni si precisano: lingua parlata (la tua?), voci che si precisano in parole, e che cominciano a costituirsi in frasi.

Anche le immagini si precisano: da semplici zone chiare e scure acquistano colori, si catalizzano in oggetti, o in corpi e volti di persone, e alcuni di questi in volti conosciuti di amici.

La situazione diventa sempre più strutturata: di là il buffet, qui il divano con un posto vuoto, in fondo la finestra resa famosa da Nanni Moretti in uno dei suoi primi film.

Contemporaneamente, l’ambiente si modifica. Individuata una sedia libera ti siedi, e quel posto vuoto non c’è più, il gruppo di persone che ti pareva più interessante cambia di composizione, cominci a parlare e l’argomento della conversazione cambia con il tuo intervento nel discorso.

Altre persone entrano nella stanza, e percepiscono l’ambiente diversamente, anche a causa del mutamento prodotto dalla tua azione.

Questa storia si può raccontare da molti punti di vista: quello della sociologia (le interazioni tra i gruppi di individui), quello della psicologia della percezione (l’organizzazione dei dati sensoriali), quello dell’antropologia (i ruoli assunti). La pedagogia ne sceglie uno specifico, che consiste in un’attenzione alla maniera in cui il soggetto acquisisce il controllo dell’ambiente.

L’apprendimento non è un fenomeno particolare, ma la descrizione di un processo da un punto di vista particolare. E la pedagogia, come scienza dell’apprendimento, racconta la maniera in cui il soggetto acquisisce il controllo dell’ambiente.

Man mano che il soggetto procede la sua esplorazione dell’ambiente acquista nuove capacità e potenzialità; dal canto suo l’ambiente stesso viene realmente a mutare nel corso del processo, assoggettato a nuove leggi introdotte dal soggetto. Avete letto bene: nell’apprendimento non si modifica solo il soggetto, ma anche l’ambiente.

L’umanità ha scoperto da tempo che utilizzare degli ambienti appositamente progettati per cedere il controllo ai soggetti è più efficace e più sicuro che lasciare i soggetti imparare da soli nel mondo “adulto”.
La bottega, la scuola, il libro sono esempi di questo tipo di ambienti “a orologeria”.

Allo stesso modo, un ambiente digitale per l’apprendimento è tale proprio perché consente, e anzi invita, lo studente a modificarlo per renderlo più controllabile. Un ambiente di apprendimento digitale è progettato per cedere il controllo in maniera progressiva, fino ad abdicare nei confronti del soggetto che apprende. Se resta sempre uguale, non è educativo – cioè non permette apprendimento.

Torniamo alla FaD.

Parlare di Formazione a Distanza sembra implicare due premesse:

  • che la FaD sia appunto un caso particolare di formazione;
  • che la caratteristica principale della FaD sia il suo svolgersi tra soggetti (docenti e studenti) che fisicamente non si trovano a condividere lo stesso spazio.

Questi due presupposti apparentemente innocenti sono in realtà pieni di implicazioni pesanti.

1. La FaD è un caso particolare di formazione?

“Formazione” è un termine dinamico che porta con se l’idea di un soggetto che non possiede la forma, ma che la riceve da qualcuno. Formare è d’altronde un verbo transitivo, e il formatore è colui che possiede la forma e che plasma – platonicamente – la materia cognitiva bruta del discente per precisarla e definirla. La FaD, secondo questa interpretazione, dovrebbe permettere ad un formatore di rendere oggettiva la forma che possiede e applicarla ripetutamente a soggetti diversi. Invece è chiaro che la FaD è portatrice delle istanze di personalizzazione dell’apprendimento, che è un processo guidato dallo studente più che dal docente (che infatti, più frequentemente, viene denominato tutor). Se c’è ancora chi interpreta la FaD come un artificio tecnico che permette di organizzare una serie di lezioni in videoconferenza, la quasi totalità dei sistemi FaD sono invece veri ambienti di gestione della conoscenza, dotati di funzioni di ricerca, indicizzazione, generazione di percorsi personalizzati, comunicazione.

2. La caratteristica principale della FaD è il suo svolgersi a distanza?

Questo implicherebbe che i benefici che è lecito attendersi sono solo di riduzione dell’attrito, per così dire, cioè di eliminazione di tutti gli ostacoli esterni (fatica, dispendio di tempo e risorse) che mettono in pericolo lo svolgersi tranquillo di un processo formativo tradizionale. Ma se è vero che un processo di FaD può svolgersi anche a distanza, questo non implica affatto che debba svolgersi solo a distanza. Se pensiamo a situazioni geografiche come quelle canadesi o finlandesi, dove clima e distanza rendono infinitamente più conveniente attivare corsi online anziché in presenza, questo significato si impone come l’unico possibile.

La FaD ha modi e caratteri suoi propri, che hanno senso indipendentemente dalla collocazione fisica degli attori.

Noi non pensiamo che questa collocazione della FaD come caso particolare – limitato dal suo svolgersi attraverso uno spazio significativamente esteso – della formazione tradizionale sia la maniera più corretta di pensarla. La FaD è un processo originale, per certi versi parallelo alla formazione, che richiede un ripensamento dei ruoli (studenti e docenti), delle strategie di insegnamento/apprendimento e di quelle di valutazione.

La caratteristica che ci sembra più propria dei processi di apprendimento digitale è il fatto che essi si basano su (e in parte costruiscono), un supporto condiviso, un piano del discorso comune dove tutte le interazioni si svolgono. Questo piano è, per la sua natura digitale, accessibile indipendentemente da tempo e spazio. E’ un piano dove i soggetti costruiscono insieme conoscenza, dove simulano la realtà attraverso dei modelli e verificano l’aderenza dei modelli alla realtà. Che si tratti di una realtà fisica o linguistica, non cambia poi molto.

Anche per sottolineare questa originalità della FaD noi preferiamo parlare di apprendimento digitale (che ci sembra la migliore traduzione italiana possibile di e-learning): non un apprendimento del digitale, ma un apprendimento che si svolge all’interno di un ambiente che è prima di tutto digitale, poi (forse) anche mediato dalle reti e dai protocolli delle telecomunicazioni.

Le implicazioni di questa caratterizzazione forte della FaD come apprendimento digitale sono fortissime per tutte le questioni relative alla valutazione: se tutto passa attraverso la piattaforma, e viene registrato, il docente ha a disposizione una quantità di dati enorme su cui applicare l’analisi valutativa. Non serve necessariamente interrompere il processo di apprendimento con dei test, ma si può valutare in maniera continua, in maniera realistica a partire dalle azioni degli studenti.

Ma più importanti ancora ci sembrano le conseguenze sul piano dell’apprendimento: la conoscenza presente in un corso non si esaurisce con quella prevista dal suo autore e codificata nelle unità del corso. Anche gli studenti e i tutor possono aggiungere (o modificare) le informazioni originali. Cosa che di solito avviene anche in un corso in presenza; solo che in quel caso di tutto questo lavoro ulteriore di costruzione non resta traccia, mentre in un corso online tutte le aggiunte sono conservate insieme all’originale.

Provate a pensare ad un corso come ad una pellicola in cui il fotogramma 1 contiene le informazioni fornite dall’autore, il fotogramma 2 contiene le modifiche e le aggiunte fatte dagli studenti il primo giorno, e così via per tutti i giorni in cui il corso è stato attivo. Il corso in senso proprio è costituito non dal primo fotogramma, e nemmeno dall’ultimo, ma dall’insieme di tutti i fotogrammi (il film). Un insieme che con strumenti adeguati potrebbe essere “proiettato” oppure semplicemente analizzato per estrarne ulteriori informazioni: lo stile cognitivo dei partecipanti, la maniera di affermarsi delle idee migliori, il processo evolutivo che rende certi concetti inadeguati e altri vincenti, e così via.

Probabilmente, in un futuro vicino il termine “formazione” tout court coinciderà con la FaD, e solo pochi potranno permettersi una vera formazione in presenza, che verrà vista come un caso particolare di FaD non digitale.

Learning Analytics o solo tracciamento?

Mag
25

Anni fa sostenevo che la valutazione (online) andava arricchita con i dati. Che raccogliere le informazioni prodotte dalle azioni dei partecipanti ad un ambiente di apprendimento (discenti e docenti) poteva fornire strumenti utili ai docenti e ai discenti – per migliorare il percorso di apprendimento, per migliorare il corso. Ma avvertivo anche che non si trattava solo del “tracking“, del tracciamento di orari di ingresso e di uscita, di contare il numero di accessi. Occorreva raccogliere dati più significativi: per esempio, i percorsi (da dove a dove), per ricostruire lo stile cognitivo dello studente, i messaggi, i contenuti prodotti, le richieste di supporto, in generale le interazioni con i colleghi. Questo ovviamente avrebbe potuto essere fatto se l’ambiente registrava ogni azione, il contesto dell’azione, i suoi contenuti, e se questi dati venivano esposti in modo tale da poter essere visualizzati, confrontati e usati per avvertire il docente di anomalie di percorso (positive: originalità, e negative: ritardo) e permettergli di agire subito, o di ristrutturare il corso per il futuro. Di sicuro sarebbe stato necessaria anche un’analisi dei testi prodotti, cercando di categorizzarli in base a parametri (oggi si parla di sentiment analysis, ma in un senso ristretto). Ma soprattutto sarebbe stata necessaria una visione d’insieme degli obbiettivi, degli indicatori. Un paio di esempi modesti di lavori condotti in quest’ottica, con le tecnologie dell’epoca: questa presentazione (analisi_forum) che descrive l’analisi dei forum nella piattaforma Ansas (INDIRE) per i Dirigenti Scolastici nel 2006/2007 e quest’altra (strum_valutazione_2006) che descrive un possibile modello di interpretazione dei testi prodotti dai corsisti in un ambiente di apprendimento online. Cose di nessun valore ma che almeno cercavano di porre qualche questione in un periodo in cui del monitoraggio – in quanto puramente quantitativo – non interessava a nessuno.

Sono passati dieci anni, e il termine “Learning Analytics” è diventato un mantra, adottato da progetti , da fondazioni, e a cui si dedicano ricerche e  articoli divulgativi. Persino l’obsoleto SCORM (nel senso che anche chi l’ha proposto ha smesso di sostenerlo, anche se qui da noi non ce ne siamo ancora accorti) è stato sostituito dalle eXperience API che permettono di inviare informazioni sulle diverse attività di apprendimento ad un archivio esterno (LRS) secondo un vocabolario controllato per permettere analisi successive.

Non posso che esserne felice. Finalmente ci sono le risorse, economiche, tecniche e umane, per cercare di capire e migliorare i contesti di apprendimento sfruttando l’enorme quantità di dati che sono sottoprodotti dell’interazione didattica.

Quello che però sto vedendo recentemente sono tante proposte di ambienti che mettono l’accento sul termine “analytics” (a volte sinonimo di “accountability“, come qui ) ma per parlare semplicemente di tracciamento: “Know if your students are watching your videos, how many times and see the answers they give.” Piattaforme per docenti in cui è facilissimo inserire un video, poi un quiz, e voilà ecco i dati. Qui mi viene da chiedere: ma tutto quello che vuoi sapere dei tuoi studenti è quante volte accedono ad una risorsa? E per fare cosa?

Ma in effetti questo è quello che viene registrato. Poi però si scomodano i big data, il data ming, il machine learning, il cloud, per estrarre conoscenza dalle informazioni. Cioè invece di aumentare la qualità dei dati raccolti in partenza, si registrano informazioni atomiche (e banali) e poi si applicano complessi algoritmi per cercare di far emergere configurazioni significative.

Mi auguro che i prossimi passi siano invece quelli di definire meglio cosa si vuole raccogliere, di strutturare i dati in partenza, di permettere ai docenti e ai discenti di crearsi i propri strumenti di visualizzazione. Mi auguro che tutti gli esperimenti di MOOC interuniversitari adottino un approccio di questo tipo, nel rispetto della privacy e con l’obbiettivo di migliorare l’apprendimento e non di profilare gli utenti.

No More Pencils, No More Books

Mag
08

Grazie alla segnalazione di Gino Roncaglia, ho letto l’interessante  (e lungo) articolo di Will Oremus su Slate

No More Pencils, No More Books
Artificially intelligent software is replacing the textbook—and reshaping American education.

http://www.slate.com/articles/technology/technology/2015/10/adaptive_learning_software_is_replacing_textbooks_and_upending_american.single.html

L’articolo parte da una classe di pre-algebra al Westchester Community College di Valhalla, New York.
Gli studenti lavorano individualmente con ALEKS (Assessment and Learning in Knowledge Spaces), che è un software di istruzione programmata sviluppato da un  team di  matematici, scenziati cognitivi e ingegnieri software all’università UC–Irvine negli anni  1990.
L’articolo parte dal fenomeno della conversione degli editori di manuali, come McGraw-Hill e Pearson, verso il digitale, cioè verso la produzione di “corsi adattivi”, e risale alle teaching machines skinneriana memoria, al Learning’s Cognitive Tutor for algebra della Carnegie University, per poi citare i risultati controversi di vari studi sull’efficiacia degli strumenti digitali, MOOC compresi.

Oremus parla di un settore particolare dell’apprendimento digitale, che sembrerebbe stare riprendendo vigore in USA – quello dell’adaptive learning, ovvero degli strumenti automatici di insegnamento –  ma il tema ne tocca da vicino altri. Vale la pena farne una lettura approfondita, e ve lo consiglio. Approfitto per qualche nota a margine, con l’occhio naturalmente alla situazione italiana. Dove ci sono siti che offrono ripetizioni online, corsi su Youtube e MOOC, ma ancora non si vede un mercato per l’adaptive learning.

Anni fa, Roberto Maragliano parlava di tre possibili rapporti tra media ed educazione. Si possono insegnare i media, insegnare con i media e insegnare dentro i media. Applicato ai media digitali, la classificazione forse non è così facile (un ambiente come Scratch a quale categoria appartiene?) ma è comunque utile. Oremus sta parlando della seconda categoria.

Un primo elemento intessante che emerge dall’analisi (ma forse è abbastana scontato) è senz’altro l’ambito disciplinare: possono essere oggetto di didattica digitale solo gli ambiti in cui c’è una risposta esatta. Dice Ulrik Christensen, McGraw-Hill Education:

How much you can automate depends on what you’re trying to teach. In a math class like Whelan’s, the educational objectives are relatively discrete and easily measured.[…]
ALEKS is designed only to work for math, chemistry, and business classes.[…]
Adaptive technologies presume that knowledge can be modularized and sequenced

Non dovrebbe essere una sorpresa, no? La prima domanda è se tutta la conoscenza può essere modularizzata e messa in sequenza, e se convenga farlo. Wikipedia è un esempio di conoscenza modularizzata ma non sequenzializzata. La nostra ADA (non il linguaggio e nemmeno la signorina Lovelace, ma la piattaforma di elearning) si basa su frammenti di conoscenza reticolare, collegati fra loro.

Con le parole di un ricercatore del MIT che si occupa di “digital learning “,  Justin Reich, i computer “are good at assessing the kinds of things—quantitative things, computational things—that computers are good at doing. Which is to say that they are good at assessing things that we no longer need humans to do anymore”

Qui l’accento si è spostato sulla valutazione. E’ interessante notare che il punto critico non sembra essere l’organizzazione della disciplina, ma la tecnologia. Cioè non si dice che il problema è che dove non è facile descrivere in una struttura competenze, conoscenza, relazioni, test, allora non è possibile creare una versione automatica (digitale o meno) del tool adattivo, ma semplicemente che i computer sono troppo stupidi per trattare cose complesse.
Mi pare che questo abbia a che fare con la visione dicotomica delle scienze  in scientifiche e umanistiche. Quelle scientifiche sono quelle in cui ci sono fatti e teorie verificabili, quelle umanistiche sono le discipline in cui vale solo il forse, può darsi, credo che. Quindi dove non si può fare valutazione quantitativa.

Ho dei dubbi che questa divisione sia accettabile. Così si ignora completamente la storia delle discipline, la storia degli errori, il rapporto tra teorie di fondo e “fatti”. Anni di studi di epistemologia e storia delle scienza buttati al vento.

Quando il dominio non è quantatitivo, comunque, McGraw-Hill propone un altro software, Learn Smart, e un nuovo sistema, che si chiama Connect Master.

But Connect Master takes less of a behaviorist approach than a conceptual one, asking a student to show his work on his way to solving a problem. If he gets it wrong, it tries to do something few other programs have attempted: analyze each step he took and try to diagnose where and why he went wrong

L’esempio che viene portato nell’articolo è divertente. E’ un pezzetto di software (del Carnegie Mellon’s Pittsburgh Advanced Cognitive Tutoring Center) che chiede di svolgere un’addizione tra frazioni, riportando i denominatori ad un mcm. Se si commettono errori, il software commenta e suggerisce.
Ma se, ad esempio, si sceglie un denominatore comune più grande del mcm, il sofware non sa bene che fare. Obiettivamente il risultato è corretto, ma il software non riesce ad accorgersene. Qui chiaramente, come riconosce Oremus, non c’è intelligenza artificiale. Sarebbe meglio dire che la conscenza del dominio è cablata nel software.

Il problema però è che

Accurately diagnosing a student’s misconceptions is a harder conundrum than you might think, explains McGraw-Hill Education’s Christensen. An algebra problem may have only one correct answer. But there are countless not-incorrect steps that a student could theoretically take on the path to solving it. If you’re not careful, your software will tell you you’re on the wrong track, when in fact you’re just on a different track than the one your textbook authors anticipated.

E qui sono daccordo. Per un breve periodo, parecchi anni fa, ho perso il mio tempo in un gruppo di ricerca di IA applicata all’educazione, in un Università romana. Uno dei temi era il modello dello studente, basato sulle misconception, cioè sui punti di partenza (sbagliati) del ragionamento (corretto). Ricordo che quando ho provato a intrudurre l’idea di un modello di studente in cui non fossero tanto errati i punti di partenza, ma le regole di deduzione, mi hanno guardato come un marziano.
E poi mi hanno rispedito a casa.
Non era il MIT e non era il 2016.

Più o meno nello stesso periodo, ma in un’altra facoltà, lavoravo ad un software che cercava di ricostruire i modelli di categorizzazione di ragazzini con difficoltà di apprendimento.
Al ragazzino veniva proposto una figura geometrica colorata e gli si chiedeva di collocarlo insieme ad altri, selezionando le caratteristiche significative (colore, forma, dimensione). Il software in origine non aveva scopi diagnostici, ma solo terapeutici. Quello che ho cercato di fare  è raccogliere i dati dell’interazione e far costruire al software un’ipotesi sul modello di categorizzazione usato dal ragazzino.
Ora io lavoravo da solo con competenze scarse e raffazzonate, e qundi ho lasciato perdere. Mi fa piacere scoprire che da qualche parte c’è qualcuno che sta ancora studiando il problema.

Però mi stupisce che vent’anni dopo si stia più o meno allo stesso punto. Che ciclicamente ritorni l’idea di un software che propone contenuti, valuta la conoscenza dello studente e poi gli propone altri contenuti. Senza provare a costruire un modello della disciplina insegnata che possa comprendere non solo l’algebra, senza provare a introdurre il lavoro di gruppo, la costruzione di conoscenza collaborativa, gli stili cognitivi personali. Senza immaginare ambienti in cui la connessione tra parti sia esplicita, visibile per il corsista, che può scegliere e costruirsi percorsi.

Vedo, da vent’anni, sempre e solo due strade: la presentazione di contenuti in sequenza oppure il ritorno alle teaching machine ma con computer più potenti e più multimedia. Due strade che hanno in comune la svalutazione dello studente e delle sue metacompetenze.

Verso il termine dell’articolo viene affrontato il tema del’uso dei dati e della privacy.

By tracking everything they read, every problem they solve, every concept they master, Knewton could compile a “psychometric profile” on each student that includes not only what she learned but how readily she learned it, and at what sorts of problem-solving she struggled and exceled. That sort of data could be of great interest to admission committees and employers. It could also, in theory, erode the privacy that has traditionally surrounded young people’s schoolwork.

Ecco: dopo che ormai tutti hanno capito che i profili delle persone che usano i servizi gratuiti offerti sono un valore molto più grande dell’eventuale ritorno da abbonamenti agli stessi servizi, Oremus si accorge che nel momento in cui questo avvenisse per l’educazione ci sarebbe un mercato ghiotto. Con buona pace dei progetti di Learning Analytics (es. LACE http://www.laceproject.eu/)

La conclusione riporta un aneddoto famoso, di trent’anni fa, che suona più o meno così.

Un professore pone ai suoi alunni il seguente problema “Ci sono 125 pecore e 5 cani in un gregge. Quanti hanni ha il pastore?”
Tre quarti degli studenti rispondono con un numero, dopo aver tentato varie operazioni.
Il succo dell’articolista è che gli “adaptive software” formeranno generazioni di studenti capaci di applicare operazioni, ma non di dare la risposta “corretta” (che dovrebbe essere “che significa questo problema? ho abbastanza dati per rispondere?”).
Ora temo che il dubbio legittimo di Oremus non si applichi solo ai software, ma a tutta la formazione scolastica, che non punta a mettere i discenti in condizioni da porre domande, ma solo di trovare risposte a problemi di dubbia utilità. Ed è naturale che i software didattici (adaptive) non facciano che replicare questo schema.

Pedagogia popolare e costruttivismo ingenuo

Dic
30

Ieri sera ho letto l’articolo di Roberto Trinchero “Sappiamo davvero come far apprendere? Credenza ed evidenza empirica” , che come sempre è chiaro e convincente.
Durante la notte ho rigirato nella mente le sue parole, con la sensazione di qualcosa che non quadrava perfettamente. Ora provo a mettere per iscritto questa sensazione in una forma spero comprensibile.

Mi trovo senz’altro daccordo con l’obiettivo dell’autore: sfatare una serie di luoghi comuni pedagogici (della “pedagogia popolare”, o del “costruttivismo ingenuo”) che non sono fondati su teorie solide ma solo su slogan raccolti per sentito dire.
Sono anche daccordo con le conclusioni e con le tabelle di raccomandazioni per docenti e studenti che chiudono l’articolo. Le pagine che ho letto su books.google.it del suo recente testo più esteso (“Costruire, valutare, certificare competenze. Proposte di attività per la scuola”, Franco Angeli, 2012) sono tutte condivisibili e forniscono strumenti davvero utili per la valutazione e l’autovalutazione.
La cosa su cui ho perplessità è invece il metodo empirico con cui viene effettuata la dimostrazione – si, lo so che è un po’ dura.
I dati su cui si basa Trinchero sono presi, tra l’altro, dal monumentale testo di Hattie “Visible Learning: A synthesis of over 800 meta-analyses relating to achievement” e in parte dalla elaborazione personale dell’autore dei risultati dei testi PISA 2009 per le regioni Piemonte, Lombardia, Toscana, Calabria.
Per esempio, si connettono i risultati dei test PISA alla dichiarazione dei metodi di studio usati dagli studenti o a quelli di insegnamento applicati dai loro docenti. Anche senza esaminare il valore dei testi PISA, a me sembra che l’ambito di significatività di questi dati sia ristretto ad un sistema scolastico che forse oggi non è il riferimento ultimo per la validità delle competenze. In altre parole, si può senz’altro concludere che hanno risultati scolastici migliori quegli studenti che seguono certi metodi; ma è sufficiente per giudicare in generale le strategie migliori per l’apprendimento? Si può giudicare l’apprendimento solo a partire dai risultati scolastici? In questo modo non si rischia di premiare solo ciò che è funzionale al sistema scolastico? O invece, ad esempio, certe variabili possono ricevere una valutazione significativa solo andando a vedere cosa corrisponde nella vita reale a quei risultati? E questa valutazione è possibile dentro la scuola stessa?
In altre parole, credo che un giudizio sull’intero sistema non possa avvenire dentro il sistema.

Tuttavia mi pare che non ci sia necessità di ricorrere a questi risultati sperimentali per essere d’accordo con il punto di vista di Trinchero e con la sua critica delle sei tesi elencate. La maggior parte delle tesi sono estremizzazioni di concetti di per sé condivisibili, e condivisi anche dall’autore. Come ogni estremizzazione, è facile dimostrare che sono inapplicabili, oltre che inopportune.

Per esempio la prima tesi:
1. Più stimoli diamo agli allievi, più apprendono?

E’ abbastanza evidente, credo anche senza bisogno di alcun test, che ogni docente sarebbe daccordo con le seguenti affermazioni:
– senza stimoli, è difficile apprendere
– con gli stimoli giusti, lo studente apprende
– con troppi stimoli, lo studente si confonde.

Il problema è  quello di capire il significato di quel “troppi”: troppi stimoli contemporaneamente? troppi nell’unità di tempo? in troppi canali diversi? troppo diversi fra loro o in contraddizione? E come si coniugano stimoli diversi in canali diversi senza che si ostacolino vicendevolmente? Come si verifica in tempo reale il sovraccarico cognitivo?
La difficoltà è insomma quella di saper applicare concretamente la massima (lievemente Skinneriana) “dai gli stimoli giusti al tuo studente”. D’altra parte questo problema si presenta ogni volta che si decida di utilizzare uno strumento. Gli organizzatori anticipati di Ausubel, ad esempio, funzionano senz’altro, a patto di non essere “troppo” anticipati. La zona di sviluppo prossimale (Vygotskij) promuove l’apprendimento se non è troppo estesa; ma come si misura l’estensione giusta per ogni studente?

Oppure le due tesi collegate:
3. Gli allievi imparano meglio se sono lasciati liberi di sperimentare e costruire le proprie conoscenze?
6. Apprendere in gruppo è più efficace che apprendere da soli?
La prima tesi è negata decisamente; della seconda vengono evidenziati i limiti (non basta far “lavorare in gruppo” per migliorare l’apprendimento: è necessario che i membri del gruppo seguano un copione preciso).

Mi sbaglierò, ma per quel che conosco della scuola Italiana, credo che nessun docente pensi davvero di lasciare gli studenti da soli, o in gruppo, a costruire alcunché. Una tale fiducia illimitata non mi pare appartenga alla nostra cultura scolastica. Il problema è il limite di supporto (di indicazioni, di risorse aggiuntive, di regole,…) oltre il quale si rischia di ottenere esattamente il risultato previsto e niente di più. L’obiettivo dell’educazione scolastica non dovrebbe essere solo il travaso di conoscenze da un corpus stabilito alle menti dei discenti, sia perché alcune importanti conoscenze e abilità non sono (ancora) parte di quel corpus, sia perché man mano che cresce l’età del discente è possibile che l’apprendimento produca risultati nuovi, impredicibili ma utili alla revisione del corpus. Nemmeno l’alchimista più ottimista si è mai aspettato che mescolando ingredienti a caso venisse fuori un risultato interessante. Ma certo non si produce niente di nuovo se non si lasciano alcuni gradi di libertà all’esperimento.
Quali e quanti gradi, questo è il problema. Se penso all’educazione degli adulti in contesti lavorativi, e in particolare all’e-learning, trovo molto più frequente il rischio di non lasciare nessun grado di libertà al singolo e al gruppo, piuttosto che quello di lasciargliene troppi.

In conclusione, le tesi criticate mi sembrano negabili anche senza ricorrere a dati sperimentali; ma in questa formulazione estrema e astratta forse non sono veramente sostenute – e meno che mai praticate  – da nessuno. E’ senz’altro utile mettere in guardia i docenti (e gli studenti) da facili formulette; il problema reale però è insegnare ad entrambi come controllare l’applicazione di strumenti e metodi.

Apprendimento sociale online

Nov
11

Perché continuiamo a vedere l’apprendimento online come un fatto individuale?

Pensiamo ad un corsista online. Cosa ci viene in mente? Sta da solo con in mano il suo tablet, che assomiglia peraltro ad un libro. Qualcuno ha scritto quel libro, e il corsista – da solo – lo legge. Ci saranno forse altri corsisti che leggono lo stesso libro, ma questo sembra irrilevante a chi progetta il corso. Come è sempre stato, il libro è scritto da un autore e letto da molti lettori separati. Un processo progettato come trasmissione “uno a uno”, o al massimo “uno a molti”, nel senso di collezione di singolarità indipendenti.

Ci sono due errori in questa visione.
Non è vero che il libro sia opera di un autore. La scrittura è rielaborazione di conoscenze che derivano dall’esperienza di altri testi. Nessuno libro è completamente originale (i nani sulle spalle dei giganti), anche a prescindere dai casi più evidenti di coautorialità:
– un autore collaziona testi di altri e ne fa un’antologia
– più autori curano parti diverse (testo, grafici, bibliografia) dello stesso testo
– più autori progettazione insieme la scrittura dello stesso testo

Ma nemmeno il lettore è solo durante lettura. Intanto perché se non conoscesse l’alfabeto, la lingua, la maniera di procurarsi e leggere i libri (che sono tutte tecniche sociali), e se non avesse un orizzonte con cui condividere quel testo (che sia il suo blog, aNobii  o semplicemente un compagno di viaggio occasionale), quella lettura sarebbe un’attività impossibile o insensata, come quella di Tarzan che impara l’inglese sul dizionario illustrato.
Il luogo principe dove la lettura diventa ufficialmente sociale è la scuola, proprio quella di una volta. C’era uno che leggeva a voce alta, gli altri seguivano con gli occhi sulla pagina. Qualche volta si facevano domande, si riassumeva, si verificava, raramente si discuteva. Per quanto banale e retrò possa apparire questa immagine, mette in evidenza un fatto: quel libro è di tutti. E’ il punto di partenza comune, il piano su cui si colloca ogni possibile processo di ricostruzione di una versione contestualizzata e personalizzata a livello della classe utilizzando l’esperienza dei singoli studenti.
La stessa cosa potrebbe e dovrebbe succedere in un ambiente di elearning. Lo stesso “testo” (che sia verbale o multimediale) è letto da più persone contemporaneamente. Proprio il fatto di sapere che ci sono altri che leggono quel testo fornisce al corsista una prospettiva diversa. Le attività online che si possono fare su quel testo sono tante: smontarlo, rappresentarlo in forme diverse (come una mappa concettuale, come sequenza di slides o come un un video), riscriverlo per un destinatario diverso, produrre delle unità didattiche standardizzate, etc. Tutte attività di apprendimento che su un piano comune costruiscono nuovi oggetti, ma che diventano significative grazie alla presenza degli altri corsisti, di volta in volta destinatari, valutatori, coautori.
Tutte attività completamente assenti nella maggioranza dei corsi online…

___

Questa resistenza a pensare l’apprendimento sociale online, e a organizzare un ambiente di e-learning prima di tutto in quest’ottica, e solo secondariamente come ambiente per l’autoformazione, ha forse radici ancora più profonde. Continuiamo a vedere l’apprendimento in generale come un fatto individuale.

Il fatto che utilizziamo come magazzino delle nuove conoscenze una struttura privata (la mente) ci fa pensare che anche le conoscenze contenute siano private. Se il luogo è privato, lo è anche l’oggetto che ci custodisco dentro, comunque l’abbia acquisito.
Ma ci sono due ma:
a) la mente non è l’unico luogo della conoscenza: le tecniche ci forniscono artefatti per la conservazione esterna (e pubblica) delle conoscenze.
b) le pratiche con cui selezioniamo e organizziamo le informazioni per trasformarle in conoscenze sono sociali, non private.

 

danza delle api

Danza delle api (da Wikipedia)

Quando pensiamo all’apprendimento secondo la metafora dell’ape (la raccolta del polline dell’informazione, la distillazione del miele della conoscenza) trascuriamo il fatto che questa è appunto un’attività sociale. Non è un’ape che raccoglie il polline, ma le api, che si coordinano, selezionando zone e fiori, e comunicando tra loro con le famose danze di von Frisch. La creazione della conoscenza non sarebbe possibile fuori da una struttura in cui inserirla, senza delle tecniche di posizionamento relativo e collegamento.
Come il linguaggio è interentemente sociale (non ha senso un linguaggio privato, grazie Wittgenstein), così le tecniche si imparano, valutano e diffondono socialmente.
Linguaggi e tecniche sono connaturati ad ogni apprendimento. Che equivale a dire che l’apprendimento va studiato come un processo inerentemente sociale. Non solo nel senso che si apprende ispirandosi e imitando dei modelli, ma proprio nel senso che senza l’apporto degli altri non c’è apprendimento ma solo accumulo (e forse nemmeno quello).

E allora perché continuiamo a ridurre l’apprendimento dei gruppi alla somma dell’apprendimento dei singoli?

Chi ha bisogno dell’elearning?

Set
20

Mi è capitato di fare una ricerca sull’offerta di corsi online in Italia, in particolare in due campi in cui l’e-learning è – o dovrebbe essere – di casa: quello dell’ECM (educazione continua in medicina) e quello della sicurezza sul lavoro. Si tratta di settori in cui la formazione non è una scelta del discente, ma è obbligatoria. Per questo motivo, si tratta di un mercato significativo e interessante: qualcuno deve investire delle risorse economiche, o direttamente (i professionisti della sanità, quando non ci siano sponsor farmaceutici) o indirettamente (le aziende per i propri dipendenti). In entrambi i casi, esistono norme e linee guida pubbliche, dettate dalla conferenza stato-regioni, che descrivono quali metodologie didattiche e quali strumenti siano accettabili o raccomandati al fine di ottenere un apprendimento efficace, oltre che rendicontabile.
Non entro nell’analisi di queste norme e linee guida, che potrebbero senz’altro essere migliorate. E’ comunque abbastanza impressionante constatare che la quasi totalità dei corsi proposti sembra adottare un unico modello, come appunto se questo fosse stabilito dalla norma.

Il modello scelto è pressoché sempre quello della simulazione della lezione in presenza: video del docente e slides affiancate.
Ci sono naturalmente, in apposita area separata, documenti da scaricare, e quiz di autovalutazione.

Le riflessioni che si possono fare per capire e giustificare questa scelta sono tante:
1. questo modello è quello preferito dagli utenti finali, è rassicurante e non impegnativo;
2. questo modello è il più semplice da realizzare per i docenti/autori, non sempre particolarmente edotti nelle metodologie “avanzate” di elearning;
3. questo modello è il più economico e consente di ottenere un risparmio vero rispetto alla formazione in aula. Basta una webcam e Power Point.

Tuttavia viene anche da domandarsi se tale modello sia davvero efficace. Quali sono i risultati alla fine del corso (al di là di quelli misurati dai quiz)? Il lavoratore è davvero più attento e consapevole dei rischi che incontra quotidianamente e mette in atto strategie efficaci per limitarli? L’infermiere migliora la qualità del suo servizio attraverso una migliore comprensione della situazione del paziente e l’acquisizione di competenze nuove per assisterlo?
O, viceversa, ci si può domandare se tutte le ricerche sull’elearning che sono state fatte negli ultimi decenni non siano davvero chiacchiere inutili, visto che un modello così semplice è alla fine quello che contenta tutti. Cooperative learning, communities of practice, learning by doing, valutazione autentica… vanno bene per i libri e i convegni, ma in realtà bastano quattro slide ben fatte e un docente con un bel personale e una voce adeguata per fare elearning efficace ed efficiente.

Chiaramente – almeno dal mio punto di vista – gli effetti collaterali di questa impostazione sono devastanti.
1. I corsisti si convincono che l’elearning non è, e non può essere altro, che una forma di videolezioni che invece di essere trasmesse in TV possono essere fruite con un PC. Il fatto che non sia nemmeno necessario avere fisicamente un DVD da inserire (e quindi dimenticare nel cassetto del PC…) è un vantaggio ulteriore.
Che l’elearning sia un modo diverso di apprendere, che permette di utilizzare le risorse presenti nella rete, resta un segreto esoterico ben nascosto. Probabilmente l’idea che un discente possa aver bisogno di chiarirsi il significato di un termine oscuro che compare nel corso con una ricerca su Wikipedia verrebbe ricacciata indietro con orrore.
La possibilità di interagire in maniera sincrona o asincrona con altri corsisti o col docente, o con esperti esterni, è del tutto assente. Il discente è solo davanti ad un monitor e un mouse. Se vuole chiacchierare via Facebook con i colleghi, lo faccia di nascosto e certo non degli argomenti del corso.
La possibilità di integrare i contenuti presenti con propri commenti, con suggerimenti, esperienze, potrebbe addirittura essere vista come un’eresia, perché va ad intaccare i contenuti “certificati”. Il discente – benché adulto e professionista – è un ignorante che va edotto da zero, e non ha nulla da insegnare.

2. La qualità del prodotto è misurata sul grado di piacevolezza delle slides, sulla capacità di intrattenimento del docente. Immagini accattivanti, voci suadenti e persuasive, animazioni brillanti, ritmo giusto. In sostanza, sulla qualità televisiva dei contenuti. Che ci sia dietro un progetto didattico, che partendo dai bisogni formativi e dagli obiettivi didattici arrivi alla progettazione di un ambiente dove i partecipanti (discenti e docenti) attraverso strumenti diversi costruiscono il proprio percorso di apprendimento, passa completamente in secondo piano. Quindi una piattaforma vale l’altra, anzi non serve affatto (tranne per la questione antipatica del tracciamente del tempo di consultazione dei materiali). Non serve nemmeno una competenza dimostrabile nella progettazione del processo, o anche (Dio ce ne scampi!) nella valutazione: sono sufficienti le competenze di dominio e quelle legate alla comunicazione multimediale. Con buona pace dei giovani laureati in scienze della formazione con un master in e-learning che credevano di avere imparato un’arte.

3. I formatori d’aula più attenti ed esperti non possono che prendere le distanze da questo “e-learning” e sostenere, a buon diritto, che non avrà mai l’efficacia di una buona lezione in presenza, dove c’è interazione, si parte dalle esperienze e bisogni personali dei discenti, c’è la possibilità di adattare linguaggio e contenuti al contesto. Come dargli torto? Naturalmente sono tutte possibilità che un ambiente di e-learning potrebbe consentire, anche se in forma diversa, e per certi versi più vantaggiosa (per esempio, per il fatto che l’interazione verbale può essere registrata, analizzata e ripercorsa anche in seguito con gli stessi corsisti, o riusata per arricchire e migliorare il corso in vista di edizioni successive).

Con chi prendersela? Come modificare questa situazione di stallo? Da dove cominciare?