steve's

Learning Analytics o solo tracciamento?

Mag
25

Anni fa sostenevo che la valutazione (online) andava arricchita con i dati. Che raccogliere le informazioni prodotte dalle azioni dei partecipanti ad un ambiente di apprendimento (discenti e docenti) poteva fornire strumenti utili ai docenti e ai discenti – per migliorare il percorso di apprendimento, per migliorare il corso. Ma avvertivo anche che non si trattava solo del “tracking“, del tracciamento di orari di ingresso e di uscita, di contare il numero di accessi. Occorreva raccogliere dati più significativi: per esempio, i percorsi (da dove a dove), per ricostruire lo stile cognitivo dello studente, i messaggi, i contenuti prodotti, le richieste di supporto, in generale le interazioni con i colleghi. Questo ovviamente avrebbe potuto essere fatto se l’ambiente registrava ogni azione, il contesto dell’azione, i suoi contenuti, e se questi dati venivano esposti in modo tale da poter essere visualizzati, confrontati e usati per avvertire il docente di anomalie di percorso (positive: originalità, e negative: ritardo) e permettergli di agire subito, o di ristrutturare il corso per il futuro. Di sicuro sarebbe stato necessaria anche un’analisi dei testi prodotti, cercando di categorizzarli in base a parametri (oggi si parla di sentiment analysis, ma in un senso ristretto). Ma soprattutto sarebbe stata necessaria una visione d’insieme degli obbiettivi, degli indicatori. Un paio di esempi modesti di lavori condotti in quest’ottica, con le tecnologie dell’epoca: questa presentazione (analisi_forum) che descrive l’analisi dei forum nella piattaforma Ansas (INDIRE) per i Dirigenti Scolastici nel 2006/2007 e quest’altra (strum_valutazione_2006) che descrive un possibile modello di interpretazione dei testi prodotti dai corsisti in un ambiente di apprendimento online. Cose di nessun valore ma che almeno cercavano di porre qualche questione in un periodo in cui del monitoraggio – in quanto puramente quantitativo – non interessava a nessuno.

Sono passati dieci anni, e il termine “Learning Analytics” è diventato un mantra, adottato da progetti , da fondazioni, e a cui si dedicano ricerche e  articoli divulgativi. Persino l’obsoleto SCORM (nel senso che anche chi l’ha proposto ha smesso di sostenerlo, anche se qui da noi non ce ne siamo ancora accorti) è stato sostituito dalle eXperience API che permettono di inviare informazioni sulle diverse attività di apprendimento ad un archivio esterno (LRS) secondo un vocabolario controllato per permettere analisi successive.

Non posso che esserne felice. Finalmente ci sono le risorse, economiche, tecniche e umane, per cercare di capire e migliorare i contesti di apprendimento sfruttando l’enorme quantità di dati che sono sottoprodotti dell’interazione didattica.

Quello che però sto vedendo recentemente sono tante proposte di ambienti che mettono l’accento sul termine “analytics” (a volte sinonimo di “accountability“, come qui ) ma per parlare semplicemente di tracciamento: “Know if your students are watching your videos, how many times and see the answers they give.” Piattaforme per docenti in cui è facilissimo inserire un video, poi un quiz, e voilà ecco i dati. Qui mi viene da chiedere: ma tutto quello che vuoi sapere dei tuoi studenti è quante volte accedono ad una risorsa? E per fare cosa?

Ma in effetti questo è quello che viene registrato. Poi però si scomodano i big data, il data ming, il machine learning, il cloud, per estrarre conoscenza dalle informazioni. Cioè invece di aumentare la qualità dei dati raccolti in partenza, si registrano informazioni atomiche (e banali) e poi si applicano complessi algoritmi per cercare di far emergere configurazioni significative.

Mi auguro che i prossimi passi siano invece quelli di definire meglio cosa si vuole raccogliere, di strutturare i dati in partenza, di permettere ai docenti e ai discenti di crearsi i propri strumenti di visualizzazione. Mi auguro che tutti gli esperimenti di MOOC interuniversitari adottino un approccio di questo tipo, nel rispetto della privacy e con l’obbiettivo di migliorare l’apprendimento e non di profilare gli utenti.

No More Pencils, No More Books

Mag
08

Grazie alla segnalazione di Gino Roncaglia, ho letto l’interessante  (e lungo) articolo di Will Oremus su Slate

No More Pencils, No More Books
Artificially intelligent software is replacing the textbook—and reshaping American education.

http://www.slate.com/articles/technology/technology/2015/10/adaptive_learning_software_is_replacing_textbooks_and_upending_american.single.html

L’articolo parte da una classe di pre-algebra al Westchester Community College di Valhalla, New York.
Gli studenti lavorano individualmente con ALEKS (Assessment and Learning in Knowledge Spaces), che è un software di istruzione programmata sviluppato da un  team di  matematici, scenziati cognitivi e ingegnieri software all’università UC–Irvine negli anni  1990.
L’articolo parte dal fenomeno della conversione degli editori di manuali, come McGraw-Hill e Pearson, verso il digitale, cioè verso la produzione di “corsi adattivi”, e risale alle teaching machines skinneriana memoria, al Learning’s Cognitive Tutor for algebra della Carnegie University, per poi citare i risultati controversi di vari studi sull’efficiacia degli strumenti digitali, MOOC compresi.

Oremus parla di un settore particolare dell’apprendimento digitale, che sembrerebbe stare riprendendo vigore in USA – quello dell’adaptive learning, ovvero degli strumenti automatici di insegnamento –  ma il tema ne tocca da vicino altri. Vale la pena farne una lettura approfondita, e ve lo consiglio. Approfitto per qualche nota a margine, con l’occhio naturalmente alla situazione italiana. Dove ci sono siti che offrono ripetizioni online, corsi su Youtube e MOOC, ma ancora non si vede un mercato per l’adaptive learning.

Anni fa, Roberto Maragliano parlava di tre possibili rapporti tra media ed educazione. Si possono insegnare i media, insegnare con i media e insegnare dentro i media. Applicato ai media digitali, la classificazione forse non è così facile (un ambiente come Scratch a quale categoria appartiene?) ma è comunque utile. Oremus sta parlando della seconda categoria.

Un primo elemento intessante che emerge dall’analisi (ma forse è abbastana scontato) è senz’altro l’ambito disciplinare: possono essere oggetto di didattica digitale solo gli ambiti in cui c’è una risposta esatta. Dice Ulrik Christensen, McGraw-Hill Education:

How much you can automate depends on what you’re trying to teach. In a math class like Whelan’s, the educational objectives are relatively discrete and easily measured.[…]
ALEKS is designed only to work for math, chemistry, and business classes.[…]
Adaptive technologies presume that knowledge can be modularized and sequenced

Non dovrebbe essere una sorpresa, no? La prima domanda è se tutta la conoscenza può essere modularizzata e messa in sequenza, e se convenga farlo. Wikipedia è un esempio di conoscenza modularizzata ma non sequenzializzata. La nostra ADA (non il linguaggio e nemmeno la signorina Lovelace, ma la piattaforma di elearning) si basa su frammenti di conoscenza reticolare, collegati fra loro.

Con le parole di un ricercatore del MIT che si occupa di “digital learning “,  Justin Reich, i computer “are good at assessing the kinds of things—quantitative things, computational things—that computers are good at doing. Which is to say that they are good at assessing things that we no longer need humans to do anymore”

Qui l’accento si è spostato sulla valutazione. E’ interessante notare che il punto critico non sembra essere l’organizzazione della disciplina, ma la tecnologia. Cioè non si dice che il problema è che dove non è facile descrivere in una struttura competenze, conoscenza, relazioni, test, allora non è possibile creare una versione automatica (digitale o meno) del tool adattivo, ma semplicemente che i computer sono troppo stupidi per trattare cose complesse.
Mi pare che questo abbia a che fare con la visione dicotomica delle scienze  in scientifiche e umanistiche. Quelle scientifiche sono quelle in cui ci sono fatti e teorie verificabili, quelle umanistiche sono le discipline in cui vale solo il forse, può darsi, credo che. Quindi dove non si può fare valutazione quantitativa.

Ho dei dubbi che questa divisione sia accettabile. Così si ignora completamente la storia delle discipline, la storia degli errori, il rapporto tra teorie di fondo e “fatti”. Anni di studi di epistemologia e storia delle scienza buttati al vento.

Quando il dominio non è quantatitivo, comunque, McGraw-Hill propone un altro software, Learn Smart, e un nuovo sistema, che si chiama Connect Master.

But Connect Master takes less of a behaviorist approach than a conceptual one, asking a student to show his work on his way to solving a problem. If he gets it wrong, it tries to do something few other programs have attempted: analyze each step he took and try to diagnose where and why he went wrong

L’esempio che viene portato nell’articolo è divertente. E’ un pezzetto di software (del Carnegie Mellon’s Pittsburgh Advanced Cognitive Tutoring Center) che chiede di svolgere un’addizione tra frazioni, riportando i denominatori ad un mcm. Se si commettono errori, il software commenta e suggerisce.
Ma se, ad esempio, si sceglie un denominatore comune più grande del mcm, il sofware non sa bene che fare. Obiettivamente il risultato è corretto, ma il software non riesce ad accorgersene. Qui chiaramente, come riconosce Oremus, non c’è intelligenza artificiale. Sarebbe meglio dire che la conscenza del dominio è cablata nel software.

Il problema però è che

Accurately diagnosing a student’s misconceptions is a harder conundrum than you might think, explains McGraw-Hill Education’s Christensen. An algebra problem may have only one correct answer. But there are countless not-incorrect steps that a student could theoretically take on the path to solving it. If you’re not careful, your software will tell you you’re on the wrong track, when in fact you’re just on a different track than the one your textbook authors anticipated.

E qui sono daccordo. Per un breve periodo, parecchi anni fa, ho perso il mio tempo in un gruppo di ricerca di IA applicata all’educazione, in un Università romana. Uno dei temi era il modello dello studente, basato sulle misconception, cioè sui punti di partenza (sbagliati) del ragionamento (corretto). Ricordo che quando ho provato a intrudurre l’idea di un modello di studente in cui non fossero tanto errati i punti di partenza, ma le regole di deduzione, mi hanno guardato come un marziano.
E poi mi hanno rispedito a casa.
Non era il MIT e non era il 2016.

Più o meno nello stesso periodo, ma in un’altra facoltà, lavoravo ad un software che cercava di ricostruire i modelli di categorizzazione di ragazzini con difficoltà di apprendimento.
Al ragazzino veniva proposto una figura geometrica colorata e gli si chiedeva di collocarlo insieme ad altri, selezionando le caratteristiche significative (colore, forma, dimensione). Il software in origine non aveva scopi diagnostici, ma solo terapeutici. Quello che ho cercato di fare  è raccogliere i dati dell’interazione e far costruire al software un’ipotesi sul modello di categorizzazione usato dal ragazzino.
Ora io lavoravo da solo con competenze scarse e raffazzonate, e qundi ho lasciato perdere. Mi fa piacere scoprire che da qualche parte c’è qualcuno che sta ancora studiando il problema.

Però mi stupisce che vent’anni dopo si stia più o meno allo stesso punto. Che ciclicamente ritorni l’idea di un software che propone contenuti, valuta la conoscenza dello studente e poi gli propone altri contenuti. Senza provare a costruire un modello della disciplina insegnata che possa comprendere non solo l’algebra, senza provare a introdurre il lavoro di gruppo, la costruzione di conoscenza collaborativa, gli stili cognitivi personali. Senza immaginare ambienti in cui la connessione tra parti sia esplicita, visibile per il corsista, che può scegliere e costruirsi percorsi.

Vedo, da vent’anni, sempre e solo due strade: la presentazione di contenuti in sequenza oppure il ritorno alle teaching machine ma con computer più potenti e più multimedia. Due strade che hanno in comune la svalutazione dello studente e delle sue metacompetenze.

Verso il termine dell’articolo viene affrontato il tema del’uso dei dati e della privacy.

By tracking everything they read, every problem they solve, every concept they master, Knewton could compile a “psychometric profile” on each student that includes not only what she learned but how readily she learned it, and at what sorts of problem-solving she struggled and exceled. That sort of data could be of great interest to admission committees and employers. It could also, in theory, erode the privacy that has traditionally surrounded young people’s schoolwork.

Ecco: dopo che ormai tutti hanno capito che i profili delle persone che usano i servizi gratuiti offerti sono un valore molto più grande dell’eventuale ritorno da abbonamenti agli stessi servizi, Oremus si accorge che nel momento in cui questo avvenisse per l’educazione ci sarebbe un mercato ghiotto. Con buona pace dei progetti di Learning Analytics (es. LACE http://www.laceproject.eu/)

La conclusione riporta un aneddoto famoso, di trent’anni fa, che suona più o meno così.

Un professore pone ai suoi alunni il seguente problema “Ci sono 125 pecore e 5 cani in un gregge. Quanti hanni ha il pastore?”
Tre quarti degli studenti rispondono con un numero, dopo aver tentato varie operazioni.
Il succo dell’articolista è che gli “adaptive software” formeranno generazioni di studenti capaci di applicare operazioni, ma non di dare la risposta “corretta” (che dovrebbe essere “che significa questo problema? ho abbastanza dati per rispondere?”).
Ora temo che il dubbio legittimo di Oremus non si applichi solo ai software, ma a tutta la formazione scolastica, che non punta a mettere i discenti in condizioni da porre domande, ma solo di trovare risposte a problemi di dubbia utilità. Ed è naturale che i software didattici (adaptive) non facciano che replicare questo schema.

Pedagogia popolare e costruttivismo ingenuo

Dic
30

Ieri sera ho letto l’articolo di Roberto Trinchero “Sappiamo davvero come far apprendere? Credenza ed evidenza empirica” , che come sempre è chiaro e convincente.
Durante la notte ho rigirato nella mente le sue parole, con la sensazione di qualcosa che non quadrava perfettamente. Ora provo a mettere per iscritto questa sensazione in una forma spero comprensibile.

Mi trovo senz’altro daccordo con l’obiettivo dell’autore: sfatare una serie di luoghi comuni pedagogici (della “pedagogia popolare”, o del “costruttivismo ingenuo”) che non sono fondati su teorie solide ma solo su slogan raccolti per sentito dire.
Sono anche daccordo con le conclusioni e con le tabelle di raccomandazioni per docenti e studenti che chiudono l’articolo. Le pagine che ho letto su books.google.it del suo recente testo più esteso (“Costruire, valutare, certificare competenze. Proposte di attività per la scuola”, Franco Angeli, 2012) sono tutte condivisibili e forniscono strumenti davvero utili per la valutazione e l’autovalutazione.
La cosa su cui ho perplessità è invece il metodo empirico con cui viene effettuata la dimostrazione – si, lo so che è un po’ dura.
I dati su cui si basa Trinchero sono presi, tra l’altro, dal monumentale testo di Hattie “Visible Learning: A synthesis of over 800 meta-analyses relating to achievement” e in parte dalla elaborazione personale dell’autore dei risultati dei testi PISA 2009 per le regioni Piemonte, Lombardia, Toscana, Calabria.
Per esempio, si connettono i risultati dei test PISA alla dichiarazione dei metodi di studio usati dagli studenti o a quelli di insegnamento applicati dai loro docenti. Anche senza esaminare il valore dei testi PISA, a me sembra che l’ambito di significatività di questi dati sia ristretto ad un sistema scolastico che forse oggi non è il riferimento ultimo per la validità delle competenze. In altre parole, si può senz’altro concludere che hanno risultati scolastici migliori quegli studenti che seguono certi metodi; ma è sufficiente per giudicare in generale le strategie migliori per l’apprendimento? Si può giudicare l’apprendimento solo a partire dai risultati scolastici? In questo modo non si rischia di premiare solo ciò che è funzionale al sistema scolastico? O invece, ad esempio, certe variabili possono ricevere una valutazione significativa solo andando a vedere cosa corrisponde nella vita reale a quei risultati? E questa valutazione è possibile dentro la scuola stessa?
In altre parole, credo che un giudizio sull’intero sistema non possa avvenire dentro il sistema.

Tuttavia mi pare che non ci sia necessità di ricorrere a questi risultati sperimentali per essere d’accordo con il punto di vista di Trinchero e con la sua critica delle sei tesi elencate. La maggior parte delle tesi sono estremizzazioni di concetti di per sé condivisibili, e condivisi anche dall’autore. Come ogni estremizzazione, è facile dimostrare che sono inapplicabili, oltre che inopportune.

Per esempio la prima tesi:
1. Più stimoli diamo agli allievi, più apprendono?

E’ abbastanza evidente, credo anche senza bisogno di alcun test, che ogni docente sarebbe daccordo con le seguenti affermazioni:
– senza stimoli, è difficile apprendere
– con gli stimoli giusti, lo studente apprende
– con troppi stimoli, lo studente si confonde.

Il problema è  quello di capire il significato di quel “troppi”: troppi stimoli contemporaneamente? troppi nell’unità di tempo? in troppi canali diversi? troppo diversi fra loro o in contraddizione? E come si coniugano stimoli diversi in canali diversi senza che si ostacolino vicendevolmente? Come si verifica in tempo reale il sovraccarico cognitivo?
La difficoltà è insomma quella di saper applicare concretamente la massima (lievemente Skinneriana) “dai gli stimoli giusti al tuo studente”. D’altra parte questo problema si presenta ogni volta che si decida di utilizzare uno strumento. Gli organizzatori anticipati di Ausubel, ad esempio, funzionano senz’altro, a patto di non essere “troppo” anticipati. La zona di sviluppo prossimale (Vygotskij) promuove l’apprendimento se non è troppo estesa; ma come si misura l’estensione giusta per ogni studente?

Oppure le due tesi collegate:
3. Gli allievi imparano meglio se sono lasciati liberi di sperimentare e costruire le proprie conoscenze?
6. Apprendere in gruppo è più efficace che apprendere da soli?
La prima tesi è negata decisamente; della seconda vengono evidenziati i limiti (non basta far “lavorare in gruppo” per migliorare l’apprendimento: è necessario che i membri del gruppo seguano un copione preciso).

Mi sbaglierò, ma per quel che conosco della scuola Italiana, credo che nessun docente pensi davvero di lasciare gli studenti da soli, o in gruppo, a costruire alcunché. Una tale fiducia illimitata non mi pare appartenga alla nostra cultura scolastica. Il problema è il limite di supporto (di indicazioni, di risorse aggiuntive, di regole,…) oltre il quale si rischia di ottenere esattamente il risultato previsto e niente di più. L’obiettivo dell’educazione scolastica non dovrebbe essere solo il travaso di conoscenze da un corpus stabilito alle menti dei discenti, sia perché alcune importanti conoscenze e abilità non sono (ancora) parte di quel corpus, sia perché man mano che cresce l’età del discente è possibile che l’apprendimento produca risultati nuovi, impredicibili ma utili alla revisione del corpus. Nemmeno l’alchimista più ottimista si è mai aspettato che mescolando ingredienti a caso venisse fuori un risultato interessante. Ma certo non si produce niente di nuovo se non si lasciano alcuni gradi di libertà all’esperimento.
Quali e quanti gradi, questo è il problema. Se penso all’educazione degli adulti in contesti lavorativi, e in particolare all’e-learning, trovo molto più frequente il rischio di non lasciare nessun grado di libertà al singolo e al gruppo, piuttosto che quello di lasciargliene troppi.

In conclusione, le tesi criticate mi sembrano negabili anche senza ricorrere a dati sperimentali; ma in questa formulazione estrema e astratta forse non sono veramente sostenute – e meno che mai praticate  – da nessuno. E’ senz’altro utile mettere in guardia i docenti (e gli studenti) da facili formulette; il problema reale però è insegnare ad entrambi come controllare l’applicazione di strumenti e metodi.

Apprendimento sociale online

Nov
11

Perché continuiamo a vedere l’apprendimento online come un fatto individuale?

Pensiamo ad un corsista online. Cosa ci viene in mente? Sta da solo con in mano il suo tablet, che assomiglia peraltro ad un libro. Qualcuno ha scritto quel libro, e il corsista – da solo – lo legge. Ci saranno forse altri corsisti che leggono lo stesso libro, ma questo sembra irrilevante a chi progetta il corso. Come è sempre stato, il libro è scritto da un autore e letto da molti lettori separati. Un processo progettato come trasmissione “uno a uno”, o al massimo “uno a molti”, nel senso di collezione di singolarità indipendenti.

Ci sono due errori in questa visione.
Non è vero che il libro sia opera di un autore. La scrittura è rielaborazione di conoscenze che derivano dall’esperienza di altri testi. Nessuno libro è completamente originale (i nani sulle spalle dei giganti), anche a prescindere dai casi più evidenti di coautorialità:
– un autore collaziona testi di altri e ne fa un’antologia
– più autori curano parti diverse (testo, grafici, bibliografia) dello stesso testo
– più autori progettazione insieme la scrittura dello stesso testo

Ma nemmeno il lettore è solo durante lettura. Intanto perché se non conoscesse l’alfabeto, la lingua, la maniera di procurarsi e leggere i libri (che sono tutte tecniche sociali), e se non avesse un orizzonte con cui condividere quel testo (che sia il suo blog, aNobii  o semplicemente un compagno di viaggio occasionale), quella lettura sarebbe un’attività impossibile o insensata, come quella di Tarzan che impara l’inglese sul dizionario illustrato.
Il luogo principe dove la lettura diventa ufficialmente sociale è la scuola, proprio quella di una volta. C’era uno che leggeva a voce alta, gli altri seguivano con gli occhi sulla pagina. Qualche volta si facevano domande, si riassumeva, si verificava, raramente si discuteva. Per quanto banale e retrò possa apparire questa immagine, mette in evidenza un fatto: quel libro è di tutti. E’ il punto di partenza comune, il piano su cui si colloca ogni possibile processo di ricostruzione di una versione contestualizzata e personalizzata a livello della classe utilizzando l’esperienza dei singoli studenti.
La stessa cosa potrebbe e dovrebbe succedere in un ambiente di elearning. Lo stesso “testo” (che sia verbale o multimediale) è letto da più persone contemporaneamente. Proprio il fatto di sapere che ci sono altri che leggono quel testo fornisce al corsista una prospettiva diversa. Le attività online che si possono fare su quel testo sono tante: smontarlo, rappresentarlo in forme diverse (come una mappa concettuale, come sequenza di slides o come un un video), riscriverlo per un destinatario diverso, produrre delle unità didattiche standardizzate, etc. Tutte attività di apprendimento che su un piano comune costruiscono nuovi oggetti, ma che diventano significative grazie alla presenza degli altri corsisti, di volta in volta destinatari, valutatori, coautori.
Tutte attività completamente assenti nella maggioranza dei corsi online…

___

Questa resistenza a pensare l’apprendimento sociale online, e a organizzare un ambiente di e-learning prima di tutto in quest’ottica, e solo secondariamente come ambiente per l’autoformazione, ha forse radici ancora più profonde. Continuiamo a vedere l’apprendimento in generale come un fatto individuale.

Il fatto che utilizziamo come magazzino delle nuove conoscenze una struttura privata (la mente) ci fa pensare che anche le conoscenze contenute siano private. Se il luogo è privato, lo è anche l’oggetto che ci custodisco dentro, comunque l’abbia acquisito.
Ma ci sono due ma:
a) la mente non è l’unico luogo della conoscenza: le tecniche ci forniscono artefatti per la conservazione esterna (e pubblica) delle conoscenze.
b) le pratiche con cui selezioniamo e organizziamo le informazioni per trasformarle in conoscenze sono sociali, non private.

 

danza delle api

Danza delle api (da Wikipedia)

Quando pensiamo all’apprendimento secondo la metafora dell’ape (la raccolta del polline dell’informazione, la distillazione del miele della conoscenza) trascuriamo il fatto che questa è appunto un’attività sociale. Non è un’ape che raccoglie il polline, ma le api, che si coordinano, selezionando zone e fiori, e comunicando tra loro con le famose danze di von Frisch. La creazione della conoscenza non sarebbe possibile fuori da una struttura in cui inserirla, senza delle tecniche di posizionamento relativo e collegamento.
Come il linguaggio è interentemente sociale (non ha senso un linguaggio privato, grazie Wittgenstein), così le tecniche si imparano, valutano e diffondono socialmente.
Linguaggi e tecniche sono connaturati ad ogni apprendimento. Che equivale a dire che l’apprendimento va studiato come un processo inerentemente sociale. Non solo nel senso che si apprende ispirandosi e imitando dei modelli, ma proprio nel senso che senza l’apporto degli altri non c’è apprendimento ma solo accumulo (e forse nemmeno quello).

E allora perché continuiamo a ridurre l’apprendimento dei gruppi alla somma dell’apprendimento dei singoli?

Chi ha bisogno dell’elearning?

Set
20

Mi è capitato di fare una ricerca sull’offerta di corsi online in Italia, in particolare in due campi in cui l’e-learning è – o dovrebbe essere – di casa: quello dell’ECM (educazione continua in medicina) e quello della sicurezza sul lavoro. Si tratta di settori in cui la formazione non è una scelta del discente, ma è obbligatoria. Per questo motivo, si tratta di un mercato significativo e interessante: qualcuno deve investire delle risorse economiche, o direttamente (i professionisti della sanità, quando non ci siano sponsor farmaceutici) o indirettamente (le aziende per i propri dipendenti). In entrambi i casi, esistono norme e linee guida pubbliche, dettate dalla conferenza stato-regioni, che descrivono quali metodologie didattiche e quali strumenti siano accettabili o raccomandati al fine di ottenere un apprendimento efficace, oltre che rendicontabile.
Non entro nell’analisi di queste norme e linee guida, che potrebbero senz’altro essere migliorate. E’ comunque abbastanza impressionante constatare che la quasi totalità dei corsi proposti sembra adottare un unico modello, come appunto se questo fosse stabilito dalla norma.

Il modello scelto è pressoché sempre quello della simulazione della lezione in presenza: video del docente e slides affiancate.
Ci sono naturalmente, in apposita area separata, documenti da scaricare, e quiz di autovalutazione.

Le riflessioni che si possono fare per capire e giustificare questa scelta sono tante:
1. questo modello è quello preferito dagli utenti finali, è rassicurante e non impegnativo;
2. questo modello è il più semplice da realizzare per i docenti/autori, non sempre particolarmente edotti nelle metodologie “avanzate” di elearning;
3. questo modello è il più economico e consente di ottenere un risparmio vero rispetto alla formazione in aula. Basta una webcam e Power Point.

Tuttavia viene anche da domandarsi se tale modello sia davvero efficace. Quali sono i risultati alla fine del corso (al di là di quelli misurati dai quiz)? Il lavoratore è davvero più attento e consapevole dei rischi che incontra quotidianamente e mette in atto strategie efficaci per limitarli? L’infermiere migliora la qualità del suo servizio attraverso una migliore comprensione della situazione del paziente e l’acquisizione di competenze nuove per assisterlo?
O, viceversa, ci si può domandare se tutte le ricerche sull’elearning che sono state fatte negli ultimi decenni non siano davvero chiacchiere inutili, visto che un modello così semplice è alla fine quello che contenta tutti. Cooperative learning, communities of practice, learning by doing, valutazione autentica… vanno bene per i libri e i convegni, ma in realtà bastano quattro slide ben fatte e un docente con un bel personale e una voce adeguata per fare elearning efficace ed efficiente.

Chiaramente – almeno dal mio punto di vista – gli effetti collaterali di questa impostazione sono devastanti.
1. I corsisti si convincono che l’elearning non è, e non può essere altro, che una forma di videolezioni che invece di essere trasmesse in TV possono essere fruite con un PC. Il fatto che non sia nemmeno necessario avere fisicamente un DVD da inserire (e quindi dimenticare nel cassetto del PC…) è un vantaggio ulteriore.
Che l’elearning sia un modo diverso di apprendere, che permette di utilizzare le risorse presenti nella rete, resta un segreto esoterico ben nascosto. Probabilmente l’idea che un discente possa aver bisogno di chiarirsi il significato di un termine oscuro che compare nel corso con una ricerca su Wikipedia verrebbe ricacciata indietro con orrore.
La possibilità di interagire in maniera sincrona o asincrona con altri corsisti o col docente, o con esperti esterni, è del tutto assente. Il discente è solo davanti ad un monitor e un mouse. Se vuole chiacchierare via Facebook con i colleghi, lo faccia di nascosto e certo non degli argomenti del corso.
La possibilità di integrare i contenuti presenti con propri commenti, con suggerimenti, esperienze, potrebbe addirittura essere vista come un’eresia, perché va ad intaccare i contenuti “certificati”. Il discente – benché adulto e professionista – è un ignorante che va edotto da zero, e non ha nulla da insegnare.

2. La qualità del prodotto è misurata sul grado di piacevolezza delle slides, sulla capacità di intrattenimento del docente. Immagini accattivanti, voci suadenti e persuasive, animazioni brillanti, ritmo giusto. In sostanza, sulla qualità televisiva dei contenuti. Che ci sia dietro un progetto didattico, che partendo dai bisogni formativi e dagli obiettivi didattici arrivi alla progettazione di un ambiente dove i partecipanti (discenti e docenti) attraverso strumenti diversi costruiscono il proprio percorso di apprendimento, passa completamente in secondo piano. Quindi una piattaforma vale l’altra, anzi non serve affatto (tranne per la questione antipatica del tracciamente del tempo di consultazione dei materiali). Non serve nemmeno una competenza dimostrabile nella progettazione del processo, o anche (Dio ce ne scampi!) nella valutazione: sono sufficienti le competenze di dominio e quelle legate alla comunicazione multimediale. Con buona pace dei giovani laureati in scienze della formazione con un master in e-learning che credevano di avere imparato un’arte.

3. I formatori d’aula più attenti ed esperti non possono che prendere le distanze da questo “e-learning” e sostenere, a buon diritto, che non avrà mai l’efficacia di una buona lezione in presenza, dove c’è interazione, si parte dalle esperienze e bisogni personali dei discenti, c’è la possibilità di adattare linguaggio e contenuti al contesto. Come dargli torto? Naturalmente sono tutte possibilità che un ambiente di e-learning potrebbe consentire, anche se in forma diversa, e per certi versi più vantaggiosa (per esempio, per il fatto che l’interazione verbale può essere registrata, analizzata e ripercorsa anche in seguito con gli stessi corsisti, o riusata per arricchire e migliorare il corso in vista di edizioni successive).

Con chi prendersela? Come modificare questa situazione di stallo? Da dove cominciare?