steve's

apprendimento digitale e dintorni

Una Lente per osservarli tutti

Ago
19

Repubblica online, Stazione Luna, rubrica a cura di Riccardo Luna. L’articolo di oggi 19 Agosto 2020 si intitola “Lens, la app che ti farà i compiti di matematica (e che si svela il senso di Google)” (proprio così, magari lo correggeranno in seguito). L’ho letto subito con grande interesse, conoscevo Lens ma non sapevo che si occupasse di educazione.
La frase finale del titolo, è ancora più attraente: Lens si svela essere il senso di Google?
Premetto che non ce l’ho particolarmente con Luna, ma che anzi gli sono grato perché i suoi brevi post mi permettono di riprendere in mano e approfondire delle questioni importanti, anche se il modo in cui le presenta è sempre un po’ troppo semplice e non mi convince del tutto. Forse non è un caso, è la forma che ha scelto per la sua rubrica, e non gli si può chiedere di scrivere diversamente. In poche righe, e per un lettore medio, deve presentare un pezzo del mondo di oggi come se fosse domani, per poi chiudere con una strizzatina d’occhi per dire che lui non ci crede fino in fondo. Stavolta parla dell’intelligenza artificiale applicata all’educazione. Riporto il suo testo integralmente, in corsivo; il resto sono i miei commenti.

Sono abbastanza sicuro che la app preferita dai ragazzi in autunno non sarà un social network di selfie e stories tipo Instagram, o di balletti e sfottò come Tik Tok, e nemmeno l’eterno Whatsapp. Sarà una app di matematica. Una app che risolve i compiti di matematica più complessi semplicemente inquadrandoli con la telecamera dello smartphone. Sarà Google Lens. Google Lens esiste da un paio di anni ormai, ma la funzione “risolvi il problema di matematica” è appena stata annunciata.

Google Lens fa parte dei servizi di Google a doppio senso. Ovvero: inquadrata un’immagine, fornisce un aiuto nella ricerca di immagini similari, collegandole poi ad informazioni testuali. Ma contemporaneamente, utilizza l’esperienza degli utenti che l’hanno scaricata (oltre un milione, secondo Play) per migliorare il riconoscimento delle immagini, premiando la risposta scelta dagli utenti umani in modo che abbia più probabilità di essere riproposta in futuro. E’ quello che succede con i Captcha che ci chiedono di riconoscere immagini di ponti, autobus e strisce pedonali acquisite tramite Google Street View per dimostrare che siamo umani, e nel frattempo migliorano il servizio di riconoscimento delle immagini e chissà, forse anche la capacità dei piloti intelligenti del futuro.

C’erano già altre app che promettevano di fare la stessa cosa, ma con Google è diverso.

In effetti, il servizio di “risoluzione dei problemi di matematica” non appartiene a Lens, ma a Socratic. Anche questa app esisteva da tempo, inizialmente solo per IOS, e si limitava ad accettare domande e a fornire risposte prese da Wikipedia, da Yahoo Q&A e da altre fonti. Da gennaio 2017 Socratic viene dotata anche di un motore capace di risolvere espressioni ed equazioni, e di mostrare i passaggi necessari (semplificazione, spostamento di un termine da un lato all’altro dell’equazione). Nel 2018 la società che la produce viene acquistata da Google per una somma non dichiarata. La storia di Socratic però la vediamo più avanti.

Nel video di presentazione dell’epoca (ancora disponibile su Youtube ) si vede una ragazza alle prese con una pagina di compiti. Sul foglio la ragazza ha affrontato prima un’equazione semplice:

3 (y+2) = 16

E qui la ragazza non ha avuto problemi. Subito dopo, deve affrontare l’equazione

2y-x = 8x+2

che è ovviamente di difficoltà maggiore, e infatti la ragazza resta bloccata tre-quattro secondi, finché non posa la penna, pronta ad abbandonare il compito, e chissà, anche lo studio della matematica. E’ vero che in alto a sinistra c’è il suo libro di matematica aperto alla pagina “Inequalities and their graphs”, ma la ragazza non sembra ricordarsene. Invece a questo punto inquadra il suo foglio di carta con il suo IPhone, che mostra immediatamente il procedimento “esatto” da seguire per risolverla. Non solo: per ogni passaggio la ragazza può vedere degli approfondimenti sui concetti e i metodi usati (es. aggiunta di uno stesso termine ad entrambi i lati dell’equazione), grafici, video, insomma tutto quello che serve.

Una valutazione dell’app Socratic originale la potete leggere in questa recensione di maggio 2018.

Google sa davvero tutto. Qualcuno potrebbe obiettare che si tratta di una funzione anti-educativa perché consente ai ragazzi di non fare i compiti e farli fare a Google;

Qui tocchiamo il punto cruciale, a mio avviso. Oggi risolvi il problema di matematica, domani quello di fisica o chimica, dopodomani traduci questo passo di Seneca. Non sarà come con la calcolatrice, che ci ha fatto disimparare le quattro operazioni? Non sarà come con l’ascensore che ci ha fatto odiare le scale?
Sulla validità dell’obiezione torneremo dopo. Ma la domanda è: perché Google è improvvisamente interessato all’educazione – a partire almeno dalle suite di applicazioni da ufficio etichettate “Education” ? Si tratta di un mercato enorme, è vero, ma Google non ha nessuna particolare competenza in piattaforme e software educativo. Perché ha deciso di comprare una società che produce una app che va usata durante lo studio, non prima o dopo?

Perché è esattamente qui che Google (seguito da tutti gli altri grossi player dell’IT) vuole andare. Google vuole spingere gli studenti a sostituire un supporto esterno generico e spesso obsoleto (come un libro), o costoso e raro (come un docente umano) con un supporto just-in-time, specifico, mirato e virtualmente onnisciente. Forse l’acquisto di Socratic serve a testare il terreno, a raccogliere informazioni e a preparare l’avvento di qualcosa di molto più potente: un tutor intelligente che utilizza il profilo dello studente/utente per accompagnarlo ovunque. Una specie di assistente educativo personale. Perfetto anche in tempi di pandemia per l’educazione familiare senza il rischio del contagio di classe. L’equivalente di Alexa, Cortana e Siri, ma mirato per un’età e per un’attività specifica di quell’età, lo studio. Bello, no? Beh, dipende dai punti di vista.

Prendete i navigatori auto, sia hardware che software. Oggi si percepisce che soprattutto gli utenti più giovani – ma non solo quelli – sono talmente abituati ad usarli da non essere quasi più capaci di leggere una cartina dall’alto, usando i punti cardinali, e grazie a quella costruirsi nella mente una rappresentazione di una regione dello spazio che comprende il luogo in cui sono e il luogo in cui vogliono andare. E non avendo questa visione generale, tendono ad accettare i suggerimenti della voce suadente di turno che fornisce il minimo di informazioni necessarie per agire momento per momento: “esci dalla rotatoria alla terza uscita”. E’ vero: i navigatori sono in grado di consigliare il miglior itinerario possibile tenendo conto della mappa, di alcune personalizzazioni (poche per la verità: il mezzo di trasporto e la disponibilità economica) e soprattutto dei dati di percorso provenienti dagli altri utenti. Ma i navigatori non spiegano perché è meglio fare una strada anziché un’altra, non puntano a educarci in modo che la prossima volta siamo in grado di fare da soli: i navigatori puntano a diventare indispensabili, a renderci dipendenti.

Immaginate una versione intelligente di un assistente per la scrittura. Una volta detto “voglio scrivere una lettera a Giovanni”, l’assistente comincia a suggerire delle parole, una alla volta: “Caro Giovanni, come stai?”. L’utente può accettarle oppure no, può sostituirle con altre (“Caro Giovanni, come te la passi?”), e l’assistente in questo caso capisce che il tono deve essere più colloquiale, si riposiziona nello spazio lessicale della lettera e suggerisce nuovi itinerari verso la conclusione: “Tanti cari saluti, tuo Stefano”. Questo modo di interagire non richiede all’utente di avere in anticipo un piano del testo, della lettera, ma solo una vaga idea della destinazione; assume come modalità di scrittura qualcosa che assomiglia al viaggio assistito dal navigatore, in cui si procede in soggettiva, un passo alla volta, seguendo i suggerimenti dell’assistente. Una forma molto moderna della scrittura automatica di Allan Kardec.

Questo è l’obiettivo finale di ogni servizio digitale, in ogni campo: stare vicino all’utente in ogni momento, aiutarlo, suggerirgli quello che deve fare in tempo reale, fino diventare indispensabile. Rendere l’utente minore, convincerlo che non può fare a meno di un motore di ricerca, di un sistema di comunicazione sociale, di un negozio online, e di un assistente educativo.

E’ curioso (o forse no) che questa strategia si applichi proprio nel campo dell’educazione, perché è tutto il contrario dell’educazione, è la negazione del concetto stesso di educazione, che dovrebbe essere un modo di far crescere le persone e renderle adulte, responsabili e capaci di scelta. Un apprendimento senza deutero-apprendimento, senza mai imparare a imparare, senza riuscire a diventare finalmente autonomi per andare avanti da soli.

Ma Google ha come motto “Don’t be evil”: come è possibile che voglia entrare nelle vite di tutti per il vantaggio solo di qualcuno? Non lo so, ma non credo che serva immaginare un delirio di onnipotenza. E’ sufficiente una strategia globale di dominio economico: il monopolio è molto conveniente e più sostenibile della concorrenza libera. Una volta che l’app Socratic diventa la compagna indispensabile dello studente, sarà difficile cambiarla. Una volta che tutti i tuoi file sono su Drive e la tua posta su Gmail, è difficile passare ad un altro fornitore, anche se dovesse fornire funzionalità superiori. Come minimo dovresti migrare tutti i tuoi contenuti da una piattaforma all’altra: chi ci ha provato sa che è un incubo.

Contemporaneamente, Google non nasconde affatto il suo modello di business. Usa le informazioni di uso dei privati (anonime) per migliorare i suoi servizi e venderli a chi ha veramente capacità di spesa (aziende e enti pubblici), ma non rinuncia alla vendita di spazi mirati di pubblicità. Perché non pensare allora ad una vendita di spazi pubblicitari all’interno di Lens/Socratic, più o meno trasparente, come già accade nel caso del motori di ricerca? Perché non pensare ad una profilazione accurata degli studenti che usano Lens/Socratic per migliorare i suggerimenti di acquisto?

Sono tutte motivazioni lecite, o almeno non illegali. Ma il problema non è tanto la motivazione di Google, quanto il rischio che il tutto ci sfugga di mano. Bernard Minier, nel suo thriller “M. Le bord de l’abime” si diverte a giocare con il motto di Google, e immagina un chatbot intelligente il cui motto sia “Be evil”. Siccome il chatbot malevolo usa dei motori di machine learning sofisticatissimi nutriti di conversazioni, non è facile accorgersi in anticipo dei suoi scopi. Intelligente, oltre un certo limite, significa opaco. Come facciamo a sapere che i suggerimenti di Lens/Socratic non sono deviati da un bias di qualche tipo?

ma usata bene la nuova funzione di Google Lens può invece essere un aiuto vero a capire il procedimento: non darà infatti semplicemente il risultato del problema, ma mostrerà tutti i passaggi per arrivarci. Del resto i compiti copiati, o svolti da un genitore, o dal compagno di classe più bravo esistono da sempre: da oggi chi vuole imparare ha uno strumento in più, chi vuole copiare anche. A noi la scelta.

Ho molti dubbi su questo modo di presentare gli aspetti didattici della questione. Intanto: fino a quando dovremo andare avanti con questa storia dello studente pigro e furbetto che “tanto ci sarà sempre”, degli strumenti neutri, dei fini separati dai mezzi? E’ una favola vecchia. I fini si nutrono dei mezzi disponibili, i mezzi si costruiscono per i fini. Nel caso dei mezzi digitali, che vanno a toccare direttamente concetti e i modi di collegarli, non si può accettare una visione che li separi dai fini

Luna (e gli autori di Socratic) sembrano pensare che per imparare a risolvere un problema basti vedere i passaggi per la sua soluzione. Chi è studioso ci fa attenzione e impara, chi è ciuccio invece salta subito alla soluzione, la copia, e il docente naturalmente non si accorge di nulla. A parte il fatto che qualcuno dovrà pure occuparsi di aiutare anche gli studenti ciucci, ma chi ha detto che imparare significa solo seguire i passaggi mostrati da qualcun altro, che sia un docente o un compagno o un libro? E’ una modalità, è uno stile, che può andar bene in certi momenti ma non in altri, per certi studenti, per certe materie. E’ un pezzettino della strategia complessiva, nella migliore delle ipotesi. Dove è finita la pedagogia attivista e costruttivista? Dov’è la personalizzazione dell’apprendimento?
E’ una visione – tutto sommato comune – dell’insegnamento come esposizione dello studente alla verità, e deriva a sua volta dall’idea che ci sia una maniera giusta di fare le cose e che andare a scuola serva a imparare quella maniera. Ma qui siamo anni luce lontani dalla pedagogia degli ultimi cinquant’anni. Perché non dovrebbe essere più un mistero che come non c’è una sola traduzione possibile delle lettere a Lucilio, così non esiste una sola maniera di risolvere un’equazione. Magari il risultato sarà pure unico, ma la maniera di arrivarci no. La matematica non è solo logica, è anche cultura, e si insegna in modi diversi a seconda dell’epoca e del luogo. Chi ha provato a leggere un manuale di matematica in un’altra lingua si è già trovato di fronte a questo problema. Per non parlare ovviamente delle differenze in ambiti meno “duri”, come la storia, la geografia, la filosofia. Insomma, ci sono più modi di trovare una soluzione, e dipendono da aspetti culturali, personali (l’età e le competenze dello studente) e contestuali (è un esame? È un compito a casa? E’ il primo di dieci esercizi tutti uguali o l’ultimo?). Immaginare che un programma possa conoscere IL modo giusto di risolvere un problema per insegnarlo allo studente è soprattutto un errore culturale, direi filosofico. Ma è anche pericoloso, perché la maniera giusta, una volta cablata dentro un programma, rischia di restare rigidamente la stessa.

Non sono ragionamenti miei, e non sono recenti. Questa cosiddetta novità dell’insegnamento digitale risale agli anni ‘60, cioè – ogni tanto fa bene ricordarlo – sessanta anni fa. Il progetto PLATO (Programmed Logic for Automatic Teaching Operations) è un pezzo di storia dimenticato. Partito all’università dell’Illinois, poi preso in mano da un azienda produttrice di mainframe (CDC) con enormi aspettative non solo economiche ma sociali (democratizzare la cultura, portare alla formazione superiore anche i cittadini americano meno benestanti), finì per essere abbandonato per i costi. Non prima, però, di aver dato origine ad una miriade di progetti di CAI (Computer Assisted Istruction) e di CAS (Computer Algebra System) come MATHLAB, Reduce, Derive e Maxima.

Parallelamente, nasceva l’Intelligenza artificiale. Il primo programma in grado di dimostrare un teorema (Logic Theorist) è scritto da Newell, Simon e Shaw nel 1956; ma già nel 1964 Student, il software scritto da Daniel Bobrow per la sua tesi di PhD, era capace di capire e risolvere questo tipo di problemi:
“If the number of customers Tom gets is twice the square of 20% of the number of advertisements he runs, and the number of advertisements is 45, then what is the number of customers Tom gets?”
Bisogna poi aspettare gli anni ‘80 e la riduzione dei costi dei Personal Computer perché si affermino i primi Intelligent Tutoring System, in grado di mostrare i passi per la soluzione di un problema, di individuare gli errori dello studente e costruirne un profilo, e durante tutto il processo di interagire in linguaggio naturale. A partire dal 1988 si tengono regolarmente conferenze internazionali, come la International Conference on Intelligent Tutoring Systems, e nascono riviste scientifiche.

Stiamo quindi parlando di una “novità” vecchia di almeno trenta anni. E sono almeno venti anni che gli studiosi si affannano a sperimentare, valutare, confrontare, per concludere che il computer intelligente che sa risolvere i problemi non è una strada promettente. E’ limitata ad alcuni domini, è rigida, isola lo studente dal gruppo di pari, non tiene conto degli aspetti attivi dell’apprendimento. Molto meglio creare degli ambienti dove studenti e docenti possano interagire e costruire insieme pezzi di conoscenza, supportati dalla potenza digitale. Insomma la via aperta da PLATO non portava da nessuna parte.

L’annuncio ha rimesso sotto i riflettori una app che è forse la cosa migliore che Google può fare per noi: si chiama, appunto, Google Lens e consente di identificare quasi qualunque cosa semplicemente inquadrandola con il telefonino. Una pianta rara? Un animale misterioso? In pochi istanti Google confronta la foto appena scattata con tutte quelle sul web e propone la definizione migliore.

Migliore? Google Lens io ce l’ho da un po’, e in effetti all’inizio funzionava malino; l’ho riprovato ora inquadrando un oleandro in fiore, e tra le ipotesi che mi presenta c’è anche quella giusta, ma al terzo posto. Lens non ha modo di sapere quale sia la risposta corretta, può solo presentare un elenco di candidati, esattamente come fa il motore di ricerca più classico. Siamo noi che cliccando sul terzo elemento della lista (“Eccolo! È proprio questo”) forniamo un peso che verrà ricordato e usato per nutrire il motore di machine learning che sta dietro.

Funziona anche con i piatti di tutte le cucine del mondo, e con i luoghi, per esempio i monumenti, e con le scritte in moltissime lingue. E funziona con i vestiti: vedete una camicetta che vi piace? In un attimo ecco il sito dove comprarla al volo.

Bello, eh? Però il fatto che il sito dove comprarla al volo abbia pagato questa forma miratissima di pubblicità, e che quindi non sia necessariamente il migliore per noi, ma il migliore per il venditore e soprattutto per Google, dovrebbe essere tenuto presente.

Google Lens è il nostro motore di ricerca preferito alla sua massima potenza: scatti una foto e ti racconta una storia. In vacanza è un compagno di viaggio inseparabile. E’ come viaggiare con una guida in tasca.

Io uso diversi motori di ricerca, con preferenza per quelli che almeno dichiarano di non tracciare l’utente, come DuckDuck Go. Non so se Luna viaggi usando la guida del Touring oppure la Guide du Routard. Io ho fatto caso agli effetti collaterali di quest’ultima: a forza di raccomandare la spiaggetta seminascosta a cui si accede con un sentiero segreto ha contribuito a distruggere tanti piccoli paradisi, dove adesso si tengono raduni oceanici di adepti del Routard. E per fortuna non tutti la usano. Questo paradosso era stato già descritto da Francesco Antinucci nel 2011 con il suo “L’algoritmo al potere. Vita quotidiana ai tempi di Google” (Laterza). E’ paradossale avere un servizio che consiglia un buon ristorante poco affollato, ma più funziona e viene usato, meno è attendibile.

Con la riapertura delle scuole, lo sarà per gli studenti. Per diventarlo, Google ha incorporato in Lens un software chiamato Socratic, che riconosce i caratteri di un testo, compresa un’equazione, e applica l’intelligenza artificiale per proporre la soluzione.

Per essere precisi: Google ha comprato la startup che produceva Socratic. Una startup nata nel 2013 da un gruppo di ragazzi che credono nel potere dell’educazione, che fanno partire una comunità di insegnanti che tramite un sito web propone contenuti di qualità e li rilascia con licenza Creative Commons. Nel 2015 la startup ottiene un finanziamento da parte di tre venture capitalist e Socratic si dedica solo allo sviluppo di un app. La quale app, a partire da gennaio 2017, fa due cose ben diverse: la prima è la continuazione del sito, ma stavolta con un motore di machine learning che è in grado di suggerire i contenuti più rilevanti presi da Internet; la seconda è una funzionalità del tutto nuova, per cui l’app è in grado di riconoscere il testo di un’equazione, di rappresentarsela internamente e di risolverla usando la libreria Math.js e infine di presentare i passi per la sua soluzione usando un altro software opensource, Mathsteps. Che però non ha moltissimo di intelligenza artificiale, la matematica di solito è trattabile senza bisogno di particolari intuizioni ed è per questo che è da lì che inizia, storicamente, ogni tentativo di creare dei supporti digitali per l’apprendimento.

A marzo 2018 Google compra Socratic, ma rende nota l’operazione solo un anno dopo. L’app continua a chiamarsi Socratic ma ha accesso ai motori di machine learning di Google; contemporaneamente, offre i suoi servizi anche alle altre app della costellazione Google, come Lens (per ora). Nel frattempo, uno dei fondatori, Shreyans Bhansali, resta come engineering manager, mentre l’altro, Chris Banegal, entra a far parte dei visionari che lavorano nell’Area 120, l’incubatore interno di Google.

Insomma la solita storia: non c’è posto per i piccoli. O muoiono, o vengono comprati. Sapendolo, è chiaro che i ragazzi che dicono di voler fare una startup in realtà vogliono solo fare abbastanza rumore da poter interessare una multinazionale e poi passare ad altro.

Il prossimo passo, sarà la trasformazione di un testo scritto a mano, in bella calligrafia, in un testo digitale.

Il riconoscimento della scrittura manuale è in realtà un tema piuttosto vecchio, e almeno dal 1990 esistono delle soluzioni commerciali. Probabilmente diventerà meno significativo man mano che la scrittura manuale verrà abbandonata. Ma la storia di reCAPTCHA, il servizio nato all’università Carnegie Mellon con lo scopo di migliorare le competenze dell OCR (Optical Character Recognition) dovrebbe essere di insegnamento. Siccome c’erano dei testi antichi su cui gli algoritmi di riconoscimento esitavano, i ricercatori della Carnegie Mellon pensarono di far ricorso all’esperienza umana. Così inserirono i caratteri su cui il software faceva cilecca nei sistemi di accesso ai servizi dell’università. Siccome gli umani in genere se la cavano piuttosto bene in questi compiti, le scelte degli studenti servivano ad accrescere le competenze dell’algoritmo di riconoscimento dei caratteri. Funzionò talmente bene da valer la pena di crearci una startup; e la startup fu puntualmente comprata da Google nel 2009.

Finito lo stupore, restano due riflessioni. La prima riguarda i passi da gigante che sta facendo l’intelligenza artificiale applicata alle immagini: il tema del riconoscimento facciale automatico nelle indagini di polizia, dei limiti e dei rischi di questa tecnologia, diventa sempre più urgente. La seconda riguarda Google, che cos’è davvero Google per noi utenti. Molti anni fa in un saggio sulla rivoluzione digitale, Alessandro Baricco parlò per la prima volta di una generazione che “respirava il mondo con le branchie di Google”, che aveva insomma un altro modo di apprendere e relazionarsi. Era una definizione molto efficace.

Il riconoscimento dei volti come strumento di identificazione massiccia al servizio del potere politico è effettivamente un tema caldo. Fa parte della discussione generale sulla tecnologia neutra a cui accennavamo prima. Luna però preferisce dirigersi verso la questione finale, quella del “senso di Google.” Piuttosto che citare “I Barbari” di Baricco, il quale è un attento orecchiatore di discorsi più che uno studioso in presa diretta sulla realtà, meglio dirigersi sul lavoro del collettivo Ippolita e sul loro “Luci e Ombre di Google. Futuro e passato dell’industria dei meta dati” (Feltrinelli, 2007). Ma è vero che tutti noi, giovani e meno giovani, facciamo molta fatica a fare a meno di Google (o di Facebook, di Microsoft, di Amazon) e anzi non vediamo proprio perché dovremmo privarcene. E’ vero che è difficile vedere qualcuno che usa un sistema operativo diverso da Windows o che acquista un libro sul sito della casa editrice invece che farlo su Amazon. E’ difficile vedere qualcuno che in un browser digita una intera URL quando basta scriverne una parte nella barra degli indirizzi (che in realtà è il campo di ricerca). Il punto non è solo che usiamo le branchie di Google per respirare, ma che stiamo dentro un acquario.

Oggi invece Google Lens ci mostra per la prima volta “il mondo con gli occhi di Google”: l’infinito catalogo di immagini che memorizza e che mette a disposizione quando gli chiediamo che pianta è quella che abbiamo davanti. Lens è il modo migliore per far capire a tutti che Google ha creato una copia digitale del mondo e grazie a quella ha tutte le risposte possibili.

Mi pare una semplificazione eccessiva, e peraltro dimentica il (fallito) progetto dei Google Glass, gli occhiali per la realtà aumentata. Che il progetto di Google sia sempre stato quello di creare una copia digitale del mondo, non c’è dubbio. Che il suo scopo iniziale fosse quello di fornire tutte le risposte alle domande, anche. Ma di tempo ne è passato, Google non è solo motore di ricerca, e il suo scopo non è solo quello di fornire risposte, ma quello di fornire una quantità impressionante di servizi, principalmente alle imprese e agli enti pubblici. Questi servizi sono sempre all’avanguardia e in generale di alta qualità, grazie alla raccolta di dati e soprattutto alla raccolta di giudizi, di azioni, di scelte umane. In sostanza, usando gratuitamente i servizi di Google noi forniamo il combustibile che brucia nelle caldaie di Google. Siamo noi che lo rendiamo sempre più potente e rafforziamo il suo monopolio. Google, del tutto legittimamente, ci ringrazia continuando a fornirci servizi sempre migliori. Dal suo punto di vista, è uno scambio win-win.
Il problema è che c’è un effetto collaterale piuttosto importante: l’accumulo di troppe informazioni in mano ad un solo soggetto, con enormi rischi relativamente alla privacy degli utenti, e la possibilità che queste informazioni e i processi che le utilizzano diventino sempre più opachi e quindi fuori controllo.

Usare questi servizi gratuiti ci mette anche in una posizione sempre più asimmetrica, sempre più rischiosa rispetto al futuro. Per capire perché, provate a immaginere un giorno in cui Google decidesse di interrompere i servizi di posta. Fantascienza? Allora andate a leggere su Wikipedia la lista dei servizi gratuiti di Google iniziati e poi interrotti, con cancellazione dei contenuti relativi.

In realtà la copia digitale del mondo, come tutte le copie digitali (si pensi alla musica, nel passaggio dal vinile a Spotify) si perde per strada qualcosa: lascia fuori qualche pezzettino di informazione. Semplifica. Questo vuol dire che il mondo reale assomiglia moltissimo alla sua copia digitale, ma è molto più complesso e ricco. Insomma, non è tutto dentro Google Lens: faremmo bene a non dimenticarlo mai.

Su quest’ultimo passaggio posso dire di essere interamente d’accordo. La numerizzazione, la linearizzazione della realtà – che, ricordiamocelo, non è partita con Google, e neanche con Turing, ma con Galileo – è molto, molto efficace; ma ci costringe ad accettare dei limiti pratici. Non possiamo memorizzare e riprodurre tutte le sfumature di colore di un fiore, e nemmeno la forma di un sasso o il suono di una voce; ma possiamo avvicinarci abbastanza perché un occhio e un orecchio umano non siano in grado di accorgersene. La stessa cosa avviene nella categorizzazione delle persone, la profilazione: non possiamo avere una categoria per ogni persona, e quindi forziamo un po’ i valori mettendo più persone nella stessa categoria. Poi prendiamo delle decisioni sulla vita di quella persona in base alle categorie in cui è stata inserita, come se quella persona coincidesse col suo profilo, e questo è meno bello.
Questo, alla fine, è il rischio che sta sotto la digitalizzazione dell’universo. Qualcuno usa una copia parziale e opaca del mondo per prendere decisioni sulla vita di qualcun altro.



One Response to Una Lente per osservarli tutti

  1. Pingback: Tecnologie digitali per lo sviluppo umano? – steve's