Scuola e Intelligenza Artificiale. Percorsi di alfabetizzazione critica 8874669755, 9788874669752

L'intelligenza artificiale (IA) non è più materia da esperti di computer science. Le sue applicazioni sono sempre p

123 84 8MB

Italian Pages 148 [145] Year 2024

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Scuola e Intelligenza Artificiale. Percorsi di alfabetizzazione critica
 8874669755, 9788874669752

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

•••

Maria Ranieri Stefano Cuomo Gabriele Biagini

Scuola e intelligenza artificiale Percorsi di alfabetizzazione critica

Carocci editore

Tascabili Faber

Tascabili Faber/ 286

r edizione, dicembre 2023 © copyright 2023 by Carocci editore S.p.A., Roma Editing e impaginazione Fregi e Majuscole, Torino Finito di stampare nel dicembre 2023 da Lineagrafica, Città di Castello (PG) isbn

978-88-7466-975-2

Riproduzione vietata ai sensi di legge (art. 171 della legge 22 aprile 1941, n. 633) Senza regolare autorizzazione, è vietato riprodurre questo volume anche parzialmente e con qualsiasi mezzo, compresa la fotocopia, anche per uso interno 0 didattico. I lettori che desiderano informazioni sui volumi pubblicati dalla casa editrice possono rivolgersi direttamente a:

Carocci editore

Viale dì Villa Massimo, 47 00161 Roma tei. 06 42 81 84 17

Siamo su: www.carocci.it www.facebook.com/caroccifaber www.instagram.com/caroccifaber

Maria Ranieri

Stefano Cuomo

Gabriele Biagini

Scuola e intelligenza artificiale Percorsi di alfabetizzazione critica

Carocci editore

Tascabili Faber

Indice

Introduzione

7

di Maria Ranieri

1. 1.1. 1.2. 1.3.

1.4. 2.

2.1.

Le dimensioni deWArtificial Intelligence Hteracy: una prospettiva pedagogica 13 Intelligenza artificiale : quale definizione ? 13 Un framework per VArtificialIntelligence literacy 17 Insegnare di intelligenza artificiale vs insegnare con Fintelligenza artificiale: quali differenze ? 21 Insegnare Iail: quando partire e da dove ? 24 La dimensione conoscitiva: cornice storica e concetti di base 29 Temi e problemi 29 2.1.1.

Dagli automi all’intelligenza artificiale. Una breve storia

del “pensiero automatico”

2.1.2. Bambini e adolescenti,

tecnologie digitali e intelligenza artificiale

2.2.

Metodi e strumenti 2.2.1.

45

La Philosophyfor children\ un approccio maieutico

2.2.2. Insegnare

alla discussione sull’intelligenza (artificiale)

il pensiero computazionale : la tartaruga di Papert e il coding

unplugged

3. 3.1.

La dimensione operativa. Usi e applicazioni Temi e problemi 57 3.1.1.

Dalle istruzioni ai dati: verso il ml

57

3.1.2. Principali

tipologie applicative di intelligenza artificiale

3.2.

Metodi e strumenti 3.2.1.

73

La tecnica del trial and errorpcr comprendere come

le macchine imparano a classificare e riconoscere

3.2.2.

Il metodo dellagamification per comprendere come

le macchine imparano a stimare e a predire

4.

4.1.

La dimensione critica. Comprendere e valutare oltre l’automazione 83 Temi e problemi 83 4.1.1.

Data andinformation literacy nell’era dell’intelligenza

artificiale

4.1.2. L’explainability come condizione

fondamentale per un approccio critico all’intelligenza artificiale

4.2.

Metodi e strumenti 4.2.1.

98

Come trasformare ChatGPT in una palestra

per il pensiero critico: l’approccio Inquiry BasedLearning 4.2.2.

Il problem solving come chiave didattica per promuovere

atteggiamenti consapevoli verso l’intelligenza artificiale

5. 5.1.

La dimensione etica. Principi generali e proposte educative 109 Temi e problemi 109 5.1.1.

Etica dell’intelligenza artificiale: questioni e principi

5.1.2.

Intelligenza artificiale in educazione: una lettura

pedagogica delle sfide etiche

5.2.

Metodi e strumenti 5.2.1.

127

Il debate come strumento didattico per esplorare

i dilemmi etici dell’intelligenza artificiale

5.2.2. Lo studio

di caso come strumento didattico per analizzare gli aspetti etici dell’intelligenza artificiale

Bibliografia

135

Introduzione di Maria Ranieri

Se fino a qualche tempo fa, l’espressione “intelligenza artifi­ ciale” (ia) era appannaggio di esperti e nerd appassionati di tecnologie, oggi è diventata sempre più di uso comune. Basta lanciare una ricerca in Google Trends per rendersi conto di come l’interesse sull’argomento sia cresciuto negli ultimi cinque anni con un andamento graduale tra il 2018 e il 2021 (indice di interesse rispettivamente circa 5.5 e 6.5) e un’impen­ nata impressionante nel 2023 (indice di interesse circa 40!).

Discussioni sul tema appaiono ogni giorno su testate gior­ nalistiche e servizi televisivi, talora prospettando un futuro distopico fatto di uomini assoggettati alle macchine, talaltra inneggiando a una nuova rivoluzione sull’onda dell’ennesi­ mo hype tecnologico all’insegna delle «magnifiche sorti e

progressive». Il tema è argomento di dissertazione non solo per tecnici, ma anche per filosofi, sociologi o pedagogisti. Anche qui si ritro­ vano non di rado le tracce di un antico dibattito, animato da

contrapposizioni apodittiche come quelle che hanno spesso dominato la riflessione sul rapporto tra educazione e tecnolo­ gie (Ranieri, 2011): assumendo una visione essenzialistica della

tecnologia, si sposano letture deterministiche del suo impatto sulla società, vuoi di segno ottimista (vale a dire, la tecnologia come panacea dei mali della società) vuoi pessimiste (ossia, la tecnologia è la causa di tutti i mali della società), trascurando la rilevanza di fattori extratecnologici come la politica, l’econo­ mia, la società (Buckingham, 2007; Selwyn, 2011).

Nonostante il crescente interesse, Pia non è tuttavia una novità. Si tratta di un campo di ricerca che, con alti e bassi (i cosid­ detti “inverni dell’iA”), viene studiato da circa settantanni e le cui applicazioni da tempo animano l’ecosistema digitale con cui interagiamo ogni giorno. L’interrogazione di un motore di ricerca, la traduzione automatica di un testo, l’interazione con un assistente vocale, ma anche il robottino che pulisce i pavi­ menti delle nostre case si basano su applicazioni, più o meno raffinate, di ia. Spiegare le ragioni di questa nuova primavera dell’lA richiede di considerare non solo la tecnologia, ma di allargare l’anali­ si su aspetti sociali, politici ed economici, che non rientrano negli obiettivi di questo volume1. Possiamo, però, affermare che, se il clamore sulla ia andrà verosimilmente attenuando­ si, non diminuirà l’impatto che questa tecnologia avrà sulle nostre società e sulla vita quotidiana. Come è accaduto in precedenza con la diffusione del PC, poi di Internet e ancora della telefonia mobile, così Pia si candida a essere un nuovo protagonista del mondo delle tecnologie digitali. Di fronte a questo inedito scenario, quale può essere il ruolo degli educa­ tori e degli insegnanti, soprattutto di coloro che hanno a che fare con i più giovani? Il sistema educativo può rimandare all’istruzione superiore e universitaria la trattazione di queste tematiche oppure è opportuno che esse vengano trattate fino dai primi cicli scolastici ? Sul piano istituzionale, una prima indicazione per rispondere a tale quesito proviene dal quadro europeo delle competenze di base, che dal 2006 include le quelle digitali: esse sono state definite in modo analitico attraverso il framework DigComp (Ferrari, Brecko, Punie, 2014), che nelle sue ultime versioni

1. A questo riguardo, si suggeriscono alcune letture come, ad esempio, Russell (2020), Crawford (2021), Elliott (2021) o anche Mitchell (2022).

comprende anche Pia. In altre parole, secondo il legislatore europeo, i cittadini del nuovo millennio devono padroneggia­ re l’uso consapevole delle tecnologie digitali, inclusa Pia per la formazione, il lavoro, il tempo libero, la socializzazione e la partecipazione civica. Una ulteriore indicazione, che aiuta a comporre il quadro e formulare una risposta, proviene dal DigCompEdu (Redecker, 2017), il framework che definisce ruoli, funzioni e competenze di insegnanti ed educatori in materia di digitale: tra le competenze digitali degli insegnanti (Ranieri, 2022) rientrano quelle relative alla promozione delle competenze digitali degli studenti. Ne consegue che appartiene alla formazione di base, di cui la scuola e gli insegnanti sono responsabili, occuparsi della preparazione degli studenti nel campo dell’1 A. Sul versante della ricerca, invece, la risposta alla domanda rela­ tiva alla funzione della scuola in rapporto alla trattazione di questi temi va inquadrata nell’ambito degli studi sulle nuove literacies (Cappello, 2017; Ranieri, 2018; Rivoltella, 2020), a cui la «svolta digitale» (Mills, 2010, p. 246) ha dato un impulso considerevole. La maggiore attenzione prestata alle nuove pratiche di literacy, sviluppatesi negli ambienti digita­ li, ha condotto a una espansione del concetto tradizionale di literacy, abbracciando non solo il saper leggere e scrivere con carta e penna, ma anche pratiche di comprensione e creazio­ ne di nuove testualità come pure forme di comunicazione e interazione mediate per la produzione di senso. Detto in altri termini, l’emergere di nuove testualità digitali attraverso wiki, blog, database e notizie online richiede nuove capacità di comprensione del testo insieme a nuove abilità di elaborazio­ ne e trasmissione di produzioni elettroniche. In questo conte­ sto, si sottolinea l’importanza di un’educazione che tenga conto delle nuove forme di alfabetizzazione richieste dalla società digitale, inclusa l’alfabetizzazione all’iA (Panciroli, Rivoltella, 2022), e si sposa l’idea di una scuola come luogo

in cui gli studenti possano acquisire le competenze necessarie per navigare criticamente in un mondo sempre più digitaliz­ zato, garantendo nel contempo i valori umani e promuovendo un futuro più equo e inclusivo (Wilton et ai, 2022; Selwyn et al., 202,3). Cosi, mettendo insieme la prospettiva istituzionale e quella della ricerca, possiamo concludere che la risposta alla doman­ da se la scuola debba occuparsi di ia sin dal primo grado di

istruzione risulta affermativa. La sfida diventa, allora, cercare di definire in che termini debba occuparsene, che è quello che tenteremo di fare in questo volume, assumendo una prospet­ tiva pedagogica, ossia attenta ad aspetti pedagogicamente rilevanti per e nell alfabetizzazione critica all’iA. In linea con gli studi che abbiamo condotto in precedenza sul tema della competenza digitale (Galvani, Fini, Ranieri, 2010; 2011), il focus sarà posto non tanto sui tecnicismi quanto sugli aspetti formativi che riguardano la comprensione dei concetti di base dell’lA, dei meccanismi che ne caratterizzano il funzionamen­ to, delle implicazioni sociali e cognitive relative all’interazione uomo-macchina e delle questioni controverse, spesso di natura etica, associate alla sua applicazione. La dimensione formati­ va riguarda, infatti, le infrastrutture critico-cognitive che un lavoro educativo sull’iA, assunta come oggetto di apprendi­

mento per la cittadinanza, può sollecitare e favorire. Da questo punto di vista, il volume offre elementi teorici per riflettere sui temi evocati come anche proposte operative che insegnanti ed educatori possono realizzare con i propri studenti allo scopo di imparare a relazionarsi, con spirito critico e consapevolez­ za, con le tecnologie di ia ed essere pronti come cittadini a discutere in modo aperto e democratico sul loro ruolo nelle nostre società. Il lavoro è stato congiuntamente ideato, realizzato e revisionato dagli autori. Per quanto riguardala redazione dei testi, il capito­ lo 1 è stato è stato redatto a più mani da Maria Ranieri, Stefano

Cuomo e Gabriele Biagini. Stefano Cuomo è autore del capito­ lo 2, Gabriele Biagini del capitolo 3, Maria Ranieri del capito­ lo 5. Per il capitolo 4 Maria Ranieri è autrice dei paragrafi 4.1.1 e

4.2.1 e Gabriele Biagini dei paragrafi 4.1.2 e 4.2.2. Firenze, 4 ottobre 2023

Avvertenza Le traduzioni dei testi per i quali non è fornita un’edizione italia­ na in Bibliografìa sono a cura degli autori. L’ultimo accesso alle pagine Internet indicate nel volume risale a ottobre 2023.

1. Le dimensioni deWArtifìcial Intelligence literacy: una prospettiva pedagogica

1.1. Intelligenza artificiale: quale definizione? Fino all’avvento del personal computer, era d’uso comune riferirsi al calcolatore con l’espressione “cervello elettronico”, formula attestata nel dizionario dell'Accademia della Crusca e di Treccani, e utilizzata anche da Papini; accanto a essa, tra gli anni Sessanta e Settanta, si fece strada nei media anche il termi­ ne “cervellone”. Paragonare la nuova macchina, piena di miste­ riosi circuiti elettronici piuttosto che di familiari ingranaggi, al cervello umano, attribuendogli capacità di pensiero simili a quelle di esseri intelligenti, non era solo una caratteristica della fiorente produzione fantascientifica (si pensi al computer HAL9000 del film 2001: Odissea nello spazio di Kubrick, 1968), ma anche una prospettiva di ricerca investigata da numerosi scienziati. Come vedremo nel capitolo 1, l’espressione “intelli­ genza artificiale” è presente fin dai primi anni dell’informatica, eppure, nonostante questo e il fatto che attualmente essa sia tra le più popolari in ogni contesto, la sua definizione non è mai stata - e anche adesso non è - univoca né sul piano terminolo­ gico né su quello semantico. Questa difficoltà è dovuta a una storia lunga quasi un secolo che, in particolare dagli anni Sessanta in poi, ha visto studiosi e scienziati di ambito disciplinare diverso impegnati nel tentati­ vo di misurare la capacità di simulare, generare, riprodurre l’in­ telligenza umana per via artificiale. Ogni disciplina - dall’in­ formatica alla psicologia, dalla filosofìa alle neuroscienze - ha contribuito e contribuisce con un proprio pezzo al puzzle, arric­

chendo il campo, ma anche complicando il compito di fornire una definizione semplice, diretta e universalmente condivisa. Pertanto, piuttosto che assumerne una, passiamo prima in rasse­ gna alcune delle principali definizioni, senza alcuna pretesa di

esaustività, in modo da poter apprezzare le diverse prospettive e relative sfumature. Storicamente, Finvenzione del termine e la determinazione dell’IA come campo autonomo di ricerca risale a McCarthy, il quale coniò questa espressione nel 1955. Per McCarthy Fia si basa sulla congettura che ogni aspetto dell’apprendimento e dell’intelligenza può, in linea di principio, essere descritto con una precisione tale che una macchina, opportunamente proget­ tata, è in grado di emulare (cfr. par. z.i.i). Per investigare le potenzialità della nascente disciplina, McCarthy organizzò un seminario con dieci fra i più illustri matematici e ingegneri dell’epoca. L’ia nasce quindi come disciplina tecnologica, per questo motivo ci appare opportuno iniziare dalle definizioni elaborate dagli esperti di computer Science, tra cui, oltre il già citato McCarthy, alcuni fra gli autori dei principali testi di rife­ rimento del settore. • «E la scienza che si occupa di far fare alle macchine cose che richiederebbero intelligenza se fatte dagli uomini» (Minsky, 1968, p. v); • «E lo studio di come far fare ai computer cose in cui, al momento, le persone sono più brave» (Rich, Knight, 1991, p. XXIl); • «E la scienza e l’ingegneria della creazione di macchine intelligenti, in particolare di programmi informatici intelligen­ ti [ovvero] di macchine che si comportano in modi che sareb­

bero definiti intelligenti se un essere umano si comportasse così» (McCarthy, 2,007, P-1); • «E lo studio di agenti che ricevono indicazioni dall’am­ biente e agiscono. Ogni agente di questo tipo è implementato

da una funzione che mappa le percezioni in azioni» (Russell, Norvig, 2009, p. Vili); • «E quell’attività dedicata a rendere intelligenti le macchine, c l’intelligenza è quella qualità che permette a un’entità di

funzionare in modo appropriato e previdente nel suo ambiente» (Nilsson, 2010, p. xm); • «La nostra intelligenza è ciò che ci rende più intelligenti, e l’i A è un’estensione di questa qualità» (attribuita a LeCun, vincitore nel 2019 del premio Turing - il più importante rico­ noscimento per gli studi suII’ia). Queste definizioni, come molte altre, si riferiscono in manie­ ra esplicita all’intelligenza umana, senza la quale non sembra possibile chiarire cosa si intenda per ia, ma su questo tema torneremo nel prossimo capitolo. Per il momento, è importan­ te rilevare come il confronto con l’intelligenza umana costitu­ isca un elemento ricorrente e costitutivo delle definizioni di ia formulate in area tecnologica. Accanto alle definizioni di tecnologi e scienziati, essendo le applicazioni di ia sempre più pervasive e impattanti sulla

società, negli ultimi anni anche enti e organismi internazio­ nali si sono cimentati nell’arduo compito di definire questa tecnologia. L’Organizzazione per la cooperazione e lo svilup­ po economico (Organisation for Economie Co-operation and

Development, oecd), per esempio, descrive Pia come «un insieme di sistemi basati su macchine capaci di prendere deci­ sioni influenzando ambienti reali o virtuali in base a obiettivi predefiniti dall’uomo» (oecd, 2019, p. li), sottolineando la presenza di vari gradi di autonomia con cui le applicazioni di IA possono operare. Questa visione viene ampliata dal gruppo di esperti della Commissione europea per i quali l’IA è «un sistema in grado di percepire, interpretare, ragionare e agire nel mondo fìsico o digitale » e in grado di « imparare e adattarsi in base alle proprie azioni e alle risposte dell’ambiente» (Commissione

europea, 2018, p. ix). Analogamente, il Parlamento europeo enfatizza l’abilità dell’ia di manifestare un comportamento intelligente «analizzando il proprio ambiente e intraprenden­ do azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici» (ivi, p. i). Viene, inoltre, specificato come i sistemi basati sull’iA possono essere immateriali ovvero basati su software, agendo nel mondo virtuale (ad esempio assistenti vocali), oppure incorporati in dispositivi hardware (ad esempio robot avanzati o auto autonome). La pervasività di questa tecnologia e, più recentemente, la sua caratteristica di basarsi su enormi quantità di dati (cfr. CAPP. 2 e 3) sollevano anche problemi di carattere etico. Per questo motivo, l’Organizzazione delle Nazioni Unite per l’educazione, la scienza e la cultura (UNESCO, zona; zoub), nelle sue raccomandazioni sull’etica dell’iA, pone l’accento sulla capacità dei sistemi di elaborare informazioni attraverso modelli e algoritmi tramite i quali possono apprendere e gestire compiti cognitivi, nonché effettuare previsioni e prendere deci­ sioni sia in ambienti reali che virtuali. Tutte le definizioni menzionate colgono uno o più aspetti che hanno caratterizzato il passato e il presente della ricerca e del dibattito sull’lA. Privilegiarne una rischia di essere fuorviante rispetto alla complessità del tema. Ciononostante, e fatta questa avvertenza, assumiamo la definizione dell’uNESCO (zona, zozib) che contempla una pluralità di dimensioni, dall’elemen­ to informazionale («elaborare informazioni attraverso modelli e algoritmi » ) a quello cognitivo ( « apprendere e gestire compiti cognitivi nonché effettuare previsioni») e decisionale («pren­ dere decisioni sia in ambienti reali che virtuali»), intercettando la natura multidimensionale del costrutto. Come vedremo nel paragrafo seguente, questa visione multidimensionale dell’1A si riflette nell’articolazione - anch’essa multidimensionale - del framework per l’ArtifìcialIntelligence literacy, o per l’alfabetiz­ zazione (critica) all’lA, che sta alla base di questo volume.

1.2. Un framework per VArtificialIntelligence literacy

Lo sviluppo dell’iA si distingue, rispetto alle precedenti innovazioni tecnologiche, per una velocissima evoluzione che rende disponibili in tempi brevissimi nuove applica­ zioni sempre più raffinate. In questo quadro, si evidenzia­ no l’importanza e l’urgenza di un quadro strutturato per la sua comprensione e, in termini educativi, la proposta di un framework che possa consentire lo sviluppo di ai literacy (all) o, nel lessico di questo volume, di una alfabetizzazione critica all’iA (Cuomo, Biagini, Ranieri, 2022). Tale istanza si lega, da un lato, alla necessità di evitare il divario e l’esclusio­ ne digitale tra i membri della società e di arginare i proble­ mi di disuguaglianza a esso associati, che possono sollevare a loro volta questioni di ordine ideologico e politico-socia­ le (Selwyn et al,, 2023). Dall’altro, l’esigenza di una pratica didattica dell’iA (Steinbauer et al., 2021) si colloca in uno scenario di grande complessità, in quanto richiede compe­ tenze interdisciplinari che spaziano dalla conoscenza delle macchine alla padronanza dei dispositivi didattici più conso­ ni a far comprendere “sia le basi teoriche e tecnologiche, sia il volto culturale e sociale dei \mutatis mutandis} nuovi media” (Ciotti, Roncaglia, 2008, p. vii). Data la varietà di domini e applicazioni che ormai caratteriz­ zano gli sviluppi recenti dell’iA, appare chiara l’insufficienza di un approccio superficiale o frammentato alla formazione di competenze critiche sull’iA; ne consegue la necessità di appog­ giarsi a una cornice teorica in grado di inquadrare il concetto di alfabetizzazione critica all’iA in modo olistico, e di guidare individui e istituzioni attraverso le sue molteplici sfaccetta­ ture. Dunque, che cosa intendere con ail o alfabetizzazione critica all’iA? In letteratura, questa espressione è stata proposta per la prima volta nel 2016 da Burgsteiner e Kandlhofer, che hanno defìni-

to I’ail come «la capacità di comprendere le conoscenze e i concetti di fondo delle tecnologie su cui si basa F intelligenza artificiale» (Burgsteiner, Kandlhofer, Steinbauer, 2016, p. 1; si veda anche Kandlhofer et al., 2016, p. 2). Altra definizio­ ne di spicco è quella di Druga, Christoph e Ko (2022, p. 1), i quali affermano che «Fai literacy può essere definita come la conoscenza e la comprensione delle funzioni di base dell’1A e di come utilizzare le applicazioni di ia nella vita quotidiana in modo etico. Le competenze in materia di ia includono la capacità di leggere, lavorare con, analizzare e creare con Fia». Muovendo da queste premesse e ribadendo la rilevanza degli aspetti etici, altri autori aggiungono che Iail abbraccia un insieme di competenze che consentono di comunicare e colla­ borare efficacemente e in modo critico con le tecnologie di ia (Long, Magerko, 2020), sottolineando la natura etica di tali interazioni. Inoltre, NgeJ^Z (2021) hanno inserito I’ail nell’e­ lenco delle nuove literacy mediali e digitali necessarie per vive­ re nel xxi secolo. Dall’analisi comparativa di queste defini­ zioni1, emergono alcuni elementi dominanti, che - seguendo e riformulando l’articolazione proposta da Ng et al. (ibid.} -

possono essere ricondotti a quattro dimensioni costitutive dell’ossatura concettuale del framework qui proposto, vale a dire: la dimensione conoscitiva (conoscere e comprende­ re Pia), la dimensione operativa (usare e applicare Pia), la dimensione critica (valutare e creare ia) e, infine, la dimensio­ ne etica (comprendere le implicazioni etiche dell’1 a). Queste dimensioni non solo rappresentano le componenti costituti­ ve del framework qui proposto, ma forniscono anche le basi concettuali per l’articolazione stessa del presente volume, in cui ogni capitolo di quelli che seguono si sofferma su una speci-

1. Uno studio comparativo più approfondito delle definizioni correnti è presente in Cuomo, Biagini, Ranieri (2022).

Pica dimensione. Cerchiamo, ora, di capire meglio che cosa si intenda per ciascuna di queste dimensioni, cominciando dalla prima, la dimensione conoscitiva. Essa fa riferimento al conoscere e comprendere l’iA e riguarda la comprensione dei concetti fondamentali dell’lA, incentrandosi sulle nozioni e le abilità di base, che non richiedono conoscenze tecnologiche preliminari (ibid.}. Si sottolinea, ad esempio, che le persone non dovrebbero limitarsi a un uso passivo delle applicazioni di ia, ma dovrebbero essere stimolate a capirne i principi di funzionamento, anche in ragione delle tecnologie sottostanti (Burgsteiner, Kandlhofer, Steinbauer, 2016; Kandlhofer et al., 1016), nell’ottica di facilitare l’avvicinamento agli strumenti di apprendimento basati suII’ia e con l’obiettivo di consentire un maggiore approfondimento dei problemi a essa associati. Inoltre, in linea con Su e Zhong (2022), possiamo articolare in modo più analitico le conoscenze in questo settore in riferi­ mento ai seguenti aspetti: 1. ambito delle definizioni e tipi di ia, che rimanda alla comprensione delle tipologie di ia (cioè, debole/forte) e delle tecnologie su cui sono basate; 2. ambito dei dati e del machine learning, che indica la comprensione delle basi concettuali del machine learning (ml) o apprendi­ mento automatico; 3. ambito delle applicazioni, che concerne la conoscenza dei vari domini applicativi dell’iA. Il secondo tassello del framework riguarda la dimensione operativa, ossia saper usare e applicare I’ia. Si passa, quindi, all’applicazione dei concetti e degli strumenti di ia nei diversi contesti (DrugaeM/., 2019; Lee et al., 2021). Aquesto riguardo, autori come Vazhayil et al. (2019) sottolineano l’importanza della progettazione e realizzazione di algoritmi per suppor­ tare la comprensione, da parte dei discenti, di come utilizzare le basi di conoscenza per la risoluzione dei problemi. Sempre alla dimensione operativa, nei suoi stadi più avanzati, vengo­ no ricondotte, da altri autori, la capacità di risolvere problemi utilizzando strumenti di 1 a e quella di costruire applicazioni di

con lo scopo di favorire lo sviluppo di astrazione analitica (Kim et al., 2,021). La terza dimensione prevede un approccio critico verso gli impieghi dell’1 a nei vari ambiti applicativi, coinvolgendo gli studenti in attività cognitive, creative e di discernimento criti­ co (Su, Zhong, 2022). Oltre a divulgare la conoscenza e l’uso dell’1 a mediante concetti ed esemplificazioni pratiche, si ritie­ ne che I’ail includa la capacità di comunicare e collaborare in modo consapevole ed efficace con le tecnologie di IA, di valu­ tarle criticamente e perfino di creare artefatti su queste basati (Long, Magerko, 2020). Inoltre, poiché Pia svolge un ruolo importante in molteplici processi decisionali, la capacità di valutare in modo critico l’impatto connesso al suo utilizzo rive­ ste un ruolo essenziale per permetterne una comprensione più approfondita in rapporto alle implicazioni legate ai diversi usi. Ciò consente non solo di capire a fondo le dinamiche sottostan­ ti all’ 1 A, ma anche di riconoscere e bilanciare gli impatti positivi e negativi che essa ha sulla società, promuovendo un approccio più ponderato. L’ultimo tassello è relativo alla dimensione etica, che ha a che fare con la capacità di usare in modo responsabile e consapevole I’ia. Questa dimensione riguarda l’essere in grado di assume­ re una visione equilibrata nei riguardi delle delicate questioni etiche da essa sollevate quali la possibilità di delegare a una macchina, in tutto o in parte, decisioni che possono avere un forte impatto sulla sfera personale dell’individuo, ad esempio per l’assegnazione di un posto di lavoro o l’individuazione di un percorso terapeutico. In particolar modo, con la diffusione progressiva dell’ 1 a e la sua pervasività crescente nella vita quoti­ diana, si sta sviluppando un interesse sempre maggiore verso quelle che vengono definite ai Ethics (Boddington, 2023), ovvero l’insieme delle pratiche volte ad aumentare la consa­ pevolezza dei rischi legati all’iA; nello specifico, viene richia­ mata l’attenzione sull’importanza di un’iA che sia trasparente ia

figura

1.1. Le dimensioni del framework di alfabetizzazione critica all’IA

Comprendere i concetti

Saper comunicare e collaborare in modo consapevole ed efficace con le tecnologie di IA e valutare in modo critico il loro impatto sociale

Saper utilizzare le

consapevoli delle questioni etiche sollevate dallo sviluppo e della diffusione dell’lA, con particolare riferimento a trasparenza e spiegabilità, equità, responsabilità, privacy e sicurezza

Fonte: Cuomo, Biagini, Ranieri (2022).

nei suoi processi e che tenga conto di equità, responsabilità, privacy e sicurezza. La figura 1.1 rappresenta, schematizzandole, le dimensioni dell’AiL per la realizzazione di percorsi di alfabe­

tizzazione critica.

1.3. Insegnare di intelligenza artificiale i/s insegnare con l’intelligenza artificiale: quali differenze?

La relazione tra ia ed educazione si può declinare in diversi modi (Panciroli, Rivoltella, zozz): se, da un lato, l’iA può esse­ re oggetto di alfabetizzazione critica, dall’altro, l’interesse per I’ 1 a può essere legato all’uso strumentale di questa tecnologia m termini di supporto ai processi di insegnamento e appren­ dimento. Nel primo caso, si parla di ail, che riguarda appun­ to l’insegnare di intelligenza artificiale, ovvero l’atto di equi­ paggiare gli studenti con la conoscenza fondamentale di cosa sia I’ia, come essa funzioni, le sue implicazioni etiche e il suo

impatto sulla società. È un processo educativo che mira a forma­ re individui consapevoli e informati sulla crescente presenza dell’IA nella nostra vita quotidiana e le relative implicazioni etico-sociali. L’ail rappresenta, quindi, un concetto profon­ do che trascende la semplice comprensione meccanica dell’Ia. Mentre una conoscenza di base degli algoritmi e della program­ mazione è certamente utile - aspetto che viene ricompreso nel cosiddetto pensiero computazionale (cfr. par. 2.2.2) -, ciò è solo la punta dell’iceberg di quello che significa essere piena­ mente alfabetizzati nell’Ia. Il cuore dell’AlL risiede nella capacità di navigare, compren­ dere e interagire in modo critico nel complesso ecosistema dell’iA. Questo ecosistema è costituito da una vasta rete di influenze e interazioni che si intrecciano tra la tecnologia, la società e l’individuo. Gli studenti, quindi, non solo devono comprendere come funziona un algoritmo, ma anche come questi algoritmi, una volta implementati, possono modellare comportamenti, influenzare decisioni e persino definire norme culturali (Manovich, 2023). Ciò richiede una riflessione critica sulle implicazioni sociali dell’IA, sul modo in cui questa può accentuare o mitigare pregiudizi esistenti, ovvero monitorare e influenzare larghe fasce di popolazione, con le conseguenti potenziali minacce alla privacy. Senza tratteggiare scenari più o meno apocalittici, è facile immaginare come un uso indiscriminato, o malevolo, di un ecosistema al quale affidiamo sempre più le nostre decisioni (si pensi alla fiducia “cieca” con cui seguiamo le indicazioni di un navigatore in luoghi a noi non familiari) possa costituire un rischio per la democra­ zia e per l’equità sociale (Yu, 2020; Jungherr, 2023). Del resto, come evidenziato da una pubblicazione del Parlamento euro­ peo (European Parliament, 2023), se non gestita correttamente Pia potrebbe portare a decisioni influenzate dai dati sull’etnia, sul sesso, sull’età per l’assunzione, per il licenziamento, per la concessione di mutui o persino nei procedimenti penali. Con

l’emergere di tecnologie di ai generativa (cfr. par. 2.1.1), in cui è possibile riprodurre, con il cosiddetto deepfake, le fattezze o la voce di una persona, la linea tra realtà e finzione si è fatta sempre più sfumata; «reale e virtuale sono entrambi modi di presentarsi dell’essere», per dirla con Rivoltella e Rossi (2019, p. 41), ed è evidente come la capacità di discernere tra fatti e disinformazione sia diventata cruciale, anche se sempre più diffìcile. Gli studenti, e più in generale tutti i cittadini, devono pertanto essere dotati delle competenze necessarie per navigare con consapevolezza in questo mare di informazioni, per capire se queste siano veritiere o manipolate e distorte da algoritmi più o meno malevoli. Venendo al secondo caso, ossia all’approccio strumentale, ci si riferisce all’Artifìcial Intelligence in Education (aied), che riguarda l’insegnare con I’ia. Nell’AiED, le tecnologie di ia vengono viste come supporti pedagogico-didattici per miglio­ rare e personalizzare i processi di insegnamento e apprendi­ mento. In questo senso, con I’aied si propone principalmen­ te l’utilizzo dell’iA come un alleato nell’esperienza educativa, prospettando nuove opportunità per la personalizzazione dei processi di apprendimento: ad esempio, i sistemi di tutoraggio intelligente mirano ad adattarsi dinamicamente al livello di competenza e alle esigenze di ogni studente, garantendo un apprendimento più personalizzato e tarato sull’utenza, analiz­ zando i dati degli studenti, adattando il percorso formativo alle loro performance e fornendo feedback immediati per guidar­ li. La raccomandazione di contenuti educativi personalizzati può arricchire l’esperienza di apprendimento, presentando agli studenti materiali e risorse che rispecchiano i loro interessi e le loro aree di forza o di miglioramento, con l’intenzione di favo­ rire un apprendimento più coinvolgente, stimolando la curiosi­ tà e la motivazione degli studenti (Baker eta,Ly 2021). Tuttavia, nonostante le potenzialità, l’uso strumentale della ia nell’educazione presenta anche alcuni limiti. Un aspetto critico,

ad esempio, riguarda la privacy, poiché l’utilizzo di sistemi di IA può comportare rischi legati alla raccolta e all’elaborazione dei dati personali degli studenti. Inoltre, l’affidamento eccessivo a strumenti di ia può a volte ridurre l’importanza dell’interazio­ ne umana nell’ambiente educativo, elemento essenziale per lo sviluppo socioemotivo degli studenti. Un altro limite è rappre­ sentato dalla possibilità che I’ia, pur essendo uno strumento promettente per la personalizzazione dell’apprendimento, possa non tener conto adeguatamente del contesto culturale e sociale in cui l’apprendimento si svolge, determinando così programmi educativi che non sono pienamente adattati alle esigenze specifiche di ogni studente, e che rischiano di raffor­ zare gli stereotipi. Vedremo queste e altre sfide nel dettaglio nei capitoli seguenti. 1.4. Insegnare PAH: quando partire e da dove? Il concetto di ail, anche se piuttosto recente, si è sviluppa­ to nel corso degli anni, dando vita a un dibattito accademico caratterizzato da molteplici posizioni, a volte diametralmen­ te opposte. La discussione centrale riguarda la vera essenza dell’AiL: quale dovrebbe essere la sua natura e come dovrebbe essere, quindi, promossa e insegnata nei diversi contesti forma­ tivi. Da una parte, vi sono studiosi che vedono 1 ail come un campo intrinsecamente tecnico. Sostengono che, per avere una vera e propria literacy in materia di ia, sia essenziale possedere una robusta base di competenze matematico-statistiche e infor­ matiche. Ritengono, inoltre, che I’ail abbia a che fare - almeno in parte - con la familiarità e la competenza con gli strumenti e le tecniche che stanno alla base dell’lA stessa. Un’altra corrente di pensiero spinge, invece, verso un’inter­ pretazione più inclusiva dell’AiL. Questi studiosi argomenta­ no che la literacy non dovrebbe essere riservata solo a coloro che hanno conoscenze specialistiche, ma dovrebbe essere resa

accessibile a un pubblico molto più ampio. Secondo questa visione, l’obiettivo principale dell’AlL dovrebbe essere di forni­ re a tutti i cittadini, indipendentemente dal loro background tecnico, una comprensione chiara dei principi dell’iA, delle sue potenziali applicazioni e delle implicazioni etiche e sociali che ne derivano. Nell’esplorazione dettagliata delle posizioni che adottano un approccio più tecnico all’AiL, emergono figure di spicco come Ng et al. (zozi) e Kong, Man-Yin Cheung e Zhang (zozi). La metodologia proposta da Ng et al. (zozi) prevede una distinzione tra competenze tecniche e non tecniche nell’AlL. Attraverso questa categorizzazione, gli autori suggeriscono implicitamente una necessità di formazione specialistica per coloro che desiderano immergersi negli aspetti più tecnici dell’iA. Questa visione è evidenziata anche dalla loro scelta di includere, tra i concetti fondamentali necessari, argomenti complessi come il deep learning (dl) e le reti neurali tanto che, nella sezione dedicata alle conoscenze di base per 1’ail, propon­ gono un riferimento all’Ai Syllabus di Russell e Norvig (zoo?), un lavoro di taglio profondamente ingegneristico che necessita di una formazione informatica e matematico-statistica per la sua comprensione. Analogamente anche Kong, Man-Yin Cheung e Zhang (zozi) affrontano l’argomento dell’AlL includendo, nella loro descri­ zione, sia conoscenze fattuali che dettagli tecnici. Fra questi, enfatizzano l’importanza di comprendere concetti come il data deaning (ovvero la preparazione dei set di dati per il ml), le reti neurali, la computer vision, il dl e, in generale, le tecniche più sofisticate di ia. Questa profondità, per quanto fornisca una panoramica più completa, costituisce di fatto una barriera per coloro che non hanno una base tecnica solida. Una possibile soluzione è stata proposta da Cetindamar et al. (zozz). Questi autori, nella loro analisi, suggeriscono che una literacy all’iA non dovrebbe essere vista solo attraverso una divisione netta tra

competenze tecniche e non, proponendo di considerare come criterio distintivo anche il tipo di interazione che un individuo ha con I’ia. Una simile prospettiva introduce l’idea secondo cui, per interagire con Pia, siano necessari differenti livelli di

competenza, anche specialistica. Per esemplificare, potremmo considerare la differenza tra chi utilizza Pia per finalità quoti­ diane e chi, invece, lavora al suo sviluppo e alla sua program­ mazione: sono due modalità di interazione prò fondamente diverse che, come suggerito anche da Weber, Pinski e Baum (2023), presuppongono un insieme di competenze e una prepa­ razione notevolmente differenti. L’ail, come del resto altre competenze, quale ad esempio quella digitale (Galvani, Fini, Ranieri, 2010), ha una natura contestuale, ossia i contesti d’uso ne influenzano la definizione in termini di contenuti descrittivi che ne qualificano le componenti. Altri studiosi hanno optato per approcci più inclusivi riguardo

ali’ail. Long e Magerko (2020), per esempio, nel loro lavoro, si allontanano dalla complessità dei dettagli tecnici per abbrac­ ciare un concetto di literacy rivolto ai non esperti. Essi ribadi­ scono come sia indispensabile per i cittadini avere le compe­ tenze necessarie per utilizzare in maniera efficace gli strumenti di ia disponibili Online, nelle proprie abitazioni e nei luoghi di lavoro. Questa visione inclusiva non si limita soltanto all’u­ so quotidiano di strumenti basati sull’iA, ma si estende anche alla capacità di comprendere e valutare le implicazioni etiche e sociali a loro legate. Una posizione simile è sostenuta da Druga et al. (2019), che sottolineano l’importanza di una ail focaliz­ zata sulla capacità di usare le applicazioni di ia nella vita di tutti giorni in maniera etica. Infine, Laupichler et al. (2022) contri­ buiscono a questa narrativa sostenendo che la conoscenza e la comprensione dell’lA non dovrebbero essere esclusive. Per loro, 1’ail rappresenta il bagaglio di conoscenze e competenze neces­ sarie affinché gli individui possano partecipare attivamente e consapevolmente al dibattito sull’1A e prendere decisioni infor­

mate riguardo al suo utilizzo e alle sue conseguenze. Questi approcci rappresentano un invito a una democratizzazione della literacy in materia di ia, sottolineando l’importanza di renderla accessibile e comprensibile a tutti. Anche se il dibattito sulla collocazione curriculare dell’AlL è ancora molto acceso, sia in rapporto alle discipline coinvol­ te che all’età dei discenti, la posizione degli autori (Cuomo, Biagini, Ranieri, 2022) è che una literacy dell’iA debba ricom­ prendere l’insieme delle conoscenze e abilità a essa associa­ te nell’alveo delle competenze di base che i cittadini devono possedere per poter esercitare in modo consapevole e attivo la propria cittadinanza. Infatti, benché vi siano componen­ ti tecniche importanti per la comprensione dell’1 a, esse non devono, a nostro avviso, diventare motivo di ostacolo o, peggio, di esclusione, per gran parte della popolazione alla partecipa­ zione attiva e informata in questo cruciale campo del sapere, ma anche dell’essere quotidiano. Un approccio educativo, multidi­ mensionale e inclusivo all’lA, in grado di considerare non solo gli aspetti tecnici ma anche dimensioni significative dal punto di vista pedagogico, come quelle di natura critico-cognitiva ed etico-sociale, appare realizzabile e sostenibile all’interno della scuola, proprio in virtù della multidisciplinarietà e trasversa­ lità degli ambiti potenzialmente coinvolgibili. Integrare I’ail nei programmi scolastici fin dai cicli primari e secondari potrà favorire la crescita di cittadini capaci di muoversi nel mondo digitale con competenza critica, consapevolezza etica e sicurez­ za, partecipando in maniera attiva al dibattito globale sull’1A e sul suo ruolo nelle nostre società.

2. La dimensione conoscitiva: cornice storica e concetti di base

2.1. Temi e problemi 2.1.1. Dagli automi aITintelligenza artificiale Una breve storia del “pensiero automatico” Fin dall’antichità una delle principali aspirazioni dell’uomo è stata la creazione della vita dalla materia inanimata. Se la crea­ zione della vita, a partire dalla vita, è caratteristica di tutti gli esseri viventi, la creazione della vita a partire da ciò che è inani­ mato è, al contrario, prerogativa degli dèi. Creare un essere intelligente, capace di comunicare col suo creatore e fedele ai suoi voleri, amplificando le sue capacità, fino a essere invincibile e immortale, rende l’uomo simile a un dio, tanto che la leggen­ da delia creazione dell’uomo dal fango è comune a moltissime culture: da quella ebraica al mito di Prometeo, fino alla mito­ logia cinese.

La presenza degli automi (dal greco avróptaro; ovvero “che è in grado di muoversi da sé”), ossia di personaggi creati dall’uomo che si comportano come esseri umani, permea tutta la lette­ ratura occidentale. A partire dal mito di Talo (Mayor, 2018), un automa di bronzo invincibile che Zeus dona a Minosse per porlo a guardia dell’isola di Creta, le storie di automi si ritrova­ no in tutte le epoche. Dalle Metamorfosi di Ovidio ai racconti di epoca medioevale, dal Golem della letteratura ebraica agli auto­ mi di Hoffmann, per giungere al famoso Frankenstein di Shelley, senza dimenticare la versione parodistica, ma non per questo meno acuta, del film Frankenstein Junior di Brooks (1974).

Anche la letteratura per l’infanzia è ricca di storie di auto­ mi, personaggi inanimati che hanno caratteristiche umane: Pinocchio, il Mago di Oz e le tante fiabe come II soldatino di piombo e i balletti Coppélia e Lo schiaccianoci. Nel xx secolo il termine automa viene sostituito da robot (dal ceco robota ovvero “lavoro forzato”) nella letteratura fanta­ scientifica che, a partire dalla metà del secolo scorso, ha dato origine a una vastissima produzione sia letteraria che filmi­ ca. Tra i principali autori, Asimov, con la raccolta di racconti Io, robot, che ha originato l’omonimo film di Proyas (1004), e Dick con il romanzo II cacciatore di androidi, da cui Scott ha tratto la versione cinematografica con il film Biade Runner (1982). Quest’ultimo lavoro pone interessanti, e irrisolte, questioni etiche sulla tecnologia che, spinta ai suoi estremi, riesce a produrre un androide indistinguibile da un essere umano, tanto da essere capace di provare sentimenti e interro­ garsi sulla sua natura. Oltre la letteratura, fin dall’antichità ci sono giunte testimo­ nianze di esemplari di automi realizzati concretamente. Il primo di cui ci è giunta memoria è il cosiddetto “servo automatico”, costruito da Filone nel m secolo a.C., congegnato in modo tale che, ponendogli un bicchiere nella mano sinistra, automaticamente il braccio destro, che reggeva una brocca, si sollevava e lo riempiva con la giusta miscela di acqua e vino. Altre realizzazioni possono trovarsi nei secoli successivi per raggiungere il culmine nel xix secolo quando, per la prima volta, fu presentato un automa che non solo era capace di muoversi, ma anche di pensare come un essere umano. Nel 1769 l’inventore von Kempelen presentò alla buona società dell’epoca il suo “Turco meccanico” (Standage, zon), in grado di giocare e vincere a scacchi. Questo automa avevaie sembian­ ze di un turco abbigliato alla foggia mediorientale di allora ed era collegato a un grosso scatolone pieno di ingranaggi che ne permettevano i movimenti. Il Turco fu presentato all’impera­

trice Maria Teresa d’Austria e alla sua corte, che restò sbalordita dalla sua capacità non solo di giocare, ma anche di comunicare, tramite una lavagna, in diverse lingue, fatto che suscitò anche l’interesse di vari scienziati. In breve, il Turco sollevò entusiasmo, interesse e interrogativi nella società e nella comunità scientifica dell’epoca fino a che, a circa un secolo dalla sua creazione, fu rivelato che tutto era... un inganno! Lo scatolone, che doveva essere pieno di ingra­ naggi, in realtà celava il nascondiglio di uno scacchista in carne e ossa che, grazie a un braccio meccanico, muoveva i pezzi e comunicava con l’esterno. Eppure, nonostante fosse un’illusio­ ne, il Turco meccanico rappresenta un momento fondamentale nella storia dell’Ia, perché per ia prima volta l’uomo si trovò a confrontarsi con una macchina in grado di simulare compor­ tamenti umani. La delusione per la scoperta della vera natura del Turco generò un raffreddamento degli entusiasmi, ma le crescenti esigenze imposte dalla rivoluzione industriale resero sempre più pres­ sante ia necessità di automatizzare non solo i movimenti, ma anche le capacità più legate al pensiero umano, in particolare al calcolo, che fino ad allora veniva svolto manualmente senza, di fatto, alcun ausilio (Aguzzi etaLy 1976). Dalla metà del XVII secolo, agli automi meccanici si affianca­ rono quindi quelli che potremmo definire logici, concepiti per permettere all’uomo di affrancarsi dalla schiavitù del calcolo manuale (Swade, 2022). Il primo esemplare di calcolatrice, realizzato nel 1623, consentiva di svolgere le quattro operazioni e fu realizzato dal tedesco Schickard per l’astronomo Keplero. Poco più di venti anni più tardi, il filosofo Pascal realizzò la cosiddetta ‘pascalina”, una calcolatrice in grado di svolgere i principali calcoli aritmetici. Il secolo successivo vide l’ulteriore sviluppo di macchine per il calcolo automatico, che rimanevano però viziate da imprecisioni che ne limitavano l’utilità. Per questo motivo Babbage, un matematico e pedagogista della

matematica, progettò intorno al 1830 un automa calcolatore, detto “macchina alle differenze” (Swade, 2001), in grado di calcolare le tavole necessarie ai calcoli più complessi. Questa macchina era di estrema complessità, una volta terminata avreb­ be dovuto misurare circa due metri di lato e due metri e mezzo di altezza, e a causa di questa complessità non vide mai la luce tranne che per un modello ridotto realizzato nel 1832. La sua particolarità era che un operatore poteva farla funzionare senza doverne capire i principi sottostanti, tanto che alcuni scienziati affermarono che era «come se le fibre del cervello fossero state sostituite dal metallo» (ivi, p. 85), dando luogo a una vera e propria «macchinapensante» (ibid.). Babbage proseguì le sue ricerche progettando una nuova macchina, detta analitica, che rappresenta la prima concezione di un calcolatore moderno, ovvero una macchina in grado di essere programmata - tramite schede perforate - per fornire risultati di carattere generale e non limitati al calcolo di tabelle. La macchina analitica, di una complessità molto superiore alla precedente, non venne mai realizzata, ma rappresenta la prima intuizione di calcolatore universale programmabile. È doveroso

ricordare il ruolo fondamentale che in questa ricerca ebbe Lady Lovelace - figlia del poeta Byron e una delle poche a intuire le potenzialità della macchina analitica -, che può essere consi­ derata la prima programmatrice della storia avendo ideato un programma per ottenere dal calcolatore un risultato derivante da un processo matematico complesso. Nonostante queste intuizioni, la realizzazione di un automa che potesse imitare le capacità di pensiero dell’essere umano si era fermata di fronte alla complessità di realizzazione tecnica. Per assistere a un significativo progresso dobbiamo attendere la prima metà del xx secolo, quando fu possibile sfruttare la nascente elettronica che, tramite i transistor e, in particolare, i transistor allo stato solido, permette la realizzazione di circui­ ti in grado di lavorare a velocità elevatissime, senza i problemi

legati alle tolleranze e allo stress meccanico, a cui erano sotto­ poste le macchine di Babbage. La caratteristica fondamentale di questi circuiti, detti digitali, è di lavorare esclusivamente con due stati, chiamati bit, ovvero tensione alta e tensione bassa. Mentre le precedenti macchi­ ne calcolatrici meccaniche erano progettate per lavorare con ingranaggi in cui ogni scatto era legato a una cifra fra o e 9, le macchine digitali operano con due soli bit che possono esse­ re associati al simbolo o (zero) e 1. Tale sistema binario, oltre a consentire di svolgere gli stessi calcoli matematici del tradi­ zionale sistema decimale, può anche essere utilizzato come un sistema logico assegnando ad esempio ad alto il valore vero e a basso il valore falso, così che il computer, opportunamente programmato, può prendere decisioni in base ai valori logici (vero/falso) che gli vengono presentati. Ogni sistema binario ha quindi la caratteristica, teorizzata nella metà del xix secolo dal matematico e logico inglese Boole, di poter operare sia con numeri che con simboli logici, che è la proprietà distintiva di tutto 1 ecosistema digitale che ci circon­ da, dai computer a tutti i dispositivi elettronici fino all’iA (Warwick, 2.015). Lo sviluppo dei computer, nella metà del secolo scorso, ha dato il via a un progresso tecnologico enorme e velocissimo, poiché per la prima volta nella storia Fuomo è stato in grado di costruire una macchina capace di svolgere due attività - calco­ lo numerico e ragionamento logico - che contraddistinguono l’intelligenza umana. Fu pertanto naturale chiedersi se, almeno in prospettiva, un computer potesse essere intelligente, ovvero se Fuomo sarebbe mai riuscito a coronare il suo antico sogno di creare, dalla materia inanimata, un qualcosa di pensante, un’in­ telligenza artificiale. Studi e congetture sulle possibilità di una macchina di simulare comportamenti intelligenti si diffusero fin dagli albori dell’in­ formatica, in particolare con i lavori di Turing, che nel 1950,

per primo, esplicito la questione se un computer potesse essere considerato intelligente con la famosa domanda «Le macchine sono in grado di pensare?». Turing era pienamente consape­ vole della difficoltà di formulare con esattezza che cosa potesse significare pensare in relazione a una macchina, propose quin­ di di considerare una macchina come intelligente se in grado di superare il suo famoso test (Turing, 1950). In questo test un giudice imparziale interagisce - ad esempio tramite una tastiera e uno schermo - con un umano e una macchina; si può affer­ mare che questa superi il test se il giudice non riesce a distin­ guere l’uomo dalla macchina. Turing pone quindi l’accento non tanto sul fornire una definizione di ia (cfr. par. i.i) quan­ to sulle capacità della macchina di imitare il pensiero umano, tanto che il capitolo in cui propose il suo test si intitola proprio The Imitation Game, che dà il titolo anche a un famoso film sulla sua vita (1014). Pertanto, seguendo questa definizione funzionale, possiamo considerare una macchina intelligente quando è in grado di darci risposte come potrebbe fare un essere umano. Se giochia­ mo a scacchi con il nostro smartphone questo fa le veci di un avversario, e se vogliamo essere guidati verso una destinazione sconosciuta possiamo chiedere al nostro navigatore satellitare anziché a un compagno di viaggio che legge una mappa strada­ le. In entrambi i casi, la macchina esibisce un comportamento intelligente: può fare la mossa migliore in risposta a una nostra o indicarci la strada più breve per arrivare a destinazione. L’ia che permette questi risultati va sotto il nome di IA simbo­ lica1 (Boden, 2.019), poiché si basa su simboli e regole logiche in analogia al ragionamento umano, ed è quella che si è maggior­ mente sviluppata fino a pochi anni fa, rendendo disponibili

1. Un approfondimento sui diversi tipi di ia e sulle loro applicazioni è fornito nel capitolo 3.

applicazioni sempre più raffinate come i moderni navigatori che, sfruttando le informazioni in tempo reale sul traffico, possono indicare un percorso più lungo che ci permette di arri­ vare comunque in un tempo minore. Tali applicazioni hanno, però, due limitazioni. La prima è che sono onepurpose, ovvero finalizzate a compiti specifici (è difficile giocare a scacchi con un navigatore satellitare!), e la seconda è che eventuali miglio­ rie possono essere ottenute solo intervenendo sul program­ ma e appare chiaro come, oltre una certa complessità, non sia pensabile fornire alla macchina istruzioni dettagliate per ogni possibile situazione. Per superare questa limitazione, si è sviluppata un’altra branca dell’lA, dettali subsimbolica (ovvero, secondo una terminolo­ gia altrettanto diffusa, ia non simbolica), che propone un diffe­ rente approccio in cui, invece di programmare la macchina per affrontare ogni possibile aspetto di un problema, è la macchina stessa ad apprendere come comportarsi. Questo approccio si basa sulle reti neurali, uno dei vecchi concetti fondanti dell’lA, che rappresentano una parte fondamentale del ml. Le reti neurali sono state teorizzate da McCuIlogh e Pitts nel lontano 1943, con un modello matematico ispirato ai neuroni biologi­ ci. Come nel cervello umano i neuroni biologici sono tra loro interconnessi e reagiscono a scariche elettriche propagandole ad altri neuroni, così nelle reti neurali artificiali (Gurney, 1997) si utilizzano i già citati segnali binari (alto e basso) per inviar­ li a una rete di neuroni artificiali - in realtà blocchi di istruzio­ ni - che interagiscono fra di loro. Utilizzando questo model­ lo la macchina, opportunamente programmata, è in grado di apprendere alcune cose in maniera automatica. Per ottenere questo risultato, la macchina viene addestrata a riconoscere l’output, fornendole una serie di dati e un crite­ rio per capire se il risultato è corretto oppure no. Ad esempio, vengono forniti modelli di quadrati che forniscono il cosid­ detto addestramento {training sei) e inoltre alcuni criteri che

indicano alla macchina se la classificazione operata è corretta. Se la macchina sbaglia a classificare una forma, identifican­ dola ad esempio come quadrato quando invece è un triango­ lo, questi criteri la portano ad aggiustare alcuni coefficienti, finché non viene raggiunta un’adeguata precisione. Al termine di questo processo, la macchina è in grado automaticamente di classificare tutti i quadrati, esibendo così un comportamento induttivo ovvero, una volta appresa la forma quadrato, la gene­ ralizza a tutti i possibili quadrati, In un certo senso, possiamo affermare che ha appreso, in maniera automatica, la “forma quadrato”. Una classica applicazione del Mi è il riconoscimento automa­ tico della scrittura manoscritta; le lettere vengono identificate in base a certe caratteristiche (ad esempio la n ha due gambe, mentre la m ne ha tre) così che la rete neurale può correttamente classificare una scrittura, anche se è la prima volta che la incontra. Come è facile immaginare, le reti neurali, anche per una certa analogia con il funzionamento dei neuroni biologici, suscitarono un enorme interesse quando furono presentate ma, nonostante ciò, le applicazioni pratiche ebbero vita travagliata (Minsky, Papert, 1969). È infatti intuitivo capire che la preci­ sione di una rete neurale è dipendente, in modo diretto, dalla quantità di dati con cui viene addestrata (ad esempio molti scri­ vono la n in maniera simile a una w) e inoltre, poiché il processo di apprendimento è molto pesante in termini computazionali, necessita di macchine molto più potenti di quelle disponibili nella metà del secolo scorso. Per questi motivi le reti neurali e, in generale, gli studi sull’ap­ prendimento automatico hanno conosciuto lunghi periodi di scarso interesse, i cosiddetti inverni dell’lA tra gli anni Settanta e Ottanta e poi negli anni Novanta. In queste fasi, gli sforzi si sono concentrati suII’ia simbolica, in particolare sui cosiddetti sistemi esperti (Feigenbaum, Feldman, 1963) In grado di risolve­ re problemi specifici, come ad esempio in medicina o finanza,

basandosi sulla conoscenza umana accumulata in quel campo e fornita alla macchina. Queste applicazioni appartengono alla cosiddetta Intelligenza Artificiale Debole o, secondo altre terminologie, Intelligenza Artificiale Ristretta, perché in grado di imitare l’intelligenza umana ma limitatamente a specifici settori. La rinascita dei sistemi di apprendimento automatico, cui stiamo assistendo in questi anni, deriva da due condizioni: la prima è l’aumento della potenza di calcolo e memorizzazione dei moderni calcolatori, che sono milioni di volte più veloci dei calcolatori degli anni Ottanta, e la seconda, ancora più impor­ tante, è la disponibilità dei dati (cfr. capp. 364). Negli anni Ottanta, i dati per addestrare una rete neurale dove­ vano per la maggior parte essere raccolti ad hoc, il che portava per forza di cose ad averne un numero limitato e spesso insuf­ ficiente per un adeguato addestramento. A partire dagli anni Duemila lo sviluppo di Internet e delle reti sociali ha permes­ so la nascita di quella che Floridi (2014) chiama infosfera, un ambiente in cui l’informazione è ubiqua e interconnessa, e in cui ognuno di noi è un presumer di dati, ovvero allo stes­ so tempo sia un produttore {producer, ad esempio quando pubblichiamo una nostra foto) che un consumatore {consu­ mer, ad esempio quando consultiamo una pagina Internet). Grazie a questa, se fino a qualche anno fa l’addestramento di una ia per il riconoscimento dei volti doveva ricorrere a qual­ che archivio di poche migliaia di foto, ora basta scorrere una pagina Facebook o Instagram per avere a disposizione milioni, forse miliardi, di volti. Il principale contributo allo sviluppo dell’infosfera è dovuto alla cosiddetta Internet ofthings, qnnctq Internet delle cose, in cui la maggior parte degli oggetti attorno a noi, anche quelli più impensati, comunicano con Internet e, in linea di principio, rendono disponibili un’enorme quantità di dati, anche di natura molto sensibile, relativi a noi e ai nostri comportamenti. Uno smartwatch può comunicare dati sul

nostro battito cardiaco o la nostra attività fìsica, mentre le carte fedeltà dei supermercati tengono traccia delle nostre abitudini e dei nostri vizi alimentari. Tutto ciò, moltiplicato per una larga parte della popolazione mondiale e per ogni istante del gior­ no, produce una quantità inimmaginabile di dati sensibili il cui utilizzo pone significativi problemi che saranno approfonditi nei capitoli successivi. Al netto di queste fondamentali considerazioni, la disponibilità praticamente illimitata dei dati ha fornito un nuovo e inarresta­ bile impulso all’iA subsimbolica, tanto che dal 1010, accanto al ml, si è sviluppato il dl (LeCun, Bengio, Hinton, 101$), ovve­ ro apprendimento profondo, in cui le macchine apprendono in maniera ancora più automatica estraendo le caratteristiche, anche nascoste, dei vari dati senza F intervento umano. Se con il ml tradizionale il riconoscimento dei caratteri manoscritti doveva essere preceduto da un intervento umano che defini­ va le caratteristiche (features) di ogni singola lettera, nel dl la macchina, analizzando i dati, fa emergere autonomamente le feature di ciascuna lettera, ad esempio distinguendo la n dalla m e inferendo inoltre il loro utilizzo corretto, ovvero che, in italiano, la n non viene posta davanti alla/> o alla />. L’ia ha compiuto passi da gigante negli ultimi quindici anni, ma la vera esplosione, che l’ha portata all’attenzione di noi tutti, può essere datata attorno al 1014 con la realizzazione delle Intelligenze Artificiali Generative (gai) (Goodfellow, 1014). Questa branca delFiA, basata su complesse teorie matemati­ che, permette non solo la risoluzione di problemi specifici ma ^generazione di oggetti non esistenti nella memoria del calco­ latore. Se un algoritmo di dl può, infatti, identificare un volto fra migliaia, la gai può generare un volto nuovo, sintetico, di fatto indistinguibile da (una fotografia di) un essere umano. Un motivo di ulteriore successo delle GAI è dovuto al fatto che queste sono rese disponibili anche ai non specialisti per la creazione di immagini fotorealistiche o artistiche (ad es. con gli

ambienti dall-e o Midjourney)1 oppure, con l’ormai famoso ChatGPT2 3, per generare testo coerente e naturale, diffìcilmente distinguibile da una produzione umana. Le naturali implicazio­ ni pedagogiche che le gai comportano sono un punto nodale nell’AlL e saranno discusse nel capitolo 4. Con questi ultimi sorprendenti e, in parte, inattesi risultati possiamo affermare che la macchina abbia superato il test di Turing, che le sue manifestazioni siano indistinguibili da quelle di un essere umano, che V imitation game sia stato vinto dall’iA? La risposta, al momento, non è univoca ed è dibattuta fra gli esperti4. Alcune macchine hanno in effetti superato il test in relazione ad alcuni aspetti dell’interazione uomo-macchina, ma ancora nessuna intelligenza artificiale è riuscita a superare il test in maniera completa. Al momento, nonostante i velocissimi progressi, non è quindi possibile dire se in un prossimo futuro sarà possibile realizzare la cosiddetta Intelligenza Artificiale Forte, in grado non solo di imitare il comportamento ma anche di esibire caratteristiche tipiche dell’essere umano quali l’emotività e l’empatia, oppu­ re la macchina non andrà mai oltre i limiti imposti dalla sua natura meccanica (Quintarelli, 1020; Mitchell, zozz). Il dibat­ tito, quanto mai vivo e appassionato, ha superato i confini della tecnologia e coinvolge tutti i principali campi del sapere, dalla filosofìa alle neuroscienze, dalla sociologia alla pedagogia.

2.1.2. Bambini e adolescenti, tecnologie digitali e intelligenza artificiale Nei paesi industrializzati, le tecnologie digitali sono ormai parte integrante della vita quotidiana; già nel Z017, nei paesi

2. Per dall-e, cfr. https://openai.com/dall-e-z; per Midjourney, https:// www.midjourney.com/. 3. Cfr. https://chat.openai.com/. 4. Cfr. https://www.nature.com/articles/d41586-o23-oz361-7.

ocse, gli abbonamenti a utenze cellulari avevano superato il numero degli abitanti (Burns, Gottschalk, io io) e un recente rapporto (itu, 2022) valuta che il 71% della popolazione fra i 15 e i 24 anni abbia accesso alla rete, più di ogni altra clas­ se di età. Il rapporto tra tecnologie e nuove generazioni è da sempre argomento di studio (solo per citare qualche lavoro si rimanda a Postman, 2005; Cappello, 2009; Livingstone, 2009; Livingstone, Bovili, 2013; Buckingham, 2013; Mascheroni, Olafsson, 2018; Blum-Ross, 2018; Gui, 2019), anche in prospet­ tiva educativa (Galvani, 2008; Ranieri, 2010, 2019; Rivoltella, 2020), considerando peraltro il fatto che l’età non sembra costi­ tuire una barriera all’utiiizzo delle tecnologie digitali. Anzi, secondo alcuni studi (Chaudron, Di Gioia, Gemo, 2017), i primi contatti con le tecnologie digitali avvengono fra il primo e il secondo anno di vita, prima ancora di imparare a parlare o camminare. I bambini, inoltre, sviluppano perlopiù spontane­ amente le abilità di interazione con lo schermo (come il tap, lo swipe, lo zoom) per navigare nelle loro app preferite, maturando una familiarità spinta con il digitale. Tale pervasività e tale precocità hanno suscitato un vasto dibattito tra studiosi ed educatori sulle opportunità e i rischi dell’esposizione dei più giovani alle tecnologie digitali. A questo proposito, ricordiamo, in particolare, l’approccio critico dello psichiatra francese Tisseron (2013), che racco­ manda di non esporre i più piccoli alle tecnologie digitali e la gradualità del loro utilizzo fino ai dodici anni. Nel decennio che intercorre dal lavoro di Tisseron a oggi, la tecnologia ha

conquistato sempre più spazi e tempi della nostra vita, tanto che altri studiosi come Rivoltella e Rossi (2019) hanno messo in evidenza che i media, più in generale - aggiungiamo - le tecnologie digitali, sono compenetrati nelle nostre vite al punto che non è più possibile tracciare un confine netto del loro utilizzo. Questa posizione è riassunta da Floridi, che già nel 2015 aveva coniato il termine onlife, contrazione di online

e life, per indicare una società - la nostra - dove « non è più ragionevole chiedersi se si è online o offline» (Floridi, 2015, p. 1), perché non esiste più un confine netto e scontato tra umano e macchina, tra reale e digitale. In questo scenario tecnologico, I’ia ha portato un ulteriore cambiamento, in cui le prospettive centrate sul divieto o sull’ in­ troduzione graduale della tecnologia nelle vite dei bambini e delle bambine rischiano di essere più diffìcilmente perseguibili. Ad esempio, se con gli smartphone o i videogiochi è plausibile formulare indicazioni del tipo “non far interagire un bambi­ no con uno smartphone” o “limita il tempo dedicato ai vide­ ogiochi”, è possibile fare altrettanto con I’ia? In altre parole, parafrasando Tisseron, quale significato potrebbe avere la raccomandazione di non esporre fino a una certa età i bambini all’iA oppure di dosare il rapporto con questa riconducendolo a dimensioni accettabili ? La risposta a questa domanda è molto complessa e deve tene­ re conto, da un lato, dei livelli di ubiquità che ha raggiunto la tecnologia digitale e, dall’altro, della necessità di assicurare lo sviluppo armonico delle nuove generazioni tanto in senso fìsico quanto dal punto di vista sociale ed emotivo. Nel precedente paragrafo 2.1.1, abbiamo visto come l’infosfera sia un ambiente che, come l’atmosfera, ci circonda ed è popolato dai dati che tutti noi immettiamo grazie ai dispositivi con cui interagiamo e che vengono poi elaborati dalla ia. Quando interroghiamo un motore di ricerca e i risultati sono filtrati in base ai nostri inte­ ressi, quando il nostro smartwatch ci ricorda perfidamente che facciamo troppo poco movimento, vuol dire che i nostri dati e quelli di milioni di altri utenti sono stati elaborati in qualche luogo remoto e restituiti sotto forma di informazione grazie alle applicazioni di ia (cfr. par. 3.1.1). Se ciò è vero, è impossibile non avere contatti con I’ia, almeno fin quando facciamo uso di tecnologia. Inoltre, l’interazione con I’ia è sempre più naturale, richiedendo quindi minori, se

non nulle, competenze di base: se fino a qualche anno fa per sapere dove fosse morto Napoleone occorreva installare un PC, lanciare un browser e interrogare un motore di ricerca, oggi è sufficiente collegare un assistente vocale a una presa elettrica e, disponendo di una connessione wi-fì, chiedere «Ehi Google, dove è morto Napoleone?». Tale facilità di utilizzo presenta un rovescio della medaglia: quando interagiamo con un sistema (ad esempio un rispon­ ditore automatico di un cali center) non saremo mai sicuri se la risposta provenga da un essere umano o da una ia e, in questo caso, quanto la risposta sia neutra e oggettiva o pola­ rizzata da altri interessi. Ad esempio, se siamo abbonati a un servizio di streaming, il provider ci consiglia, nella nostra home page, serie tv e film simili a quelli che abbiamo già guardato e che ci sono piaciuti - quello che viene chiamato recommendation System -, ma in realtà non possiamo sapere quanto questi prodotti siano davvero vicini ai nostri interessi o, piuttosto, siano quelli maggiormente sponsorizzati dalla casa produttrice. L’opacità dell’iA (cfr. par. 4.1.2), in relazione a come essa elabora i dati per fornirci i risultati, ci porta ad affrontare il secondo tema che abbiamo evocato, ossia l’istanza di presi­ diare lo sviluppo cognitivo e affettivo delle nuove generazioni in questo contesto di accelerata digitalizzazione. Qui si entra nel vivo delle questioni etiche e pedagogiche. In alternativa alle prospettive centrate sui divieti, sempre meno controllabi­ li, guardiamo agli approcci tipicamente mediaeducativi, che fanno leva sulla maturazione di consapevolezza critica e sulla condivisione della responsabilità educativa e sociale, senza per questo sottostimare, ovviamente, l’importanza di fattori di più vasta portata legati alla governance e alla rcgulation, che in questo campo rimangono necessari. La proposta di percorsi di alfabetizzazione critica nell’ambito dell’IA, come avviene attraverso questo volume, riflette questa istanza e conferì-

sce concretezza all’idea di promuovere una visione critica e responsabile su questi temi. Le specifiche implicazioni di questa impostazione saranno sviluppate nel corso dei prossi­ mi capitoli, in particolare nel capitolo 4 per la lettura critica e nel capitolo 5 per la prospettiva etica e pedagogica, che risulta fondamentale quando si considera la relazione tra bambini e sistemi di ia. Tornando alla letteratura sul rapporto fra bambini e tecnolo­ gie, esiste una vasta e approfondita produzione che si declina in modo diverso a seconda dei contesti, ad esempio la scuola (Galvani, 2001; Ranieri, 2019) ola famiglia (Livingstone, Bovili, 2013), e delle prospettive di ricerca, in particolare l’educational technology o la media education (Rivoltella, Rossi, 2019). Esiste anche un corposo filone di studi che analizza i rapporti tra infanzia, adolescenza e tecnologie intelligenti, in particola­ re sull’interazione fra bambini e robot. Sono disponibili molti lavori sui cosiddetti social robot, capaci di interazioni con esseri umani; il più famoso è forse il robot Nao5, utilizzato anche per attività educative e in alcune terapie di supporto per i disturbi dello spettro autistico (Amirova et al., 2021; Saleh, Hanapiah, Hashim, 2021). È, però, da sottolineare come questi studi si

concentrino, in particolare, sulla relazione sociale ed emotiva del bambino con un artefatto antropomorfo, o zoomorfo come nel caso del cane Aibo6. Una linea di ricerca specifica riguar­ da poi il pensiero computazionale, e il coding, che da Papert in poi ha avuto grande rilievo nel dibattito sul rapporto tra i bambini e il computer: ricordiamo che nel suo volume Ibambi­ ni e il computer, pubblicato per la prima volta nel 1980, Papert sostiene che i computer siano strumenti cognitivi potenti che

5. Cfr. https://unitedrobotics.group/en/robots/nao?utm_source= aldebaran&utm_medium=referral. 6. Cfr. https://us.aibo.com/.

possono aiutare i bambini a sviluppare competenze di pensiero critico, risoluzione di problemi e creatività, come discusso nel paragrafo 2.2,1. Altrettanta letteratura non è al momento disponibile sul rapporto specifico tra infanzia, adolescenza e ia. Ciò è princi­ palmente dovuto alla repentina esplosione delle recentissime applicazioni di ia generative che pongono interrogativi non solo educativi ma anche cognitivi, sociali e relazionali. Mentre è già vivo il dibattito di come porsi, da un punto di vista educati­ vo, di fronte a un ChatGPT (cfr. cap. 4), sono ancora incognite le implicazioni di carattere sociale e affettivo. Se la letteratura scientifica sta, al momento della redazione di questo volume, consolidando i primi risultati, i principali orga­ nismi internazionali hanno già pubblicato interessanti rappor­ ti di ricerca (ai hleg, 2019; un Human Rights Office, 2021; UNICEF, 2021), evidenziando, come afferma il World Economie Forum7, che senza dubbio F1A cambierà il modo in cui i bambini interagiscono con l’ambiente circostante, compreso l’ambiente di apprendimento, gioco e sviluppo. Si segnala, in particolare, il rapporto di ricerca della Commissione europea (Charisi et al., 2022) che evidenza le indubbie potenzialità delle applicazio­ ni di ia, mettendo contemporaneamente a fuoco i principali rischi, tra cui l’esposizione dei bambini a una eccessiva datafìcation con evidenti ripercussioni sulla privacy, la mancanza di trasparenza e spiegabilità delle principali applicazioni commer­ ciali e il rischio, comune a tutte le tecnologie, di accrescere la divisione tra chi ha accesso alle tecnologie e che ne è più o meno escluso (per approfondimenti si rimanda al capitolo 5). Concludendo, per le nuove generazioni emerge non tanto la necessità di insegnare le azioni base di interazione con Fi A, che

7. Cfr. https://www.weforum.org/agenda/zozz/oi/artifìcial-intclligencechildren-technology/.

sono sempre più naturali, ma di attivare un’azione educativa per una conoscenza c un utilizzo consapevole e critico di appli­ cazioni per le quali è sempre più difficile, anche per un utente esperto e maturo, distinguere l’interazione con una macchina da quella con un altro essere umano e la genuinità e oggettività delle risposte.

2.2.

Metodi e strumenti

2.2.1. La Philosophyforchildren: un approccio maieutico alla discussione suIl'intelligenza (artificiale)

Come abbiamo visto nel capitolo i, la maggior parte delle definizioni di ia fanno riferimento a una macchina in grado di riprodurre l’intelligenza umana; un’attività educativa della dimensione conoscitiva dell’ IA non può, quindi, prescindere da una riflessione sulla natura stessa di intelligenza. Sebbene gli studi più sistematici sulla definizione di intelligen­ za possano essere fatti risalire alla seconda metà del xix seco­ lo, il concetto di intelligenza permea molte culture attraverso i secoli e, allo stato attuale delle ricerche, la definizione o anche la comprensione stessa del concetto di intelligenza risulta di estrema variabilità a seconda della prospettiva disciplinare in cui viene considerata e dipendente dal contesto storico, geogra­ fico e culturale. Se in Occidente è prevalentemente accostata ad abilità logico­ matematiche, in altre culture, ad esempio in Oriente, è più lega­ ta all’importanza di benevolenza, umiltà e competenze intrapersonali (conoscenza di sé), mentre in molte culture africane è assimilata a competenze interpersonali (capacità di mantenere relazioni) (Sternberg, 2000). Con lo sviluppo della psicologia e della psicometria, la ricerca ha tentato di unificare la definizione del costrutto di intelli­ genza. In un suo numero speciale del 1921, valido ancora ai

nostri giorni, il “Journal of Educational Psychology” richiese ai principali ricercatori del tempo una definizione di intelli­ genza. Le definizioni ottenute mostrano come sembri assente unfil rouge che le possa raggruppare sotto un unico concetto generale, come se l’intelligenza fosse un concetto intrinse­ camente multidimensionale e ogni definizione non potesse essere altro che parziale. Gli ulteriori studi si concentraro­ no in misura maggiore sulla misurazione dell’intelligenza, analizzando in particolare le abilità logico-deduttive e verba­ li, fino a quando, nel 1983, Gardner propose la sua Teoria delle intelligenze multiple e, in accordo a questa, fornì una definizione secondo la quale l’intelligenza è «un potenziale biopsicologico per elaborare informazioni» (Gardner, 1009, p. 5). Poiché le informazioni che ci giungono sono di diver­ sa natura, Gardner teorizza che non esista un solo tipo, ma diverse tipologie di intelligenza mentre i classici test psico­ metrici tendono a misurare solo alcune abilità (in particolare quella logico-matematica o linguistica) trascurandone altre (ad esempio quella cinestetica) ugualmente importanti per lo sviluppo dell’individuo. In breve, Gardner individua nove tipi di intelligenza in relazio­ ne alle diverse abilità: • logico-matematica: analizzare i problemi in modo logico­ deduttivo; • linguistica: apprendere a riprodurre e utilizzare il linguaggio; • musicale: distinguere e riprodurre modelli musicali, toni e ritmi; • spaziale : riconoscere, organizzare e operare nello spazio ; • corporeo-cinestetica: utilizzare il proprio corpo in maniera corretta; • interpersonale: provare empatia verso le altre persone ed essere in grado di lavorare in gruppo; • intrapersonale: essere consapevoli di Stessi e delle proprie emozioni;

• naturalistica: comprendere e interagire con l’ambiente; • esistenziale : riflettere sulla propria esistenza. Anche se alcune di queste sembrano legate ad abilità senso­ riali, in realtà queste sono in qualche misura indipendenti da eventuali deficit. Nei suoi studi, Gardner menziona infatti soggetti con difficoltà visive in grado di ragionare efficace­ mente in termini spaziali o soggetti con deficit uditivi che presentavano una spiccata intelligenza musicale, il che non stupisce dato che Beethoven, sofferente di disturbi all’udito fin da giovane, compose la Nona sinfonia in uno stato di quasi totale sordità. Benché la Teoria delle intelligenze multiple abbia ricevuto diverse critiche nella comunità scientifica, in particolare per ia difficoltà di essere oggettivamente misurata nel suo comples­ so, ha incontrato un grande favore, in particolare in ambito educativo, poiché in grado di fornire agli insegnanti un quadro teorico coerente e un supporto per lo sviluppo di ambienti di apprendimento compatibili con ia varietà di studenti (ibidf Quanto esposto, pur se parziale e incompleto, rende comun­ que esplicita la complessità della comprensione e della defini­ zione stessa di intelligenza (umana); di rimando, ciò ci conduce al quesito di cosa debba essere inteso come artificiale rispetto a questa, cioè quanti degli aspetti sopra esposti, e fino a che punto, debbano essere imitati da una macchina per esser consi­ derata intelligente. Per attivare negli studenti una riflessione autonoma sul concet­ to di intelligenza, sia umana che artificiale, risulta partico­ larmente adeguato l’approccio proposto dalla cosiddetta Philosophyfor children (P4C), ideata dal filosofo Lipman nel 1976. Secondo la P4C, non esiste un limite inferiore di età per porre questioni di carattere filosofico ai bambini, ma è altresì necessaria un’adeguata preparazione in termini di competen­ ze personali e di materiali proposti. La P4C presenta evidenti punti di contatto con l’Inquiry BasedLearning (ibl), teoriz­

zato da Dewey, e propone un metodo, ispirato alla maieutica socratica, in cui l’insegnante non deve porsi in una posizione trasmissiva del proprio sapere ma considerarsi come un facilitatore (o complicatore, nel senso che deve essere in grado di evidenziare le criticità del tema affrontato) del confronto tra pari attraverso il dialogo. Nonostante la P4C negli anni si sia strutturata in un corpus di pratiche e raccomandazioni, i principi di base sono facilmente applicabili. Una volta chiarito il problema oggetto di indagine, per attivare la discussione si possono utilizzare semplici mate­ riali (un breve testo, un’opera d’arte, uno spezzone di film) che rendano possibile la fecalizzazione sul tema trattato. Come è facile intuire, questo approccio si presta a essere utilizzato con efficacia in varie età evolutive, dai bambini della primaria in poi, adattando i materiali e la profondità della discussione. Le tecniche di implementazione di questa metodologia didattica possono anch’esse essere varie e adattate all’età degli alunni. Per le sue caratteristiche il circle-time può essere utilizzato in una scuola primaria, mentre per studenti di età superiore si possono introdurre strumenti digitali come il Padlet8. In ogni caso, il ruolo maieutico non deve avere come finalità la conver­ genza della discussione ma, al contrario, lasciare aperti dubbi e possibilità, sviluppando la consapevolezza della complessità del tema. La riflessione sul concetto di intelligenza appare fondante per attivare una dimensione conoscitiva sull’lA, anche in ragione del fatto che la maggior parte del dibattito filosofico non verte tanto sulla definizione di ia, che in definitiva può ridursi a un tecnicismo, ma su cosa I’ia possa essere considerata simi­ le o diversa dall’intelligenza umana. Si pensi, ad esempio, al celebre esperimento mentale della stanza cinese proposto da

8. Cfr. https://it.padlet.com/.

Searle (1980) in cui il filosofo americano nega la possibilità che si realizzi mai un ia forte (cfr. par. 2.1.1). Questo argomento ha dato interessantissimi e ancora vivi spunti di discussione al dibattito filosofico, non solo fra sostenitori dell’lA forte (o generale, cfr. Domingos, 2016) e ia debole (o ristretta) ma anche su quale possa essere considerato il confine tra meccani­ cismo e coscienza. Domande che possono essere rivolte agli studenti, anche in ragione della loro età, per attivare la discussione possono essere del tipo: • Un sasso è intelligente ? Perché ? • Un girasole è intelligente ? • Un cane è intelligente ? • Un polpo è intelligente ?9 • E più intelligente un cane o un polpo ? Per introdurre il concetto di emulazioni artificiali di capacità umane si possono proporre questioni del tipo: • Una calcolatrice è intelligente ? • Il telefonino è intelligente ? • Un computer è intelligente ? Infine, si possono stimolare riflessioni sulle differenze fra uomo e macchina e in quale campo l’uno può essere considerato migliore dell’altro attraverso stimoli del tipo: • Computer/robot: sono più veloci nei calcoli, non sbaglia­ no, non si annoiano, ricordano meglio, non si stancano, non hanno bisogno di riposo ecc.; • Umani: hanno emozioni, creatività, affetti, riescono a gode­ re il piacere del cibo, del riposo, della lettura ecc.

9. Per una dimostrazione delle capacità del polpo a risolvere problemi comp­ lessi sono disponibili sulle diverse piattaforme video notevoli e numerosi esem­ pi. Si segnala al proposito il canale YouTube Octolab TV (https://www.youtube. com/@octolabtvi 168).

2.2.2. Insegnare il pensiero computazionale: la tartaruga di Papert e il coding unplugged Quando Turingpose la questione “Le macchine possono pensa­ re?”, evidenziò l’estrema difficoltà di dare un senso a questa domanda e anche, in certo modo, la sua assurdità. Appare quin­ di più opportuno, in accordo con quanto proposto da Floridi (2022), parlare di agire digitale, sottintendendo che quanto proposto da una macchina non sia frutto di una intelligenza, come discussa nel paragrafo precedente, ma piuttosto di un agire intelligente, ovvero di una serie di azioni che imitano, per ricongiungersi a quanto proposto da Turing, l’intelligenza umana. Come illustrato nel paragrafo 2.1.1, i computer operano su due soli simboli che permettono di effettuare sia operazioni aritme­ tiche che logiche ovvero, senza entrare in dettagli tecnici, essi sono in grado di operare scelte in base al valore (vero/falso) di un bit: se

[il risultato di una operazione è vero] allora [svolgi operazione A] altrimenti [svolgi operazione B]

Questa sequenza, per quanto meccanica, può fornire risultati e spunti di riflessione molto interessanti. Consideriamo ad esem­ pio un semplice gioco in cui ci sono undici fiammiferi su di un tavolo e due giocatori che, a turno, ne raccolgono uno, due o tre. Vince chi obbliga l’avversario a raccogliere l’ultimo fiammifero (Aguzzi et al., 1976). Se giochiamo per la prima volta con un altro essere umano, immaginiamo a distanza tramite lo schermo di un computer, grosso modo le vincite si distribuiranno in maniera approssima­ tivamente uniforme tra noi e il nostro avversario. Supponiamo, però, di fornire al nostro avversario (chiamiamolo A, cui spetta la prima mossa, mentre noi saremo B) le seguenti istruzioni:

i. Raccogli due fiammiferi z. Fai giocare B 3. se [i fiammiferi sono finiti] allora [haivinto!!!] altrimenti [esegui l’istruzione “4”] 4. se [B ha raccolto un fiammifero] allora [eseguii’istruzione “5”] altrimenti [eseguii’istruzione“6”] 5. Raccogli due fiammiferi ed esegui l’istruzione “2” 6. se [B ha raccolto due fiammiferi] allora [eseguii’istruzione “7”] altrimenti [esegui l’istruzione “8”] 7. Raccogli due fiammiferi ed esegui l’istruzione “1* 8. Raccogli un fiammifero ed esegui l’istruzione “z” Con questa sequenza di operazioni il nostro avversario vincerà sempre, almeno quando avrà la prima mossa, purché segua le istruzioni secondo la sequenza prospettata e in modo corretto. Possiamo immaginare che dopo un po’ il nostro avversario si annoi e faccia eseguire le istruzioni a una macchina che, date le circostanze, sarebbe sempre vincente. In questo caso noi, dall’altra parte dello schermo del PC, non saremo in grado di distinguere se la partita è giocata da un avversario umano o da una macchina. Per quanto questa macchina, a un osservatore esterno, possa apparire assai poco intelligente in quanto limi­ tata a eseguire pedissequamente una serie di istruzioni, a noi, ignari della procedura, potrebbe apparire un avversario parti­ colarmente capace e dotato. Questo esempio, per quanto semplice, tratteggia però alcuni aspetti fondamentali che sono alla base del dibattito sull’intel­ ligenza artificiale. Il primo è quello dell’imitazione. Non possiamo definire questa macchina intelligente, almeno nel senso della prece­ dente discussione del paragrafo 2.2.1, possiamo però dire che - almeno limitatamente a questo esempio - espone delle catar­

teristiche di un agire intelligente poiché il suo comportamento appare simile a quello di un essere umano che applichi la sua intelligenza a questo gioco. Il secondo evidenzia come alcune caratteristiche esteriori dell’agire intelligente possano essere ottenute per via algorit­ mica ovvero tramite un «procedimento meccanico tale che sia possibile ottenere il risultato con la semplice esecuzione di un insieme di istruzione senza che necessariamente l’esecutore conosca il problema e la sua natura» (ivi, p. 16). È ovvio che, se l’esecuzione della procedura è meccanica, la

formulazione della procedura, ovvero deU’algoritmo, non lo è e richiede la definizione di passi che spesso, per l’essere umano, risultano istintivi e/o di diffìcile formalizzazione (Cormen, 2022). In questa zona di confine fra intelligenza, agire intelligente, pensiero logico-deduttivo e procedimento meccanico si collo­ ca il pensiero computazionale. Il concetto di pensiero compu­ tazionale è stato espresso per la prima volta da Papert ed è stato formalizzato dall’informatica Wing, che lo definì come «il processo di pensiero che consiste nel formulare i problemi e le loro soluzioni in modo da rappresentarli in una forma che possa essere efficacemente utilizzata da un agente che elabora informazioni» (Cuny, Snyder, Wing, 2010). Il pensiero computazionale è alla base del coding, vale a dire del linguaggio con cui l’uomo comunica con la macchina, ma in realtà ha un respiro più ampio in quanto propone una strategia per risolvere situazioni più o meno complesse. L’applicazione della didattica del pensiero computazionale. Inserita in un contesto ài gamification, in particolare per gli studenti più giovani, può essere sfruttata per far comprendere come una macchina/>^5^ (o meglio agisce, come suggerisce Floridi, 2.022) e, al tempo stesso, quali sono i limiti che una macchina può incontrare nell’applicazione di un algoritmo c di quale intelli­ genza dovrebbe essere fornita per superarli.

Infatti, quando una macchina ha a che fare con enormi quantità di dati, spesso eterogenei, le criticità dell’applicazione di proce­ dure computazionali diventano evidenti (cfr. par. 3.1.1). Nel mondo reale, i dati hanno un elevato carico di ambiguità - si pensi a quella già citata di una grafia manoscritta rispetto a quel­ la tipografica - per cui si rende necessario un approccio diver­ so da quello appena descritto. Per esempio, possiamo pensare alla richiesta di ordinare, da cuori a picche e dall’asso al re, un mazzo di 52 carte. Una classica procedura, dal nome di bubble sort prevede di seguire esattamente un ordine di istruzioni in modo che, data una carta, la si inserisca fra le precedenti in base all’ordine desiderato. Questa procedura risulta molto efficien­ te, ma è più probabile che noi esseri umani preferiremmo spar­ pagliare le carte su di un tavolo per poi iniziare a raggrupparle a occhio secondo i pattern che ci si possono presentare e, in seguito, affinare l’ordinamento. La prima tecnica è quella tipica di un algoritmo meccanico alla base di un programma per computer, mentre la seconda è molto vicina a come si comportano gli algoritmi per l’iA e, in particolare, il ml in grado, come abbiamo visto nel para­ grafo 2.1.1, di apprendere autonomamente alcuni pattern (cfr. par. 4.1.2). Per concludere sottolineiamo due aspetti. Il primo è che una procedura algoritmica può esistere come completa astrazione - come il precedente bubble sort, che è una procedura genera­ le -, mentre I’ia non può fare a meno dei dati, perché è su questi che apprende e raffina le proprie risposte. Per questo motivo il concetto del dato è di fondamentale importanza e verrà ampia­ mente trattato nei capitoli successivi. Il secondo è che, in ogni caso, anche 1’ ia, essendo implementata su dei computer, ha necessità di istruzioni che la macchina deve eseguire e, in questo senso, il pensiero computazionale, lungi da perdere la sua importanza pedagogica, risulta fondamentale per comprendere il dialogo fra l’uomo e la macchina.

Come avvicinare bambini e adolescenti al pensiero computa­ zionale, facendo leva sulle sue valenze formative ? Sicuramente ci può ispirare il lavoro di Papert, il quale, oltre a essere stato un grande matematico e informatico, viene anche considera­ to un pedagogista. Com e noto, Papert è l’ideatore del LOGO, uno strumento realizzato, a partire dal 1967 (Solomon, 2020), per insegnare ai bambini a dialogare con il computer. È infatti

un linguaggio di interazione con la macchina, adatto ai prin­ cipianti e, in particolare, ai bambini che Papert (1994, p. 9) considerava animati da una «durevole relazione d’amore col computer». LOGO ha conosciuto un successo planetario con la cosiddetta tartaruga di Papert (2002), un vero e proprio ambiente di programmazione visuale, in grado di concretiz­ zare attraverso semplici sequenze di istruzioni lo spostamen­ to di un oggetto da un punto all’altro di un piano geometrico. Successore di LOGO è Scratch, un’evoluzione graficamente più accattivante e semplice da usare, anche se questa semplificazio­ ne grafica può comportare delle carenze in termini acquisitivi (Formiconi, 2018). Su LOGO e le sue applicazioni derivate esiste una vastissima lette­ ratura (Bossuet, 1982; Pian, 2000; Capponi, 2009; Boglioló, 2018; Rivoltella, 2020) e una grande quantità di risorse educa­ tive aperte, anche online e in italiano10. Per quanto entrambi i prodotti siano molto semplici e adatti a ogni classe di età, possono richiedere delle preconoscenze, in particolare la rela­ zione con il computer, ancora non in possesso di alcuni bambi­ ni. Per questo motivo, in funzione preparatoria, proponiamo un’esperienza informatica alternativa che può essere realizza­ ta senza l’utilizzo di una macchina, quello che viene definito coding unplugged (Chen et al., 2023). Si tratta di tracciare un

io. Per LOGO, ad esempio https://www.blia.it/logo/jslogo/. Per Scratch https://scratch.mit.edu/.

percorso, anche a ostacoli, su di una scacchiera o sul pavimento dell’aula, e di chiedere ai bambini di raggiungere l’obiettivo, utilizzando tre sole mosse: “vai avanti”, “vai a destra”, “vai a sinistra”. Una volta che i bambini hanno indicato le mosse nell’ordine che ritengono corretto, ad esempio su alcune sche­ de, queste vengono consegnate a un altro bambino (il robot) che le deve seguire nell’ordine dato11. Nel caso in cui un’istru­ zione sia sbagliata e conduca il robot in un vicolo cieco, oppure l’insegnante frapponga un ostacolo non previsto inizialmente, si può attivare una discussione sul fatto di come una macchi­ na sia limitata in caso di istruzioni sbagliate e anche di come potrebbe fare a essere intelligente per superare l’ostacolo; in questo caso, potrebbe essere necessaria l’introduzione di una nuova istruzione, “torna indietro”, per consentire di usci­ re dalla imprevista situazione di stallo, evidenziando quindi la necessità di dover ampliare il set di istruzioni con cui interagire con la macchina al crescere della complessità degli obiettivi.

ii. Esempi di utilizzo di questa attività, oltre ad alcune risorse educative in italiano, si possono trovare sul sito http://www.codeweek.it/cody-roby/.

3. La dimensione operativa Usi e applicazioni

3.1. Temi e problemi

3.1.1. Dalle istruzioni ai dati: verso il ML La storia dell’intelligenza artificiale, come abbiamo spiegato nel capitolo precedente, ha visto l’alternanza di entusiasmi e “inverni”, ed è stata attraversata da confronti anche accesi che ne hanno plasmato il campo nel corso degli anni. Uno dei dibat­ titi più influenti in questa storia è stato quello tra i sostenitori dell’approccio simbolico (noto come “Good Old-Fashioned Artifìcial Intelligence” o gofai) e quelli dell’approccio subsim­ bolico (o delle reti neurali), avvenuto verso la fine degli anni Sessanta (Boden, 2019). Fra i sostenitori dell’approccio simbo­ lico, si collocavano pensatori come Papert e Minsky, che guar­ davano all’iA attraverso le lenti della logica e della rappresen­

tazione simbolica, basata sull’esplicitazione della conoscenza, codificata attraverso simboli e regole chiaramente definiti.

Questi simboli e regole, spesso creati da esperti di dominio, sono utilizzati per dedurre nuove informazioni attraverso processi logici, organizzati in moduli o unità discrete, che permettono una specializzazione del pensiero. Una delle principali forze di questo approccio è la sua trasparenza: la chiarezza con cui la conoscenza è rappresentata rende questi sistemi facilmente interpretabili (Russell, Norvig, 2009). Fra i fautori dell’approc­ cio subsimbolico si posizionavano i sostenitori delle reti neurali (fra i tanti Rumelhart, Hinton, Williams, 1986), i quali, ispirati dalla psicologia e dalla biologia, ritenevano che l’intelligenza

potesse emergere da processi più somiglianti al funzionamento a basso livello del cervello umano, enfatizzando l’importan­ za dell’apprendimento dai dati. A differenza dell’approccio simbolico, dove la macchina deve essere programmata espli­ citamente, un sistema basato su reti neurali “impara” ricono­ scendo modelli nei dati con la capacità di migliorare e adattarsi dinamicamente attraverso l’esperienza. Anche l’elaborazione delle informazioni avviene in modo diverso: se nell’lA simbo­ lica le informazioni sono elaborate in modo sequenziale, le reti neurali elaborano l’informazione in parallelo, ispirandosi al funzionamento dei neuroni biologici (McCulloch, Pitts, 1943; McClelland, Rumelhart, Hinton, 1986). Entrando nel merito di una delle questioni dibattute, possiamo in particolare ricordare le pagine di Perceptrons (1969), opera di Minsky e Papert, nata per valutare le proprietà e i limiti del

percettrone1, ossia del modello di rete neurale monostrato proposto da Rosenblatt (1962). La loro critica principale era relativa alla limitazione dei percettroni a strato singolo, sottoli­ neando che tali semplici modelli neurali erano intrinsecamente limitati nella loro capacità computazionale, e non erano inoltre in grado di risolvere alcuni tipi di funzioni logiche fondamenta­ li, quale la xor. In altre parole, sebbene i percettroni offrissero un nuovo approccio all’apprendimento e all’adattamento dei modelli, non erano la panacea per tutte le sfide computaziona ­ li. Questo lavoro minò alla base la fiducia che le reti neurali si erano conquistate fino ad allora, dando luogo a una delle nume­ rose querelle suII’ia (Boden, 2019). Minsky e Papert hanno,

1. Il percettrone è uno dei primi tipi di classificatore binario, proposto da Frank Rosenblatt nel 1958 come un’entità con uno strato di ingresso e uno di uscita, e una regola di apprendimento basata sulla minimizzazione dell’errore, la cosiddetta funzione di retropropagazione dell errore che, in base alla valutazio­ ne sull’uscita effettiva della rete rispetto a un dato ingresso, altera i pesi delle connessioni come differenza tra l’uscita effettiva e quella desiderata.

poi, ulteriormente contrapposto queste limitazioni alla versa­ tilità dell’iA simbolica che, con i suoi sistemi basati su simboli e regole, dimostrava un’ampiezza e una profondità di risoluzione dei problemi che i percettroni, nella loro forma corrente, non potevano eguagliare. Questi due approcci, simbolico e subsimbolico, hanno gene­ rato anni di dibattiti e confronti e, anche se in questo capitolo ci soffermeremo sul secondo - per i motivi che vedremo più avanti nel paragrafo -, non sarebbe corretto pensare a uno degli approcci come meno importante dell’altro o superato. Nel corso del tempo, infatti, la comunità di studiosi ha compreso che entrambi gli approcci hanno i loro meriti e che possono essere complementari (jbid.}\ gli approcci definiti ibridi, che combinano la rappresentazione simbolica con l’apprendimen­ to profondo, basato su elementi subsimbolici, stanno emergen­ do come soluzioni particolarmente promettenti per affrontare le sfide dell’iA nei suoi sviluppi più recenti. La concomitanza di alcuni fattori quali l’aumento del potere computazionale che ha permesso la realizzazione di reti neurali più complesse, la mole di dati crescente, la rinnovata attenzione, con conseguenti finanziamenti, di importanti stakeholder, con la complicità dei limiti che l’approccio per istruzioni esplici­ te ha mostrato di fronte alla complessità di alcuni dei compiti demandati all’iA (si veda più avanti nel seguito), hanno visto a partire dagli anni Duemila quella che viene definita la «resur­ rezione» delle reti neurali (ivi, p. 116). Come abbiamo accennato nel paragrafo 2.2.2, quando ci si confronta con dati vasti e articolati, come un testo non struttu­ rato, immagini complesse da classificare o flussi di dati in tempo reale, l’elaborazione sequenziale e algoritmica, tipica dell’ap­ proccio computazionale, può risultare inefficiente e limitante di fronte alla complessità e all’incertezza presenti in tali dati. Gli ostacoli che questa prospettiva si trova davanti nell’elabo­ razione di ampie moli di dati sono molteplici (Russell, Norvig,

2009)* In primo luogo, una simile elaborazione comporta tempi e risorse notevoli; l’analisi di grandi volumi di dati può, infatti, presentare la necessità di effettuare un’enorme quan­ tità di calcoli per cui un’elaborazione sequenziale potrebbe risultare insufficiente per sostenere simili carichi di operazio­ ni. In secondo luogo, l’approccio computazionale potrebbe incontrare difficoltà nell’affrontare la natura non strutturata dei dati complessi. Infatti, l’analisi di tali dataset presuppone un allargamento del campo di studio, in modo da abbracciare anche la comprensione del contesto, delle relazioni semantiche e delle sfumature linguistiche, nel caso ci si trovi ad affrontare, ad esempio, delle elaborazioni testuali. Infine, il set di istruzioni fornito con questo approccio potrebbe non essere in grado di risolverne gli aspetti di incertezza e di variabilità. Spesso, i dati reali contengono rumore, variazioni e ambiguità, che richiedo­ no un’elaborazione più sofisticata. In casi del genere, l’approc­ cio computazionale rischia di rivelarsi non sufficientemente adattabile e flessibile, limitando così la sua capacità di modellare e di comprendere le zone d’ombra. Tutto questo induce a pensare che, per costruire sistemi di ia capaci di interagire in modo efficace con il mondo reale, rispon­ dere a nuovi problemi e migliorare continuamente le proprie prestazioni, abbiamo bisogno di una prospettiva diversa: un approccio data driven che consenta ai sistemi di ia di “appren­ dere” da dati non strutturati e semistrutturati, adattandosi dinamicamente a situazioni inedite. Per questo motivo è sotto gli occhi di tutti come negli ultimi anni i dati abbiano assunto un’importanza via via crescente nell’or­ ganizzazione delle attività di produzione e scambio, a un punto tale da essere considerati un bene valutabile economicamente. Infatti, grazie agli avanzamenti nell’ambito delle tecnologie dell’informazione e della comunicazione, varie organizzazioni hanno iniziato a raccogliere dati di qualsiasi tipo, a elaborarli in tempo reale per migliorare i processi decisionali e a memo­

rizzarli in maniera permanente al fine di poterli riutilizzare in futuro o di ricavarne nuova conoscenza. La creazione di dati sta seguendo un processo di crescita esponenziale: nell’anno 2018 il volume totale dei dati creati nel mondo è stato di 28 zettabyte1 (ZB), registrando un aumento dieci volte superiore rispetto al 2011, ma si prevede che entro il 2025 il volume complessivo dei dati arriverà a 163 ZB5. Per quanto riguarda invece il crescente valore economico dei dati, l’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano2 34 attribuiva loro un valore complessivo - nel 2018 - di 1,4 miliardi di euro, con un incremento annuo del 21%. Naturalmente i dati, considerati in modo isolato, appaiono poco significativi, ma acquistano importanza se organizzati. Per tale ragione, riveste un ruolo centrale nella filiera dei dati la fase dell’elaborazione, che comporta l’organizzazione dei dati grez­ zi in informazioni passibili di essere interpretate e utilizzate. Per l’analisi si ricorre perlopiù ad algoritmi, tra i quali in particolare quelli di apprendimento, ossia quelli che puntano all’estrazio­ ne di nuova conoscenza avvalendosi di tecniche avanzate di ia come il ml. Con tali algoritmi si creano modelli5 che hanno la caratte­ ristica di essere volatili, cioè variabili nel tempo, sia perché mutano le condizioni di riferimento (i dati di base cambiano continuamente) sia per renderli sempre più precisi, ma anche per dotarli di una certa libertà di comportamento, consenten­ do alle macchine di analizzare in autonomia enormi quantità

2. 1 zettabyte è pari a un miliardo di gigabyte. 3. Indagine conoscitiva sui Big Data dell'Autorità garante della concorrenza e del mercato - agcm - del 1017-18. 4. Comunicato stampa dell’ 11 dicembre 2018. 5. Il termine “modello” è da intendersi nell’accezione utilizzata in contesti di ia come il risultato di un addestramento di ml che determina le prestazioni di un’applicazione di ia (cfr. par. 2.1.1).

di dati, scoprendo spesso pattern e correlazioni nascoste al loro interno. Oltre alla quantità, anche la qualità dei dati svolge un ruolo importante nell’ ia. Soprattutto nei casi in cui la quantità di dati non sia particolarmente elevata, avere dati accurati, completi e rappresentativi è essenziale per garantire la possibilità che i modelli di ia siano in grado di apprendere in modo efficace e fornire risultati affidabili. La qualità dei dati dipende da diverse variabili, come la fonte, il processo di raccolta, l’annotazione e la loro pulizia. È fondamentale adottare metodologie e pratiche rigorose per assicurarsi che i dati utilizzati siano affidabili, privi di errori e rappresentativi della realtà che si intende modella­ re, pena il rischio di incappare nel propagarsi di bias (per una definizione di bias e per un approfondimento si rimanda al par. 3.1.2). Abbiamo visto che i dati nell’1 a non sono statici, ma dinamici. L’ia, infatti, può richiedere un aggiornamento continuo per mantenere i modelli allineati con i cambiamenti nel mondo reale. Pertanto, la gestione e l’aggiornamento dei dati risulta­ no parte integrante del ciclo di vita dell’1 A, per consentire ai sistemi intelligenti di rimanere adattabili e allineati con l’evo­ luzione dei contesti in cui operano. L’approccio data driven è alla base di due importanti campi dell’lA: il ml e il DL, che si basano sull’utilizzo estensivo dei dati per “insegnare” ai siste­ mi come svolgere compiti, ma lo fanno in modi sensibilmente diversi (ibid.). Il ml è una branca dell’intelligenza artificiale che si basa sull’i­ dea che i sistemi possono apprendere dai dati, identificare schemi e prendere decisioni con il minimo intervento umano. Questo campo di studio si situa all’incrocio tra l’informatica, la statistica e l’ingegneria dei dati, e rappresenta la forza motrice di molte delle attuali innovazioni tecnologiche, dai sistemi di raccomandazione personalizzati ai veicoli autonomi. Il termine ml si riferisce quindi alla capacità di un sistema di migliorare le

proprie prestazioni nel tempo. Come accennato nel paragra­ fo 2..1.1, l’apprendimento del sistema, in maniera analoga all’ap­ prendimento umano, avviene attraverso l’esperienza. I sistemi di ml ‘apprendono” da enormi quantità di dati. Inserendo questi dati nel sistema, il modello può identificare schemi, imparare da essi e utilizzarli per fare previsioni o prendere decisioni senza essere esplicitamente programmato per farlo. Ci sono tre tipi principali di ML: l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimen­ to per rinforzo, ciascuno dei quali si basa su diversi principi e metodologie (ibid.). Vediamoli nel dettaglio. L’apprendimento supervisionato (as) è il tipo più comune di ML. In questo caso, il modello viene addestrato su un set di dati etichettati, ovvero dati per i quali già conosciamo l’output desiderato. L’obiettivo è che il modello possa “imparare” la relazione tra gli input (le caratteristiche) e l’output (l’etichet­ ta), e applicare successivamente questa conoscenza a nuovi dati non etichettati. La classificazione, in cui si intende assegnare un’etichetta a un’osservazione, e la regressione, in cui si cerca di prevedere un valore continuo, rientrano in questa categoria. Un modello esemplificativo di ml supervisionato potrebbe essere il suo addestramento su un ampio dataset di immagini di animali definite dalle rispettive specie. In questo caso, il model­ lo utilizzerebbe queste informazioni per imparare a riconosce­ re le caratteristiche distintive di ciascuna specie e, successiva­ mente, potrebbe utilizzarle per classificare nuove immagini di animali con un alto grado di precisione (Bishop, 2.006). Nel caso dell’apprendimento non supervisionato (ans), invece, il modello viene esposto a dati non etichettati e il suo compi­ to è identificare strutture e schemi all’interno di questi dati. Il clustering, in cui si cerca di raggruppare osservazioni simili, e la riduzione della dimensionalità, in cui si cerca di semplifica­ re i dati senza perdere informazioni importanti, appartengono a questa categoria. Un esempio tipico è la segmentazione del

cliente nell’ambito del marketing, in cui si raggruppano i clienti in segmenti distinti sulla base delle caratteristiche emerse dal loro comportamento di acquisto. Infine, l’apprendimento per rinforzo (ar o reinforcement learntng) è un tipo di apprendimento automatico, in cui un agen­ te6 impara a prendere decisioni basandosi sull’interazione con l’ambiente. Lo scopo dell’agente è quello di massimizzare una qualche nozione di ricompensa cumulativa. In dettaglio, l’agente compie azioni in un ambiente per raggiungere un obiettivo. Per ogni azione, l’agente riceve un feedback dall’am­ biente, che può essere positivo (una ricompensa), se l’azione lo avvicina all’obiettivo, o negativo (una punizione), se l’azione lo allontana. L’agente apprende una strategia opolicy, ossia una mappatura da stati ad azioni, che massimizza la somma delle ricompense future. L’ar è guidato da exploration ed exploitation. Nella fase di esplorazione, l’agente compie azioni casuali per scoprire informazioni non note sull’ambiente. Nella fase di exploitation, l’agente utilizza le informazioni apprese per prendere la decisione che sembra essere la migliore. Un aspet­ to fondamentale dell’AR consiste nel trovare un equilibrio tra l’esplorazione di nuove azioni e lo sfruttamento delle azioni già connotate come utili. Un esempio classico è l’allenamento di un computer a giocare a scacchi. Il computer (l’agente) prende una decisione (fa una mossa), riceve una risposta dall’ambien­ te (il suo avversario fa un’ulteriore mossa) e una ricompensa (vince, perde o pareggia la partita). L’obiettivo del computer è imparare una strategia che massimizzi la sua probabilità di vincere il gioco. Come abbiamo accennato, un sottocampo importante del ML è l’apprendimento profondo, anch’esso basato sulle reti neura-

6. In informatica un “agente” è un programma o un sistema software proget­ tato per eseguire azioni in modo autonomo o scmiautonomo,

li artificiali. Queste reti possono imparare e migliorare le loro performance attraverso una procedura chiamata backpropagation, che regola i pesi delle connessioni neurali sulla base dell’errore tra l’output previsto dal modello e quello reale, e sono composte da molteplici strati, chiamati anche layer di nodi o di neuroni^ ciascuno dei quali può elaborare informazioni e passar­ le ai nodi del livello successivo (Jordan, Mitchell, 2015). Le reti neurali con molti layer (da qui il termine “profondo”) sono in grado di apprendere modelli complessi dai dati, richie­ dendo però, oltre a sofisticati modelli matematici, elevatissime potenzialità di calcolo (Russell, Norvig, 2009). Come accenna­ to nel paragrafo 2.1.1, mentre un modello di ml standard neces­ sita di un preliminare intervento umano che evidenzi gli aspetti dei dati su cui concentrarsi, i modelli di DL possono automati­ camente determinare quali caratteristiche sono importanti per ottenere i risultati desiderati. Questa capacità ha permesso al DL di ottenere risultati impressionanti in una serie di applicazioni, dalla generazione di immagini al riconoscimento vocale, dalla traduzione automatica alla guida autonoma. Infine, in rela­ zione ai più recenti sviluppi, come evidenziato nel capitolo 2, si menziona dal 2014 l’ascesa delle gai (Goodfellow, 2014). A causa della loro complessità non entreremo nei dettagli tecni­ ci delle gai, la cui descrizione esula dagli obiettivi di questo lavoro, piuttosto ci soffermeremo sugli effetti della capacità di questi modelli di apprendere in modo automatico (cfr. CAP. 4) e sulle questioni etiche riguardo al loro uso e impatto (cfr. cap. 5). 3.1.2. Principali tipologie applicative di intelligenza artificiale

L’ia sta trasformando il nostro mondo in modi che pochi avrebbero potuto prevedere. Dai sofisticati algoritmi di appren­ dimento automatico che alimentano i motori di ricerca ai siste­ mi di ia che pilotano prototipi di veicoli autonomi, la ia è ormai onnipresente. Eppure, nonostante la sua ubiquità, non

tutte le applicazioni della ia sono uguali. Le sue manifestazioni possono essere raggruppate in diverse categorie, ciascuna con le sue peculiarità e sfide. In questo paragrafo, esploreremo le principali tipologie appli­ cative della ia, categorizzate in base al loro utente finale, siano essi programmatori di applicazioni di ia, professionisti che si avvalgono dell’iA per il loro lavoro o cittadini che utilizzano, spesso in modo non consapevole, Lia nella vita quotidiana. Questa suddivisione permetterà di comprendere meglio come I’ia venga applicata in diversi contesti e per diverse finalità, e ci aiuterà a riflettere sulla portata e F impatto di questa tecnolo­ gia. Nella seconda parte del paragrafo saranno approfondite le applicazioni focalizzate alFambito educativo. • Applicativi di ia per programmatori*, questa categoria inclu­ de gli strumenti e le piattaforme che i programmatori utilizza­ no per sviluppare e implementare soluzioni basate sull’iA. Comprende librerie open source e framework per l’apprendi­ mento automatico, come TensorFlow, Keras e PyTorch (Belli­ ni, Guidi, 2.022), piattaforme per l’elaborazione dei dati e la creazione di modelli, come Google Cloud ai, aws SageMaker e Azure Machine Learning, e servizi che offrono funzionalità di ia pronte all’uso, come Google Cloud Vision e IBM Watson. L’obiettivo principale di questi strumenti è aiutare i program­ matori a semplificare lo sviluppo di soluzioni basate sull’iA, permettendo loro di concentrarsi sulla risoluzione dei proble­ mi piuttosto che sulla creazione da zero di algoritmi di appren­ dimento automatico. I requisiti principali per l’utilizzo di questi applicativi sono la conoscenza di linguaggi di program­ mazione, la familiarità con i concetti dell’lA e del ml, mentre le principali sfide sono legate alla necessità di conciliare il biso­ gno di stare al passo con il rapido sviluppo della tecnologia e quello di assicurare trasparenza, robustezza e affidabilità, permettendo agli sviluppatori di affrontare problematiche quali gestione dei bias nei dati di addestramento, mancanza di

trasparenza nei modelli di ml, rischi relativi alla privacy a causa dell’uso inappropriato dei dati. • Applicativi di iaperprofessionisti', questa categoria include le soluzioni che utilizzano I’ia per migliorare la produttività e l’efficienza dei professionisti nei vari settori d’impiego. Gli esempi comprendono strumenti per l’analisi e la visualizzazio­ ne dei dati che utilizzano I’ia per rilevare modelli e tendenze (ad esempio Tableau, Oracle, Azure, Power Bl), assistenti virtuali che aiutano a gestire l’agenda e l’automazione dei processi (ad esempio Siri, Google Assistant, Alexa), software per la generazione o il ritocco di immagini (ad esempio Photo­ shop, Canva, Midjourney). Avendo come obiettivo principale l’effìcientamento dei processi, questi strumenti sono in grado di trasformare radicalmente il modo in cui i professionisti svol­ gono il loro lavoro, liberando tempo per compiti più strategici e creativi. Le barriere all’accesso di questi applicativi sono la necessità di una conoscenza di base dell’lA e dei suoi meccani­ smi, che richiedono una formazione continua e la capacità di applicare gli strumenti nel contesto del proprio lavoro superan­ do la tipica resistenza al cambiamento. I principali rischi sono relativi a decisioni prese sulla base di previsioni che potrebbero essere erronee o compromesse da bias, potenziali violazioni della privacy dei clienti o perdite di dati sensibili e la derespon­ sabilizzazione del giudizio. • Applicativi di ia per cittadini: questa categoria di ia include tutte quelle applicazioni che possono essere usate direttamente dai cittadini nella loro vita quotidiana e può comprendere un’ampia varietà di strumenti e servizi. Gli assistenti vocali intelligenti, come Siri, Alexae Google Assistant, utilizzano I’ia per comprendere i comandi vocali e rispondere in modo coerente. Le raccomandazioni personalizzate sui servizi di stre­ aming, come Netflix e Spotify, utilizzano I’ia per analizzare le preferenze degli utenti e suggerire contenuti affini ai loro gusti. Le applicazioni per il monitoraggio della salute personale

possono utilizzare Via per analizzare i dati e suggerire piani di esercizio o di dieta personalizzati. I sistemi di navigazione intel­ ligente, come Waze e Google Maps, utilizzano Pia per analiz­ zare i dati del traffico in tempo reale e proporre il percorso più veloce. L’obiettivo di queste applicazioni è rendere la vita quotidiana più semplice e più efficiente, fornendo strumenti che possono aiutare in molteplici aspetti. Le competenze richieste sono tendenzialmente ridotte al minimo (cfr. PAR. 2.1.2), essendo limitate a una generica capacità di utilizza­ re le tecnologie digitali, anche se la semplicità d’uso di queste applicazioni ia non risolve rischi relativi alla privacy e alla sicu­ rezza dovuti all’uso incontrollato dei dati, alla mancanza di trasparenza e interpretabilità. L’uso di questi applicativi, come abbiamo accennato, presenta sfide e opportunità che vanno considerate per una operatività efficace e sicura. Ne richiamiamo alcune brevemente, riman­ dando ai capitoli successivi per ulteriori approfondimenti. Una prima criticità è costituita dai bias presenti nei dati e dalla loro gestione. I bias sono una sorta di “stortura” che può insi­ nuarsi nella fase di raccolta e selezione dei dati o nel processo di etichettatura che può portare a una rappresentazione distor­ ta o parziale della realtà, influenzando i risultati ottenuti dai modelli (Barocas et al., 2017; Perrotta, 2022). Ad esempio, se i dati utilizzati per addestrare un modello di riconoscimento facciale sono sbilanciati in termini di etnia o genere, il modello potrà assumere un comportamento discriminatorio. Affrontare i bias presenti nei dati richiede perciò un’attenta valutazione della qualità e della rappresentatività dei dati utilizzati, nonché l’adozione di strategie di mitigamento, attraverso l’uso di dataset bilanciati e l’applicazione di tecniche di debiasing. Un’altra criticità solitamente evocata consiste nel difetto di privacy provocato dall’aumento della quantità di dati, spesso di natura sensibile e raccolti in maniera più o meno trasparen­ te, e utilizzati dall’lA (UNESCO, 2O2ia; 2O2ib). La tutela della

privacy, infatti, è cruciale per garantire che le informazioni personali e sensibili siano trattate in modo appropriato. Ciò implica il necessario riferimento al rispetto delle leggi sulla privacy e alla messa in atto di misure di sicurezza per proteggere le informazioni da accessi non autorizzati. Da qui la necessità di rendere partecipi gli utenti sulle pratiche di gestione e ottenere il loro consenso per fuso dei dati personali (ai hleg, 2,019). Come vedremo nel capitolo 4, un ulteriore elemento di possibile opacità è dato dalla interpretabilità dei modelli di ia. Infatti, spesso i processi di ml possono essere considera­ ti “scatole nere” in grado di fornire risultati accurati, ma non un’altrettanto chiara spiegazione circa i motivi delle decisioni prese. Questa mancanza di trasparenza può sollevare preoc­ cupazioni in termini di responsabilità, etica e fiducia ( Jobin, lenca, Vayena, 2,019). È fondamentale, quindi, sviluppare approcci e tecniche per rendere i modelli di ia sempre inter­ pretabili e accessibili, consentendo agli utenti di comprendere come siano state prese determinate scelte e garantendo l’equità nell’uso dei dati. Anche la sicurezza dei contenuti rappresenta un aspetto non secondario, poiché i dati possono essere sogget­ ti a minacce come l’alterazione, il furto o l’utilizzo improprio (unesco, 2,O2,ia; zozib). Pertanto, diventa un compito essen­ ziale accrescere i criteri di sicurezza, adottando politiche di gestione dei dati volti a proteggere l’integrità e la riservatezza delle informazioni. La tabella 3.1 sintetizza le caratteristiche delle principali tipo­ logie applicative insieme a una descrizione degli usi e dei rischi associati. Restringendo il focus in ambito educativo, si possono indivi­ duare strumenti finalizzati alla personalizzazione dell’appren­ dimento, al miglioramento delle prestazioni degli studenti e al supporto degli insegnanti. L’UNESCO (2,o2,ia, 2,ozib) ha forni­ to una mappatura dei sistemi di ia in ambito educativo, distin­ guendo i seguenti applicativi:

tabella 3.1. Tipologie di applicazioni IA per profilo: caratteristiche,

obiettivi, sfide e rischi IA per programmatori

IA per professionisti

IA per cittadini

Definizio­ Strumenti che aiutano ne i programmatori a co­ struire, addestrare e implementare modelli dilA.

Strumenti che aiutano i professionisti a miglio­ rare la loro efficienza e produttività nel lavoro.

Strumenti che utilizza­ no l’IA per migliorare la vita quotidiana e perso­ nalizzare l’esperienza dell’utente.

Esempi di Servizi di ML in doud applicativi (Google Cloud Al, Azure Machine Learnin, Ama­ zon Sage Maker, IBM Watson), librerìe di deep learning open source (Tensorflow, Keras).

Software per la data vìsualization (Tableau) per la business intelli­ gence (PowerBI), per la generazione o il ritocco di immagini (Photo­ shop, Midjourney).

Assistenti vocali intelli­ genti (Siri, Alexa e Goo­ gle Assistant), raccoman­ dazioni personalizzate (Netflix, Spotify), applica­ zioni per il monitoraggio della salute, sistemi di navigazione intelligente (Waze, Google Maps).

Obiettivo

Semplificare e facilitare lo sviluppo di applica­ tivi anche per sviluppa­ tori non specializzati in questa disciplina.

Migliorare l’efficacia e l’efficienza dei profes­ sionisti in vari settori, fornendo strumenti che possono automatizzare o migliorare vari aspet­ ti del loro lavoro.

Rendere le attività routinarie della vita quotidia na più semplici e più ef­ ficienti, fornendo stru­ menti che possono aiu­ tare in molteplici aspetti.

Compe­ Conoscenza di linguag­ tenze ri­ gi di programmazione, chieste familiarità con concetti di IA e ML, capacità di gestire e analizzare grandi quantità di dati.

Conoscenza di base dell’IA e dei suoi bene­ fici e limiti, capacità di applicare gli strumenti di IA nel contesto del proprio lavoro.

Capacità di utilizzare le tecnologie digitali, con­ sapevolezza dei proble­ mi dì sicurezza e priva­ cy dei dati.

Sfide

Mantenere la velocità con lo sviluppo rapido della tecnologia, assicu­ rando trasparenza, ro­ bustezza e affidabilità.

L’implementazione nel settore esistente, la re­ sistenza al cambiamen­ to, la necessità di for­ mazione continua.

La privacy e la sicurezza dei dati, la mancanza di consapevolezza nella comprensione dell’IA e dei suoi (imiti.

Rischi

Bias nei dati di adde­ stramento, mancanza di robustezza e traspa­ renza nei modelli di ML, violazione della privacy a causa dell’uso inappropriato dei dati.

Decisioni prese sulla base di previsioni che potrebbero essere erro­ nee o compromesse da bias, potenziali viola­ zioni della privacy dei clienti, deresponsabi­ lizzazione del giudizio.

Rischi relativi alla pri­ vacy e alla sicurezza dovuti all’uso incontrol­ lato dei dati, alla man­ canza di trasparenza, e interpretabilità.

• sistemi di tutoraggio intelligente', gli studenti possono trarre vantaggio da sistemi di tutoraggio che utilizzano Fi A per rendere possibile un contatto personalizzato e adattato alle proprie esigenze. Tali sistemi analizzano i dati di apprendimen­ to degli studenti, come i risultati dei test e le risposte a esercizi, e ne individuano le aree di forza e di debolezza. Inoltre, forni­ scono feedback su misura, suggerimenti di studio e risorse aggiuntive per aiutare gli studenti a migliorare le loro compe­ tenze in modo efficace; • monitoraggio continuo degli apprendimenti'. Fi a può essere utilizzata con queste finalità durante le attività di apprendi­ mento Online o in aula. Attraverso l’analisi dei dati - ad esem­ pio il tempo trascorso su una determinata attività, i modelli di interazione e i progressi raggiunti - è possibile identificare gli studenti che potrebbero essere in difficoltà o che necessitano di un sostegno aggiuntivo. Questa evenienza potrebbe consentire agli insegnanti di intervenire tempestivamente per fornire supporto personalizzato agli studenti in base alle loro esigenze individuali; • raccomandazioni di contenuti educativi'. Via può essere utilizzata per proporre allo studente raccomandazioni di conte­ nuti educativi personalizzati. Analizzando i dati sulle presta­ zioni dei discenti, le preferenze dì apprendimento e i risultati dei test, gli algoritmi di raccomandazione possono suggerire materiali aggiuntivi, risorse e attività più consoni agli interessi e alle abilità di ciascuno studente, finendo per promuove un apprendimento più coinvolgente e stimolante, adattato alle esigenze specifiche di ognuno; • valutazione automatizzata*, I’ia può essere utilizzata anche per automatizzare il processo di valutazione degli studenti. Attraverso l’analisi di risposte a domande a scelta multipla, I’ia può valutare le risposte degli studenti in modo rapido ed effi­ ciente. Ciò consente agli insegnanti di risparmiare tempo nella stesura delle valutazioni e ottenere risultati oggettivi e coerenti.

tabella 3.2. Tipologie di strumenti ed esempi di applicativi

Categoria

Descrizione

Esempi

Sistemi di tutoraggio in­ Strumenti per feedback Carnegie Learning, DreamBox Learning, Third Space telligenti. personalizzati. Learning. Strumenti di valutazione Strumenti di valutazione ExamSoft, Gradescope, Turautomatica. automatica dei compiti nitin. degli studenti.

Strumenti di rilevamento Software di analisi del ClassDojo, Netop Vision, della disattenzione. comportamento degli Proctorio. studenti.

Strumenti di personaliz­ Software che adattano il Fishtree, Knewton, Smart zazione dei percorsi di contenuto in base alle Sparrow. apprendimento. esigenze degli studenti. Sistemi di suggerimento Strumenti per arricchire Gooru, IBM Watson Discovdi risorse educative. l’apprendimento con ri­ ery, Knewton. sorse aggiuntive.

Strumenti di learning Software previsionali cir­ Civitas Learning, Eduvant, analytics. ca il successo/l’insuccesso Rapid Insight Veera. degli studenti. Software per l’apprendi­ Artefatti digitali per inse­ Al for Oceans, Al Unplugged, Cognimates, mento dell’IA. gnare I’IA. eCraftzLearn, GAN Dissection, Machine Learning for Kids, MixLab, PlushPal, Scratch, Teachable Machine.

Hardware per l’appren­ Dispositivi fisici per inse­ Alpha Dog, Anki Cozmo, Bee-Bot, Cubelets, Jibo, dimento dell’IA. gnare I’IA. LEGO MINDSTORMS, LuminAi, Pop-Bots, R0B0H0N, Robot Improv Circus, Sound Happening, Zhorai.

Inoltre, Pia può fornire feedback dettagliati agli studenti, aiutandoli a comprendere gli errori, migliorare i loro sforzi e la qualità delle singole esperienze; • identificazione dei modelli di apprendimento degli studenti'. I’ia può analizzare ì dati di apprendimento degli allievi per

identificare pattern e tendenze nelle loro abitudini di studio. Questo può aiutare gli insegnanti a comprendere meglio le capacità degli studenti e adattare di conseguenza le strategie didattiche. Ad esempio, se Via rileva che uno studente impara meglio attraverso l’apprendimento visivo, l’insegnante potrà immaginare supporti individuali diversi: materiali visivi o iniziative di attività più coinvolgenti (videogiochi, lettura di fumetti). Questi esempi mostrano solo alcune delle molteplici appli­ cazioni dell’iA nell’ambito educativo. In sostanza, si tratta di poter contare su una formazione personalizzata, in grado di tener conto delle differenze personali degli allievi (carattere, attitudine, velocità di apprendimento, vocazione ecc.). La tabella 3.2 riassume le diverse tipologie di strumenti indican­ do anche specifici esempi applicativi. 3.2. Metodi e strumenti 3.2.1. La tecnica del trial and errar per comprendere come le macchine imparano a classificare e riconoscere

Come insegnare ai propri studenti i concetti di base del ml ? In che modo facilitare la comprensione dei processi di apprendi­ mento di un modello di ia ? Una tecnica didattica utile a questo scopo è quella del trial and errory un approccio che molto si avvicina a quanto detto sulle modalità di apprendimento tipi­ che del ml. Essa si basa, infatti, sull’idea che la conoscenza sia

ottenuta attraverso cicli iterativi di tentativi, errori e correzio­ ni successive. Inizialmente studiata nel contesto dell’appren­ dimento animale, è stata poi estesa all’ambito dell’istruzio­ ne e dell’apprendimento umano. Thorndike, un pioniere in quest’area, ha descritto il trial and error come un processo di “selezione e associazione”, attraverso cui gli individui cercano di risolvere un problema mediante una serie di tentativi, sele­

zionando e associando le soluzioni che portano a un risultato positivo (Thorndike, 1911). In questo processo, fondamentali sono il feedback e il rinforzo, laddove il comportamento viene modellato attraverso le conseguenze di una determinata azione. In altre parole, gli individui apprendono attraverso l’esperienza diretta delle conseguenze delle loro azioni, che a loro volta modellano il loro comportamento futuro. Una delle principali caratteristiche di questa tecnica è la sperimentazione diretta, in grado non solo di rendere il processo di apprendimento più coinvolgente, ma anche di permettere agli studenti di sperimen­ tare il problema in prima persona. La sperimentazione diretta aiuta gli studenti a sviluppare competenze pratiche c a ricordare meglio ciò che hanno imparato, poiché il coinvolgimento atti­ vo può rafforzare la capacità di memorizzare (Howard-Jones, 2014). Oltre alla sperimentazione diretta, negli sviluppi dell’ap­ proccio trial and error gli errori hanno una valenza formativa sul piano cognitivo. Ogni errore, infatti, offre la possibilità di imparare qualcosa di nuovo. Se, da un lato, la paura di sbaglia­ re può essere un ostacolo all’apprendimento, scoraggiando gli studenti dal provare nuove strategie o idee, dall’altro, gli errori possono essere visti come un’opportunità di apprendimento, in cui gli studenti possono essere più disposti a sperimentare e a prendere rischi, favorendo una comprensione più profonda e una maggiore creatività. Inoltre, il trial and error si rivela particolarmente efficace per promuovere lo sviluppo di capacità di problem solving: inve­ ce di dare agli studenti la soluzione, l’insegnante fornisce loro il problema e li incoraggia a trovare la soluzione attraverso la sperimentazione. Infine, il metodo del trial and error favorisce l’autonomia dello studente: gli studenti non dipendono dall’insegnante per rice­ vere le risposte, ma sono stimolati a trovare le soluzioni da soli con ricadute positive sull’autostima e l’apprendimento autono­ mo. Nell’insegnamento, l’adozione della tecnica del trial and

error consente agli studenti di raffinare con gradualità le proprie abilità di discernimento e acquisire una maggiore familiarità con le categorie e i criteri necessari per fare delle distinzioni precise. Nello specifico, la tecnica del trial and error può essere utilizzata per far comprendere agli studenti in che modo le macchine impa­ rano a classificare e riconoscere. Infatti, la classificazione è un’at­ tività tipica dell’apprendimento supervisionato, dove l’obiettivo è prevedere la categoria o la classe di un’osservazione ( Witten, James, 2013). Ciò avviene attraverso algoritmi che imparano a classificare e riconoscere i pattern mediante un processo analogo al trial and error. Tali algoritmi sono alimentati da un grande numero di esempi (in cui ogni osservazione ha un’etichetta di classe conosciuta), fanno delle previsioni, e quindi correggono i loro errori sulla base del feedback ricevuto. Man mano che gli esempi aumentano, l’algoritmo si adatta e migliora, diventando sempre più preciso nel riconoscere e classificare i pattern nei dati. Un esempio di applicazione di questa tecnica è l’apprendimen­ to della classificazione dei viventi nel campo della biologia. Inizialmente si invitano gli studenti ad acquisire familiarità con le principali categorie tassonomiche: vz^Q.phylum, classe, ordine, famiglia, genere e specie. Gli studenti possono inizia­ re esaminando una serie di esempi e, cercando di classificarli, inevitabilmente commetteranno degli errori, ma ogni errore, e il conseguente feedback, sarà un’opportunità per imparare e per affinare la loro abilità di classificazione. Man mano che gli studenti progrediscono nel loro apprendimento saranno in grado di riconoscere e classificare gli organismi con maggiore precisione e confidenza. Gli strumenti che possono sostenere questo processo includono flashcard, quiz interattivi, app di apprendimento basate su giochi e attività pratiche. Ad esem­ pio, gli studenti potrebbero utilizzare le flashcard per familia­ rizzare con i diversi organismi. Un quiz interattivo potrebbe poi mettere alla prova le loro abilità di classificazione e forni­ re un feedback immediato sui loro errori, permettendo loro

di apprendere dagli stessi errori e di migliorare le loro abilità di riconoscimento. Le app di apprendimento basate su giochi possono rendere questo processo ancora più coinvolgente, utilizzando elementi di gioco per motivare gli studenti e per aiutarli a tenere traccia dei loro progressi. Di seguito, proponia­ mo un esempio di attività basata sul trial and errore finalizzata al? insegnamento dei meccanismi relativi al riconoscimento e alla classificazione. L’attività può essere adattata ai diversi livelli scolari, modificando opportunamente la complessità. “L’AI e gli oceani": classificare con il trial and error7 Attraverso questa attività gli studenti non solo imparano a ragionare su cosa contraddistingue un essere vivente e a classi­ ficare diverse specie di pesci, ma sperimentano anche in prima persona il processo di apprendimento di un algoritmo di ml. E, cosa più importante, apprendono che commettere errori è una parte fondamentale del processo di apprendimento, sia per gli esseri umani che per le macchine. • Introduzione. Per iniziare, l’insegnante distribuisce carte con immagini di vari oggetti che si potrebbero trovare negli oceani: diversi tipi di pesci, ma anche rifiuti come bottiglie di plastica, lattine di alluminio e sacchetti di plastica. Ogni studente riceve una serie di carte da esaminare. In aggiunta alle carte, l’insegnan­ te fornisce una lista di caratteristiche, come “ha le squame”, “è fatto di plastica” o “vive nell’acqua” Il compito degli studenti è utilizzare queste caratteristiche per distinguere tra i pesci e i rifiuti e per classificare i diversi tipi di pesci nelle loro carte. • Consegna di lavoro. L’insegnante non fornisce istruzioni precise su come utilizzare le caratteristiche per effettuare la classificazione. Invece, lascia che gli studenti navighino nel

7. Cfr. la controparte digitale dell’esercitazione dal nome ai for thè Oceans su www.corde.org.

compito in modo autonomo, esplorando diverse strategie. Come gli studenti iniziano a cimentarsi nel compito, incontra­ no inevitabilmente delle sfide e commettono degli errori. Alcu­ ni scoprono che le caratteristiche che avevano scelto non sono abbastanza specifiche per distinguere tra certi pesci. Altri si rendono conto che alcune caratteristiche sono più utili di altre. Attraverso questo processo di tentativo ed errore, gli studenti iniziano a sviluppare una comprensione più profonda della distinzione e della classificazione. • Riflessione efeedback. Una volta che tutti hanno avuto la possibilità di provare diverse strategie, l’insegnante riunisce la classe per una discussione. Gli studenti condividono le strategie che hanno trovato efficaci e le caratteristiche che sono state più utili. L’insegnante sottolinea come il loro processo di appren­ dimento somigli a quello di un algoritmo di classificazione nel ml. Proprio come gli studenti, un algoritmo di classificazione “impara” a distinguere tra diverse categorie attraverso un processo di trial and error, regolando continuamente le proprie strategie in base ai risultati. 3.2.2. Il metodo della gamificatìon per comprendere come le macchine imparano a stimare e a predire

Un altro metodo utile per insegnare i concetti chiave dell’ap­ prendimento automatico è quello della gamification, un approccio pedagogico che si basa sull’integrazione di mecca­ niche di gioco in contesti non ludici con l’obiettivo di aumen­ tare la motivazione, l’impegno e l’efficacia dell’apprendimen­ to (Kapp, 2012). In particolare, si tratta di applicare aspetti che tipicamente appartengono al mondo dei giochi, come la competizione, la ricompensa, la progressione e la narrazione, in contesti non tradizionalmente associati al gioco, come la formazione e l’istruzione (Deterding et al., 2011). Y&gamifìcation mira a sfruttare la naturale affinità degli esseri umani per il gioco e la competizione per rendere l’apprendimento un’espe­

rienza più coinvolgente e motivante. Invece di presentare l’ap­ prendimento come un compito obbligatorio, essa lo trasforma in una sfida stimolante che incoraggia gli studenti a impegnarsi attivamente nel processo, generando un senso di competizione e realizzazione (Zichermann, Cunningham, 2011). Inoltre, \.z gamifìcation favorisce un approccio attivo all’appren­ dimento: gli studenti non sono semplici spettatori del proces­ so, ma protagonisti attivi che prendono decisioni, risolvono problemi e ricevono un feedback immediato sulle loro azio­ ni. Come osserva Gee (2007), i giochi possono simulare reali contesti di problem solving in un ambiente sicuro, permetten­ do agli studenti di applicare ciò che hanno appreso. Le caratteristiche principali della gamifìcation possono essere così sintetizzate (Viola, 2011): • elementi di gioco*. sono il fulcro gamifìcation e includo­ no meccaniche come punti, badge, classifiche, obiettivi, missio­ ni, livelli e avatar. Questi elementi forniscono un feedback

immediato, definiscono obiettivi chiari e possono creare un senso di competizione o cooperazione tra gli studenti. Tutto ciò può incrementare l’engagement e la motivazione; • motivazione e impegno*, attraverso l’uso di meccaniche di gioco, la gamifìcation può creare un senso di competizione, di progresso e di realizzazione, stimolando così la motivazione intrinseca degli studenti. Inoltre, le ricompense e il riconosci­ mento possono aumentare la motivazione estrinseca, facendo leva sul desiderio naturale delle persone di competere, raggiun­ gere obiettivi, esprimersi e collaborare con gli altri; • apprendimento attivo*. la 2015). Quest’ultimo si struttura in cinque fasi: i. orientamento-, fase iniziale di introduzione del tema-problema; z. concettualizzazione-, fase di generazione di domande, segui­ ta dalla ricerca di informazioni sul web e dalla formulazione delle prime ipotesi di soluzione del problema; 3. scoperta-, fase di investigazione caratterizzata dall’esplorazio­ ne, dalla sperimentazione e dall’interpretazione dei dati; 4. conclusione-, fase conclusiva in cui si elabora l’ipotesi risolu­ tiva; 5. discussione: fase di confronto finale in cui vengono comuni­ cate, condivise e valutate le soluzioni individuate. Un’attività didattica inquiry hased con ChatGPT, finalizzata a favorire lo sviluppo di consapevolezza nell’uso di applicazioni di ia, promuovendo capacità critiche di impiego delle risorse informative, potrebbe essere così articolata. • Fase i. Familiarizzare con ChatGPT, Dapprima gli studenti devono familiarizzare con ChatGPT, comprendere che cos’è e

come funziona l’interazione con questo applicativo {Orientamento). Dopo una prima presentazione generale da parte del docente, gli studenti a coppie avviano una conversazione con il chatbot attraverso l’invio di specifiche istruzioni. Leggono i testi, li commentano, valutano la qualità della conversazione. Se non soddisfatti, guidati dal docente, affinano le istruzioni fino ad arrivare a un livello conversazionale adeguato. Sin da questa prima attività, si evidenzia il ruolo attivo dell’utente che, se non è in grado di formulare richieste adeguate, non otterrà risposte soddisfacenti. • Fase 2. Generare un testo con ChatGPT. Dopo la prima familiarizzazione con l’applicativo, gli studenti vengono organizza­ ti in gruppi: l’obiettivo è quello di risolvere un problema intro­ dotto dal docente, utilizzando ChatGPT sia come strumento di ricerca di informazioni sia come strumento di compilazione. Si tratta di formulare domande-prompt e prime ipotesi di solu­ zione {Concettualizzazione). Gli esiti delle conversazioni con ChatGPT saranno diversi tra i differenti gruppi a seconda delle istruzioni fornite. Al termine di questa attività, i gruppi dovranno confrontare i testi generati dalle loro interrogazioni per individuare differenze e somiglianze, riflettendo sulla diversità o meno dei prompt forniti per ottenere i risultati conseguiti {Scoperta). • Fase 3. Mettere alla prova ChatGPT. Dopo la discussione in plenaria e il confronto tra i gruppi, si torna sui testo generato nell’interazione con ChatGPT per valutarne la qualità, in modo da individuare la soluzione finale {Conclusione). Gli studenti, avvalendosi di altre fonti, sia online che cartacee, valutano la qualità e l’affidabilità del testo generato dal chatbot e riflettono sugli eventuali limiti delle istruzioni fornite nel corso della conversazione per la realizzazione del testo. In plenaria, la clas­ se si confronta e discute sull’esperienza svolta, mentre l’inse­ gnante richiama la loro attenzione in particolare sul ruolo dell’utente nell’interazione con il chatbot e sul problema

dell’affidabilità delle informazioni online, che riguarda umani e non umani (Discussione), L’attività è adatta per studenti del secondo ciclo, ma con qual­ che adattamento può essere svolta anche negli ultimi anni del

primo ciclo. In particolare, con alunni più giovani si suggeri­ sce di adottare tecniche come il think aloud (Coiro, zon) per guidare maggiormente gli alunni nell’interazione col dispositi­ vo: 1’ insegnante parla con la macchina ad alta voce, modellando il comportamento degli allievi e indirizzandolo verso la scoper­ ta di interazioni non scontate. 4.2.2. Il problem solving come chiave didattica per promuovere atteggiamenti consapevoli verso l'intelligenza artificiale

Se nel paragrafo precedente ci siamo occupati di contestualizza­ re criticamente le applicazioni di ia lato utente, sottolineando così l’importanza di diventare expert prompter nell’uso dell’ 1 A, in questo paragrafo ci focalizziamo sulla contestualizzazione critica delle applicazioni di ia lato macchina, guardando cioè a quel che ce dentro di essa per carpirne la grammatica di funzio­ namento all’insegna della spiegabilità e con specifico riferimen­ to alle applicazioni di ML. Da questo punto di vista, l’apprendi­ mento per problemi appare un approccio didattico promettente in virtù della varietà di articolazioni che si accompagnano al con­ cetto di problem solving, che spaziano da accezioni più ristrette ad accezioni più ampie. In particolare, la soluzione di problemi ha rappresentato una prassi didattica di lunga tradizione nel mondo educativo per lo sviluppo di abilità logico-matematiche. Al tempo stesso, da Dewey (1938) in poi, la soluzione di proble­ mi ha assunto il carattere di uno stile di indagine e scoperta più ampio, riconducibile al concetto di insight o di apprendimento per scoperta (Bruner, 1961). I sostenitori del problem solving inteso in questa accezione più generale sottolineano che far rivi­ vere agli allievi i processi tipici dei ricercatori (ipotesi-verifica)

sia la via più stimolante per aumentare la motivazione. Come vedremo, in entrambi i casi (accezione ristretta e apprendimen­ to logico-matematico, accezione più ampia e apprendimento per scoperta nello stile di un ricercatore), il problem solvìngpuò aiutare a cogliere aspetti significativi del funzionamento dell’ ia. L’accezione più o meno ampia del concetto di problem solving si lega alla natura stessa del problema da risolvere. In un suo lavo­ ro sul tema, Jonassen (2004) ha distinto le diverse tipologie di problemi in relazione a quattro aspetti: 1. grado di strutturazione: i problemi possono essere ben defi­ niti o mal definiti; i primi richiedono l’applicazione di un nume­ ro finito e noto di concetti, regole e principi in un dominio in cui le soluzioni sono già chiare (ad esempio, i problemi di arit­ metica); i secondi presentano aspetti sconosciuti, e le soluzioni non sono prevedibili in quanto possono esservene molteplici (ad esempio fare un progetto, definire una strategia di intervento); 2. complessità: è determinata dal numero di fattori o di varia­ bili coinvolte, dalla tipologia di relazioni tra esse sussistenti e dal grado di stabilità nel tempo di queste relazioni; i problemi mal definiti tendono a essere più complessi; 3. dinamicità: i problemi complessi sono di solito dinamici, nel senso che l’ambiente all*interno del quale si situa il compito/problema tende a mutare nel tempo ed è necessario cercare sempre nuove soluzioni; 4. specifìcità/astrazione del dominio (contesto): le attività di problem solving sono situate, dipendono pertanto dalla natura del contesto e dal dominio conoscitivo. Nella sua tassonomia, considerando le quattro variabili sopra descritte, Jonassen (ibid.} ha individuato undici tipologie di problemi che possono dare luogo ad altrettante tipologie di attività didattiche, favorendo strategie cognitive differenti. Si spazia da problemi più definiti come il problema logico, l’algo­ ritmo o l’uso di regole, a problemi meno definiti come l’analisi di caso, il design o il dilemma.

Di solito, i problemi poco o mal definiti sono alla base del Problem Based Learning (pbl), una tecnica didattica che pone gli studenti di fronte a problemi reali, spesso complessi e multi­ disciplinari, stimolandoli a trovare soluzioni attraverso la ricer­ ca, la collaborazione e l’applicazione critica delle conoscenze acquisite. Uno dei principali benefici del pbl con riferimento all’iA è quello di poterla posizionare sia come un problema da esplorare sia come uno strumento per trovare soluzioni. Ad esempio, gli studenti potrebbero essere invitati a esaminare le implicazioni di un sistema di riconoscimento facciale : in questo scenario, I’ia e i suoi meccanismi decisionali diventano il “problema”. Allo stesso tempo, potrebbero utilizzare modelli di ia per analizzare grandi set di dati o simulare scenari complessi, facendone uno “strumento” per risolvere altri problemi. Il pbl incoraggia gli studenti a formulare domande, ipotesi e a sperimentare soluzioni, favorendo l’indagine critica e preparan­ do i discenti a prendere decisioni in un mondo incerto (Savery, Duffy, 1995). Quando applicato alla didattica dell’lA (cfr. le successive proposte didattiche), ciò può significare esplorare le limitazioni di un algoritmo, identificare potenziali bias nei dati o considerare le implicazioni sociali di un’applicazione specifi­ ca della tecnologia. Questo tipo di indagine aiuta gli studenti a vedere oltre la superfìcie della tecnologia, promuovendo una comprensione profonda e critica. Un altro pilastro del pbl è l’aspetto collaborativo. Nel pbl gli studenti lavorano spesso in gruppi, discutendo, dibattendo e costruendo soluzioni insieme. Questa collaborazione può essere particolarmente fruttuosa nell’ambito dell’ ia, poiché gli studenti con diverse competenze e prospettive possono offrire insight unici. Sebbene le fasi specifiche possano variare leggermente a secon­ da della letteratura presa come riferimento, gli step fondamen­ tali tipici del pbl sono: 1. la presentazione di un problema: esso non viene posto come un semplice quesito con una risposta chiara, ma come un problema complesso, spesso privo di una

soluzione univoca, che serve come punto di partenza e stimo­ lo per l’apprendimento. Una volta introdotto il problema, gli studenti lavorano insieme per z. definire la natura del problema stesso, cercando di identificare ciò che già sanno rispetto a esso e ciò che invece hanno bisogno dì scoprire per affrontarlo. Dopo aver delineato la natura del problema, gli studenti intra­ prendono 3. un processo di ricerca e indagine. Che si tratti di leggere libri, effettuare ricerche online, condurre esperimenti o fare interviste, questa fase permette agli studenti di acquisi­ re le conoscenze e le competenze necessarie per affrontare il problema. Una volta ottenute queste informazioni, gli studen­ ti si riuniscono per una fase di 4. ideazione e brainstorming. Durante questa fase, essi generano una varietà di possibili solu­ zioni, promuovendo la creatività e il pensiero critico. Avendo diverse soluzioni potenziali a disposizione, gli studenti passano alla fase 5. di sviluppo della soluzione, in cui seleziona­ no e approfondiscono l’approccio o le idee che ritengono più promettenti. Successivamente, sono chiamati a 6. presentare le loro soluzioni. Questa presentazione può assumere molte forme, che vanno da presentazioni orali a rapporti scritti, proto­ tipi o simulazioni. Dopo la presentazione, si entra in una fase cruciale che è quel­ la della 7. valutazione e riflessione. Qui, gli studenti, insieme al docente, riflettono sia sulle soluzioni proposte sia sul proces­ so di apprendimento nel suo complesso. Questo momento di riflessione è essenziale per consolidare ciò che è stato appreso e per sviluppare una maggiore consapevolezza dei propri processi cognitivi. Infine, il ciclo del pbl si conclude con il 8. feedback, in cui gli studenti ricevono commenti e suggerimenti sia dal docen­ te sia dai compagni di classe, il che li aiuta a comprendere come affinare le proprie capacità di risoluzione dei problemi. Di seguito, proponiamo a titolo esemplificativo due esempi didattici che fanno entrambi leva su problemi poco o mal defi­ niti in stile pbl per favorire soprattutto un approccio critico e

problemico al tema delfiA. Le proposte si adattano a studenti del secondo ciclo di istruzione; semplificando il numero delle variabili in gioco sono entrambi applicabili anche agli ultimi anni della scuola primaria. Problema n. 1. Esplorare i meccanismi decisionali • Presentazione delproblema. Si propone agli studenti, senza fornire dettagli sulle cause sottostanti, un caso in cui un model­ lo abbia prodotto un risultato inaspettato o errato (ad esempio durante una classificazione o predizione). Esempio*. Il io agosto un noto servizio meteorologico ha pre­ detto, a Roma, una nevicata durante un periodo di giornate cal­ de e soleggiate. Come può una ia commettere un errore così grave nella previsione del tempo? • Definizione delproblema. Gli studenti si riuniscono in grup­ pi per discutere e definire meglio quale potrebbe essere la causa sottostante. Cosa sanno già a riguardo? Quali sono le loro ipotesi iniziali? Esempio: È possibile che il modello non abbia avuto accesso ai

dati giusti ? C e stata una variazione climatica inaspettata? • Ricerca e indagine. Gli studenti cercano di capire come funziona il modello, che tipo di dati è stato utilizzato, quali potrebbero essere le cause degli errori. Esempio: Quali altre previsioni il modello ha fatto in passato? Questo è un errore ricorrente o una rarità? • Ideazione e brainstorming. Ogni gruppo riflette e discute su possibili ragioni dellerrore. Gli studenti potrebbero generare molte ipotesi, dalle più ovvie alle più complesse. Esempio: Il modello potrebbe aver avuto un campionamento dei dati troppo limitato, potrebbe esserci stato un problema tecnico nella raccolta dei dati. • Sviluppo della soluzione. Dopo aver discusso e generato diverse ipotesi, ogni gruppo sceglie una o due delle ipotesi più

promettenti e cerca di sviluppare una soluzione o un modo per testare l’ipotesi. Esempio'. Per testare l’ipotesi dei campionamento dei dati, potremmo esaminare altre previsioni fatte dallo stesso modello in condizioni simili e vedere se si verifica nuovamente l’errore. • Presentazione delle soluzioni. Ogni gruppo presenta le sue scoperte e il modo in cui ha investigato. • Valutazione e riflessione. La classe, insieme al docente, discu­ te le diverse soluzioni e riflette su ciò che hanno appreso sulle possibili cause dell’errore e sull’ importanza della data literacy e della spiegabilità. • Feedback. Il docente e gli altri studenti danno feedback sui vari approcci e soluzioni proposte.

Problema n. 2. Costruire un albero decisionale

• Identificazione delproblema. Agli studenti viene introdotto un problema che richiede di sviluppare un sistema decisionale basato su criteri specifici. Esempio*. Un nuovo ristorante ha ingaggiato un team di esperti per costruire un modello decisionale in grado di identificare il “miglior piatto di pasta” da suggerire sulla base delle caratteri­ stiche dei propri clienti. • Definizione del problema. Gli studenti suddivisi in gruppi dovranno definire i criteri che saranno utilizzati dal modello per prendere una decisione. Esempio: Tempo di cottura della pasta, condimento utilizzato, età del cliente, tempo a disposizione del cliente, allergie alimen­ tari ecc. • Generazione di soluzioni alternative. Gli studenti pensano ai diversi modi in cui i criteri individuati possono essere combina­ ti tra loro. Esempio: Un gruppo, basandosi sull’idea che gli anziani prefe­ riscono i piatti tradizionali mentre i giovani sono aperti a speri­

meritare, potrebbe proporre come primo criterio letàdel clien­ te. Un altro team potrebbe suggerire di iniziare con il tempo a disposizione del cliente, ipotizzando che chi ha meno tempo potrebbe voler scegliere piatti con un tempo di cottura più breve. • Valutazione e selezione. Gli studenti valutano i vari alberi decisionali che hanno creato, considerando quale potrebbe essere il più efficace o il più accurato e discutendo i vantaggi e gli svantaggi di ciascun approccio. Esempio*, Ogni gruppo potrebbe creare una bozza del proprio albero decisionale. Supponiamo che una squadra abbia il seguente albero: Primo nodo: quanto tempo ha il cliente? a} Se meno di 30 minuti, suggerire piatti con tempo di cottura breve. b) Se più di 30 minuti, passare al nodo successivo. Secondo nodo: quale età ha il cliente ? a) Se giovane, suggerire piatti innovativi. b) Se anziano, suggerire piatti tradizionali. • Implementazione, Gli studenti provano i loro alberi decisio­ nali con vari scenari per vedere come funzionano nella pratica. Esempio*, Un cliente di 25 anni con solo 20 minuti per mangiare arriva al ristorante. Qual è il tuo suggerimento ? I gruppi utiliz­ zano il loro albero per determinare il piatto di pasta suggerito. • Revisione e valutazione. Gli studenti riflettono sulle perfor­ mance dei loro alberi decisionali e considerano eventuali modi­ fiche per migliorarli. Esempio*, Dopo aver testato i vari scenari, gli studenti potrebbe­ ro scoprire che alcuni criteri non sono così determinanti come pensavano. Quindi, potrebbero decidere di dare più peso ad alcuni criteri come i gusti personali o le allergie alimentari del cliente, e di aggiustare di conseguenza il loro albero decisionale.

5. La dimensione etica Principi generali e proposte educative

5.1. Temi e problemi 5.1.1. Etica dell’intelligenza artificiale: questioni e principi

Come interpretare il concetto di responsabilità e a chi imputare la responsabilità delle azioni - e relative conseguenze - quan­ do le decisioni vengono assunte da o col supporto di sistemi automatizzati di intelligenza artificiale ? Quali sono i rischi e i pericoli legati alla discriminazione e ai pregiudizi insiti nell’uso di tecnologie di ia? In che modo lo sviluppo dell’iA impatta sulla privacy e la sicurezza dei dati personali e quali implicazioni etiche ne conseguono ? Qual è il ruolo della trasparenza nell’eti­ ca dell’iA e fino a che punto essa può contribuire a sostenere la fiducia in questa tecnologia?

Sono questi alcuni degli interrogativi classici di cui si occupa l’ambito dell’etica dell’ ia. Questo campo di studi non è nuovo: come osserva Floridi (2022), il dibattito etico sull’lA si svilup­ pa negli anni Cinquanta-Sessanta in parallelo all’affermazione dell’1 a come area di ricerca accademica. Tuttavia, è solo negli ultimi tempi che l’interesse per questo settore si è intensificato a causa dei notevoli progressi nelle capacità e nelle applicazioni dei sistemi di ia (Yang et al., 1018). Muller (1020), nella sua introduzione sull’argomento, colloca l’etica dell’iA all’inter­ no dell’etica applicata insieme alla bioetica, all’etica dell’am­ biente ecc., sottolineandone il carattere dinamico e instabile. Ciononostante, la letteratura sugli aspetti etici dell’iA è ormai molto vasta (Boddington, 2023; Stahl, Schroeder, Rodrigues,

2023), come pure la produzione di documenti politici e racco­ mandazioni (Jobin, lenca, Vayena, 2019; Algora Lab, 2021; Floridi, 2022). Le problematiche emergenti da questi lavori sono molteplici e gli assunti di partenza sono spesso diversi. Per Floridi (ibid.\ ad esempio, Pia non è un nuovo tipo di intel­ ligenza ma una nuova forma dell’agire (cfr. CAP. 2) e le sfide etiche sono determinate da questa inedita disarticolazione tra azione e intelligenza insieme all’avvolgimento del mondo che Pia genera. Miiller (2020) offre una rassegna esaustiva delle principali questioni etiche sull’1A attualmente dibattute in sede accademica, politica e pubblica. Nel prosieguo, ci soffermiamo su tali questioni come base concettuale utile per comprendere i principali orientamenti etici che oggi caratterizzano la rifles­ sione sul tema. La prima questione riguarda la privacy e la sorveglianza. La crescente digitalizzazione delle nostre vite ha reso la raccol­ ta e l’archiviazione dei dati personali un fenomeno sempre diffuso che Pia ha enormemente potenziato, passando anche attraverso forme di sorveglianza. I dati acquisiti vengono scam­ biati tra attori diversi, spesso a pagamento. In questo scenario, occorre tener presente che il controllo sul processo da parte degli utenti è molto limitato, anzi: la raccolta dei dati avviene spesso senza che gli utenti ne siano adeguatamente informati o attraverso forme sottili di manipolazione, e ciò che appare gratuito in realtà non lo è, secondo l’adagio “servizi in cambio di dati”. Le grandi aziende tecnologiche concentrano gran parte del loro business sulla raccolta di dati, inducendo alla fuga una parte degli utenti, ma la maggioranza sembra aver perso l’auto­ nomia necessaria per sottrarsi al controllo. La protezione dei dati personali implica una molteplicità di questioni legali ed è costantemente minacciata dalle difficoltà con cui il legislatore si scontra nel far rispettare le regolamentazioni. La seconda questione concerne la manipolazione del compor­ tamento, che i sistemi di ia possono amplificare grazie alla loro

capacità di intercettare in modo profondo i dati degli utenti e le loro vulnerabilità. Gli algoritmi possono mirare a individui o a piccoli gruppi attraverso stimoli personalizzati per influen­ zarli, mentre il confine tra stimolo e manipolazione si fa sempre più sottile. Diverse organizzazioni, soprattutto nel campo del marketing e del gioco d’azzardo, sfruttano i bias comportamen­ tali, l’inganno e la generazione di dipendenza per massimizzare i profitti, utilizzando «pattern oscuri» (ibicL) nella progetta­ zione delle interfacce. U tema dell’opacità dei sistemi di ia costituisce la terza questione che ricorre nei dibattiti etici sull’ ia. Le tecnologie di i A per l’au­ tomazione delle decisioni suscitano non poche preoccupazioni per la mancanza di trasparenza, di responsabilità e di partecipa­ zione da parte dell’intelligenza umana. Spesso, utenti ed esperti non sanno (e quindi non sanno spiegare) in che modo il sistema sia giunto alle sue decisioni, rendendo il processo opaco e anche ampliando i bias presenti nei dati. Come abbiamo visto (cfr. cap. 4), molti sistemi di ia si basano sull’apprendimento automatico che comporta l’estrazione di modelli dai dati: tali modelli posso­ no essere opachi al punto che nemmeno i programmatori sono in grado di spiegare come si sono formati o di indicare quali dati hanno influito sulle decisioni assunte. La quarta questione attiene al bias nei sistemi decisionali. Sulla base dei dati sui quali operano, tali sistemi producono un output che può oscillare da decisioni banali, come la scelta di un ristorante, a decisioni molto importanti, quali una diagnosi medica o la concessione di un prestito. Tra i casi più critici viene spesso citato quello della cosiddetta polizia predittiva (Meijer, Wessels, 2019), un concetto piuttosto inquietante che riman­ da alla capacità di prevedere dove e quando saranno necessa­ rie le forze dell’ordine in base a previsioni algoritmiche. Quel che giustamente preoccupa riguarda la perpetuazione del bias presente nei dati utilizzati per allenare i sistemi di ia, in quanto ciò può portare a sorvegliare maggiormente una determinata

area e a generare risultati discriminatori ai danni di certi gruppi sociali. L’individuazione e la rimozione del bias nei sistemi di ia rappresentano una sfida dagli esiti tutt’altro che scontati. Un ulteriore capitolo, il quinto, del dibattito sull’etica dell’IA si focalizza sull’interazione tra esseri umani e robot, un campo specifico di ricerca molto sensibile all’etica e alle implicazioni dell’incontro/scontro tra uomo e macchina (Arnold, Scheutz, 2017). L’ia potrebbe essere usata per scopi impropri come la

manipolazione degli esseri umani attraverso comportamenti ingannevoli o minacciosi per la dignità umana. Ci sono poi altre questioni riconducibili ai vincoli etici e legali di base, applicabili anche ai robot, come la sicurezza del prodotto, la responsabilità e il divieto di inganno nella pubblicità. Significative sono anche le preoccupazioni relative all’impat­ to dell’iA sul mondo del lavoro, la sesta questione toccata da Miiller (2020) nella sua rassegna. L’ia e la robotica promet­ tono consistenti aumenti di produttività e ricchezza, ma l’au­ tomazione rischia di ridurre il bisogno di forza lavoro umana, generando sfide inedite per il mercato del lavoro, come la crescente polarizzazione tra professioni altamente specializza­ te e legate ai servizi, da un lato, e, dall’altro, professioni medio­ basse facilmente rimpiazzabili dalla macchina (si pensi al ruolo di cassiere che in molti supermercati sta diventando obsoleto a causa delle casse automatiche). In teoria, gli enormi guada­ gni generati dall’automazione potrebbero portare a un’età del tempo libero, ma la distribuzione equa della ricchezza appare un traguardo molto lontano. Un’altra questione poco affron­ tata, ma altrettanto rilevante, riguarda la sostenibilità ambien­ tale dello sviluppo tecnologico, in quanto i sistemi di ia gene­ rano rifiuti diffìcilmente riciclabili e bruciano molta energia, soprattutto per l’addestramento dei modelli di apprendimento automatico. Il settimo tema che ricorre nei dibattiti sull’etica dell’IA vede come protagonisti i sistemi autonomi. Per mettere a fuoco i

problemi ricorriamo all’esempio dei veicoli autonomi. Si stima che l’uso di questo tipo di veicoli possa ridurre in modo signi­ ficativo i danni causati dalla guida umana, dal numero di morti o feriti in incidenti stradali all’inquinamento ambientale. Ma i dilemmi non mancano! Tra i più comuni sulla guida automa­ tica ci sono quelli che riguardano l’equilibrio tra l’interesse personale e il bene comune: gli sforzi normativi pongono l’ac­ cento sulla sicurezza come obiettivo principale, spostando la responsabilità dai conducenti ai produttori, agli operatori dei sistemi tecnologici e agli enti responsabili dell’infrastruttura e delle decisioni politiche e legali. Insomma, non c’è spazio per la semplificazione. Tutto ciò ci porta dritti nel cuore delle sfide dell’etica delle macchine, un ulteriore ambito prospettato da Mùller (ihid.}. Con questa espressione ci si riferisce all’etica per le macchine stesse, ossia per le macchine come soggetti, piuttosto che per l’uso umano delle macchine come oggetti. Per alcuni auto­ ri questa idea si basa sull’assunto secondo cui, se le macchine agiscono in modi eticamente rilevanti, allora abbiamo biso­ gno di una simile etica che si dovrebbe preoccupare di garan­ tire che il comportamento delle macchine nei confronti degli utenti umani sia eticamente accettabile, a partire dalle sempli­ ci questioni di sicurezza del prodotto (Anderson, Anderson, 2007). Per altri autori si tratterebbe, invece, di adottare una visione più circoscritta in cui I’ia dovrebbe essere in grado di prendere in considerazione valori sociali, considerazioni morali ed etiche, ponderare le priorità in base ai diversi portatori di interessi e spiegare il proprio ragionamento, garantendo traspa­ renza (Dignum, 2018). Accanto al dibattito teorico sulle implicazioni etiche dell’iA, gli ultimi anni hanno anche visto una proliferazione di docu­ menti e linee guida sull’etica dell’lA (Algora Lab, 2021). Floridi (2022) sottolinea come la gran quantità di principi etici proposti rischi di generare confusione ed effetti collate-

tali indesiderabili, dallo shopping etico (cioè si sceglie il tipo di etica che meglio si adatta a giustificare i propri compor­ tamenti) al bluewashing etico (ovvero fare azioni solo per apparire più etici) fino all’elusione dell’etica (cioè ignorare la questione etica tout court). Si tratta allora di individuare un nucleo di principi condivisi, strategia che non risolve ma comunque contiene le criticità. Attraverso un’analisi compa­ rativa di alcuni dei codici etici più solidi, Floridi (ibid.) iden­ tifica cinque fondamentali principi: beneficenza, nel senso che Pia deve essere sviluppata per il bene comune deH’umanità e per la sostenibilità del pianeta; non malefiicenza, in riferimento alla prevenzione degli usi impropri, come la violazione della privacy o le minacce alla sicurezza; autonomia, ossia trovare un equilibrio tra il potere decisionale che ci riserviamo e quello che deleghiamo alle macchine \ giustizia, vale a dire lo svilup­ po dell’iA deve promuovere la giustizia e cercare di eliminare tutti i tipi di discriminazione; esplicabilità, sìa in senso episte­ mologico di intelligibilità (come funziona?) sia in quello etico di responsabilità, intesa come accountability (chi è responsabi­ le del modo in cui funziona?). Analogamente Jobin, lenca e Vayena (1019) hanno provato a catalogare i principi etici che hanno guidato l’elaborazione delle politiche attuali sull’1 A, analizzando quasi cento docu­ menti tra linee guida e raccomandazioni. Dalla loro ricognizio­ ne, sono emersi undici principi etici corrispondenti alle seguen­ ti parole chiave, riportate in ordine di prevalenza: trasparenza, giustizia ed equità, non-maleficenza, responsabilità, privacy, beneficenza, libertà e autonomia, fiducia, dignità, sostenibili­ tà e solidarietà. Di essi, quelli che ricorrono più comunemente sono senz’altro i seguenti: trasparenza, giustizia ed equità, nonmaleficenza, responsabilità e privacy. Vediamo più analiticamente, integrando le diverse prospettive. • Trasparenza. Il principio di trasparenza è quello più comu­ nemente menzionato. Come abbiamo anticipato, la trasparen­

za appare necessaria quando si tratta di raccolta ed elaborazio­ ne dei dati (cosa viene fatto con le mie informazioni personali ?) oppure in caso di processi decisionali automatizzati (come vengono prese le decisioni che mi riguardano?) o anche per i sistemi di raccomandazione personalizzati (in base a quali dati mi viene mostrato un certo prodotto o una determinata noti­ zia?). La trasparenza implica che le risposte a queste domande siano accessibili e comprensibili. L’idea alla base di questo principio è che una ia trasparente, spiegabile o interpretabile possa ridurre al minimo i danni causati dai sistemi di ia, migliorare l’interazione tra l’essere umano e I’ia, accrescere la fiducia nella tecnologia e potenzialmente sostenere i valori democratici (ibid.\ Un modo alternativo di spiegare perché la trasparenza nell’l A è così importante consiste nel dire che essa conferisce all’indivi­ duo agency epistemica, ovvero la capacità di comprendere cosa succede ai propri dati e come I’ia li utilizza, nonché la capacità di controllare meglio le proprie informazioni e il modo in cui sono trattate, salvaguardando l’autonomia individuale. Un concetto chiave qui è quello di spiegabilità. Floridi (zozz), come abbiamo visto, ne sottolinea la duplice valenza, epistemo­ logica ed etica, e argomenta che la spiegabilità è alla base degli altri principi in quanto è necessario comprendere gli effetti positivi e negativi dell’iA per poter decidere se e fino a che punto delegare la macchina di agire al posto nostro. Tracce di spiegabilità come principio regolativo sono presenti anche in alcune normative sugli algoritmi, dove si fa strada il concetto di diritto alla spiegazione, come ad esempio nella normativa euro­ pea sulla protezione dei dati personali del zoió1. Alcuni critici

i. Cfr. Regolamento (ue) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fìsiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che

osservano, però, che siamo ancora lontani da un autentico diritto alla spiegazione; inoltre, non è chiaro come tale istanza possa essere tecnicamente implementata. In ogni caso, il diritto alla spiegazione rimane a nostro avviso un diritto fondamenta­ le che, nell’attuale società degli algoritmi, dovrebbe rientrare a pieno titolo tra i diritti umani (Tafani, 1023). • Giustizia, equità e solidarietà. La giustizia viene menziona­ ta nelle linee guida dell’etica dell’iA in relazione all’equità, da un lato, e al pregiudizio e alla discriminazione dall’altro (Jobin, lenca, Vayena, 2019). Le preoccupazioni legate all’e­ quità riguardano l’uguale accesso all’iA e la condivisione equa degli oneri e dei benefici della tecnologia (Selwyn, 2004; Selwyn et al., 2023). Ad esempio, preoccupa il divario digitale tra i paesi che possono permettersi di sviluppare e utilizzare I’ia e quelli che non hanno accesso alle tecnologie di ultima generazione. Il principio della non discriminazione è, poi, non solo fondamentale ma anche urgente, in quanto - come abbia­ mo visto - gli algoritmi o i sistemi di ia possono contenere pregiudizi, basandosi su dati non inclusivi (pregiudizio algo­ ritmico), portando a decisioni discriminatorie e a violare quindi il principio di una ia giusta ed equa. Meno citato, ma comunque significativo, è il principio di solidarietà, che riguarda la (giusta) distribuzione dei benefici e dei danni dell’1A (ad esempio i lavoratori che perdono il lavoro a causa dell’automazione). • Non-maleficenza e beneficenza. La non malefìcenza consiste in un impegno attivo a non produrre danni legati all’uso di ia. Il danno è principalmente interpretato come discriminazione, violazione della privacy o danno fisico, e il principio etico è

abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati): https://eur-lex.europa.eu/legal-content/IT7TXT/HTML/?uri=CELEX:oz oi6Ro679-2,oióo$04.

volto soprattutto a proteggere coloro che sono vulnerabili agli effetti dell’iA. Man mano che I’ia si sviluppa, infatti, diventa inevitabile per le persone utilizzare questa tecnologia, diven­ tando oggetto di profìlazione e subendo l’impatto dei sistemi decisionali automatizzati. L’esistenza dei sìngoli individui è sempre più controllata dell’ia. Si tratta allora di assicurare che Pia non danneggi i cittadini e, anzi, produca benefìci per i suoi

utenti, non ostacolando l’emancipazione delle persone ( Waelen, 2022). In relazione alle policy di assenza di danno un altro aspetto fondamentale riguarda la robustezza dell’ 1 A, ossia la sua capacità di funzionare correttamente e in modo affidabi­ le anche quando è esposta a dati inaspettati, interferenze o tentativi di manipolazione: un sistema di ia va progettato in modo da gestire le incertezze e resistere a varie forme di attac­ chi o anomalie (ai hleg, 2019). • Responsabilità, libertà e autonomia. La responsabilità viene spesso menzionata come principio guida per Pia: il timore è che le decisioni automatizzate possano creare vuoti di respon­ sabilità (Gordon, Nyholm, 2021). I sistemi di ia possono pren­ dere decisioni che influenzano direttamente gli esseri umani, ma non possono essere ritenuti responsabili o chiamati a rispondere delle conseguenze delle loro azioni allo stesso modo degli esseri umani. Ciò solleva la domanda: chi dovrebbe (e può) essere ritenuto responsabile e chiamato a rispondere per il danno causato dalle applicazioni di ia? Questa domanda ci riporta alla questione dell’autonomia. Secondo Floridi (2022, p. 85): gli esseri umani dovrebbero mantenere il potere di decidere quali decisioni prendere, esercitando la libertà di scelta dove necessario e cedendola nei casi in cui ragioni di primaria importanza, come Feffìcacia, possano prevalere sulla perdita di controllo sul processo decisionale. Ma qualsiasi delega dovrebbe anche rimanere in linea di principio rivedibile, adottando come ultima garanzia il potere di decidere di decidere di nuovo.

• Privacy. La privacy può essere vista da diverse prospettive come un valore, un diritto morale o un diritto legale. Jobin, lenca e Vayena (1019) sottolineano che le linee guida sull’etica del? ia discutono della privacy sia come valore da preservare sia come diritto da proteggere. Inoltre, la privacy viene spesso presa in esame in relazione alla protezione dei dati, in linea con le definizioni comuni del concetto di privacy nel senso di “controllo informativo” o “accesso limitato” (DeCew, 2018). In entrambe le accezioni, la privacy è intesa come un potere dispo­ sizionale, più precisamente come la capacità di controllare ciò che accade alle proprie informazioni e di determinare chi ha accesso a esse o ad altri aspetti della propria persona. L’ ia, quin­ di, è percepita come una potenziale minaccia per questa capaci­ tà perché, come abbiamo più volte evidenziato in queste pagine, comporta la raccolta e l’analisi di grandi quantità di dati perso­ nali. Pertanto, I’ia potrebbe privare gli individui del loro potere in materia di privacy. O, in altre parole, la privacy dovrebbe esse­ re promossa perché conferisce potere ai titolari dei dati. • Fiducia. La necessità di una 1A affidabile coinvolge la ricerca sull’1 a, le organizzazioni e le persone che la sviluppano, i prin­ cipi di progettazione e il rapporto degli utenti con la tecnologia (Jobin, lenca, Vayena, 2019). La fiducia può essere favorita dalla trasparenza o garantendo che I’ia soddisfi le aspettative del pubblico. Il bisogno di fidarsi del modo in cui I’ia viene progettata e sviluppata può essere letto come una protezione dall’esercizio di potere da parte degli altri. La fiducia è una caratteristica desiderabile del rapporto tra la tecnologia e colo­ ro che la utilizzano. Quando ci sifida di o ci si affida a un siste­ ma di ia, ci si aspetta che non si abusi del potere che tale tecno­ logia può esercitare sugli individui in termini di controllo, manipolazione e condizionamento. Pertanto, reclamando una ia affidabile, si chiede di garantire che I’ia non eserciti il proprio potere su di noi in modo arbitrario, dannoso o eccessi­ vo (Waelen, 2022).

Generalmente le linee guida e i codici etici non affrontano argomenti come l’etica delle macchine o lo statuto morale dei sistemi di ia. Nonostante la varietà delle posizioni, si può rile­ vare una generale preoccupazione condivisa sui rischi derivanti dalia capacità crescente della macchina di funzionare in modo autonomo e dalla diffusa dipendenza delle nostre società dalla tecnologia stessa. 5.1.2. Intelligenza artificiale in educazione: una lettura pedagogica delle sfide etiche

Gli sviluppi nel campo dell’lA stanno generando un’ampia offerta di strumenti e servizi intelligenti anche in ambito educa­ tivo, introducendo diverse forme di automazione nei sistemi istruttivi (Perrotta eta,l.y 2.021; Selwyn, 2019). Come abbiamo visto nel capitolo 3, questi spaziano dai sistemi di tutoraggio intelligenti ai dispositivi per la valutazione automatica, agli strumenti di personalizzazione dei percorsi di apprendimen­ to ecc. Ciononostante, la politica si è soprattutto concentrata sugli adulti, prestando scarsa attenzione all’impatto dell’lA sui bambini e gli adolescenti (Irwin, Dharamshi, Zon, 2021) e nel campo dell’istruzione (Adams^zz/., 2023). Nel 2020, Punicee ha esaminato venti strategie nazionali sull’lA, rilevando come la maggior parte di esse menzionasse solo in modo sommario i bambini e le loro specifiche esigenze (unicef, 2021). Anche in termini di linee guida sull’etica dell’lA nell’educazione, si riscontra una mancanza di indicazioni, benché le questioni etiche legate all’iA in classe possono essere altrettanto, se non più, critiche di quelle relative all’iA nella società in generale (Luckin, George, Cukurova, 2022). In questo contesto di scarsa rilevanza assegnata al tema, alcu­ ne recenti iniziative suggeriscono che qualcosa si sta muoven­ do: organizzazioni come Punicee (2021), Punesco (2O2ia, 2O2ib) o anche P Unione Europea (Charisi et ai, 2022) invita­

no a considerare i principi etici dell’iA alla luce delle caratteri­ stiche uniche e dei diritti dei bambini e della loro istruzione. Dunque, i principi etici che abbiamo introdotto nel paragra­ fo precedente vanno circostanziati, salvaguardando i bisogni fondamentali dell’ infanzia e dell’adolescenza e le istanze educa­ tive che riguardano questa fascia d’età. In un recente lavoro, Adams e colleghi (2023), sulla base di un’analisi sistematica di alcuni documenti chiave in materia (wef, 2019; ieaied, 2021; UNESCO, 2O2ia, 2O2lb; UNICEF, 2021; EC DGEYSC, 2022),

hanno riletto da questa prospettiva i principi etici sistematiz­ zati da Jobin, lenca e Vayena (2019) integrandoli con indirizzi di marca più specificamente pedagogica. Ci soffermiamo, di seguito, sul contributo di questa rilettura, affiancata da ulterio­ ri nostre considerazioni. I principi di trasparenza, giustizia ed equità, non-malefìcenza, responsabilità, privacy, beneficenza, libertà e autonomia si ritrovano nei vari documenti di indirizzo etico, ma con delle differenziazioni relative al target e al contesto educativo. In particolare, per quanto riguarda la trasparenza, si richiama l’importanza di adottare un linguaggio adatto ai bambini e agli adolescenti in modo da accrescere i livelli di comprensibilità e di spiegabilità dell’IA. In effetti, aggiungiamo noi, se è vero, come indica Kant (cit. in Formizzi, 2004, p. 153), che lo studen­ te «non deve imparare dei pensieri, ma a pensare», l’opacità dei sistemi di ia solleva non poche criticità sul versante educa­ tivo. Comprendere nell’educazione è imperativo, in quanto la comprensione è un aspetto fondamentale del pensare: ciò che non si può spiegare mette alla prova la nostra capacità di comprendere e quindi anche di pensare. Imparare a pensare nell’opacità diventa diffìcile. Non solo: i processi educativi in contesto formale si concludono sempre con una valutazione dal valore certifìcativo. In quanto adulti responsabili del processo educativo, dobbiamo essere in grado di spiegare perché una determinata attività dello studente sia stata valutata positiva­

mente o meno: gli studenti hanno diritto a una spiegazione rispetto al giudizio che è stato loro assegnato, tipicamente sotto forma di numero, ossia il voto. L’importanza della spiegazione rispetto al voto ricevuto investe sia la dimensione etica che quel­ la epistemica: sul piano etico, avere accesso a una spiegazione pone le condizioni per una contro-spiegazione, che basandosi sulle stesse evidenze potrà condurre a conclusioni diverse; sul piano epistemico, avere accesso a una spiegazione consente di individuare l’origine dell’errore e, sul piano metacognitivo, favorire capacità di autoregolazione. In sintesi, la spiegabilità e il diritto alla spiegazione in ambito educativo appaiono di cruciale importanza da molteplici punti di vista. Introdurre sistemi non spiegabili nella gestione delle informazioni e delle conoscenze che circolano in classe rischia di minare la fiducia alla base della relazione educativa. Passando alla giustizia e all’equità, i sistemi educativi devono garantire l’inclusione di bambini e adolescenti: l’adozione di tecnologie di ia non deve generare divari tra chi può accedere alle tecnologie e chi no; al contrario, le soluzioni di ia devono essere implementate per accrescere i livelli di equità e ridurre l’esclusione sociale e digitale delle fasce più svantaggiate. Per quanto riguarda la privacy, il diritto all’oblio viene sotto­ lineato a più riprese a protezione di infanzia e adolescenza, mentre in merito all’autonomia si evidenzia l’importanza di ottenere non solo il consenso genitoriale all’uso di ia in classe, ma anche l’assenso di bambini e adolescenti. A questi principi, Adams e colleghi (2023) propongono di aggiungerne altri quattro, che sono tarati in modo più specifico sul contesto scolastico e sull’uso di ia nell’educazione (aied): adeguatezza pedagogica, diritti dei bambini e degli adolescenti, alfabetizzazione all’iA, benessere degli insegnanti. • Adeguatezza pedagogica. Il principio dell’adeguatezza peda­ gogica richiama l’attenzione degli insegnanti sulle loro respon­ sabilità educative sia nei riguardi della didattica della loro disci-

piina sia verso la cura e il benessere dei bambini e degli adolescenti. Pertanto, nell’adozione di applicazioni di ia per la didattica, gli insegnanti devono tener conto di ciò che è buono, giusto e arricchente per gli studenti nella specifica comunità scolastica di appartenenza, valutando se e in che misura i bene­ fìci derivanti dal loro uso educativo superano in modo chiaro i rischi, facilitando l’esecuzione di compiti di apprendimento specifici nelle diverse discipline (unesco, zozia; zozib). Si sottolinea l’importanza di applicare I’ia attraverso pratiche scolastiche basate sull’evidenza, monitorandone e valutandone costantemente gli effetti (ieaied, zozi). In concreto, il principio dell’adeguatezza pedagogica può esse­ re declinato in riferimento a una varietà di aspetti, dalla perti­ nenza di una risorsa curricolare rispetto alla fase di sviluppo di un bambino alla leggibilità o al livello di difficoltà di un testo, alla congruenza di una tecnica o di un approccio didattico in rapporto alla tipologia di compito o al gruppo di studenti in questione. In tutti i casi, le applicazioni educative di ia devono essere adatte alle fasi di sviluppo dei bambini e degli adolescen­ ti, curvando tali tecnologie al modo in cui i bambini apprendo­ no. Di particolare interesse sono, inoltre, le considerazioni rela­ tive al possibile impatto dell’lA sullo sviluppo del senso di efficacia e di agentività degli studenti. Una ia adattiva potreb­ be ridurre il tempo di interazione tra gli studenti, accrescere il numero dì decisioni prese dalla macchina e spostare il focus su conoscenze più facili da automatizzare, privando gli studenti dell’opportunità di coltivare la propria ingegnosità, di svilup­ pare l’autoefficacia e altre competenze critiche fondamentali per il xxi secolo quali l’autoregolazione, la metacognizione, il pensiero critico e il pensiero indipendente (unesco, zozia; zozib). Pertanto, il principio dell’adeguatezza pedagogica comporta anche un attento bilanciamento rispetto ad altri principi etici dell’lA quali, ad esempio, la libertà e l’autonomia. Il richiamo al bilanciamento è presente anche a proposito

dell’uso di ia per la valutazione (ieaied, zozi): l’integrazione di ia all’interno delle piattaforme educative potrebbe favorire il passaggio da una valutazione sommativa, orientata al prodot­ to piuttosto che al processo formativo, a una valutazione conti­ nua dell’apprendimento in grado di monitorare una moltepli­ cità di fattori e valorizzare una più vasta gamma di apprendimenti; il rovescio della medaglia è che all’interno di un ambiente in cui si viene costantemente monitorati e valuta­ ti, gli studenti potrebbero sentirsi in difficoltà nell’esporsi durante le lezioni. Il principio dell’adeguatezza pedagogica riguarda anche aspetti più generali, relativi alla tutela del benessere dei minori e alle politiche di indirizzo. L’unicef (zozi) afferma che ogni applicazione educativa di ia deve essere valutata in termini di rischi e opportunità nell’ interesse del bambino : l’l A potrebbe migliorare l’erogazione dei servizi educativi, ma anche limi­ tare le opportunità di crescita dei bambini attraverso analisi predittive basate sulla pròfilazione, escludendo e discriminan­ do alcuni bambini a causa di bias algoritmici e/o accrescendo ulteriormente il divario digitale. Si parla anche di «algorit­ mi per i bambini» (wef, Z019, p. 7), mettendo in luce come, da un iato, possano essere funzionali all’orientamento verso obiettivi educativi e risultati di apprendimento positivi, dall’altro rischino di far insorgere problemi di «manipola­ zione algoritmica». Al contrario, si tratta di creare ambienti ia abilitanti e centrati sui bisogni di bambini e adolescenti attraverso forme di ricerca partecipata da attuare per e con loro, come sottolineato anche nella prospettiva dell’Unione Europea (ec dgeysc, zozz). A questo proposito, alcuni auto­ ri (Perrotta, zozz; Raffaghelli, zoz}) evidenziano la necessità di costruire un vero e proprio quadro deontologico per un uso equo, giusto e non discriminatorio dei dati {data justicé) in educazione, coinvolgendo la collettività in un dialogo pubbli­ co sugli impatti iniqui delle decisioni algoritmiche. Infine,

occorre considerare che, quando si adotta una tecnologia, si genera una relazione quasi intima tra il soggetto e il dispositi­ vo, al punto che si parla di tecnologie come estensioni del sé; laddove 1’ ia diventi una protesi del bambino o dell’adolescen­ te in quanto se ne integra l’uso in classe, insegnanti, educatori e dirigenti devono riflettere non solo sull’efficacia didattica e sui risultati di apprendimento, ma anche sulle implicazio­ ni negative che possono compromettere o ridurre lo sviluppo armonico degli studenti in termini morali o sociali (Turkle, 2018), di formazione dell’identità (Clark, 2018) o in riferi­ mento alla salute mentale e all’autonomia cognitiva (Vold, Hernàndez-Orallo, 2021). • Diritti dei bambini e degli adolescenti. Includere i diritti dei bambini tra i principi etici alla base delle scelte da operare nell’applicazione di IA nell’educazione significa riconoscere la specificità dei diritti che si applicano globalmente ai bambini e agli adolescenti. La Convenzione delle Nazioni Unite del 1990 sui diritti dell’infanzia annovera tra i diritti di bambini e adole­ scenti quello a un’infanzia sana, felice e sicura, senza discrimi­ nazione di alcun tipo, quello a un’istruzione gratuita e ricca, e quello alla privacy, tutti diritti fondamentali per regolare l’uso dell’iA nell’educazione. Sia l’UNICEF (2021) che ilwEF (2019) insistono sulla necessità di includere i diritti dell’infanzia e dell’adolescenza nelle politiche sull’1 a. Le specifiche fragilità di bambini e adolescenti richiedono adeguatezza all’età (linguaggio e comprensione), attenzione alla malleabilità rispetto a valori e idee, salvaguardia da manipolazione algorit­ mica e riduzione dell’autonomia, protezione dei dati e tutela della privacy (per inciso, ci si chiede anche fino a che punto i genitori dovrebbero avere accesso ai dati dei loro figli nelle diverse fasi dello sviluppo e a quale scopo). Altri aspetti riguar­ dano la protezione da danni fìsici e psicologici e/o la salvaguar­ dia dall’abuso di robot tutor che potrebbe compromettere lo sviluppo socioemotivo.

• Alfabetizzazione all’iA o ail. Il costrutto di ail, o di alfabe­ tizzazione all’iA, che costituisce l’oggetto specifico di questo volume, riguarda in generale la conoscenza dei concetti di base dell’ia, il possesso delle competenze utili per avvalersi criticamente delle applicazioni di ia e la consapevolezza delle consi­ derazioni etiche legate alla creazione e all’uso di ia (cfr. cap. i). L’inclusione dell’AiL tra i principi etici relativi all’uso educati­ vo di ia, nella scuola primaria e secondaria, è indicativa dell’im­ portanza assegnata all’educazione dei più giovani su questi temi da parte degli organismi internazionali. L’UNESCO (zona, p. 13) parla esplicitamente di

una pedagogia che, anziché concentrarsi su ciò in cui i computer sono bravi (ad esempio memorizzare e calcolare), metta maggiormen­ te l’accento sulle competenze umane (ad esempio pensiero critico, comunicazione, collaborazione e creatività) e sulla capacità di colla­ borare con strumenti ia pervasivi nella vita, nell’apprendimento e nel lavoro. Ovviamente, ciò richiede anche l’alfabetizzazione di insegnan­ ti o genitori come condizione per la sua attuazione (Akgun, Greenhow, 2021). • Benessere degli insegnanti. Il benessere degli insegnanti è un concetto complesso che si riferisce non solo alla loro salute fìsi­ ca, psicologica e mentale, ma comprende anche la loro capacità di gestire in modo equilibrato e dinamico le proprie risorse rispetto alle diverse sfide dell’ambiente scolastico. Nel caso specifico, l’introduzione di IA nella scuola richiede di prendere in considerazione il benessere degli insegnanti relativamente ai seguenti aspetti: aumento del carico di lavoro, necessità di sviluppo professionale continuo, tempo aggiuntivo per la preparazione dell’attività didattica, possibile riduzione delle relazioni significative con gli studenti e disoccupazione tecno­ logica. Al benessere degli insegnanti si collega quello degli studenti; è pertanto necessario che gli insegnanti abbiano

tempo e spazio per formarsi sugli scenari tecnologici emergenti e familiarizzare con il dibattito attuale sull’lA e sulle questioni etiche connesse. A valle di questa trattazione, occorre rilevare come i principi etico-pedagogici formulati dai vari organismi internazionali condividono un assunto che Adams e colleghi (1023) defini­ scono come il bias umanistico o antropocentrico. In breve, una prospettiva antropocentrica considera gli esseri umani come agenti autonomi, separati da e superiori a tutte le altre entità, comprese le tecnologie. A tale visione, questi autori contrap­ pongono il postumanesimo, una linea di ricerca che tiene conto degli ibridi mutevoli e delle intersezioni tra l’uomo e la macchi­ na, dove i confini tra umano e non umano sono più sfumati (Braidotti, 2013; Haraway, 2013): gli esseri umani che interagi­ scono con I’ia diventano ibridi umano-iA o 1 a-umano e vengo­ no quindi coinvolti in relazioni eterogenee. Il superamento di una visione antropocentrica ha, ovviamente, conseguenze sul piano etico e normativo. Fabris (2019) rileva che l’autoreferenzialità antropocentrica, tipica nel dibattito sul ruolo dell’IA nelle nostre società, finisce per considerare in modo inadeguato l’attività delle macchine, regolamentando­ le con leggi facilmente aggirabili. In alternativa, egli propone «l’assunzione esplicita di una concezione relazionale dell’es­ sere umano» con il duplice vantaggio di non considerare più il rapporto uomo-macchina solo in termini di subordinazione e controllo, e di poter «porre esplicitamente il problema di ciò che queste entità possono fare, di giudicarlo e valutarlo in base a parametri etici», distinguendo tra «l’agire proprio degli esseri umani, nella molteplicità delle sue articolazioni e nella sua specifica struttura, da quello - programmato e proce­ durale, seppur “adattabile” al proprio ambiente e capace di sviluppi inediti - che è proprio della macchina» (ivi, p. 106). Il risvolto pedagogico di questa visione consiste, a nostro avvi­ so, nel ricercare le condizioni di una possibile collaborazione

tra insegnanti, studenti e macchine, in cui il processo educati­ vo di cui gli umani sono corresponsabili trovi nella macchina un alleato didattico per il suo potenziamento nella direzione del pensiero critico, dello sviluppo dialogico e della creativi­ tà. La traduzione operativa di questa visione non è tuttavia immediata, data la sostanziale asimmetria - sul piano sociale, politico ed economico - del rapporto tra utenti e produttori di tecnologie. Ciononostante, la scuola e il mondo dell’educazione non possono rimanere ai margini della discussione sui diritti e i doveri delle parti in questa complessa rete di relazio­ ni. L’alfabetizzazione critica all’iA e, in particolare, le propo­ ste educative che seguono hanno proprio l’obiettivo di dare agli utenti, studenti e futuri cittadini, l’opportunità di impa­ rare a far sentire la propria voce su questioni che li riguardano direttamente, senza scorciatoie e nella consapevolezza della complessità.

5.2. Metodi e strumenti 5.2.1. Il debate come strumento didattico per esplorare i dilemmi etici dell’intelligenza artificiale

Quando si affrontano questioni etiche a scuola, non si può certo ricorrere a metodi didattici direttivi e unidirezionali. L’etica ha a che fare con i valori e i valori riflettono visioni diverse del bene e del male. Detto in altro modo, le questioni etiche rappresen­ tano un contenuto intrinsecamente controverso e insegnare su argomenti controversi richiede posture pedagogico-didattiche davvero aperte al dialogo, al confronto e all’argomentazio­ ne (Hobbs, 20zi). Pertanto, parlare a scuola delle sfide etiche dell’1 A, dei dilemmi etici che il suo sviluppo solleva, compor­ ta da parte dell’insegnante l’assunzione di un modo diverso di porsi verso i propri studenti, in grado di contemplare e accet­ tare la diversità riconducibile all’irriducibilità delle posizioni

e all’incertezza derivante dal fatto che non necessariamente si disponga di una risposta per tutto. Ciò vale anche per altri ambiti, ma sicuramente è vero per un campo così controverso come quello dell’etica dell’iA. Una tecnica didattica utile per esplorare i dilemmi etici dell’Ia, senza incorrere nella fallacia di trasformare i valori da discutere in fatti da trasmettere, è il debate. Questo metodo consiste in un confronto tra due individui o squadre che difendono tesi tra loro contrapposte, argomen­ tando prima a favore della propria tesi (prò) e in seguito contro la tesi opposta (contro), con possibilità di repliche reciproche (Cinganotto, Mosa, Panzavolta, zozi). In ambito scolastico, il debate offre l’opportunità a insegnan­ ti e studenti di attivare processi cognitivi e metacognitivi: lo scopo del confronto, infatti, non è tanto quello di vincere, quanto quello di migliorare le proprie capacità argomentati­ ve e di comprensione critica (Dickson, Hafer, Landa, Z015). Tipicamente il debate si sviluppa attraverso le seguenti fasi di lavoro: individuazione del tema, suddivisione della classe in gruppi di lavoro, momento laboratoriale per la raccolta dei dati e delle informazioni da usare come base delle proprie argomen­ tazioni, realizzazione del dibattito in classe con l’esposizione delle tesi prò e contro e delle relative prove a sostegno, momen­ to finale di sintesi e valutazione. Quest’ultima può essere svolta dal docente o da un gruppo di studenti, utilizzando griglie o rubriche. I tempi di esposizione sono predefiniti e limitati a pochi minuti; pertanto, è fondamentale che lo studente riesca a comunicare il proprio punto di vista nel tempo disponibile. I benefìci del debate investono sia la sfera cognitiva, compren­ dendo le strategie di studio, l’espressione orale, la produzione scritta, il pensiero critico e le capacità argomentative, sia quel­ la relazionale dato che, grazie al debate, si impara a lavorare in gruppo, a difendere la propria opinione, a controllare l’emoti­ vità e a coinvolgere/persuadere l’audience. L’efficacia di questa tecnica è documentata in diversi lavori. Osborne (zoo$), ad

esempio, ha riscontrato come il dibattito in classe favorisca l’ac­ quisizione di conoscenze disciplinari, offrendo al tempo stesso la possibilità di mostrare le proprie capacità critiche di lettura e scrittura. Mentre Dickson (2004) ritiene che il debate promuo­ va le capacità di scrittura, di lavoro in team, di analisi e pensiero critico. Il debate permette, inoltre, agli insegnanti di creare un ambiente di apprendimento in grado di favorire lo sviluppo di conoscenze attraverso la partecipazione attiva. Come implementare un debate sulle sfide etiche dell’lA a scuola? Lo svolgimento di un’attività educativa sulle questioni etiche dell’lA richiede un lavoro preliminare sulle conoscenze di base. I contenuti forniti nei capitoli precedenti, in particolare nel capitolo 2, sono senz’altro funzionali allo sviluppo di una discussione consapevole e proficua. I temi oggetto del dibatti­ to possono essere molteplici. Dì seguito, si forniscono a titolo puramente esemplificativo alcuni spunti che possono poi essere adattati a seconda dell’età dei destinatari e del livello scolare. Si è scelto di riferirsi al contesto scolastico che rappresenta sicu­ ramente per tutti un ambito più familiare rispetto ad altri (ad esempio salute, giustizia, ambiente, lavoro ecc.). • Dilemma n. 1: privacy e protezione dei dati personali. La raccolta e l’analisi dei dati degli studenti attraverso sistemi di apprendimento basati su ia minacciano la privacy e la sicurezza dei dati personali degli alunni oppure favoriscono la persona­ lizzazione dei percorsi di apprendimento, il monitoraggio precoce delle difficoltà e il miglioramento del processo di inse­ gnamento e apprendimento? • Dilemma n. 2: disparità ed equità. L’ia può amplificare le disuguaglianze educative, accentuando le differenze socioecono­ miche o culturali e favorendo alcuni gruppi di studenti rispetto ad altri, oppure può estendere l’accesso all’istruzione a studenti che potrebbero trovarsi in luoghi geograficamente remoti o che hanno difficoltà a partecipare alle tradizionali lezioni in presen­ za, riducendo così le barriere all’apprendimento?

• Dilemma n. 3: bias e discriminazione. L’ia può ereditare pregiudizi e bias dai dati con cui viene addestrata, generando discriminazione nei confronti di certi gruppi di studenti e perpetuando stereotipi o favorendo l’assunzione di decisioni ingiuste oppure può contribuire a ridurre il potenziale per il bias umano nelle decisioni educative, fornendo valutazioni e raccomandazioni basate su algoritmi obiettivi e standardizzati o anche aiutando a rilevare in modo tempestivo i potenziali bias nei materiali educativi e nelle valutazioni? • Dilemma n. 4: automazione vs ruolo dell*insegnante. L’uso dell’lA conduce alla sostituzione o al ridimensionamento del ruolo degli insegnanti, generando vantaggi come riduzione dei costi, monitoraggio continuo e maggiore oggettività, oppure il valore dell’interazione umana, dell’empatia del rapporto diret­ to tra insegnante e studenti, rimane insostituibile per la sua intrinseca rilevanza? • Dilemma n. $: responsabilità e controllo. Gli algoritmi basati sull’lA possono prendere decisioni complesse che coinvolgono una vasta quantità di dati. Gli educatori potrebbero non avere un controllo completo sui sistemi di ia, poiché tali sistemi possono apprendere e adattarsi in modo autonomo. Pertanto, chi è responsabile se un sistema basato sull’IA prende decisioni errate, dannose o ingiuste in ambito didattico o valutativo? Rimane comunque conveniente affidarsi a questi sistemi auto­ matizzati oppure la riduzione del controllo sugli esiti del processo suggerisce di rinunciarvi? Volendo allargare il focus ad altri ambiti, ulteriori questioni da dibattere potrebbero essere: • L’ 1 a può migliorare la nostra vita rendendola più efficiente oppure la può peggiorare portando alla perdita di posti di lavoro? • L’ia può aiutare a risolvere problemi complessi come la diagnosi medica oppure può favorire la sorveglianza invasiva e la violazione della privacy ?

• L’ ia migliora la ricerca scientifica avanzata oppure favorisce l’assunzione di decisioni sbagliate o discriminatorie? 5.2.2. Lo studio di caso come strumento didattico per analizzare gli aspetti etici dell’intelligenza artificiale

Accanto al debate, una tecnica didattica che si può utilizzare per trattare argomenti delicati e controversi come le questio­ ni etiche relative all’uso e allo sviluppo dell’iA è lo studio di caso. Utilizzata inizialmente in contesto giuridico, questa tecni­ ca viene oggi applicata anche in altri campi quali la medicina, l’economia, l’ingegneria, l’agricoltura ecc., ricevendo atten­ zione soprattutto in ambito costruttivista (si veda ad esempio Kinzie, Hrabe, Larzen, 1998 o più recentemente Bonney, 2015), soprattutto per promuovere capacità di pensiero critico (Popil, 2011). Lo studio di caso consiste nel presentare agli studenti un problema oppure una situazione reale o verosimile da analizzare o su cui formulare ipotesi o che richiede la presa delle decisioni più opportune alla luce di una determinata situazione. Reynolds (1980) ha classificato i casi secondo tre tipologie fondamentali: 1. Studio di caso orientato alla presa di decisioni (decision o dilemma cases): agli studenti vengono illustrati i problemi da affrontare o le decisioni da prendere da parte del/i protagonista/i di una storia. Il caso viene descritto focalizzandosi sul problema da risolvere c introducendo il/i decisore/i nel momen­ to della crisi. Può essere arricchito di materiali informativi che forniscono un quadro del contesto complessivo, oltre a risorse integrative come tabelle, grafici, lettere o documenti su cui basarsi per formulare una possibile soluzione del problema. 2. Studio di caso orientato all’individuazione e all’analisi di problemi (appraisalcases o issue cases}\ ai partecipanti viene presentato del materiale e il docente pone semplici domande quali “Che cosa è successo o che cosa sta succedendo?”. Solita­ mente manca un protagonista e ai partecipanti non viene chie­

sto di prendere decisioni, ma di analizzare e valutare le proble­ matiche del caso. 3. Storie di casi {case histories)-. si tratta di storie concluse e generalmente meno coinvolgenti delle precedenti proprio perché già terminate. Si possono usare sotto forma di modelli esemplificativi a cui ispirarsi, come ad esempio la narrazione di scoperte scientifiche, per far comprendere allo studente in che modo avviene una scoperta. Indipendentemente dalla tipologia, lo scopo dello studio di caso non è quello di trovare la soluzione giusta, ma di proporre situa­ zioni verosimili per stimolare lo studente a riflettere attraverso l’analisi di situazioni reali. Per questo, tale metodo si presta a delineare proposte educative nel campo dell’etica applicata, come nel caso di quella dell’IA. Uno dei principali svantaggi dello studio di caso è la sua rapida obsolescenza, specie in ambi­ to tecnologico: uno studio di caso, infatti, può essere significati­ vo solo per due o tre anni, poi deve essere aggiornato. Pensando a una sua implementazione in classe, proponiamo di seguito due possibili dilemma cases, da adattare al livello scolastico e arricchire con materiali informativi contestualizzati. Il docente introdurrà il caso e la domanda problematica. Successivamente, gli studenti in gruppo consulteranno la documentazione forni­ ta e discuteranno le possibili scelte effettuabili nelle circostanze date. Al termine dell’attività, gli esiti della discussione di grup­ po verranno condivisi con il resto della classe. I diversi gruppi, guidati da un’opportuna griglia di indicatori, potranno valutar­ si reciprocamente apprezzando la qualità delle argomentazioni e l’efficacia delle soluzioni proposte. Studio di caso n. 1. L'algoritmo dell'ammissione scolastica

Nella città di Tecnopoli, una delle migliori scuole superiori, l’istituto delle scienze e della tecnologia (ist), stava assisten­ do a un aumento considerevole di domande di ammissione da

parte degli studenti. La scuola aveva una reputazione di eccel­ lenza e stava diventando sempre più difficile selezionare gli studenti tra i numerosi candidati. Per affrontare questa sfida, la direzione della scuola decise di implementare un algoritmo basato sull’Ia per assistere il personale scolastico nella fase di ammissione. L’algoritmo aveva accesso a una vasta quantità di dati, inclusi i risultati scolastici precedenti, i test standardizzati, la partecipazione ad attività extracurriculari e altro. Utilizzando queste informazioni, l’algoritmo classificava i candidati in base a un punteggio di ammissione, che determinava chi veniva accettato e chi veniva respinto. Il punteggio era basato su una serie di metriche, tra cui le prestazioni accademiche passate e il coinvolgimento in attività extrascolastiche. Mentre l’algoritmo sembrava promettente per semplificare il processo di selezione, emerse un grave dilemma etico. Gli educa­ tori e i genitori cominciarono a notare che l’algoritmo sembra­ va favorire gli studenti provenienti da famiglie più abbienti, in quanto avevano più opportunità di partecipare ad attività extra­ scolastiche di alto livello e ricevere istruzione supplementare per migliorare le loro prestazioni accademiche. Di conseguenza, gli studenti provenienti da famiglie a basso reddito o meno privile­ giate erano svantaggiati nel processo di ammissione. Dilemma', L’istituzione deve bilanciare la necessità di semplifi­ care il processo di ammissione attraverso I’ia con la responsa­ bilità etica di garantire un processo equo e non discriminante. Come dovrebbe affrontare questa situazione? Come possono essere apportate modifiche all’algoritmo per ridurre l’ingiusti­ zia che si viene a generare ? Studio di caso n. 2, L'algoritmo per il tutoraggio personalizzato

In una scuola superiore di Eduville, un distretto scolastico impe­ gnato nell’uso dell’lA per migliorare l’apprendimento degli studenti, è stato implementato un sistema avanzato di tutorag-

gio personalizzato basato suII’ia. Questo sistema si fondava sull’analisi di dati analitici sugli studenti, tra cui le prestazioni passate, le preferenze di apprendimento, il comportamento in classe e le informazioni personali, per fornire raccomandazioni di apprendimento altamente personalizzate. Il sistema si era rivelato molto performante, generando effetti positivi sulle prestazioni degli studenti, adattando le lezioni e le risorse alle esigenze specifiche di ciascuno. Gli studenti stava­ no ottenendo risultati eccezionali, superando le aspettative. Tuttavia, l’uso di dati così analitici aveva suscitato preoccupa­ zioni etiche. Alcuni genitori e insegnanti erano preoccupati per la quantità di dati personali degli studenti raccolti e utilizzati dal sistema. La loro preoccupazione principale riguardava la privacy e la sicurezza di tali informazioni, specialmente alla luce dei crescenti timori relativi alla violazione dei dati personali. Dilemma-. La scuola deve bilanciare l’uso dell’IA per il tutoraggio personalizzato, che genera benefìci sul piano degli appren­ dimenti degli studenti, con la necessità di proteggere la privacy e la sicurezza dei dati personali. Come dovrebbe affrontare questa situazione? Quali misure possono essere adottate per garantire la massima protezione della privacy degli studenti senza compromettere l’efficacia dell’apprendimento personalizzato basato suII’ia?

Bibliografia

ACRL - ASSOCIATION OF COLLEGE AND RESEARCH LIBRARIES (2016),

Eramework far Information Literacyfor Higher Education, American Library Association, Chicago (il), in https://libguides.bentlcy.edu/ informationliteracy/standards/framcwork. ad adì A., berrada M. (2018), Peeking inside thè Black-Box: A Survey on Explainable ArtificialIntelligence (xai), in “ieee Access”, 6, pp. 52138-60. adams c. et al. (2023), EthicalPrinciplesfor ArtificialIntelligence in K-12 Education, in “Computers and Education: Artificial Intelligence” 4, 100131. aguzzi G. et al. (1976), Introduzione alla programmazione e linguaggio FORTRAN, Le Monnicr, Firenze. AI HLEG - HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE (2019), Ethics Guidelines for Trustworthy Al, Europcan Commission, Brussels. akgun s., GREENHOW c. f vii), Artificial Intelligence in Education: AddressingEthical Challenges in K-12 Settings, in “ai and Ethics”, 2, pp. 1-10. AL GORA lab (2021), Volet 2.4 - The Montreal Declaration and Public Deliberation, in https://youtu.be/4K-SWLI15G3U. amirova A. et al. (2021), io Years ofHuman-NAO Interaction Research: A ScopingReview, in “Frontiers in Robotics and Al”, 8, 744526. anderson M., anderson s. L. (2007), MachineEthics: Creatingan Ethi­ cal Intelligent Agent, in “ai magazine”, 28,4, pp. 15-26. Arnold T., SCHEUTZ M. fo>\7\Beyond MoralDilemmas: Exploringthe EthicalLandscape in HRI, in HRI "17: Proceedings ofthè 2017 ACM/ieee International Conference on Human-Robot Interaction (Vienna, March 6-9). PP- 445-52arrieta A. B. et al. (2020), Explainable Artificial Intelligence (xai): Concepts, Taxonomies, Opportunities and Challenges toward Responsible Ai, in “Information Fusion”, 58, pp. 82-115. asimov 1. (2021), Io, robot, Mondadori, Milano. BAKER R. s. et al. (2021), Towards Sharing Student Models Across Learning Systems, in I. Roll et al., Artificial Intelligence in Education: 22nd Interna­

tional Conference, aied 2021. Utrecht, The Netherlands, June 14-18, 2021. Proceedings, Partii, Springer, Cham, pp. 60-5. barocas s.» hardt M., narayanan A. (2017), Fairness in Machine Lear­ ning: Limitations and Opportunities, in fairmlbook.org. BAROCAS s. et al. (2017), The Problem with Bias: Allocative Versus Representational Harms in Machine Learning, in Special Interest Group for Computing, Information, and Society (Mountain View, CA, March 18-19). BARON M. (2006), Probability and Statistics for Computer Scientists, Chapman and Hall/CRC, New York. ID. (2013), Probability and Statistics for Computer Scientists, CRC Press, Milton Park. bellini A., guidi A. (2022), Python e machine learning, McGraw-Hill, New York. bhargavar., d’ignazio C. (iQi$),DesigningToolsandActivitiesforData Literacy Learners, in Data Literacy Workshop, Webscience, Oxford, pp. 1-5, https://www.media.mit.edu/publications/designing-toolsand-activities-for-data-literacy-lcarners/. BISHOPC.M. (200 6), Pattern Recognition and Machine Learning, Springer, New York. blum-ROSS A. et al. Looking Fortvard: Technological and Social Changein thè Lives ofEuropean Children and YoungPeople, ict Coalition, Bruxelles. boddington P. (i