Education
AI ed essere umano, un rapporto che si impara a scuola
L'UNESCO ha proposto un vademecum per la regolamentazione dell'uso dell'Intelligenza Artificiale nella scuola. Occorre uscire dal vicolo cieco di un certo entusiastico determinismo. Come? Partendo dalle regole. Poche, per ora, ma necessarie. Un limite minimo di età di 13 anni per l'uso dell'AI in classe, l'adozione di standard di protezione dei dati e della privacy; l'organizzazione di una formazione di informatica e di informatica umanistica di base
di Marco Dotti
Le innovazioni digitali possono – e devono – essere progettate per proteggere l’agency, ovvero l’autonomia e la libertà umana. Un approccio etico all’Intelligenza Artificiale (AI) può essere praticato nelle sue linee essenziali solo incrociando due strategie. La prima, è quella di un approccio di etica by design, come nel recente AI Act del Parlamento europeo. La seconda è quella di un’etica in co-design, strutturata dal basso, che punta a limitare in fase “d’uso” gli aspetti potenzialmente dannosi per gli utilizzatori e per i terzi dell’AI. Ed è qui che il Terzo settore dovrebbe giocare – nel poco tempo che rimane, senza aspettare bandi o convocazioni o quant’altro – la propria primaria partita di senso.
Partendo da questi spunti, nell’ultimo numero del suo corriere di informazione l’UNESCO ha proposto un vademecum per la regolamentazione dell’uso dell’Intelligenza Artificiale nella scuola, che è tra gli ambiti potenzialmente più esposti a subirne impatti negativi. Osserva Stefania Giannini, che di UNESCO è Assistant Director-General for Education, «la tecnologia non deve mai sostituire gli insegnanti umani e ben formati che guidano gli studenti nel loro sviluppo olistico, come individui e membri della società. Per sbloccare la promessa delle opportunità digitali per tutti, dobbiamo guidare la tecnologia nell’istruzione alle nostre condizioni, guidati dai principi di inclusione, equità, qualità e accessibilità».
Scegli la rivista
dell’innovazione sociale
Sostieni VITA e aiuta a
supportare la nostra missione
L’uso dell’intelligenza artificiale nell’istruzione deve essere soggetto a supervisione e a valutazioni indipendenti. Solo così, sostiene Ben Williamson, co-direttore del Centre for Research in Digital Education dell’Università di Edimburgo, le agenzie educative saranno in grado di mantenere la loro missione di sviluppare il pensiero critico e di formare i cittadini di domani. Questo perché, ha osservato Williamson in un recente articolo pubblicato sull’ International Journal of Artificial Intelligence in Education, benché sia naturalmente è prevedere i rischi a valle di qualsiasi nuova tecnologia, «i professionisti dell’istruzione possono tuttavia considerare la storia più lunga dell’AI e delle tecnologie correlate, e vedere come i loro effetti si siano raramente manifestati nei modi direttamente benefici e idealizzati». Un futuro positivo per l’AI nell’ambito dell’istruzione «comporterebbe un impegno più profondo tra gli sviluppatori le voci più critiche delle scienze sociali». I primi apportano preziose competenze progettuali e tecniche i secondi apportano competenze nella comprensione dei complessi e spesso involontari effetti sociali che le tecnologie comportano. Occorre uscire dal vicolo cieco di un certo entusiastico determinismo. Come? Partendo dalle regole. Poche, per ora, ma necessarie. Un limite minimo di età di 13 anni per l’uso dell’AI in classe, l’adozione di standard di protezione dei dati e della privacy; l’organizzazione di una formazione di informatica e di informatica umanistica di base per gli insegnanti sono tra le raccomandazioni della prima Guida globale sull’AI generativa pubblicata dall’UNESCO il 7 settembre 2023 (qui il testo della guida) . Un documento da leggere in relazione con un altro documento UNESCO del 2021, ma non invecchiato, le Raccomandazione sull’etica dell’intelligenza artificiale (lo trovate qui).
Nel documento di settembre l’UNESCO avverte che l’utilizzo dell’AI nelle scuole si sta diffondendo a un ritmo troppo rapido, con una preoccupante mancanza di controlli, regole o normative. Il settore dell’istruzione è in gran parte impreparato all’integrazione etica e pedagogica di strumenti in rapida e continua evoluzione. Una recente indagine globale su oltre 450 scuole e università ha mostrato infatti che meno del 10% di esse dispone di politiche istituzionali e/o orientamenti formali sull’uso delle applicazioni di AI generativa, soprattutto a causa dell’assenza di normative nazionali.
Il documento sottolinea alcuni rischi immediati nella diffusione anarchica dell’AI nelle scuole. In particolare, esiste il rischio concreto che gli esseri umani possano delegare interi processi di pensiero e acquisizione di competenze di base all’AI, concentrandosi invece esclusivamente sulle abilità di pensiero funzionale basate sugli output forniti dall’AI (sviluppando, ad esempio presunte skills sui cosiddetti propt).
Un altro rischio è quello di una «scrittura senza pensiero». L’uso dell’AI per generare testi può essere infatti associato al concetto di «writing without thinking», poiché gli esseri umani possono iniziare con un’outline ben strutturata fornita dall’AI anziché partire da zero per pianificare gli obiettivi, lo scopo e la struttura di un insieme di idee. Il documento sottolinea inoltre l’importanza che gli strumenti di IA siano progettati per estendere o potenziare le abilità intellettuali e sociali umane, anziché minarle, entrare in conflitto con esse o sostituirle. In questo senso diventa cruciale proteggere e tutelare la cosiddetta human agency, ossia la capacità e la libertà degli esseri umani di agire e prendere decisioni in modo consapevole e intenzionale in relazione all’uso dell’Intelligenza Artificiale generativa.
Dalla tutela dell’agency e dalle capacità umane dipende o meno un futuro inclusivo, equo e sostenibile in relazione al bene comune della conoscenza. In termini di governance, un approccio centrato sull’essere umano richiede una regolamentazione adeguata che possa garantire l’agency umana, la trasparenza e la responsabilità pubblica. Per questa ragione la protezione e il potenziamento dell’agency umana dovrebbero essere sempre al centro delle principali preoccupazioni quando si progetta e si adotta un’intelligenza artificiale. Le implicazioni a lungo termine della AI per l’istruzione riguardano infatti il rapporto complementare tra l’agency umana e le macchine. È su questo terreno che, in definitiva, ci giochiamo tanto. Forse tutto.
17 centesimi al giorno sono troppi?
Poco più di un euro a settimana, un caffè al bar o forse meno. 60 euro l’anno per tutti i contenuti di VITA, gli articoli online senza pubblicità, i magazine, le newsletter, i podcast, le infografiche e i libri digitali. Ma soprattutto per aiutarci a raccontare il sociale con sempre maggiore forza e incisività.