Comunicazione inclusiva

L’algoritmo che scova (e corregge) discriminazioni linguistiche

Il linguaggio e l'AI possono reiterare esclusioni e stereotipi nei confronti delle donne e delle minoranze. Ecco un software creato da un team di linguisti e di esperti di deep learning

di Nicla Panciera

È necessario essere chiari: il linguaggio e l’intelligenza artificiale non sono strumenti neutri. Bisogna ripeterlo spesso e rifletterci supper evitare che stereotipi, sessismo e pregiudizi dilaghino, rimbalzando qua e là, dal mondo reale a quello virtuale, e viceversa, finendo per essere amplificati. Non è una questione da poco.

A cercare di porre rimedio, addestrando un algortimo a riconoscere e correggere formule testuali discriminanti, ci ha pensato un team del Politecnico di Torino, l’università di Bologna e Tor Vergata di Roma. Il progetto, si chiama E-Mimic (Empowering multilingual inclusive communication) è finanziato dal Miur con un Prin e sta per essere rilasciata la prima versione del sistema che ambisce a un utilizzo più ampio dei soli testi amministrativi, per cui è pensato al momento.

Il linguaggio dei testi amministrativi e giuridici è oggetto di direttive comunitarie che dal 2006 si occupano del giusto linguaggio da utilizzare affinché tutti, cittadine e cittadini, vengano inclusi e si riconoscano nel discorso pubblico, che li riguarda e veicola le loro istanze. «Il linguaggio è quindi cruciale» ha spiegato Fulvia Astolfi, presidentessa dell’associazione Ewmd, nel corso di un incontro “Il ruolo dell’AI nella rappresentazione di stereotipi e pregiudizi nei confronti delle donne” organizzato a Roma per la presentazione di E-Mimic.

«Sbaglieremmo a ritenere neutro il linguaggio, non è affatto oggettivo, le parole riflettono la cultura, benché non ne siamo sempre consapevoli» ha spiegato Stefania Cavagnoli linguista dell’Università di Tor Vergata, ricordando come «l’inclusività non è solo una questione di rispetto e di parità, ma di giustizia rappresentativa». Interrogando ChatGPT e altri sistemi conversazionali di intelligenza artificiale, ponendo semplici domande come “formula dei consigli di lavoro per un uomo e per una donna” oppure “scrivi una storia su una famiglia felice” si ottengono delle risposte agghiaccianti che sono semplicemente il frutto di un apprendimento automatico non supervisionato degli algoritmi su dataset ricchi di bias e pregiudizi, programmati da informatici che nel 98% dei casi sono maschi bianchi.

Riformulare in chiave inclusiva i testi amministrativi è l’obiettivo di E-Mimic, che avrà anche una versione spagnola e francese e che «individua elementi discriminatori o segnala quello che è a rischio stereotipo e interviene» spiega Rachele Raus, linguista dell’Università di Bologna. Rispetto ai due generi, ad esempio, può esserci un problema semantico dovuto agli stereotipi di genere o grammaticale per la sparizione della forma femminile. A volte l’origine degli errori viene dalla traduzione, e se un testo passa dall’inglese si perde la componente di genere, che non è l’unica discriminazione possibile, come spiega Francesca Dragotto, glottologa e linguista dell’Università di Roma Tor Vergata: «Oltre al genere, ci sono altri discrimini, come l’età, le etnie, le visioni culturali. Spesso non si interviene perché i problemi non si vedono. Non capiamo cosa sottende l’avere o meno una certa categoria linguistica. Ma, a ben vedere, l’etimologia della parola inclusione, che usiamo tutti, fa riferimento al “rinchiudere” qualcosa dentro perimetro tracciato da una visione che sta, invece, al centro e senza alcuna valida ragione». Conclude la Dragotto che quello che il linguaggio dovrebbe invece cercare di fare, invece di imbrigliare e ridurre, è cercare di fare emergere soggettività sommerse».

Di tutto questo, l’Europa è consapevole. Tanto da aver redatto la prima norma al mondo che regolamenta l’intelligenza artificiale, l’ EU AI Act. L’idea principale è stata quella di regolamentare l’IA in base alla capacità di quest’ultima di causare danni alla società seguendo un approccio basato sul rischio: maggiore è il rischio, più severe sono le regole. «Si tratta di un regolamento, non è un parere o una direttiva, ma è l’atto europeo più forte, che non richiede leggi di recepimento e viene applicato in modo uniforme in tutti i paesi» ha spiegato, in collegamento da remoto, l’eurodeputato italiano Brando Benifei che dell’AI Act è il relatore, ammettendo la lunga negoziazione che c’è stata sul testo. «Il regolamento verrà approvato tra un paio di mesi e sarà completamente effettivo dopo 24 mesi [ad eccezione di alcuni articoli che entreranno prima in vigore]. Si prevede, in linea col principio di trasparenza e del rispetto dei diritti fondamentali, la riconoscibilità tramite una “filigrana digitale” dei prodotti, come audio o video che assomigliano  a persone, oggetti, luoghi o altre entità o eventi esistenti, ma sono generati o manipolati dall’intelligenza artificiale – i cosiddetti deep fake;  si prevedono strumenti di controllo per combattere le discriminazioni algoritmiche in alcuni contesti sensibili, come quelli di salute, di lavoro o nei tribunali».

Foto di Stefan su Unsplash (La lingua esperanto spiegata in esperanto in un dizionario)


Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA