Intelligenza artificiale
Tecnologia a prova di diritti
Esperti internazionali hanno discusso di Ai e diritti umani in una tavola rotonda nell'ambito della terza edizione della conferenza sullo stato globale dei diritti umani, organizzata a Venezia da Global Campus of Human Rights and Right Livelihood
Che cosa si sta facendo e che cosa è stato fatto finora nel campo dell’intelligenza artificiale ? Quale è il ruolo delle istituzioni? Quali sono le minacce e le possibilità dell’Ia, e qual è il suo impatto sui diritti e le libertà fondamentali?
Ne ha discusso una tavola rotonda su intelligenza artificiale e diritti umani, nell’ambito della terza edizione della Conferenza di alto livello sullo stato globale dei diritti umani, organizzata a Venezia da Global Campus of Human Rights, network di oltre 100 università al mondo che offre formazione su diritti umani e democrazia, insieme a Right Livelihood. Quest’anno la conferenza ha celebrato il 75esimo anniversario della Dichiarazione universale dei diritti umani e il 40esimo anniversario della Conferenza Mondiale sui Diritti Umani, organizzata a Vienna nel 1993 dalle Nazioni Unite.
«L’Unione europea», ha detto George Ulrich, direttore accademico di Global Campus of Human Rights, aprendo la tavola rotonda, «sta per adottare una legislazione sull’intelligenza artificiale, così come la Casa Bianca, per menzionare solo alcuni esempi». (..) «L’intelligenza artificiale preoccupa molte istituzioni», ha affermato. «È necessario esaminare quali sono le minacce e le possibilità dell’Ai, quale legislazione si può adottare e i passi che si possono intraprendere».
Michael O’Flaherty, direttore dell’Agenzia Ue per i diritti fondamentali, ha dichiarato: «Abbiamo ancora una lunga strada da percorrere per avere legislazioni e standard industriali sull’intelligenza artificiale rispettosi dei diritti umani. (Qui il tweet). Il direttore dell’Agenzia Ue per i diritti fondamentali ha anche evidenziato come ci siano livelli molto bassi di consapevolezza dei diritti umani nella comunità tech degli Stati Uniti. «Mi ricordo una conversazione che ho avuto con giganti della tecnologia della Silicon Valley», ha spiegato: «Ho trovato brave persone con buona volontà, e buone società, ma una grandissima ignoranza riguardo alla struttura dei diritti umani». Che cosa si può fare? «Il ruolo della società civile è sempre cruciale, ma è particolarmente necessario e decisivo nella relazione tra tecnologia e diritti umani», ha detto Michael O’Flaherty. In quest’ambito infatti «la società civile ha giocato un ruolo fondamentale, generando idee, modelli e attenzione. E più di ogni altro settore è riuscita a mettere insieme due mondi così diversi, la tecnologia e i diritti umani».
A giugno di quest’anno il Parlamento europeo ha approvato la prima legislazione al mondo per regolamentare l’uso dell’intelligenza artificiale. La normativa europea (AI Act) si propone di assicurare uno sviluppo etico e umanocentrico dell’intelligenza artificiale in Europa, con nuove regole di trasparenza e di gestione del rischio per i sistemi di intelligenza artificiale.
«Quella che è stata approvata non è una raccomandazione. È un regolamento, quindi una legge. Questo significa che, una volta approvato, ha la stessa cogenza in tutta Europa. Il regolamento avrà un impatto significativo anche sul dibattito governativo sull’intelligenza artificiale a livello globale». Così Brando Benifei, membro del Parlamento europeo e relatore principale del regolamento.
«Con questa legislazione responsabilizziamo coloro che stanno effettivamente sviluppando il sistema, ma vogliamo che anche gli utenti abbiano qualche responsabilità nella catena di attenuazione dei rischi», ha spiegato Brando Benifei, che ha continuato: «Con il regolamento sull’Ia istituiamo quadri di riferimento, sistemi, codici di condotta per attenuare i rischi anche per i diritti fondamentali». Per quanto riguarda le responsabilità «la normativa è incentrata sulle responsabilità degli sviluppatori, dei provider, dei sistemi di intelligenza artificiale, cercando di evitare quello che potrebbe succedere se si lasciasse tutto al mercato», ha spiegato Benifei. «Naturalmente saranno applicate le norme esistenti. Per esempio, se si guarda lo scenario europeo, c’è il Gdpr, che è applicato ovunque».
«L’obiettivo del regolamento è questo: mitigare, ridurre quanto più possibile i rischi per i diritti fondamentali, non eliminarli del tutto, che sarebbe probabilmente troppo difficile. Il regolamento è un serio tentativo di proteggere i diritti umani allo stadio finale, quando l’intelligenza artificiale raggiunge l’utente», ha detto Brando Benifei.
«Abbiamo proposto una limitazione molto estesa del riconoscimento biometrico da parte delle forze dell’ordine nei luoghi pubblici, divieti di sistemi di polizia predittiva, di riconoscimento emotivo nelle scuole, nei posti di lavoro e ai confini degli Stati. La migrazione è un diritto fondamentale molto cruciale». Brando Benifei ha affermato che sarà necessario discutere con il governo per proibire il riconoscimento emotivo ai confini, e che questa tecnologia è stata utilizzata per violare diritti fondamentali.
Thérèse Murphy, professoressa alla Queen’s University di Belfast e all’università di Lund, ha sottolineato: «Quello che riscontro è un sorprendente basso livello di alfabetizzazione sui diritti umani nei gruppi di consulenza sull’etica, sia che si occupino di intelligenza artificiale, sia di altri aspetti della scienza, della tecnologia, della medicina o della salute».
Frans Viljoen, direttore del Centro per i diritti umani dell’Università di Pretoria (Sudafrica) e membro del comitato di consulenza del Consiglio sui diritti umani dell’Onu, ha evidenziato come in Africa si lavori meno sull’intelligenza artificiale: «C’è mancanza di investimento nel continente africano, e una regolamentazione fragile, dovuta alla mancanza di risorse». Viljoen ha anche espresso preoccupazione riguardo all’uso di nuove tecnologie emergenti in campo militare. «Abbiamo bisogno di porre in essere misure di protezione e di accountability», ha detto. (Qui il tweet)
«Dobbiamo riflettere sul ruolo dell’intelligenza artificiale nei sistemi educativi, e integrare le applicazioni e i framework di intelligenza artificiale nell’educazione formale», ha detto Łukasz Szoszkiewicz, assistant professor all’Adam Mickiewicz University di Poznan. (qui il tweet).
Su educazione e diritti umani Manfred Nowak, segretario generale di Global Campus of Human Rights, in chiusura della conferenza, ha detto che bisogna rendere popolari i diritti umani. «L’educazione ai diritti umani è necessaria, e dovrebbe essere obbligatoria nelle scuole». Nowak, professore di diritti umani all’università di Vienna, ha così concluso: «Dobbiamo includere i bambini nei processi decisionali, come, per esempio, nel campo dell’attenuazione del cambiamento climatico e dell’intelligenza artificiale».
In allegato l’articolo in inglese sulla conferenza di alto livello sullo stato globale dei diritti umani
Articolo in inglese di Cristina Barbetta
Foto di apertura: Manfred Nowak, segretario generale di Global Campus of Human Rights, apre la conferenza sullo stato globale dei diritti umani. Al centro della foto, al tavolo: Dunja Mijatović, commissaria per i diritti umani del Consiglio d’Europa, e Eamon Gilmore, rappresentante speciale dell’Unione europea per i diritti umani.
Le foto dell’articolo sono di Global Campus of Human Rights
Nessuno ti regala niente, noi sì
Hai letto questo articolo liberamente, senza essere bloccato dopo le prime righe. Ti è piaciuto? L’hai trovato interessante e utile? Gli articoli online di VITA sono in larga parte accessibili gratuitamente. Ci teniamo sia così per sempre, perché l’informazione è un diritto di tutti. E possiamo farlo grazie al supporto di chi si abbona.