Nuove tecnologie
Quando il giornalista è un’Ai: i rischi di un’informazione automatizzata
Sempre più redazioni utilizzano le intelligenze artificiali all'interno del loro lavoro quotidiano. Se i sistemi di analisi e di traduzione e trascrizione automatica possono portare reali benefici, gli strumenti generativi - come Chat gpt - portano con sé dei rischi che potrebbero viziare ancora di più il mondo dell'informazione
L’intelligenza artificiale – Ai sta entrando sempre più prepotentemente nelle nostre vite. Un campo in cui questo ingresso desta maggiori preoccupazioni è quello dell’informazione, già messo in pericolo dalla circolazione di pericolose fake news, che potrebbero diventare strutturali se le Ai venissero utilizzate in maniera massiccia e indiscriminata all’interno delle redazioni. Questo rischierebbe di provocare tensioni sociali e di alimentare pregiudizi e stereotipi, già presenti online. Dei rischi delle nuove tecnologie nel mondo dell’informazione si parlerà in un incontro il 31 ottobre al Circolo dei lettori di Torino, durante il quale interverrà Fabio Chiusi, ricercatore all’università di San Marino che lavora anche con l’ong Algoritm watch, con cui ha seguito alcuni progetti sull’impatto delle Ai sulle dinamiche sociali.
Quali sono i rischi collegati all’utilizzo delle nuove tecnologie nel mondo dell’informazione?
Devo fare una premessa: si tratta di una materia in una tale evoluzione che è difficile trarre delle conclusioni definitive; in questo momento si possono vedere delle tendenze, si possono vedere dei problemi strutturali che queste tecnologie hanno. È molto difficile dire – per esempio – qual è il vero contributo oggi dell’intelligenza artificiale nel contesto informativo, perché semplicemente c’è troppo in corso, le tecnologie sono ancora in forte evoluzione. Il primo elemento che vorrei sottolineare è la cautela: io insegno il rapporto tra giornalismo e Ai all’Università di San Marino da quattro-cinque anni ormai e posso assicurare che ogni anno non ho dovuto aggiornare il corso, ho dovuto proprio riscriverlo. Nell’ultimo anno e mezzo, in particolare, c’è stata un’accelerazione da quando sono arrivati i primi strumenti di intelligenza artificiale generativa. Per quanto riguarda i rischi concreti, il primo punto veramente problematico – per quello che si è visto finora – è legato ai modi il cui l’intelligenza artificiale riesce a generare disinformazione, che sono molto più rapidi ed efficaci. Questo è un grosso problema strutturale, perché le macchine, pur avendo tassi di errori o di creazioni fantasiose sempre inferiori, hanno di base delle «allucinazioni», inventano fonti scientifiche, date, giorni, numeri, statistiche e fatti. E siccome le Ai hanno una capacità linguistica molto articolata le informazioni che danno sembrano vere. Oggi la democratizzazione delle intelligenze artificiali creative coincide con una sorta di democratizzazione di fare campagne sofisticate di propaganda, manipolazione e di disinformazione sui vari mezzi online.
Per esempio?
Lo stiamo vedendo, nella possibilità di creare dei deepfake, soggetti avatar virtuali con cui si creano dei video falsi in cui persone famose dicono cose non vere, anche in contesti di guerra, per esempio. Vengono inventate pagine e pagine di paranotizie, che servono soltanto a riempire i primi risultati dei motori di ricerca o gli algoritmi dei feed sui social media, senza dare alcuna informazione attuale, quando non danno informazioni fuorvianti. Ci sono molti modi, quindi, per creare disinformazione in maniera molto semplice con questi strumenti, mentre le tutele che un lettore o una persona che vuole avere delle notizie corrette può mettere in campo dal punto di vista tecnologico non sono adeguate. Le soluzioni proposte, come il watermarking – lasciare cioè delle tracce digitali all’interno del file per stabilire che si tratta di un prodotto dell’ai – agli strumenti che consentono, utilizzando l’intelligenza artificiale, se un video è vero o no, sono estremamente fallibili. Per esempio non consentono a me che sono un docente di stabilire con certezza se un compito che mi viene consegnato in classe è stato scritto da una macchina o da uno studente, quindi sono costretto, molto spesso, a chiudere un occhio o a rischiare una denuncia, accusando di essere falsaria e bugiarda una persona che in realtà ha prodotto un suo lavoro.
E da cosa deriva questa impreparazione della società alle nuove tecnologie?
Da una fretta di lanciare questi prodotti in un contesto normativo e sociale – anche in termini di capacità di gestire queste novità – inadeguato. Questi strumenti sono stati rilasciati al pubblico con capacità molto grandi, che tuttavia andavano valutate molto prima di metterle a disposizione in una situazione informativa già fortemente inquinata come quella attuale. Aggiungere questo strato di automazione intelligente che può produrre notizie plausibili ma non necessariamente vere dovrebbe essere considerata una colpa storica delle persone che hanno spinto in questa direzione in maniera «libertina». E ne vedremo le conseguenze e la portata tra un po’, quando le polveri saranno un po’ depositate.
Ci sono però redazioni – anche autorevoli – che utilizzano già sistemi di intelligenza artificiale nel loro lavoro quotidiano. C’è quindi il modo di controllare questi nuovi strumenti e di utilizzarli in maniera etica?
È un punto cruciale. Ho seguito questo argomento perché ho condotto la prima ricerca sull’intelligenza artificiale in un’ottantina di redazioni in tutto il mondo, in un progetto finanziato da Google, che ha dato luogo a un rapporto uscito nel 2039. Qualche mese fa ne è stata prodotta una seconda edizione. L’evoluzione è davvero preoccupante: da un lato c’è una comunità di giornalisti estremamente professionali, attenti alle questioni etiche e deontologiche e molto capaci dal punto di vista tecnologico, che interagiscono tra di loro, fanno comunità e cercano di creare buoni strumenti di intelligenza artificiale, che possono essere davvero utili in redazione. Penso, per esempio, alle traduzioni o alle trascrizioni simultanee o agli strumenti di machine learning che vanno a caccia di tendenze all’interno di basi si dati enormi, che sarebbe impossibile fare a livello umano se non in anni di tempo e centinaia di persone impiegate. Così si possono trovare dei numeri che non tornano all’interno di documenti finanziari o segnalare in una mappa satellitare se certi pezzi di territorio hanno certe caratteristiche. Questo ha consentito, per esempio, di individuare delle miniere illegali in un’inchiesta svolta in Ucraina. Questi benefici, tuttavia, rischiano di passare in secondo piano quando si passa da un’ai non generativa a una generativa; prima l’intelligenza artificiale non aveva la capacità di creare testi lunghi e complessi o audio e immagini così credibili, con questo grado di «creatività». Quando si chiede a un chatbot di scrivere un articolo che riguardi questioni estremamente delicate, che hanno mille aspetti, come quella migratoria, per citarne una, la macchina va a prendere tutte le informazioni che ha, ovviamente non aggiornate all’ultimo momento, dicendo probabilmente cose inventate sulla base dei dati precedenti, inserendo tutti gli stereotipi che si trovano online. Oggi, quindi, c’è un rischio maggiore, di cui si trovano facilmente casi concreti.
Cioè?
Ci sono testate che hanno trasformato questi strumenti in una strategia di marketing, per moltiplicare articoli che non hanno nessun significato o valore informativo, solo per monetizzare pubblicità online. C’è un caso che ha fatto scuola, quello di Cnet, testata online sul tema della tecnologia, in cui anche i giornalisti della redazione erano stati tenuti all’oscuro che tutta la parte degli articoli pubblicati a nome dello staff erano in realtà prodotti da un’intelligenza artificiale generativa, solo per riempire le quote di articolo che servono per il seo e per giustificare certi investimenti pubblicitari. Non è l’unica testata che l’ha fatto, ma l’ha fatto in maniera sistematica e quando è stata scoperta ha dovuto fare mille passi indietro, chiedere scusa e garantire più trasparenza. Ci sono sempre più redazioni che stanno costruendo delle linee guida nell’uso delle ai; alcune stanno impedendo l’accesso a chat gpt e a strumenti simili ai loro dati, perché sostengono che sia un furto: siccome queste tecnologie si nutrono di contenuti preesistenti, quindi generati da umani, per le loro produzioni, ci può essere un problema in termini di diritto d’autore. Questa è una questione enorme che si sta ponendo nel cinema, nella discografia, nell’informazione. I rischi, quindi, non sono teorici, sono reali, sono fati della vita. Noi abbiamo la tendenza, in tutti i campi, anche nel settore del welfare e dell’amministrazione pubblica, a definire i benefici concreti e i rischi potenziali, quando invece i rischi sono realissimi e li vediamo sulle persone più povere, sui migranti, su chi vive un disagio e avrebbe bisogno di un aiuto. E non vediamo, invece, i benefici, che restano ideali e annunciati, senza che ci siano dei dati, dei fatti e delle prove che dimostrino che queste tecnologie portino invece dei vantaggi dal punto di vista sociale.
I rischi sono realissimi e li vediamo sulle persone più povere, sui migranti, su chi vive un disagio e avrebbe bisogno di un aiuto.
Fabio Chiusi
È difficile, però, regolare questo settore se, come diceva all’inizio, è in continua evoluzione.
È vero, è difficilissimo. In Europa c’è uno schema normativo, l’Ai act, proposto nel 2021, già discusso per due anni e ora in dirittura d’arrivo. Nel frattempo è insorto questo problema dell’intelligenza artificiale generativa e quindi la direttiva includerà probabilmente anche delle norme, che ora sono in via di definizione, su come si possano utilizzare questi strumenti in maniera responsabile e rispettosa dei diritti. Tuttavia è difficile «fermare il vento con le mani», perché nascono sempre nuove tecnologie – e quindi nuovi problemi – che prima non c’erano. Alcuni, come i guru tecnologici, soprattutto in America, dicono di stare attenti a non fare delle regole premature, che rischiano di soffocare l’innovazione. Una parte di verità ci sarebbe, se non fosse che è poco credibile che chi lo afferma sia chi produce questi strumenti e ci guadagna.
E queste persone rischiano, controllando le nuove tecnologie, di concentrare nelle proprie mani un potere immenso, se l’Ai può generare informazione che orientano l’opinione pubblica.
Il capitalismo digitale, o comunque di quest’era governata da aziende tecnologiche e social media, dimostra che la concentrazione di potere è intrinseca e studiata. Se uno va a vedere quali sono le aziende con maggiore capitalizzazione di mercato degli ultimi 10 o 15 anni vedrà arrivare le società tecnologiche, le vedrà superare tutte le altre e raggiungere numeri che non sono mai stati raggiunti prima. Bisogna poi vedere in quali mani si concentra questo potere: fino a ieri sono stati i leader dell’era 2.0 del web, quindi social media, Amazon e disintermediatori, quelli che ci fanno fare a meno dei negozi e dei giornali. Adesso invece pare che la ricchezza si stia ridistribuendo verso i detentori di intelligenza artificiale, come Elon Musk o Sam Altman (il fondatore di OpenAi, azienda che ha prodotto Chat gpt, ndr). Si è creato un nuovo mercato, pieno di start up e di aziende grandi e piccole che utilizzano questi strumenti. Se vogliamo dirla con una metafora, stiamo creando nuovi coltelli, con cui possiamo affettare il prosciutto o uccidere una persona. Non è detto che di per sé un coltello sia il male assoluto, ma è sicuro che quando una persona ne ha uno in mano inizia a vedere il mondo fatto di cose da tagliare.
In copertina, immagine da Pixabay
17 centesimi al giorno sono troppi?
Poco più di un euro a settimana, un caffè al bar o forse meno. 60 euro l’anno per tutti i contenuti di VITA, gli articoli online senza pubblicità, i magazine, le newsletter, i podcast, le infografiche e i libri digitali. Ma soprattutto per aiutarci a raccontare il sociale con sempre maggiore forza e incisività.