di Ester Pascolini
L’intelligenza artificiale sta penetrando nelle redazioni giornalistiche di tutto il mondo. Il più delle volte, questo accade senza che i lettori se ne rendano veramente conto. Non succede solo nelle grandi realtà nazionali e internazionali, ma anche nelle piccole redazioni locali (Umbria compresa). Su queste ultime, infatti, gravano molte problematiche legate alle sempre più esigue risorse economiche e alla scarsa disponibilità di forza lavoro, facendo apparire l’I.A. come una soluzione a basso costo, in grado di velocizzare la produzione di notizie.
Ma cosa accade alla qualità dell’informazione? Le organizzazioni che ricorrono all’intelligenza artificiale per svolgere una serie di compiti tipici del mestiere giornalistico sono sempre di più, facendo diventare l’impatto dell’I.A. nel giornalismo uno dei temi caldi del momento. A riprova di questo, basti pensare alla recente esperienza del Festival del giornalismo di Perugia e alle lunghe file che hanno spesso impedito, ai molti interessati, di partecipare ai panel dedicati all’argomento. Cosa si può fare con l’intelligenza artificiale nel giornalismo? Tante cose: creare contenuti testuali, immagini, riassunti, schede esemplificative, gestire gli archivi, effettuare traduzioni… Si possono anche raccogliere informazioni, attività, tuttavia, certamente non priva di rischio. Se questo è uno strumento che facilita il lavoro del giornalista, allora, dov’è il problema?
Il fatto è che l’impatto di queste tecnologie è significativo, soprattutto perché, con le limitate capacità dell’intelligenza artificiale attuale, la bilancia tra i pro e i contro rischia spesso di far pendere il piatto verso gli effetti in negativo. La nota dolente non è tanto la tecnologia in sé, ma gli usi che se ne fanno, che a volte possono risultare deleteri per la scarsa dimestichezza dei giornalisti con gli strumenti, altre volte per un uso strumentale e manipolatorio degli stessi. Facciamo un esempio, il primo che viene in mente, perché legato a un fatto recente avvenuto in Umbria, interessante, in quanto ha scatenato la reazione indignata di parte del pubblico.
Si parla di immagini create con l’I.A. e messe a corredo di un articolo giornalistico su un fatto di cronaca. Foto che hanno la caratteristica della verosimiglianza, ma che proprio perché finte, finiscono, al contrario, per discostarsi profondamente dalla verità. Su questo si gioca gran parte del dibattito sull’I.A., ovvero sulla differenza che passa tra “verità” e “verosimiglianza”. Se si crea con l’I.A. l’immagine di un paziente famoso, realmente ricoverato per un intervento, dunque si crea un’immagine falsa a corredo di una notizia vera, le conseguenze sembrano essere la messa in discussione dei principi cardine del mestiere giornalistico e una palese violazione dei codici etici e deontologici del giornalista.
Tra i valori su cui il giornalismo si fonda ci sono la ricerca della verità, l’obiettività, la verifica delle informazioni e delle fonti. Usare un’immagine falsa per cogliere l’attenzione del pubblico, associandola a una notizia vera, tramuta la verità in post-verità, ove l’attendibilità passa in secondo piano rispetto alla notizia in sé. L’I.A., per essere obiettiva, dovrebbe essere dotata di pensiero critico, e se oggi c’è una certezza rispetto alle tecnologie attuali, è quella che non sono in grado di pensare. Non si può dimenticare, poi, che le informazioni derivano da quantità enormi di dati rigettati in rete senza controllo e che essi provengono prevalentemente da una parte di mondo, quella più ricca e sviluppata, facendoli apparire, pertanto, intrinsecamente miopi e pieni di pregiudizi e bias.
Nel caso delle fonti, si deve tenere presente che i chatbot di intelligenza artificiale appartengono a un ristretto numero di proprietari, le cosiddette Big Tech, il cui scopo è prettamente commerciale e i cui legami con la politica, tra l’altro, si fanno sempre più inquietanti. Il giornalismo, invece, è prima di tutto, servizio pubblico, non può, dunque, prescindere dalla verità. Lo scopo primario del giornalismo è quello di alimentare il dibattito, affinché i cittadini possano acquisire gli strumenti per interpretare il mondo e possano sviluppare gli anticorpi per svolgere un’azione di controllo sul potere. Il rischio che si rinviene nell’uso spudorato dell’I.A. nel giornalismo è quello di contribuire alla disinformazione e alla diffusione di fake-news, interrompendo, quindi, il rapporto di fiducia tra chi rilascia l’informazione e chi la legge. Per questo il dibattito sul tema non può e non deve affievolirsi, per questo è urgente individuare norme, linee guida, strumenti (per esempio l’etichettatura delle immagini prodotte con I.A.), per regolamentare l’uso dell’intelligenza artificiale nel giornalismo. Un tema che sembra risuonare forte anche nell’Ordine dei giornalisti dell’Umbria, che, non ha caso, ha recentemente contribuito alla stesura dell’AI Assisi act, carta interamente dedicata alle applicazioni dell’intelligenza artificiale nel campo della comunicazione e del giornalismo, realizzata insieme al Sacro Convento di Assisi.
