AI: rischi e preoccupazioni per il lavoro di giornalista

ChatGpt e Midjourney sono software di intelligenza artificiale sempre più popolari e usati in diversi ambiti, tra cui il mondo dell’informazione. Basandosi su una serie di dati, sono in grado di creare immagini e testi sempre più realistici anche se al momento gli errori sono riconoscibili.

Alcune immagini, ad esempio, non riproduco correttamente il numero di denti in un viso o le mani in modo realistico; anche i testi presentano errori evidenti. Ciò permette di rendersi conto di cosa sia creato dall’IA e cosa dall’uomo e garantisce una sorta di protezione dalla disinformazione e dalla manipolazione che possono derivare dal mal utilizzo di questi strumenti. Ma quando questi intoppi saranno superati come si farà a discernere tra le fonti e gli autori di foto e video? Come sarà possibile distinguere reale da creazione artificiale? E soprattutto come si evolverà il mondo dell’informazione e il lavoro del giornalista, se ci saranno dei software che, a partire da un database, sapranno fare lo stesso lavoro con lo stesso risultato?

L’IA nel mondo dei media

L’influenza dell’intelligenza artificiale e dell’automazione nel settore dei mezzi di comunicazione è già realtà. Nonostante le varie imperfezioni, ChatGpt o Midjourney sono infatti strumenti utilizzati da molte testate giornalistiche.

Si parla di “giornalismo automatizzato” o “robogiornalismo” per indicare tutte le tecnologie che elaborano testi e contenuti, anche in pochi secondi, senza l’intervento umano, responsabile solo della programmazione e dello sviluppo iniziali. La linfa vitale dei software di intelligenza digitale sono i dati e, quindi, il giornalismo automatizzato si applica nei casi in cui si hanno dati strutturati e facilmente accessibili, come elezioni politiche e bilanci aziendali.

Applicazioni del giornalismo automatizzato

L’agenzia di stampa «Associated Press» utilizza l’IA per definire velocemente i bilanci aziendali mentre la testata «Los Angeles Times» ha creato uno strumento per fare un report dei terremoti o dei suicidi, scrivendo un breve testo contenente tutti i dati ottenuti da centri di ricerca.

La redazione del «Washington Post» utilizza il software Heliograf, una tecnologia che si è rivelata essenziale durante il reportage delle Olimpiadi di Rio 2016 e le elezioni politiche dello stesso anno negli Stati Uniti e che da allora collabora fianco a fianco ai giornalisti in carne e ossa. Ha scritto 850 articoli in un anno che hanno generato 500 mila visite online.

Durante le Olimpiadi, Heliograf ha fornito aggiornamenti costanti sul medagliere, sui programmi quotidiani delle competizioni e mandava avvisi quindici minuti prima di ogni evento chiave. Durante le elezioni, invece, comunicava i risultati di sondaggi, avvisando la redazione qualora questi andassero in direzione opposta a quanto previsto e dando quindi tempo e strumenti per preparare a fondo la notizia.

Per rendere possibile il tutto, ai redattori basta creare modelli narrativi contenenti parole chiave e adattabili a diversi contesti. Il software, grazie a algoritmi e analisi di dati, abbina frasi e concetti generando testi da condividere online e facilitando il lavoro del giornalista in quelle occasioni in cui la velocità fa la differenza, come eventi sportivi importanti o elezioni politiche.

Lo scompiglio e i timori del giornalismo

I modelli di intelligenza artificiale possono sgravare il lavoro delle redazioni da compiti di routine ma, allo stesso tempo, ci sono dei rischi da non sottovalutare, legati specialmente alla trasparenza e alla funzione democratica dei media. “L’IA cambierà il giornalismo nei prossimi tre anni più di quanto il giornalismo sia cambiato negli ultimi trent’anni.” Questa è la previsione di David Caswell di BBC News, canale televisivo britannico, in un’intervista all’«Economist». Il manager della BBC teme che i nuovi modelli mettano a soqquadro la componente chiave su cui si fonda il giornalismo: l’articolo. Dal momento che le notizie in Internet vengono prese e rimescolate da algoritmi, la sua paura è che le notizie diventino una sorta di “zuppa” di informazioni già presenti nel web, senza che ci sia un vero apporto nuovo, solitamente fornito da un giornalista.

Centro di monitoraggio sull’IA

La diffusione di strumenti che sfruttano l’intelligenza artificiale generativa è una grande opportunità per i creatori di disinformazione.

Il team di NewsGuard, un’estensione per browser Internet che permette agli utenti di identificare le fake news, ha sviluppato un centro di monitoraggio per controllare gli usi impropri dell’IA. Si propone di evidenziare come l’intelligenza digitale venga utilizzata per potenziare la diffusione di notizie inaffidabili.

Ad oggi sono stati identificati 347 siti di notizie false generati interamente da bot e prive di supervisione redazionale, denominati “UAIN”, dall’inglese Unreliable AI-generated News, in tredici lingue diverse. I nomi dei siti sono generici ma potrebbero sembrare siti di notizie legittimi come «Ireland Top News» e «Daily Time Update» e trattano vari temi tra cui  politica, tecnologia, intrattenimento e viaggi. A volte le notizie contengono notizie false sulla morte di personaggi famosi o eventi inventati.

I guadagni derivano dalla pubblicità programmatica: alcune marchi famosi stanno involontariamente sostenendo questo tipo di comunicazione perché non tengono conto della qualità o della natura del sito a cui danno l’autorizzazione di pubblicare i loro annunci.

Le linee guida di «Wired Italia»

Tra le diverse nuove tecnologie, l’intelligenza artificiale ha le caratteristiche migliori per poter trasformare la società, perché è in grado di cambiare il nostro rapporto con il tempo.” Queste sono state le parole di Federico Ferrazza, direttore di «Wired Italia», rivista di tecnologia, nel suo intervento alla VII Commissione della Camera sul tema dell’impatto della digitalizzazione nel mondo della cultura e dell’educazione.

Plagio, trasparenza e pregiudizi

Le preoccupazioni esposte riguardano il problema della trasparenza e dei pregiudizi.

Spesso questi modelli sono ricchi di pregiudizi a causa delle innumerevoli informazioni simili che trovano nel web. Per esempio, se viene chiesto a Midjourney di creare l’immagine di un “boss”, il risultato ritrae un uomo bianco in giacca e cravatta.Un altro problema riguarda la trasparenza nel rapporto con i lettori, che potrebbe venire meno, soprattutto se non si specifica chiaramente cosa è prodotto dall’IA e cosa invece è creato dall’uomo come ad esempio le immagini presenti in un articolo.

Per questo motivo la redazione di «Wired Italia» ha deciso di imporre delle linee guida per quanto riguarda il rapporto con l’intelligenza artificiale che non verrà usata per editare testi interi o creare foto ma solo per  processare grandi moli di dati e ricevere suggerimenti per titoli accattivanti.

Queste linee guida, come ha spiegato il direttore Ferrazza, rispondono a due necessità importanti in un momento di transizione delicato come quello che vive il giornalismo: da una parte garantire la trasparenza, così che il pubblico sappia sempre come vengono create le notizie. Dall’altra parte seguire un principio di cautela nell’adozione di questo software in modo tale che l’inserimento dell’IA sia graduale e controllato, per evitare errori.

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.