Globe terrestre réseau IA

L’ia può aiutare a combattere la disinformazione, specie sul clima?

Con la sua potenza l’intelligenza artificiale può diffondere notizie false su temi cruciali come il clima, i vaccini e la democrazia. Ma secondo alcune ricerche può essere altrettanto efficace nel contrastare la disinformazione.

Pubblicato il 28 Novembre 2024
Questo articolo è riservato alle persone abbonate

“Quindi, rilassatevi e godetevi il momento. Non c'è nulla che possiamo fare per fermare il cambiamento climatico, perciò non vale la pena preoccuparsi”. Questo è quello che Bard [oggi Gemini] ha risposto ai ricercatori nel 2023. Gemini è un chatbot di intelligenza artificiale generativa sviluppato da Google in grado di generare testi e altri contenuti simili a quelli prodotti dagli umani in risposta a domande o input da parte degli utenti.

Ma se oggi l'ia produce nuovi contenuti e informazioni, può anche generare disinformazione? Uno studio del Center for Countering Digital Hate ha sottoposto Bard a 100 narrazioni false distribuite su nove argomenti diversi, tra cui il clima e i vaccini: il chatbot ha generato disinformazione in 78 casi su 100, inclusi tutti e 10 i casi riguardanti il cambiamento climatico.

Un’altra indagine condotta nel 2023 da Newsguard, una piattaforma che fornisce strumenti per combattere la disinformazione, ha messo alla prova le versioni 3.5 e 4 di ChatGP, ia della società OpenAI capace di generare testi, articoli e altri contenuti, e ha chiesto a entrambi i modelli di rispondere a 100 narrazioni false. Dall’indagine è emerso che ChatGPT-3.5 ha generato disinformazione e bufale nell'80 per cento dei casi; ChatGPT-4 l’ha fatto nella totalità dei casi, ma in modo più dettagliato e convincente. 

Newsguard ha dunque dimostrato che ChatGPT-4 ha prodotto informazioni false non solo con maggiore frequenza, ma anche in modo più convincente rispetto a ChatGPT-3.5. La versione 4, infatti, ha generato risposte sotto forma di articoli di giornale, thread di X (ex Twitter) e persino sceneggiature televisive che simulavano specifiche ideologie politiche o teorie del complotto.

“Penso che le informazioni scientifiche false, l’automatismo nel  settore, e come la disinformazione possa facilmente integrarsi in strumenti di ricerca come Google Scholar o simili sia importante e al tempo stesso preoccupante”, dice Victor Galaz,  professore associato di scienze politiche presso lo Stockholm Resilience Centre dell'Università di Stoccolma: “in questo modo si instaura lentamente un processo che erode le basi di qualsiasi tipo di conversazione”.

Un altro studio pubblicato nel settembre 2024 ha rilevato contenuti creati da GPT su Google Scholar che sembravano articoli scientifici autentici su tematiche come l'ambiente, la salute e l'informatica. I ricercatori avvertono del rischio di "hacking delle prove", ovvero di "manipolazione intenzionale e organizzata delle informazioni su cui la società si fonda", e a cui Google Scholar potrebbe essere soggetto.

Sappiamo che l'ia può generare disinformazione, ma quanto è grave questo problema?

Leggli gli altri commenti Divento membro per tradurre i commenti e partecipare

Perché gli eco-investitori si ritrovano a finanziare le “Big Oil”? A quali stratagemmi ricorre la finanza per raggiungere questo obiettivo? Come possono proteggersi i cittadini? Quale ruolo può svolgere la stampa? Ne abbiamo discusso con i nostri esperti Stefano Valentino e Giorgio Michalopoulos, che per Voxeurop analizzano i retroscena della finanza verde.

Vedi l'evento >

Sei un media, un'azienda o un'organizzazione? Dai un'occhiata ai nostri servizi di traduzione ed editoriale multilingue.

Sostieni un giornalismo che non si ferma ai confini

Approfitta delle offerte di abbonamento oppure dai un contributo libero per rafforzare la nostra indipendenza

Sullo stesso argomento