Chatbot infettati da più di 3 milioni di articoli pro Russia: la situazione

3 milioni e 600mila articoli di propaganda pro Cremlino sono stati integrati in vari sistemi di intelligenza artificiale: ecco la situazione nel dettaglio

Oltre 3 milioni di articoli pro Russia hanno infettato i chatbot
Oltre 3 milioni di articoli pro Russia hanno infettato i chatbot | Pixabay @Vertigo3d – Cryptohack

 

La disinformazione rappresenta una delle sfide più complesse dell’era digitale, e un recente studio ha rivelato un aspetto inquietante di questa tendenza: oltre 3 milioni e 600 mila articoli di propaganda pro-Cremlino sono stati integrati nei principali sistemi di intelligenza artificiale, influenzando potenzialmente le interazioni di chatbot utilizzati da milioni di persone in tutto il mondo. Questa analisi, condotta da NewsGuard, una piattaforma dedicata al monitoraggio della disinformazione online, offre uno sguardo approfondito su come le reti di disinformazione stiano infiltrando le tecnologie più avanzate.

L’analisi di NewsGuard

L’indagine di NewsGuard ha esaminato i dieci principali chatbot, tra cui ChatGPT-4 di OpenAI, Smart Assistant di You.com, Grok di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropic, Gemini di Google e il motore di risposta di Perplexity. Questo test è stato condotto su un campione di 15 false narrazioni propagate da una rete di 150 siti web favorevoli al governo russo, dal mese di aprile 2022 fino a febbraio 2025. I risultati sono allarmanti: il 33% delle risposte generate dai chatbot ha ripetuto affermazioni false riciclate dalla rete di disinformazione nota come Pravda.

Le narrazioni ingannevoli

Pravda, che significa “verità” in russo, rappresenta un paradosso, poiché la sua operatività si basa sulla diffusione di falsità e teorie del complotto. Tra le affermazioni più inquietanti diffuse da questa rete ci sono quelle riguardanti i presunti laboratori segreti di armi biologiche gestiti dagli Stati Uniti in Ucraina. Questa narrativa, già ampiamente smentita, ha trovato terreno fertile in un contesto di crescente tensione geopolitica.

Un’altra narrazione ricorrente è quella legata al presidente ucraino Volodymyr Zelensky, accusato di aver abusato degli aiuti militari statunitensi per accumulare una fortuna personale. Queste affermazioni sono state amplificate da personaggi controversi, come John Mark Dougan, un ex poliziotto statunitense diventato propagandista per il Cremlino. La sua storia esemplifica come la disinformazione possa viaggiare attraverso canali inaspettati, infiltrandosi nelle conversazioni quotidiane delle persone e plasmando le loro opinioni.

Questioni etiche e responsabilità

L’infiltrazione di contenuti pro-Cremlino nei sistemi di intelligenza artificiale non è solo un problema di accuratezza informativa, ma pone anche interrogativi etici significativi. Gli sviluppatori di chatbot e le aziende tecnologiche hanno la responsabilità di garantire che i loro prodotti non diventino veicoli di propaganda malevola. La questione della trasparenza e della verifica delle fonti è diventata cruciale in un’epoca in cui le informazioni possono essere manipolate con grande facilità.

Inoltre, la crescente sofisticatezza degli algoritmi di intelligenza artificiale rende difficile per gli utenti distinguere tra contenuti affidabili e disinformazione. Gli utenti si affidano sempre di più ai chatbot per ottenere informazioni, e se questi ultimi sono influenzati da contenuti falsi, le conseguenze possono essere devastanti, contribuendo a una cultura della confusione e della sfiducia.

Una battaglia collettiva

La lotta contro la disinformazione è, quindi, una battaglia che deve essere combattuta su più fronti: dalla tecnologia alla società, dalla politica alla cultura. È essenziale che gli utenti siano educati a riconoscere e a sfidare le narrazioni ingannevoli. Ecco alcuni passi importanti per affrontare questa emergenza:

  • Educazione degli utenti: informare le persone sui segnali di disinformazione;
  • Monitoraggio dei contenuti: le aziende tecnologiche devono implementare misure più rigide per filtrare i contenuti;
  • Collaborazione: promuovere un approccio collettivo tra utenti e sviluppatori.

Solo attraverso un approccio consapevole sarà possibile affrontare efficacemente questa emergenza informativa.

Lascia un commento

Change privacy settings
×