Oltre 3 milioni di articoli pro-Russia infettano i sistemi di Intelligenza Artificiale

Giornali strappati Giornali strappati

La disinformazione pro-Russia ha raggiunto livelli allarmanti, con oltre 3 milioni di articoli che hanno contaminato i sistemi di intelligenza artificiale

Secondo un rapporto di NewsGuard, piattaforma specializzata nel monitoraggio delle fake news. Al centro di questa rete si trova “Pravda” (che in russo significa “Verità”), un sistema che ha diffuso 207 affermazioni false, fungendo da vero e proprio centro di riciclaggio della disinformazione.
NewsGuard ha identificato come la rete Pravda utilizzi tecniche sofisticate per amplificare la propaganda russa, sfruttando l’intelligenza artificiale per creare contenuti persuasivi e difficili da distinguere dalle fonti legittime. Tra le affermazioni false più diffuse figurano narrazioni che giustificano l’invasione dell’Ucraina, minimizzano le atrocità commesse dalle forze russe e accusano l’Occidente di fomentare il conflitto.
Questi articoli non solo influenzano l’opinione pubblica, ma rischiano di compromettere i sistemi di intelligenza artificiale che si basano su grandi quantità di dati per apprendere e generare risposte. La contaminazione dei dataset con informazioni false può portare a risultati distorti, amplificando ulteriormente la disinformazione e rendendo più difficile per gli utenti distinguere tra verità e menzogna.
NewsGuard ha sottolineato l’importanza di adottare misure per contrastare la diffusione di queste narrazioni false, come il miglioramento dei filtri di verifica delle fonti e la promozione dell’alfabetizzazione digitale. “La disinformazione non è solo una minaccia per la verità, ma anche per la democrazia e la sicurezza globale,” ha dichiarato un portavoce della piattaforma.
La battaglia contro la disinformazione pro-Russia è una sfida cruciale per il futuro dell’informazione e della tecnologia. Mentre le reti come Pravda continuano a diffondere falsità, è fondamentale che governi, aziende tecnologiche e cittadini collaborino per proteggere l’integrità dei dati e garantire che l’intelligenza artificiale rimanga uno strumento al servizio della verità.