OpenAi interrompe operazioni di influenza legate a Cina, Russia e altri

Di Aaron Pan

OpenAi ha annunciato di aver interrotto cinque operazioni di influenza da quattro Paesi che utilizzavano i suoi strumenti di intelligenza artificiale (Ai) per manipolare l’opinione pubblica e modellare i risultati politici su internet.

La società ha dichiarato che queste operazioni di influenza segrete provenivano da Russia, Cina, Iran e Israele. Gli attori dietro queste operazioni hanno utilizzato gli strumenti OpenAi per generare commenti, produrre articoli o creare nomi o biografie falsi per account di social media negli ultimi tre mesi.

Il rapporto ha rilevato che il contenuto diffuso da queste operazioni prende di mira molteplici dibattiti in corso, comprese le critiche al regime cinese da parte di dissidenti cinesi e governi stranieri, la politica americana ed europea, l’invasione russa dell’Ucraina e il conflitto a Gaza.

L’azienda ha individuato le tendenze di questi attori, tra cui la generazione di contenuti che avviene mescolando vecchio e nuovo tra materiali generati dall’intelligenza artificiale e altri tipi di contenuti, o la simulazione del coinvolgimento tramite la creazione di risposte per i propri post sui social.

Rete pro-Pechino

OpenAi ha dichiarato di aver interrotto un’operazione di una rete di disinformazione e propaganda Spamouflage pro-Pechino in Cina. L’operazione cinese ha utilizzato il modello di intelligenza artificiale dell’azienda per chiedere consigli sulle attività dei social media, ricercare notizie ed eventi attuali e generare contenuti in cinese, inglese, giapponese e coreano.

Gran parte dei contenuti generati dalla rete Spamouflage riguardano argomenti che elogiano il regime comunista cinese, criticano il governo degli Stati Uniti e prendono di mira i dissidenti cinesi.

Questi contenuti sono stati pubblicati su più piattaforme social, tra cui X, Medium e Blogspot. OpenAi ha scoperto che nel 2023 l’operazione cinese ha generato articoli che affermavano che il Giappone aveva inquinato l’ambiente rilasciando acque reflue dalla centrale nucleare di Fukushima. Anche l’attore e attivista tibetano Richard Gere e il dissidente cinese Cai Xia sono obiettivi delle critiche di questa rete.

La rete ha utilizzato il modello OpenAi anche per eseguire il debug del codice e generare contenuti per un sito web in lingua cinese che attacca i dissidenti cinesi, definendoli «traditori».

L’anno scorso, Facebook ha scoperto collegamenti tra Spamouflage e le forze dell’ordine cinesi, sottolineando che il gruppo promuove campagne pro-Pechino sui social media dal 2018. La società ha cancellato circa 7.700 account Facebook e un centinaio di pagine, e ha cancellato gli account Instagram coinvolti nell’influenza operazioni che hanno alimentato narrazioni positive su Pechino e commenti negativi sia sugli Stati Uniti che sui critici del regime cinese.

Operazioni di Russia, Israele e Iran

OpenAi ha trovato anche due operazioni dalla Russia, una delle quali è conosciuta come Doppelganger. Questa operazione ha utilizzato gli strumenti OpenAi per generare commenti in più lingue e pubblicare su X e 9Gag.  Doppelganger ha utilizzato anche strumenti di intelligenza artificiale per tradurre articoli in inglese e francese e trasformarli in post di Facebook.

L’azienda ha dichiarato che l’altra è una rete russa precedentemente non segnalata, Bad Grammar, che opera principalmente su Telegram e si concentra su Ucraina, Moldavia, Stati Uniti e Stati baltici. Ha utilizzato gli strumenti OpenAi per eseguire il debug del codice per un bot di Telegram che pubblica automaticamente informazioni su questa piattaforma. Questa campagna ha generato brevi commenti politici in russo e inglese sulla guerra Russia-Ucraina e sulla politica statunitense.

La società madre di ChatGpt ha trovato un’operazione da Israele relativa alla società di marketing politico Stoic con sede a Tel Aviv e l’altra dall’Iran. Entrambe hanno utilizzato ChatGpt per generare articoli. L’Iran ha pubblicato il contenuto su un sito web correlato al sito web dell’attore minaccioso iraniano, mentre Israele ha pubblicato i suoi commenti su più piattaforme, tra cui X, Facebook e Instagram.

Il 29 maggio, Facebook ha pubblicato un  rapporto trimestrale, rivelando che sulla sua piattaforma sono stati pubblicati contenuti ingannevoli «probabilmente generati dall’intelligenza artificiale». Il rapporto indicava che Meta ha interrotto sei operazioni di influenza segrete nel primo trimestre, tra cui una rete con sede in Iran e un’altra dello Stoic.

OpenAi ha rilasciato ChatGpt al pubblico nel novembre 2022. Il chatbot è diventato rapidamente un fenomeno globale, attirando centinaia di milioni di utenti con la sua capacità di rispondere a domande e interagire su una vasta gamma di argomenti.

OpenAi ha catturato l’attenzione tecnologica globale lo scorso anno quando il suo Consiglio di amministrazione ha improvvisamente licenziato il Ceo Sam Altman. La mossa ha suscitato una reazione mondiale, costringendo il consiglio a reintegrarlo e provocando le dimissioni della maggior parte dei membri del consiglio e la formazione di un nuovo consiglio.

 

Versione in inglese: OpenAI Disrupts Influence Operations Linked to China, Russia, and Others

NEWSLETTER
*Epoch Times Italia*
 
Articoli correlati