« Torna indietro

A.I. per riconoscere campagne social che influiscono su elezioni

Col passare del tempo diventa sempre più evidente che i social network possono esercitare un’enorme influenza anche sulle dinamiche elettorali, emerge così la necessità di un sistema di analisi che individui tempestivamente le campagne architettate all’estero per turbare le elezioni.

Pubblicato il 25 Luglio, 2020

Col passare del tempo diventa sempre più evidente che i social network possono esercitare un’enorme influenza anche sulle dinamiche elettorali, emerge così la necessità di un sistema di analisi che individui tempestivamente le campagne architettate all’estero per turbare le elezioni.


Uno studio condotto dalla Princeton University in collaborazione con il New Jersey Institute of Technology e la New York University descrive come sia possibile addestrare l’intelligenza artificiale per dare la caccia alle campagne social create da alcuni paesi per influenzare le elezioni di altri.
Purtroppo, come si legge nel lavoro andato in pubblicazione su Science Advances, le stesse caratteristiche che rendono i social degli ottimi strumenti per gli attivisti ne fanno anche un sistema estremamente vulnerabile e facilmente sfruttabile da “campagne di manipolazione industrializzata” messe in piedi da entità dotate di sufficienti risolse, tecniche ed economiche, come può essere il caso dei governi, nazionali ed esteri. Da qui il bisogno di lavorare a dei sistemi che possano monitorare i canali social e far scattare l’allarme quando certe strategie mediatiche di influenza sono in atto.


Questo interessante studio, svolto da dipartimenti universitari come la School of Public and International Affairs and Department of Politics di Priceton, il Department of Informatics del NJIT e il Department of Politics and Center for Social Media and Politics della NYU, illustra come sia possibile allenare un algoritmo attraverso le tecniche di machine learning e poi lanciarlo alla ricerca di post pubblicati sui social media con l’intento di condizionare l’umore e le intenzioni di voto degli utenti, fino a produrre effetti sugli esiti elettorali.


Gli esperti che hanno lavorato a questo sistema di riconoscimento si sono giovati, fra le altre cose, di una certa prevedibilità rilevabile nelle campagne social. Queste infatti tendono a seguire degli standard, più o meno da manuale di marketing digitale. Si presentano con una durata simile e sfruttano orari di pubblicazione piuttosto comuni, scelti per ottenere i migliori risultati di visibilità e poi vitalità.
Lo sviluppo di questo strumento ha avuto come cardine un paziente lavoro di insegnamento da parte dei ricercatori verso l’intelligenza artificiale. Secondo quanto pubblicato il training dell’algoritmo si è basato sull’acquisizione di dati pubblici provenienti da Twitter e riferibili ad attività di troll cinesi, russi e venezuelani rivolte a creare scompiglio negli Stati Uniti. Unitamente a questa fonte di dati si è impiegato anche un dataset ricavato da Reddit, un forum/social media dove buona parte degli utenti sono anonimi perciò più propensi a pubblicare qualsiasi cosa e in qualunque modo, il che rende questo canale un ottimo banco di prova per l’A.I. In particolare, da Reddit sono stati estratti e usati come esempi i dati relativi a campagne social collegabili ai russi.


Per una corretta valutazione di quanto le “operazioni di influenza” possano distinguersi dall’attività organica presente sulle piattaforme social, dunque rispetto ai post pubblicati dagli utenti generici americani, o dai politici degli Stati Uniti, sono stati svolti dei test su base mensile per ogni campagna di influenza presa in esame, considerando un periodo di esecuzione di alcuni mesi (in genere 36) e applicando cinque criteri di classificazione di difficoltà crescente.
Secondo quanto osservato nello studio, “la produzione industrializzata dei contenuti delle campagne di influenza lascia un segnale distintivo in ciò che viene generato dagli utenti”, il che consente di monitorare di mese in mese le varie campagne sugli account dove queste circolano.
Nelle pagine di questa ricerca si riporta che la prima operazione coordinata di influenza via social media ad essere stata documentata risale al 2012, con protagonista la Corea del Sud. Da allora queste pratiche sono divenute sempre più frequenti tanto che si contano almeno 53 tentativi di influenza mirati a 24 paesi in un lasso di tempo che va dal 2013 al 2018.
Un esempio recente di questi tipo di campagne è il presunto tentativo dei russi attraverso l’IRA (Internet Research Agency / интернет-исследований) di modellare la politica americana.


A seguito di questi tentativi di pressione da parte di nazioni straniere le piattaforme social si sono date da fare, se non per impedire almeno per limitare l’esecuzione di queste operazioni coordinate di influenza attraverso i loro strumenti. Poi, in parallelo, i social network hanno anche provveduto a rendere noti alcuni rapporti ricavati dalle loro verifiche. Così Facebook ha comunicato tentativi di influenza da parte di Egitto, Emirati Arabi Uniti e Arabia Saudita, Reddit invece ha denunciato attività dalla Russia e Twitter ha segnalato campagne riconducibili a Bangladesh, Cina, Ecuador, Iran, Russia, Arabia Saudita, Spagna, Emirati Arabi Uniti e Venezuela.

Dall’analisi di queste tecniche di comunicazione emerge che le operazioni di influenza si reggono su un misto di attività svolte in manuale e in regime di automazione. Dunque non tutto il traffico e la spinta che hanno queste campagne social sono imputabili all’impiego di “bot” (robot spacciati per utenti reali), ma vi è una parte squisitamente umana a supporto.
Ciò che, fortunatamente, rende più facilmente distinguibili le campagne coordinate dal corpo organico di post presenti sulle piattaforme social, per opera di singoli utenti, è l’andamento coordinato. Un po’ come nella musica, quando tutti gli strumenti partono assieme vuol dire che si tratta di un’orchestra e questa, probabilmente, ha un maestro a dirigerla. Allo stesso modo, una marea di contenuti che dicono la stessa cosa, che insistono sullo stesso punto e vengono messi in circolazione nello stesso momento rivelano un’orchestrazione. E nel caso specifico, proseguendo nella metafora musicale, alcuni strumenti vengono suonati da esseri umani e altri da computer programmati a puntino.


Uno degli aspetti indagati dallo studio americano è anche l’evoluzione tattica dei troll nel tempo. Gli assetti che magari potevano bastare anni fa ora potrebbero essere inefficaci, così gli esperti che costruiscono queste campagne di influenza cercano di inserire elementi di novità, sia per preformare meglio sia per saltare filtri e i controlli.
In tal senso, uno dei focus è stata l’attività dei troll russi e l’analisi di come questi siano riusciti a ricavarsi il loro bacino di utenza e in che modo abbiano potuto passare inosservati. Se consideriamo Twitter, si può osservare come un audience possa essere progressivamente costruito “mediante l’impiego combinato di hashtag, retweet, risposte, menzionando altri utenti, postando in momenti specifici e condividendo URL.” Così, a seconda delle necessità, questi strumenti possono essere dosati in modo diverso. Nello studio, ad esempio, si riporta una variazione nelle abitudini dei troll russi legata al periodo 2016/2017 nel quale sembra che l’uso delle “menzioni” abbia ricalcato un modello di comportamento molto più simile a quello di un utente organico americano.


Altri dati interessanti sono emersi mettendo sotto la lente di ingrandimento le campagne di influenza riconducibili al Venezuela, che sembrano più prevedibili delle altre e su cui i modelli di classificazione e previsione hanno dato un risultato vicino alla perfezione. Le operazioni coordinate di influenza implementate dai venezuelani via Twitter non sembrano aver fatto uso di hashtag ne di retweet o risposte. Più comunemente queste si sono basate su post accessoriati di URL e quando a metà del 2018 hanno iniziato a includere nella modalità di comunicazione anche i retweet lo hanno fatto girando post provenienti da uno stesso profilo. Per non parlare dell’uso massivo link a siti fasulli come trumpnewss.com and trumpservativenews.club. che continuavano a essere inclusi nei tweet di queste campagne. Altro lato caratteristico dello “stile venezuelano” è un sistema di retweet basato su pochi profili che fungono da nocciolo e molti account, con ogni probabilità bot, che orbitano attorno a ognuno di questi. Un modello molto distante da quello dell’IRA russa che si è vista disporre una mezza dozzina di comunità, distinte fra loro e con compiti diversi, che operavano all’interno di un network di retweet. Andando più nello specifico di queste comunità si è potuto notare come alcune di esse si occupassero di far andare in tendenza specifici hashtag o condividere link commerciali o legati a diete mentre altre avevano il compito di prendere di mira rispettivamente i sostenitori dei Democratici e dei Repubblicani americani.


Di fronte a questo panorama di tattiche digitali impiegate per sfruttare le piattaforme social a scopi politici, agendo sul gregge dell’opinione, è sempre più presente fra gli studiosi e gli ambienti legislativi il pensiero di intervenire, per porre un blocco a questo tipo di attività. Si percepisce infatti una maggior coscienza dei rischi che si possono correre con la manipolazione dei social media, che facilita la polarizzazione e poi incide sulle preferenze elettorali, dunque il tipo di risposta descritta in questo studio è un passo in avanti per provare a risolvere il problema.


Secondo quanto concluso dagli studiosi che si sono impegnati in questo progetto “Possiamo usare questo strumento per identificare automaticamente i post di ‘troll’ ed seguire una campagna di informazione online senza alcun intervento umano”.
L’intelligenza artificiale, opportunamente preparata ed aggiornata, costituirà il nostro esercito in questa guerra di nuova generazione, combattuta nelle savane dei motori di ricerca, nelle paludi dei social network, fra i bianchi canini di qualche gattino fotografato mentre sbadiglia, la nuova dieta dell’estate, i selfie ambientati, le dirette sguaiate e quant’altro.

Fonte: Science Advances 22/07/2020 – ANSA 24/07/2020

About Post Author