Gli eserciti segreti di robot che combattono per minare la democrazia
Il progetto COMPROP (Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe), finanziato tramite un contributo del Consiglio europeo della ricerca (CER), si è prefisso di approfondire le reti di account automatizzati sui social media e il loro ruolo nel plasmare l’opinione pubblica. Il team guidato dal ricercatore principale Philip Howard ha prodotto una definizione codificata di «notizie spazzatura» che si riferisce alla produzione intenzionale di materiale di propaganda fuorviante, ingannevole ed errato che dà a intendere di essere una notizia vera. Il gruppo ha quindi analizzato milioni di post sui social media per capire in che modo tali messaggi venivano prodotti e divulgati. Sebbene inizialmente avesse concentrato l’attenzione su Twitter, il team attivo presso il Programma per la democrazia e la tecnologia dell’Università di Oxford ha trovato materiale di propaganda computazionale (ovvero algoritmi concepiti al servizio di un’agenda politica) su Facebook, Instagram, Telegram, YouTube e persino sull’app per incontri Tinder. «Durante lo svolgimento del progetto, non ci aspettavamo che il problema sarebbe diventato così grave», osserva Howard. «È ora chiaro che questi metodi volti a manipolare le democrazie vengono utilizzati da alcuni governi, lobbisti, esponenti dell’estrema destra e movimenti per la supremazia bianca.» Il progetto COMPROP ha concentrato l’attenzione in particolare sulla cattiva informazione associata alla COVID, che secondo quanto dichiarato da Howard proveniva principalmente da tre fonti: gli organi di informazione russi, quelli cinesi e l’ex presidente statunitense Donald Trump. Mentre la disinformazione propagata da Trump era legata alle politiche statunitensi interne, la Russia e la Cina hanno diffuso tre ampie tematiche rivolte al pubblico straniero. «La prima riguardava il fatto che la democrazia non ci può venire in aiuto e i leader eletti sono troppo deboli per prendere decisioni», dichiara Howard. «Il secondo messaggio affermava che gli scienziati russi o cinesi avrebbero sviluppato il vaccino per primi, mentre in base al terzo la Russia o la Cina erano alla guida degli sforzi di assistenza umanitaria.»
Manipolati
Tuttavia, tali campagne di cattiva informazione precedono la pandemia di COVID-19. «Dopo che il volo Malaysia Airlines 17 fu abbattuto mentre sorvolava l’Ucraina, vennero divulgati molteplici resoconti grotteschi per raccontare ciò che sarebbe verosimilmente accaduto: l’avevano abbattuto i sostenitori della democrazia, poi le truppe statunitensi, o ancora l’aveva abbattuto un carro armato disperso dalla Seconda guerra mondiale, spuntato dalla foresta», aggiunge Howard. Mediante l’esposizione di molteplici storie incompatibili tra loro, i regimi autoritari impediscono ai propri cittadini di sapere a che narrazione dar credito. Questa strategia è stata alla fine rivolta anche verso il mondo esterno allo scopo di sovvertire i movimenti sociali e destabilizzare le nazioni straniere. «A volte le campagne si incentrano su una crisi o una persona specifiche, ma spesso l’obiettivo è quello di compromettere la fiducia riposta in organi giudiziari, forze di polizia, giornalisti, scienza o governi in generale», spiega Howard. Il ricercatore aggiunge che il pubblico bersaglio di questi bot è forse solo il 10-20 % della popolazione, solitamente adulti insoddisfatti dell’attuale situazione, di orientamento conservatore e attivi dal punto di vista politico. In un paese altamente polarizzato, influenzare il 10 % dell’elettorato può avere un impatto clamoroso. Howard spiega che queste campagne risultano particolarmente negative per il ruolo delle donne e delle minoranze nella vita pubblica: «Femministe, giornaliste e donne impegnate in politica sono oggetto di sgradevoli forme di attacco e di disinformazione sui social media. È molto più facile far uscire dalla vita pubblica una donna piuttosto che un uomo.»
Interventi dei governi
Secondo Howard, sono necessari ulteriori sforzi per contenere queste reti di propaganda. «Abbiamo oltrepassato il punto in cui era possibile garantire l’autoregolazione del settore. Se le aziende tecnologiche intensificassero i propri sforzi e i governi infliggessero sanzioni ai politici che commissionano questi programmi, questa serie di iniziative volte ad arginarli sarebbe di grande aiuto.» Tuttavia, il solo compito di individuare gli account di social media automatizzati si è dimostrato complesso. «Uno sviluppatore di bot in Germania ha dichiarato che il suo team leggeva i nostri documenti sulla metodologia e modificava i propri algoritmi quanto basta per non farceli rilevare», osserva Howard. «Abbiamo instaurato una sorta di dialogo con questi sviluppatori.» Inoltre, il gruppo è stato premiato con una sovvenzione per una prova di concetto volta a sviluppare l’aggregatore di notizie spazzatura, uno strumento che mostra in modo interattivo articoli provenienti da fonti inattendibili mentre si diffondono su Facebook. L’attenzione di Howard e il suo team si sta ora concentrando sul modo in cui le tecnologie di apprendimento automatico alimenteranno una nuova generazione di propaganda computazionale. «Se qualcuno è in grado di acquisire i feed dei social media e i dati comportamentali di un utente e di elaborare messaggi politici volti a provocare una reazione da parte di quest’ultimo, sfrutterà queste tecnologie in tal senso», dichiara Howard, che conclude: «Questa è la prossima grande minaccia che ci attende.»
Parole chiave
COMPROP, computazionale, propaganda, bot, social media, politico, COVID, algoritmo, apprendimento automatico, Russia, Cina, Trump