Tajne armie robotów walczące o podminowanie zasad demokracji
Celem finansowanego przez Europejską Radę ds. Badań Naukowych (ERBN) projektu COMPROP (Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe) było zbadanie sieci zautomatyzowanych kont w mediach społecznościowych i ich roli w kształtowaniu opinii publicznej. Zespół pod przewodnictwem Philipa Howarda, który pełnił rolę głównego badacza, opracował formalną definicję „śmieciowych informacji”, opisując je jako celowo produkowaną kłamliwą, nierzetelną i wprowadzającą w błąd propagandę imitującą prawdziwe wiadomości. Następnie przeanalizował miliony wpisów w mediach społecznościowych, by zbadać proces tworzenia i rozpowszechniania takich wiadomości. Chociaż projekt początkowo skupiał się na działaniach w serwisie Twitter, zespół programu w dziedzinie demokracji i technologii Uniwersytetu Oksfordzkiego znalazł na Facebooku propagandę obliczeniową – algorytmy wykorzystywane do pracy w celach politycznych. Problem dotyczył też serwisów Instagram, Telegram, YouTube, a nawet aplikacji randkowej Tinder. „W trakcie realizacji projektu nie spodziewaliśmy się, że zasięg problemu jest aż tak duży”, zauważa Howard. „Widzimy, jak niektóre rządy, lobbyści, skrajna prawica i zwolennicy białej supremacji używają ich do manipulowania demokracjami”. Projekt COMPROP koncentrował się w dużej mierze na dezinformacji dotyczącej pandemii COVID, która, jak zauważa Howard, pochodziła głównie z trzech źródeł: rosyjskich i chińskich mediów oraz od amerykańskiego prezydenta Donalda Trumpa. O ile dezinformacja siana przez Trumpa była powiązana z amerykańską polityką wewnętrzną, Rosja i Chiny promowały trzy szerokie wątki skierowane do zagranicznych odbiorców. „Po pierwsze, że demokracja nie rozwiąże tego kryzysu, bo obieralni przywódcy są zbyt słabi, by podejmować decyzje”, mówi Howard. „Po drugie, że szczepionkę opracują najpierw uczeni z Rosji lub Chin, i po trzecie, że Rosja i Chiny podejmują największe wysiłki w zakresie pomocy humanitarnej”.
Pod wpływem
Takie kampanie dezinformacyjne prowadzono jeszcze przed pandemią COVID-19. „Kiedy lot Malaysia Airlines 17 został zestrzelony nad Ukrainą, pojawiło się wiele absurdalnych teorii dotyczących tego, co się wydarzyło – że zestrzelili go zwolennicy demokracji, że zestrzelili go amerykańscy żołnierze, że zaginiony czołg z II wojny światowej wyjechał z lasu i go zestrzelił”, dodaje Howard. Przedstawiając wiele sprzecznych historii, reżimy autorytarne uniemożliwiają swoim obywatelom stwierdzenie, która narracja jest prawdziwa, i tym samym utrudniają reakcję na nią. Ta strategia została ostatecznie zastosowana także zewnętrznie, aby osłabić ruchy społeczne i zdestabilizować inne państwa. „Czasami kampanie dotyczą konkretnego kryzysu lub osoby, ale często celem jest podważenie zaufania do sądów, policji, dziennikarstwa, nauki lub rządu”, wyjaśnia Howard. Badacz dodaje, że docelowymi odbiorcami tych generowanych przez boty komunikatów jest przypuszczalnie jedynie około 10–20 % populacji, składające się zazwyczaj z niezadowolonych, konserwatywnych dorosłych, którzy są aktywni politycznie. W wysoce spolaryzowanym kraju wpływ na 10 % elektoratu może mieć zasadnicze znaczenie. Howard wyjaśnia, że te kampanie szkodzą szczególnie roli kobiet i mniejszości w życiu publicznym: „Feministki, dziennikarki i kobiety prowadzące działalność polityczną są obiektem złośliwych ataków i dezinformacji w media społecznościowych. O wiele łatwiej jest wypchnąć z życia publicznego kobietę niż mężczyznę”.
Rola rządów
Howard mówi, że powstrzymanie sieci propagandowych będzie wymagać dodatkowych wysiłków. „Branża nie jest już w stanie regulować tego sama. Jeśli firmy technologiczne przyspieszyłyby działania, a rządy nałożyły grzywny na polityków, którzy zlecają takie kampanie, mogłoby to przynieść spodziewane efekty”. Jednak nawet identyfikacja zautomatyzowanych kont w serwisach społecznościowych okazała się trudna. „Pewien autor botów w Niemczech stwierdził, że jego zespół przeczyta nasze dokumenty dotyczące metodologii i dostosuje swoje algorytmy na tyle, by nie były wykrywane”, zauważa Howard. „Nawiązaliśmy rodzaj dialogu z tymi programistami”. Grupa otrzymała też grant przeznaczony na weryfikację koncepcji, dzięki któremu powstanie agregator śmieciowych informacji, czyli interaktywne narzędzie, które wyświetla artykuły pochodzące z niewiarygodnych źródeł, rozpowszechniane za pośrednictwem Facebooka. Howard i jego zespół koncentrują się teraz na tym, jak technologia uczenia maszynowego będzie napędzać nową generację propagandy obliczeniowej. „Jeżeli ktoś będzie mógł skorzystać z zawartości czyjejś tablicy w mediach społecznościowych i danych behawioralnych, by wymyślić wiadomości polityczne, na które dany człowiek zareaguje, zrobi to”, podsumowuje uczony. „To kolejne wielkie zagrożenie”.
Słowa kluczowe
COMPROP, obliczeniowa, propagandowa, bot, media społecznościowe, polityczne, COVID, algorytm, uczenie maszynowe, Rosja, Chiny, Trump