Skip to main content
European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

FAke News discovery and propagation from big Data ANalysis and artificial intelliGence Operations

Article Category

Article available in the following languages:

Weryfikacja informacji przy pomocy SI pomaga w walce z fałszywymi wiadomościami

W ostatnich latach wzrosło zaniepokojenie tym, jak fałszywe wiadomości – fake news – wpływają na procesy demokratyczne, spójność społeczną i stabilność gospodarczą. W pionierskim projekcie finansowanym ze środków UE pokazano, w jaki sposób sztuczna inteligencja (SI) może pomóc specjalistom ds. mediów zidentyfikować nieprawdziwe informacje.

W ramach rozpoczętego w styczniu 2018 roku projektu FANDANGO, finansowanego ze środków UE, badacze analizowali, jak rozprzestrzeniają się i ewoluują nieprawdziwe informacje w mediach. Ostatnie wybory w Stanach Zjednoczonych, referendum w sprawie Brexitu w Zjednoczonym Królestwie, jak i pandemia COVID podkreśliły, w jaki sposób „fake news” wpływają na rozumienie złożonych wydarzeń. „Zdefiniowanie dezinformacji medialnej to niezwykle złożone zadanie”, mówi Francesco Saverio Nucci, koordynator projektu FANDANGO i dyrektor ds. badań nad aplikacjami w dziale badań i rozwoju włoskiego oddziału grupy Engineering. „Nawet znaczenie pojęcia »fake news« uległo zmianie i nabrało wydźwięku politycznego”. Innym wyzwaniem jest to, że to, co dla jednej osoby jest dezinformacją, dla drugiej nią nie jest. Skoro ludziom trudno jest określić, jak identyfikować fałszywe informacje w mediach, to tworzenie algorytmów opartych na sztucznej inteligencji w celu identyfikacji takich informacji staje się nie lada wyzwaniem.

Przeciwdziałanie dezinformacji w mediach

Taki właśnie cel przyświecał projektowi FANDANGO. „Naszym celem była próba przetestowania i walidacji różnych narzędzi SI, które można wykorzystać do identyfikacji fałszywych informacji”, dodaje Nucci. Niektóre z analizowanych zagadnień obejmowały zmiany klimatu, politykę europejską i imigrację. Po pierwsze, zespół projektu zastosował narzędzia oparte na uczeniu maszynowym w celu zidentyfikowania „fałszywych” obrazów i tak zwanych filmów deepfake, czyli takich które zostały przerobione z użyciem technologii opartych na SI. Do oceny materiałów zastosowano sztuczną inteligencję oraz przetwarzanie języka naturalnego. „Doszliśmy do wielu nowych wniosków”, mówi Nucci. „Po pierwsze, stwierdziliśmy, że nie jest możliwe wyeliminowanie człowieka z tego procesu. Sztuczna inteligencja może służyć jako wsparcie, ale ostatecznej oceny powinien dokonać specjalista ds. mediów. Algorytmy oparte na SI są przydatne, ale nie są w stanie samodzielnie rozwiązać problemu dezinformacji”. Po drugie, zespół odkrył, że nie wystarczy, aby oprogramowanie po prostu oznaczyło dany materiał jako podejrzany. Dziennikarz chce wiedzieć, dlaczego obraz lub tekst został oznaczony w ten sposób. Zespół projektu zastosował również narzędzia oparte na uczeniu maszynowym, by lepiej zrozumieć, w jaki sposób dezinformacja jest rozpowszechniana w różnych sieciach. Nucci uważa, że kolejnym ważnym etapem projektu będzie ścisła współpraca między badaczami technologii a naukowcami zajmującymi się naukami społecznymi. „Mój zespół składa się z techników, którzy umieją już korzystać z mediów niczym eksperci”, dodaje koordynator. „Z drugiej strony zauważyliśmy, jak ważne jest, aby dziennikarze rozumieli, w jaki sposób sztuczna inteligencja może pomóc rozwiązać zadanie, które przed nami stoi”.

Rozwijanie umiejętności korzystania z mediów

W ramach badań opracowano modułową platformę, na której znajdują się narzędzia oparte na uczeniu maszynowym, w tym do przetwarzania języka naturalnego i oceny wiarygodności źródeł. Prace są w dalszym ciągu na wczesnym etapie, ale Nucci przewiduje, że platforma ta może być dalej rozwijana i ostatecznie udostępniona firmom związanym z mediami. „Potrzebujemy więcej danych, aby ulepszyć te narzędzia”, dodaje badacz. „Im więcej danych, tym lepiej będą działać algorytmy”. W ramach projektu podkreślono również potrzebę przeszkolenia specjalistów ds. mediów w zakresie umiejętności korzystania z danych oraz w zakresie efektywniejszego zarządzania danymi. Błędna interpretacja statystyk dotyczących odsetka zaszczepionych pacjentów z COVID-19 przyczyniła się na przykład do podsycenia sceptycyzmu wobec szczepionki. „Oprócz poprawy algorytmów uczenia maszynowego istnieje szereg aspektów badawczych, które leżą w obszarze naszych zainteresowań”, mówi Nucci. „Obejmują one umiejętność korzystania z mediów oraz analizę sposobów, w jakie nieprawdziwe wiadomości są rozpowszechniane w mediach społecznościowych”.

Słowa kluczowe

FANDANGO, media, dezinformacja, polityka, sztuczna inteligencja, algorytmy, dziennikarze, nieprawdziwe informacje

Znajdź inne artykuły w tej samej dziedzinie zastosowania