European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Article Category

Zawartość zarchiwizowana w dniu 2023-03-24

Article available in the following languages:

Innowacyjny model zaufania ma pomóc dziennikarzom weryfikować treści mediów społecznościowych

Na przykładzie ataków terrorystycznych, jakie miały miejsce w listopadzie 2015 r. w Paryżu, partnerzy finansowanego ze środków UE projektu REVEAL zademonstrowali nowatorskie rozwiązania do wspomagania dziennikarzy w ocenie wierności treści zamieszczanych przez świadków naocznych w mediach społecznościowych o najnowszych wydarzeniach.

Z uwagi na fakt, że znakomita większość osób aktywnie korzysta teraz z takich platform jak Facebook czy Twitter na co dzień, media społecznościowe stają się dla dziennikarzy coraz ważniejszym źródłem. W przypadku wiadomości z ostatniej chwili dziennikarze są teraz w stanie wychwycić relacje naocznych świadków, które często zwierają także zdjęcia i/lub materiał wideo. Jednak mimo iż dostępnych jest wiele autentycznych wiadomości, nazbyt łatwo dziennikarz może narazić przypadkowo swoją reputację na szwank z powodu opublikowania satyry, propagandy czy treści naśladowczej zamiast autentycznej w sytuacji kryzysowej lub wyjątkowej. Projekt REVEAL koncentruje się na opracowywaniu metod, które umożliwią dziennikarzom szybkie i precyzyjne odróżnianie przydatnych informacji w mediach społecznościowych od „szumu” – nieprzydatnych lub zwodniczych informacji. Partnerzy projektu wskazują, że media społecznościowe często pełnią rolę „komory pogłosowej”, rozpowszechniając pogłoski, które nierzadko okazują się fałszywe. To nie jest szczególny problem w przypadku wiadomości długofalowych, gdyż z czasem wyjaśnia się, co tak naprawdę się wydarzyło. Niemniej w przypadku wiadomości z ostatniej chwili odróżnienie faktów od fikcji może okazać się znaczne trudniejsze. Model zaufania na potrzeby weryfikacji treści W swoim wystąpieniu w czasie trzecich warsztatów SNOW (Social News on the Web) w Montrealu, Kanada, które odbyły się w kwietniu 2016 r., naukowcy z projektu REVEAL zaprezentowali swój nowatorski „model zaufania”, przeznaczony do częściowej automatyzacji procesu odfiltrowywania użytecznych informacji w mediach społecznościowych poprzez korzystanie z zaufanych źródeł, co ma pomóc dziennikarzom, kiedy trzeba reagować szybko na bieżącą sytuację. Model pozwala dziennikarzom zachowywać listę swoich źródeł, łącząc nowe treści z autorami. W czasie śledzenia bieżących wiadomości w mediach społecznościowych, elementy treści są łączone z autorami i mogą być odfiltrowywane za pomocą predefiniowanych list. W przypadku każdej nowej treści staje się niezwłocznie jasne, czy jest w jakikolwiek sposób powiązana ze źródłem: została zamieszona przez źródło, wspomina je albo jest do niego przypisana. Model ma ponadto pomóc dziennikarzom w szybkim wyławianiu nowych treści naocznych świadków. To nie oznacza odsuwania treści od uznanych organizacji czy agencji prasowych, ponieważ nie są one już treściami z ostatniej chwili. Raczej będą to treści zawierające zdjęcia lub materiały wideo świadków naocznych, opublikowane mniej niż pięć minut wcześniej, które nadal pozostają prawdopodobnie niezweryfikowane. Paryż jako przykład Aby zaprezentować model i jego możliwości, zespół REVEAL posłużył się atakami terrorystycznymi, które miały miejsce 13 listopada 2015 r. w Paryżu jako studium przypadku. Przeszukując platformy mediów społecznościowych, naukowcy wykorzystali techniki przetwarzania języka naturalnego do identyfikowania nazw (takich jak BBC czy Le Monde) w języku angielskim i francuskim oraz wymienionych adresów URL. Dane były następnie importowane do modelu zaufania, który już zawiera próbną listę zaufanych i niezaufanych źródeł. W ten sposób mogą być wyszukane wszystkie treści napisane przez dane źródło, wspomniane przez nie lub przypisane do niego. Zespół wybrał następnie pięć zdjęć zamieszczonych w wieczór ataków w Paryżu, z których trzy były autentyczne. Następnie naukowcy zidentyfikowali adresy URL zamieszczonego zdjęcia, które mogły być raczej podane dalej niż pierwotnym adresem. Następnie wysłali do swojej bazy danych zapytania w 10 minutowych odstępach w czasie pierwszej godziny po publikacji każdego ze zdjęć, aby sprawdzić jak często było ono podawane dalej (łącznie oraz przez zaufane/niezaufane źródła). W drugim doświadczeniu uporządkowali adresy URL według liczby cytowań i co pięć minut porównywali bieżący ranking adresów podawanych dalej w mediach społecznościowych, odfiltrowując te starsze. W ten sposób starali się odkryć nowe treści świadków naocznych, które można sprawdzić, zanim rozprzestrzenią się lotem błyskawicy. Analiza wyników W czasie analizy treści świadków naocznych zespół zauważył, że niezaufane źródła na ogół podają dalej zdjęcia szybciej niż zaufane źródła. Naukowcy stwierdzili także, że zaufane źródła są wskazówką, że zdjęcie jest autentyczne. Zaufane źródła związane z treściami tworzonymi przez użytkowników zwiększają prawdopodobieństwo, że jest ono autentyczne. Dzieje się tak zazwyczaj 30 minut po opublikowaniu zdjęcia. W rezultacie, jeżeli dziennikarz potrafi odczekać chwilę, wówczas może je sprawdzić za pomocą tradycyjnych sposobów, takich jak weryfikacja krzyżowa faktów czy bezpośredni kontakt ze źródłem za pośrednictwem mediów społecznościowych. Ponadto zespół ustalił, że w odkrywaniu wartych opublikowania treści świadków naocznych pomocne jest odfiltrowywanie starych treści. Dzięki tej metodzie 5 zdjęć testowych pokazało się wysoko w 6% wszystkich przeszukiwanych treści w 5-minutowym oknie czasowym. To oznacza, że dziennikarz zamiast sprawdzać potencjalnie tysiące adresów URL w mediach społecznościowych może skupić się na tych najważniejszych. Choć to dopiero wstępne wyniki, wydają się być obiecujące. Model zaufania REVEAL może pomóc dziennikarzom szybciej i efektywniej pozyskiwać treści o wydarzeniach z ostatniej chwili i publikować je z większą pewnością, że materiał pozyskany z mediów społecznościowych jest autentyczny. Więcej informacji: witryna projektu

Kraje

Luksemburg

Powiązane artykuły