European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Article Category

Contenu archivé le 2023-03-24

Article available in the following languages:

Un modèle de confiance innovant pour aider les journalistes à vérifier les informations sur les réseaux sociaux

Le projet REVEAL, financé par l'UE, a pris comme exemple les attaques terroristes de novembre 2015 contre Paris pour présenter de nouvelles solutions qui aideront les journalistes à évaluer la véracité des témoignages oculaires publiés sur les réseaux sociaux lors d'un événement critique.

Dans leur grande majorité, les gens sont désormais actifs chaque jour sur des réseaux sociaux comme Facebook ou Twitter, qui deviennent de plus en plus une source importante pour les journalistes. Lors d'un évènement majeur, un journaliste peut aisément y trouver les relations de témoins oculaires, souvent avec des photos ou des vidéos. Cependant et bien que bon nombre de ces informations soient véridiques, le journaliste risque bien trop facilement de mettre en danger sa réputation en publiant à la place une satyre, de la propagande ou un plagiat pendant une situation de crise ou d'urgence. Le projet REVEAL a cherché à mettre au point des méthodes qui permettront aux journalistes de distinguer rapidement et exactement les informations de valeur présentes sur les réseaux sociaux, et de rejeter les données inutiles ou trompeuses. Les chercheurs soulignent que les réseaux sociaux deviennent souvent une «chambre d'écho», amplifiant et diffusant des rumeurs qui s'avèrent souvent fausses. Ce n'est pas un gros problème pour les nouvelles concernant des évènements qui durent, car ce qui s'est réellement passé devient assez vite évident. Par contre, pour un scoop ponctuel, il peut être bien plus difficile de distinguer rapidement les faits de la fiction. Un modèle de confiance pour vérifier les informations Dans le cadre du Third Workshop of Social News on the Web qui s'est tenu en avril 2016 à Montréal, au Canada, les chercheurs de REVEAL ont présenté leur nouveau «modèle de confiance». Il automatise en partie la filtration des informations utiles sur les réseaux sociaux, s'appuyant sur des sources de confiance pour aider les journalistes qui doivent réagir rapidement à une situation qui se développe. Ce modèle leur permet de maintenir une liste de leurs sources, et relie les nouvelles informations à leurs auteurs. Lorsqu'un journaliste cherche des nouvelles sur les réseaux sociaux, les informations sont associées avec leurs auteurs, et peuvent être filtrées selon des listes prédéfinies. Pour chaque nouvelle information, sa source est immédiatement évidente: elle a été postée par elle, la mentionne ou lui est attribuée. Le modèle veut aussi aider les journalistes à trouver rapidement de nouveaux témoignages oculaires. Pour cela, il ne s'intéressera pas aux agences bien établies de l'information, car ce qu'elles proposent n'est plus nouveau. Au contraire, il doit s'agir d'informations contenant des images ou des vidéos prises par les témoins, publiées depuis moins de cinq minutes et probablement pas encore vérifiées. Paris comme exemple Pour présenter le modèle et ses possibilités, l'équipe de REVEAL a utilisé les attaques terroristes sur Paris le 13 novembre 2015. En explorant les réseaux sociaux, elle a utilisé des techniques de traitement du langage naturel pour identifier les entités nommées (comme la «BBC» et «Le Monde»), en anglais et en français, et les URL cités. Ces données ont été importées dans le modèle de confiance, qui contenait déjà un exemple de liste de sources de confiance ou non. Ceci permettait de retrouver toutes les informations écrites ou attribuées à une source donnée, ou la mentionnant. L'équipe a ensuite choisi cinq images prises pendant la nuit des attaques sur Paris, trois étant authentiques. Elle a identifié les URL présentant des copies des images, qui pourraient donc être des partages au lieu de l'URL d'origine. Les chercheurs ont alors interrogé leur base de données à intervalles de 10 minutes, durant la première heure après la publication de chaque image, pour connaître son rythme de partage (global et par sources de confiance ou non). Dans une seconde expérience, ils ont trié les URL par nombre de mentions, et comparé toutes les 5 minutes le top des URL partagées sur les réseaux sociaux, éliminant les anciennes. Ils voulaient ainsi essayer de détecter les nouveaux témoignages oculaires à étudier avant qu'ils ne prennent une dimension «virale». Analyser les résultats en analysant les témoignages oculaires, les chercheurs ont constaté que les sources non fiables partagent en général des images plus tôt que les sources de confiance. Ils ont aussi constaté que les sources de confiance sont un indice de l'authenticité d'une image. Les sources de confiance associées à des informations générées par les utilisateurs renforcent la probabilité que ces informations soient véridiques. C'est en général le cas 30 minutes après la publication d'une photo. Par conséquent, si le journaliste est prêt à attendre, ils peuvent lui indiquer des méthodes classiques de vérification comme le recoupement des faits ou le contact direct avec la source via les réseaux sociaux. L'équipe a aussi constaté que pour découvrir de nouveaux témoignages oculaires, il convient d'éliminer les informations trop vieilles. Avec cette méthode, les 5 images testées ont été dans le top 6 % de toutes les informations recueillies pendant 5 minutes. Autrement dit, un journaliste n'a pas besoin de vérifier des milliers d'URL de réseaux sociaux, et peut se concentrer sur le sommet de la liste. Ces résultats sont préliminaires mais semblent prometteurs. Le modèle de confiance étudié par REVEAL pourrait aider les journalistes à être plus rapides et plus efficaces pour trouver dans les réseaux sociaux des informations sur des scoops et des publications, en ayant davantage confiance dans leur authenticité. Pour plus d'informations, veuillez consulter: site web du projet

Pays

Luxembourg

Articles connexes