Des vérificateurs de faits dotés d’IA contribuent à la lutte contre les fausses informations
Lancé en janvier 2018, le projet FANDANGO, financé par l’UE, était aux premières loges de la prolifération et de l’évolution de la désinformation dans les médias. Les récentes élections américaines, les conséquences du référendum sur le Brexit au Royaume-Uni et, bien sûr, la pandémie de COVID, sont autant de thématiques qui ont mis en exergue le défi que posent les fausses informations pour notre compréhension d’événements complexes. «En soi, définir la désinformation dans les médias est un processus incroyablement complexe», explique Francesco Saverio Nucci, coordinateur du projet FANDANGO et directeur de la recherche applicative à l’Engineering R&D Labs, en Italie. «Même la signification du terme “fausses informations” a évolué, à la suite de son adoption à des fins plus politiques.» Un autre défi tient au fait que nous n’avons pas forcément tous la même interprétation de ce qui constitue un acte de désinformation dans les médias. Et s’il est difficile pour les êtres humains de convenir d’une base de référence pour identifier la désinformation dans les médias, l’application d’algorithmes d’intelligence artificielle pour identifier les fausses informations n’est manifestement pas une entreprise aisée.
Lutter contre la désinformation dans les médias
C’était toutefois l’objectif principal du projet FANDANGO. «Notre ambition était de tester et de valider une gamme d’outils d’IA qui pourrait être utilisée pour identifier la désinformation», ajoute Francesco Saverio Nucci. Les thématiques examinées étaient notamment le changement climatique, les politiques européennes et l’immigration. Tout d’abord, l’équipe du projet a appliqué des outils d’apprentissage automatique pour identifier les images «fausses» et les vidéos que l’on qualifie de «deep fake» — des vidéos qui ont été manipulées. L’IA et le traitement du langage naturel ont également été appliqués au texte, afin d’aider à identifier tout élément qui semble suspect. «Nous avons constaté un certain nombre de choses», explique Francesco Saverio Nucci. «Premièrement, nous avons constaté qu’il n’est pas possible d’éliminer le facteur humain dans ce contexte. L’IA peut apporter une précieuse contribution, mais il faut toujours un professionnel des médias au bout du fil. L’IA est utile, mais elle ne peut résoudre complètement le problème des fausses informations.» Deuxièmement, l’équipe a découvert qu’il n’est pas suffisant que le logiciel dise au journaliste que quelque chose est suspecté d’être «faux». Le journaliste veut savoir pourquoi une image ou un texte paraît suspect. L’équipe du projet a également eu recours à des outils d’apprentissage automatique pour mieux comprendre la manière dont la désinformation se répand sur les réseaux. Francesco Saverio Nucci estime qu’un autre volet important du projet a été l’étroite collaboration entre les chercheurs en technologie et ceux en sciences sociales. «Je compte dans mon équipe des techniciens qui sont passés maîtres dans le domaine des compétences médiatiques», fait-il remarquer. «D’autre part, nous avons mesuré l’importance pour les journalistes de commencer à comprendre comment l’IA peut aider à résoudre ce défi de la désinformation.»
Perfectionner les compétences médiatiques
Sur la base de ces recherches, une plateforme modulaire a été développée, avec des outils d’apprentissage automatique comprenant le traitement du langage pour le texte et l’examen des données pour les sources. Bien que ces travaux n’en soient qu’à leurs prémices, Francesco Saverio Nucci estime que cette plateforme peut être développée plus avant pour, à terme, être commercialisée auprès d’entreprises de médias. «Afin d’améliorer ces outils, il nous faut davantage de données», ajoute-t-il. «Plus nous avons de données, mieux les algorithmes fonctionneront.» Le projet a également mis en lumière la nécessité de former les professionnels des médias afin qu’ils acquièrent des connaissances sur des données, et de leur apprendre à mieux les gérer. Une interprétation erronée des statistiques relatives au pourcentage de patients atteints de la COVID ayant été vaccinés, par exemple, a contribué à attiser le scepticisme envers les vaccins. «En plus d’améliorer l’apprentissage automatique, nous continuerons à examiner un certain nombre d’aspects de la recherche», explique Francesco Saverio Nucci. «Il s’agit notamment des connaissances sur les médias et des modes de propagation des fausses informations sur les réseaux sociaux.»
Mots‑clés
FANDANGO, médias, désinformation, politique, IA, algorithmes, journalistes, fausses informations