Un modelo de confianza innovador para que los periodistas verifiquen contenidos de redes sociales
Una buena proporción de internautas emplea de forma activa y a diario plataformas como Facebook o Twitter. No extraña por tanto que las redes sociales se hayan convertido en una fuente de información cada vez más destacada para los periodistas. Estas redes permiten a los profesionales del periodismo recabar testimonios de primera mano, a menudo acompañados de material gráfico y audiovisual. No obstante, a pesar de que mucha información es fidedigna, también existe un gran riesgo de que un periodista, al informar sobre crisis o emergencias, eche por tierra su reputación publicando una fuente satírica, propagandística o información copiada en lugar de contenidos verídicos. El proyecto REVEAL se dedicó al desarrollo de métodos que permitan a los periodistas diferenciar con rapidez y precisión la información útil de la inútil o falsa en los medios de comunicación sociales. Sus responsables señalan que estos medios funcionan a menudo como altavoz de rumores con frecuencia falsos. Esto no supone un verdadero problema para las noticias más «pausadas», pues el tiempo pone los hechos en su sitio. En cambio, en el caso de las noticias de última hora puede resultar mucho más complicado distinguir la realidad de la fantasía. Un modelo de confianza para verificar contenidos El equipo al cargo de REVEAL participó en el «III Taller sobre noticias sociales en la Web» (Third Workshop of Social News on the Web) celebrado en abril de 2016 en Montreal (Canadá) y presentó su novedoso «modelo de confianza» para automatizar parte del proceso de filtrado de información útil en las redes sociales mediante fuentes fiables, un modelo que ayuda a los periodistas a reaccionar con rapidez a una situación a medida que se suceden los acontecimientos. Con él es posible mantener una lista de fuentes en la que se relacionan los contenidos nuevos y sus autores para hacer un seguimiento de una noticia en las redes sociales, pasando los elementos de contenido por filtros basados en listas predefinidas. El sistema muestra claramente si cada elemento de contenido lo ha publicado una fuente concreta, menciona esa fuente o se atribuye a la misma. El modelo también pretende ayudar a los periodistas a encontrar rápidamente nuevos testimonios de testigos presenciales. Esto no se refiere a las tendencias emergentes generadas por organizaciones o agencias de noticias, ya que ese tipo de contenidos ya no suponen una exclusiva, sino a contenidos con imágenes o vídeos de testigos presenciales con antigüedad inferior a cinco minutos y que es muy probable que aún no se hayan verificado. París como ejemplo Para mostrar el modelo y sus capacidades, el equipo de REVEAL eligió los ataques terroristas del 13 de noviembre de 2015 en París como un estudio de caso. Se emplearon técnicas de procesamiento del lenguaje natural en el rastreo de distintas redes sociales para identificar entidades reconocidas (como la BBC y Le Monde) en inglés y francés y las direcciones web mencionadas. Los datos se importaron al modelo de confianza, al cual se había añadido previamente una lista de fuentes fiables y no fiables. De este modo, se extrajo todo el contenido escrito por una fuente concreta, o bien atribuido a esta o en el que esta fuera mencionada. El equipo eligió así cinco imágenes publicadas durante la noche de los ataques, tres de las cuales eran legítimas. A continuación identificaron direcciones web de copias compartidas de la imagen, sitios que por tanto no eran fuentes originales. Acto seguido se consultó la base de datos cada diez minutos durante la primera hora desde la publicación de la primera imagen para comprobar las veces que se compartía (en general y por las fuentes fiables y no fiables). En un segundo experimento, clasificaron las direcciones web en función de la cantidad de menciones recibidas, las compararon cada cinco minutos con las direcciones web mejor situadas compartidas en redes sociales y filtraron las más antiguas. La finalidad de este sistema era detectar contenidos nuevos de testigos directos que valdría el esfuerzo investigar antes de su viralización. Análisis de los resultados Durante el análisis de contenidos aportados por testigos directos se detectó que las fuentes no fiables suelen compartir imágenes antes que las fuentes fiables. También se constató que estas últimas sirven de indicador de la autenticidad de cada imagen. En las fuentes fiables relacionadas con contenidos generados por los usuarios hay mayor probabilidad de que los contenidos sean auténticos, sobre todo a la media hora de haberse publicado una foto. En consecuencia, si un periodista es paciente, este sistema ayudarle a la hora de verificar la información por medios tradicionales como la comprobación de datos o el trato directo con la fuente a través de redes sociales. El equipo también descubrió que la filtración de los contenidos antiguos resulta útil para descubrir aquellos de primera mano dignos de reproducirse en las noticias. Al aplicar este método, las cinco imágenes sometidas a prueba aparecieron en el 6 % superior de todos los contenidos rastreados en un margen de tiempo de cinco minutos. Esto evita al periodista la tarea de comprobar posiblemente miles de direcciones web en redes sociales al ofrecerle la posibilidad de centrarse en las más relevantes. Los resultados son preliminares pero no por ello menos prometedores. El modelo de confianza ofrecido por REVEAL podría ayudar a los periodistas a aumentar su velocidad y eficacia a la hora de extraer contenido sobre exclusivas y publicar contenidos con una mayor confianza en la veracidad del material hallado en las redes sociales. Para más información, consulte: Sitio web del proyecto
Países
Luxemburgo