Descifrar el contenido ultrafalso
Los modelos de inteligencia artificial (IA) generativa como DALL-E y ChatGPT, con una capacidad cada vez mayor para crear imágenes, texto y audio de gran calidad, están transformando con rapidez muchas industrias en todo el mundo. Sin embargo, esta transformación tiene un precio. La tecnología de IA generativa es cada vez más fluida y asequible, lo que conlleva un aumento de su uso indebido para campañas de desinformación a gran escala. Ello afecta a la capacidad de las plataformas y los verificadores de datos para hacer frente a la desinformación, dificultando así distinguir lo que es real de lo que es falso. Un nuevo libro blanco ahonda en el vínculo entre la IA generativa y la desinformación. En este documento, fruto de la colaboración entre los proyectos financiados con fondos europeos vera.ai, TITAN, AI4Media y AI4TRUST, se examinan los últimos avances, retos y oportunidades en este campo fundamental. «En nuestro nuevo y dinámico mundo de IA y desinformación, este libro blanco representa una piedra angular para esclarecer la compleja interacción entre los avances tecnológicos, las consideraciones éticas y los imperativos normativos», comenta el autor Francesco Saverio Nucci, de la empresa Engineering Ingegneria Informatica (Italia), entidad coordinadora del proyecto TITAN, en una noticia publicada en el sitio web del proyecto. En el documento se analizan las capacidades de generación de desinformación de la IA más avanzada y se destacan los problemas éticos y jurídicos imperantes, así como las oportunidades de innovación. Una cuestión fundamental que se aborda en el libro blanco es la evolución de la IA generativa, prestando especial atención a los distintos tipos de desinformación generada artificialmente, su prevalencia y su repercusión en los procesos electorales. «La amenaza que plantea la IA generativa para los procesos democráticos y la integridad de las elecciones ya no es, por desgracia, hipotética... y no se puede seguir definiendo como alarmismo», se lee en el libro blanco. Las campañas de desinformación con contenidos generados por IA acaban «socavando la confianza de los ciudadanos en los líderes políticos, las elecciones, los medios de comunicación y los gobiernos democráticos».
Los retos
En el documento se exponen los diferentes retos a los que se enfrenta la detección y el desmentido de desinformación, así como los recientes avances en este ámbito. También se presentan algunas herramientas de IA que pueden ayudar a los profesionales de los medios de comunicación a verificar contenidos y contrarrestar los riesgos relacionados con la desinformación. Se describen asimismo los servicios basados en IA que está desarrollando TITAN para fomentar el pensamiento crítico de los ciudadanos, enseñándoles, entre otras cosas, a ser conscientes de los ciberanzuelos y a verificar los autores y las fuentes de los contenidos en línea. Los autores examinan los problemas éticos y jurídicos que plantea el uso de tecnologías de IA para difundir información falsa. Entre ellos figuran los problemas de calidad de los datos, las preocupaciones por los derechos de autor y el «visible desequilibrio de poder entre los creadores de contenidos, los investigadores y los ciudadanos, por un lado, y las grandes empresas tecnológicas (como OpenAI, Microsoft, Google y Meta) que desarrollan y comercializan modelos generativos de IA, por otro». En este sentido, se hace hincapié en la necesidad de marcos reglamentarios coherentes. Uno de los principales problemas es que los modelos lingüísticos más avanzados no están diseñados para decir la verdad, sino que están entrenados para generar afirmaciones plausibles basadas en patrones estadísticos, por lo que son propensos a generar información errónea. Otros retos son superar la confianza infundada de los ciudadanos en la IA, desarrollar nuevas herramientas capaces de detectar contenidos generados por IA y obtener los fondos de investigación necesarios para hacerlo posible. Sin embargo, también hay oportunidades para la innovación, tal y como se afirma en el informe. Entre ellas destacan el desarrollo de modelos de detección de última generación y la mejora de las estrategias de lucha contra la desinformación basadas en la IA. El libro blanco elaborado con el apoyo de los proyectos vera.ai (vera.ai: VERification Assisted by Artificial Intelligence), TITAN (AI for Citizen Intelligent Coaching against Disinformation), AI4Media (A European Excellence Centre for Media, Society and Democracy) y AI4TRUST (AI-based-technologies for trustworthy solutions against disinformation) podrían ayudar a orientar la investigación futura y la formulación de políticas en este campo fundamental. Para más información, consulte: Sitio web del proyecto vera.ai Sitio web del proyecto TITAN Sitio web del proyecto AI4Media Sitio web del proyecto AI4TRUST
Palabras clave
vera.ai, TITAN, AI4Media, AI4TRUST, desinformación, IA, IA generativa