Skip to main content
European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Article Category

Article available in the following languages:

Svelare il deepfake

Un nuovo libro bianco offre una panoramica sulle tecnologie basate sull’intelligenza artificiale e sul loro ruolo nella diffusione della disinformazione, facendo luce sulle sfide associate e sulle opportunità future.

Grazie alla loro sempre maggiore capacità di generare immagini, testi e audio di alta qualità, i modelli di intelligenza artificiale (IA) generativa, come DALL-E e ChatGPT, stanno rapidamente trasformando molti settori industriali in tutto il mondo. Questa trasformazione, tuttavia, ha un prezzo: quanto più fluide e accessibili diventano le tecnologie di IA generativa, infatti, tanto più aumenta il loro utilizzo improprio per la realizzazione di campagne di disinformazione su larga scala, interferendo con la capacità delle piattaforme e dei verificatori dei fatti di contrastare queste informazioni fasulle e rendendo difficile il compito di distinguere il vero dal falso. Un nuovo libro bianco approfondisce il legame tra IA generativa e disinformazione. Frutto della collaborazione tra i progetti vera.ai, TITAN, AI4Media e AI4TRUST, finanziati dall’UE, questo documento analizza i recenti progressi, le sfide e le opportunità presenti in questo settore critico. «Nel nostro nuovo mondo dinamico popolato da IA e disinformazione, questo libro bianco funge da punto di riferimento in quanto fa luce sull’intricata interazione tra progresso tecnologico, considerazioni etiche e necessità normative», osserva Francesco Saverio Nucci, co-autore del white paper e ricercatore presso Engineering Ingegneria Informatica, l’azienda italiana che ha coordinato TITAN, in un articolo pubblicato sul sito web del progetto. Il documento esplora le capacità generative di disinformazione di cui sono dotate le tecnologie di IA di ultima generazione, mettendo in evidenza le sfide etiche e legali più rilevanti e le opportunità di innovazione esistenti. Un tema chiave esplorato dal progetto riguarda l’evoluzione dell’IA generativa, e in particolare i diversi tipi di disinformazione generata sinteticamente, la loro diffusione e l’impatto da essi generato sulle elezioni. «La minaccia posta dall’IA generativa ai processi democratici e all’integrità delle elezioni, purtroppo, non è più solo ipotetica e non può essere liquidata come allarmismo», si legge sul rapporto. Le campagne di disinformazione che si basano su contenuti generati dall’IA finiscono per «minare la fiducia dei cittadini nei leader politici, nelle elezioni, nei media e nei governi democratici.»

Le sfide

Il documento analizza le varie sfide che si presentano nell’individuare e smascherare la disinformazione e apre una discussione sui recenti progressi compiuti in questo settore, evidenziando inoltre alcuni strumenti basati sull’IA che possono aiutare i professionisti nel campo dei media a verificare i contenuti e a contrastare i rischi legati alla disinformazione. Per di più, il libro bianco descrive i servizi basati sull’IA che TITAN sta sviluppando per stimolare il pensiero critico nei cittadini, insegnando loro, tra le altre abilità, a riconoscere i contenuti acchiappaclick e a verificare gli autori e le fonti dei materiali informativi online. Gli autori analizzano quindi le questioni etiche e legali relative all’impiego delle tecnologie basate sull’IA per diffondere false informazioni, tra cui le sfide legate alla qualità dei dati, i problemi di copyright e il «visibile squilibrio di potere tra i creatori di contenuti, gli accademici e i cittadini da un lato e le grandi aziende tecnologiche (come ad esempio OpenAI, Microsoft, Google e Meta) che sviluppano e vendono modelli di IA generativa dall’altro». L’accento è posto sulla necessità di implementare quadri normativi caratterizzati da solidità. Un’importante difficoltà descritta dal documento è legata al fatto che i modelli linguistici di grandi dimensioni all’avanguardia non sono progettati per dire la verità, ma vengono addestrati al fine di generare affermazioni plausibili sulla base di modelli statistici, il che li rende inclini a generare disinformazione. Tra le altre problematiche figurano la necessità di ridurre la fiducia infondata dei cittadini nell’IA, lo sviluppo di nuovi strumenti in grado di rilevare i contenuti generati dall’IA e il reperimento dei fondi di ricerca per rendere tutto ciò possibile. Tuttavia, secondo il rapporto, esistono anche varie opportunità di innovazione, come lo sviluppo di modelli di rilevamento all’avanguardia e il miglioramento delle strategie guidate dall’IA per contrastare la disinformazione. Il libro bianco redatto con il supporto dei progetti vera.ai (vera.ai: VERification Assisted by Artificial Intelligence), TITAN (AI for Citizen Intelligent Coaching against Disinformation), AI4Media (A European Excellence Centre for Media, Society and Democracy) e AI4TRUST (AI-based-technologies for trustworthy solutions against disinformation) dispone del potenziale per contribuire a orientare le future ricerche e formulazioni di politiche in questo settore di cruciale importanza. Per maggiori informazioni, consultare: sito web del progetto vera.ai sito web del progetto TITAN sito web del progetto AI4Media sito web del progetto AI4TRUST

Parole chiave

vera.ai, TITAN, AI4Media, AI4TRUST, disinformazione, IA, IA generativa

Articoli correlati