Innovare in modo responsabile in un’era guidata dall’IA
L’addestramento e la validazione di modelli di IA generativa (GenAI) stanno diventando sempre più complessi, quindi come possono le aziende che sviluppano o gestiscono tali sistemi valutare e mitigare i rischi? Finanziato dal Consiglio europeo per l’innovazione, il progetto QuantPi sta affrontando il problema attraverso la sua AI Trust Platform, una soluzione plug-and-play e indipendente dal modello per la gestione del rischio della GenAI.
L’approccio olistico
La piattaforma affronta la complessità del modello GenAI riducendo i rischi attraverso tre dimensioni critiche: allineamento delle parti interessate, conformità scalabile e test tecnici all’avanguardia. Tali dimensioni lavorano insieme per migliorare la supervisione, individuare i rischi, valutarne la gravità e fornire risultati dettagliati su cui basare strategie di mitigazione efficaci. L’importante è la trasparenza per tutte le parti interessate. «Non si possono affrontare rischi di cui non si è consapevoli», spiega Lukas Bieringer, responsabile delle politiche e delle sovvenzioni di QuantPi, la società di software tedesca che coordina il progetto. «La forza unica della nostra piattaforma risiede nella capacità di coinvolgere efficacemente tutte le parti interessate del ciclo di vita dell’IA nella mitigazione dei rischi, garantendo un processo decisionale informato e l’efficienza dei processi senza ostacolare le trasformazioni dell’IA.» Il team di QuantPi aveva riconosciuto la necessità di un approccio completo relativamente presto, quando l’accettazione di un sistema di IA da parte del mercato era lenta a causa di problemi di fiducia legati alla «scatola nera», ovvero al funzionamento interno dell’IA che gli esseri umani trovano difficile da comprendere. Per questo motivo, a differenza di altre soluzioni, la loro piattaforma integra perfettamente i test di intelligenza artificiale con le esigenze di gestione del rischio e di conformità. «Fornendo informazioni trasparenti e semplificando i processi, mettiamo le organizzazioni in condizione di navigare e capitalizzare le trasformazioni dell’IA con fiducia», osserva Bieringer. La AI Trust Platform ha il potenziale per migliorare in modo significativo l’affidabilità e l’attendibilità dei sistemi GenAI in diversi campi. Un esempio è rappresentato dai veicoli autonomi, dove i sistemi di intelligenza artificiale devono prendere decisioni in una frazione di secondo sulla base dei dati dei sensori. Un altro è rappresentato dai sistemi GenAI utilizzati per la diagnosi delle malattie e la pianificazione dei trattamenti, in cui la conformità e la fiducia hanno la massima priorità. Infine, gli assistenti virtuali e il servizio clienti, dove la piattaforma QuantPi (First automated risk management platform to enable safety, fairness, explainability, and continuous monitoring of generative AI systems) può essere utilizzata per garantire che i sistemi di IA e le loro barriere di sicurezza proteggano le informazioni private dalla fuga di notizie e che le risposte degli assistenti virtuali e dei chatbot siano appropriate, solide e prive di pregiudizi. Se desideri che il tuo progetto sia presentato nella rubrica «Progetto del mese» in un prossimo numero, inviaci un’e-mail a editorial@cordis.europa.eu presentando le tue motivazioni.
Parole chiave
QuantPi, IA, IA generativa, GenAI, rischio, fiducia, conformità, mitigazione del rischio, gestione del rischio