Skip to main content
European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Article Category

Article available in the following languages:

Innover de manière responsable à l’ère de l’IA

Assurant une gestion efficace des risques, la plateforme AI Trust de QuantPi aide les parties prenantes à s’y retrouver parmi les transformations initiées par l’IA.

La formation et la validation des modèles d’IA générative (GenAI) se révèlent chaque jour plus complexes, alors comment les sociétés qui développent ou exploitent de tels systèmes s’y prennent-elles pour évaluer et atténuer les risques? Financé par le Conseil européen de l’innovation, le projet QuantPi aborde ce problème par le biais de sa plateforme AI Trust, une solution tout-en-un, indépendante des modèles et prête à l’emploi, pour la gestion des risques liés à l’IA générative.

L’approche globale

La plateforme aborde la complexité du modèle GenAI en réduisant les risques sur trois dimensions critiques: l’alignement des parties prenantes, la conformité évolutive et les tests techniques de pointe. Ces dimensions se combinent pour renforcer la surveillance, identifier les risques, évaluer leur gravité et fournir des résultats détaillés sur lesquels fonder des stratégies d’atténuation efficaces. L’important, c’est la transparence pour toutes les parties prenantes. «Nul ne peut pas s’attaquer à des risques dont il n’a pas conscience», explique Lukas Bieringer, responsable des politiques et des subventions chez QuantPi, l’entreprise allemande de logiciels qui coordonne le projet. «La force unique de notre plateforme réside dans sa capacité à impliquer efficacement toutes les parties prenantes du cycle de vie de l’IA dans l’atténuation des risques, en garantissant une prise de décision éclairée et l’efficacité des processus sans entraver les transformations initiées par l’IA.» L’équipe de QuantPi a reconnu relativement tôt la nécessité d’une approche globale, lorsque qu’un système d’IA peinait à être accepté sur le marché en raison de problèmes de confiance liés à la «boîte noire», le fonctionnement interne de l’IA que les humains peinent à appréhender. C’est pourquoi, contrairement à d’autres solutions, leur plateforme intègre de manière homogène les tests d’IA avec une gestion des risques et des besoins de conformité robustes. «En fournissant des informations transparentes et en rationalisant les processus, nous permettons aux entreprises de naviguer et de capitaliser en toute confiance sur les transformations initiées par l’IA», observe Lukas Bieringer. La plateforme AI Trust a le potentiel d’améliorer de manière considérable la fiabilité et la confiance des systèmes d’IA générative dans un certain nombre de domaines. Les véhicules autonomes en sont un parfait exemple: les systèmes d’intelligence artificielle doivent prendre des décisions en une fraction de seconde sur la base des données fournies par des capteurs. Un autre exemple: les systèmes d’IA générative utilisés pour le diagnostic des maladies et la planification des traitements, où le respect des règles et la confiance sont de la plus haute importance. Enfin, les assistants virtuels et le service clientèle, pour lesquels la plateforme QuantPi (First automated risk management platform to enable safety, fairness, explainability, and continuous monitoring of generative AI systems) peut être utilisée pour garantir que les systèmes d’IA et leurs garde-fous protègent les informations privées contre les fuites, et que les réponses des assistants virtuels et des chatbots sont appropriées, fiables et exemptes de préjugés. Si vous souhaitez voir votre projet présenté comme le «Projet du mois» d’une de nos prochaines éditions, veuillez nous envoyer un courrier électronique à l’adresse editorial@cordis.europa.eu, en nous précisant les raisons!

Mots‑clés

QuantPi, IA, IA générative, GenAI, risque, confiance, conformité, atténuation des risques, gestion des risques