Skip to main content
European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Artificial Intelligence without Bias

Article Category

Article available in the following languages:

Une sensibilisation à l’équité aide les chercheurs à réduire les biais de l’IA

Les algorithmes d’intelligence artificielle, utilisés pour filtrer les données, ont suscité des inquiétudes relatives aux biais automatiques et à leur incidence sur la discrimination et l’équité.

Les outils d’apprentissage automatique peuvent se révéler biaisés. Ces biais sont imputables à des données sources biaisées, à des biais dans les algorithmes utilisés pour traiter les données ou à la manière dont sont utilisées les applications d’intelligence artificielle (IA), par exemple pour filtrer les candidats à un emploi ou les admissions à l’université. Dans le cadre d’un projet du réseau de formation innovant Marie Skłodowska-Curie 2020 (ITN), le projet NoBIAS a formé 15 doctorants de six pays à la «conscience de l’équité». Il entendait réduire les trois stades des biais de l’apprentissage automatique: la compréhension des biais dans les données, l’atténuation des biais dans les algorithmes et la prise en compte des biais dans les résultats. «La communauté de la science informatique, mais d’autres également, travaillaient déjà sur les biais. Mais notre initiative était de grande envergure et nous avons essayé de repousser les limites de l’état de l’art avec de nouvelles méthodes et de nouvelles analyses», explique le coordinateur du projet, Wolfgang Nejdl, directeur du Centre de recherche L3S, de l’université Leibniz de Hanovre, en Allemagne.

Formation des doctorants aux approches interdisciplinaires

Un groupe interdisciplinaire de doctorants s’est penché sur la problématique des biais de l’apprentissage automatique du point de vue de l’informatique, du droit et des sciences sociales. Il a développé des algorithmes qui prennent en compte l’équité et ont suivi la provenance et la transparence des données afin de comprendre à quel stade se produisent les biais. «En travaillant en collaboration, un étudiant en informatique peut s’appuyer sur le contexte juridique ou la perspective des sciences sociales, puis inventer un nouvel outil ou une nouvelle méthode. Le fait de savoir quels aspects sont pertinents dans d’autres disciplines fait toute la différence», confie Wolfgang Nejdl. Le projet a réuni des étudiants de différentes disciplines dans le cadre d’universités d’été, puis lors d’ateliers et de conférences, qui ont abordé divers sujets relatifs aux biais. Chaque doctorant a été mis en relation avec un organisme partenaire qui exploite l’IA dans des domaines spécifiques, tels que la médecine, la banque et le recrutement.

Équité et perspectives juridiques

Les applications d’IA pourraient enfreindre les droits à la non-discrimination et diverses considérations juridiques et éthiques, dont la protection de la vie privée. «C’est pourquoi il est également important d’analyser les algorithmes actuels et de rechercher d’éventuels biais dans les données d’entrée dont les chercheurs originaux n’étaient pas conscients», confie Wolfgang Nejdl. «Nous prenons parfois des données obtenues de la manière la plus simple, et non de la manière qui représente le mieux la situation que l’on souhaite modéliser», fait-il remarquer. Des informaticiens ont, dans un passé récent, tenté d’atténuer les biais en apportant des modifications techniques au modèle. «La question se pose maintenant de savoir si ces changements techniques sont réellement conformes à la réglementation ou non», explique-t-il, en évoquant les politiques et les lois sur l’égalité des chances en matière d’emploi ou l’égalité des accès à l’université. En analysant l’équité des données, le projet est allé au-delà des précédents projets de collecte de données financés par l’UE tels que LONGPOP et des outils de partage de données tels que le projet PrivacyUs sur la confidentialité des données et la facilité d’utilisation.

Les biais imputables à des données limitées requièrent des sources plus diversifiées

Les biais sont plus prononcés lorsque les données sont limitées ou ne représentent pas correctement l’ensemble de la population, comme c’est le cas des données médicales limitées à une région géographique ou à un groupe démographique. «Il est plus difficile d’éliminer les biais dans les domaines où l’on ne dispose pas de suffisamment de données ou de sources différentes», ajoute Wolfgang Nejdl, qui précise que des efforts supplémentaires sont nécessaires pour diversifier les sources de données. Gourab Kumar Patro, responsable du projet NoBIAS, cite un exemple d’utilisation des connaissances acquises dans le cadre du projet qui permet de contourner les restrictions légales relatives à l’utilisation des informations raciales. «Un chercheur en début de carrière chez NoBIAS qui travaille sur les aspects juridiques de l’atténuation des biais a constaté qu’il était possible de recueillir des informations raciales en précisant qu’elles ne serviront qu’à atténuer les biais dans l’algorithme, mais qu’elles ne seront pas utilisées dans le contexte d’un processus de sélection quel qu’il soit. L’interaction interdisciplinaire a permis d’améliorer les algorithmes.» Selon Gourab Kumar Patro, les résultats et les bonnes pratiques du projet peuvent être utilisés pour influencer les politiques et les réglementations futures, et pour améliorer les pratiques du secteur pour un développement responsable de l’IA.

Mots‑clés

NoBIAS, intelligence artificielle, algorithmes, biais, éthique, discrimination, confidentialité des données, apprentissage automatique

Découvrir d’autres articles du même domaine d’application