Tendances scientifiques: L’intelligence artificielle, fléau ou bénédiction? Montée au créneau des experts contre les risques pour la sécurité
La crainte vis-à-vis des machines dotées d’intelligence a nourri la science-fiction depuis des dizaines d’années, dépeignant à d’innombrables reprises le pouvoir d’autodestruction de l’homme. Or, l’avènement de l’IA a engendré des réactions contradictoires auprès du public, qui, selon les cas, se félicite de la promesse dont l’IA est porteuse ou, au contraire, craint la menace qu’elle représente. Bien que le concept de l’IA et des technologies d’apprentissage automatique existe depuis les années 50, l’engouement qu’elles suscitent est relativement récent. L’essor fulgurant qu’elles connaissent leur permet d’être utilisées à l’heure actuelle dans un éventail d’applications, dont la reconnaissance vocale automatique, la traduction automatique, les moteurs de recherche, les assistants numériques, les drones et les véhicules autonomes. Porteuses d’avancées prometteuses dans des domaines tels que la santé, l’agriculture, l’éducation et le transport, ces technologies sont perçues comme bénéfiques, car elles améliorent considérablement la vie de la population et sont un moteur de changement positif dans le monde. Par exemple, l’IA joue déjà un rôle important dans la pratique quotidienne de l’acquisition, du traitement et de l’interprétation des images médicales. Cependant, de plus en plus d’experts, dont le physicien Stephen Hawking et l’entrepreneur Elon Musk, insistent sur la nécessité de se préparer aux risques potentiels de l’IA – et de les éviter. Un nouveau rapport, «The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation», rédigé par une équipe de chercheurs issus de plusieurs universités, groupes de réflexion et organisations à but non lucratif ont exprimé des inquiétudes similaires. Ce rapport souligne les menaces potentielles pour la sécurité que poserait l’IA si elle tombait dans de mauvaises mains, et se concentre sur trois domaines: numérique, physique et politique. Le document avance que l’IA pourrait donner les moyens à des personnes mal intentionnées de perpétrer des attaques à grande échelle, très ciblées et hautement efficaces. Shahar Avin, du centre pour l’étude des risques existentiels (CSER) de l’université de Cambridge, a confié à la BBC que le rapport s’intéressait aux domaines de l’IA disponibles à l’heure actuelle ou susceptibles de l’être dans les cinq prochaines années, plutôt qu’à l’avenir lointain. Faisant référence à l’IA en tant que technologie «à double usage», qui présente des applications militaires et civiles potentielles, «aux conséquences bénéfiques et nuisibles», le rapport ajoute: «Alors que les capacités de l’IA deviennent de plus en plus puissantes et répandues, il faut s’attendre à ce que l’utilisation croissante des systèmes d’intelligence artificielle conduise à... la multiplication des menaces actuelles... l’introduction de nouvelles menaces... [et à] un changement au niveau de la nature même des menaces.» Le Dr Seán Ó hÉigeartaigh, directeur du CSER et co-auteur du rapport, a expliqué dans une déclaration écrite: «Nous vivons dans un monde qui pourrait être truffé de dangers au quotidien découlant d’une utilisation à mauvais escient de l’IA, et nous devons prendre conscience de ces problèmes, car les risques sont bien réels. Il est l’heure de faire des choix, et notre rapport est un appel à l’action adressé aux gouvernements, institutions et citoyens à travers le monde.» Les auteurs s’attendent à l’émergence de cyberattaques d’un genre nouveau, telles que le piratage automatisé, la synthèse vocale utilisée à des fins d’usurpation d’identité, des courriels non sollicités ciblés qui utilisent des informations tirées des réseaux sociaux ou qui exploitent les vulnérabilités des systèmes d’IA eux-mêmes, notamment par le biais d’exemples contradictoires et de la corruption de données. Le rapport indique également la possibilité du déploiement de drones et de systèmes matériels et informatiques pour commettre des actes malveillants, comme la collision d’une flotte de véhicules autonomes ou la militarisation d’essaims de drones en vue d’assassiner des individus précis dans la foule à l’aide de la technologie de reconnaissance faciale. Il cite également, parmi les menaces à la sécurité politique, la création de fausses vidéos afin de manipuler l’opinion publique ou l’utilisation de plateformes de surveillance automatique par des régimes autoritaires pour éliminer des dissidents. Si le rapport tire la sonnette d’alarme sur les menaces imminentes posées par l’IA, il ne préconise aucune mesure de prévention spécifique pour lutter contre une utilisation frauduleuse de ces technologies. Le rapport note également que de nombreux désaccords persistent entre ses co-auteurs et d’autres spécialistes du domaine. «Nous analysons, mais n’apportons aucune solution concluante à la question de l’équilibre à long terme entre les attaquants et les défenseurs. Nous nous intéressons plutôt aux types d’attaques que nous pourrions essuyer dans un avenir proche si des mesures de protection ne sont pas prises,» concluent les auteurs.
Pays
Royaume-Uni, États-Unis