Chère IA, je voudrais te dire que la conscience collaborative et partagée est la voie à suivre
À mesure que l’intelligence artificielle générale gagne du terrain, notre crainte de voir les machines acquérir une conscience semblable à celle de l’homme s’accroît. Le développement d’une IA spécifique à un domaine constituerait une solution plus fiable, plus économe en énergie et plus gérable d’un point de vue éthique. Une nouvelle étude soutenue par le projet EMERGE, lui-même financé par l’UE, explique que cette solution n’exige pas que les machines aient une véritable conscience («consciousness»). Elle affirme que nous pouvons très bien nous contenter de méthodes plus simples de conscience sensible partagée («awareness»). L’IA et les robots du futur peuvent être conçus soit pour être de plus en plus capables d’effectuer des tâches nombreuses, soit pour avoir un champ d’action plus restreint et donc n’effectuer que des tâches spécifiques. Le premier cas, qui fait le plus souvent la Une, fait craindre que des conséquences involontaires ou des dilemmes éthiques ne résultent de tâches effectuées par des systèmes d’IA complexes et imprévisibles dans un domaine général. En outre, l’exploitation d’un système polyvalent est plutôt inefficace sur le plan énergétique, comme le montrent les grands modèles linguistiques actuels.
La conscience est superflue
Les auteurs de l’étude, partisans de l’autre vision, affirment que lorsqu’il s’agit de planifier un certain nombre d’actions simultanées ou séquentielles dans différents systèmes spécialisés dans l’IA, la présence d’une conscience («consciousness») au sein de chaque système n’est ni essentielle, ni suffisante. «Ce qu’il faut, c’est la capacité de partager sélectivement des états pertinents avec d’autres systèmes d’IA afin de faciliter la coordination et la coopération ou, pour faire court, une “awareness” collaborative partagée», explique Ophelia Deroy, auteure principale de l’étude et professeure à l’université Ludwig Maximilian de Munich (Allemagne), partenaire du projet EMERGE, dans un article publié sur le site web du projet. La chercheuse, spécialiste en philosophie de l’esprit et en neurosciences cognitives, poursuit en apportant les précisions suivantes: «La notion de “awareness” étant parfois utilisée comme synonyme de “consciousness”, il est important de souligner que la conscience collaborative (“collaborative awareness”) est très différente de la conscience proprement dite (“consciousness”).» Contrairement à la notion de «consciousness», la notion de «shared awareness» n’est pas, par définition, un état privé. Elle est aussi transitoire, ce qui signifie que les états ne sont partagés avec d’autres que lorsqu’une coordination ou une coopération est nécessaire, alors que la «consciousness» est continue. En outre, alors que la «consciousness» est généralement considérée comme intégrée ou unifiée, la «shared awareness» peut être sélective quant au partage de différents états avec d’autres et peut être répartie entre différents agents artificiels. «La “shared awareness” rend les agents artificiels plus faciles à surveiller et à contrôler pour les opérateurs humains», observe l’auteure principale de l’étude, Sabine Hauert, professeure d’ingénierie des essaims à l’université de Bristol (Royaume-Uni), partenaire du projet EMERGE (Emergent awareness from minimal collectives). «Elle permet également aux systèmes de mieux fonctionner ensemble, même s’ils ont été conçus par des entreprises différentes. La “shared awareness” pourrait aider les véhicules autonomes à éviter les collisions, les robots logistiques à coordonner la livraison des colis, ou les systèmes d’IA à analyser les antécédents médicaux complexes des patients pour formuler des recommandations de traitement utiles.» Pour plus d’informations, veuillez consulter: site web du projet EMERGE
Mots‑clés
EMERGE, IA, intelligence générale artificielle, conscience, consciousness, shared awareness