Définitions

Martin Gibert (IVADO, Centre de recherche en éthique à l’Université de Montréal) est agent de recherche en éthique de l’intelligence artificielle et des données massives. Dans une démarche de sensibilisation aux enjeux éthiques actuels et futurs en lien avec l’intelligence numérique au sens large, il s’est livré à un exercice de “questions / réponses” pour poser les bases de la réflexion :

Image d'Ivado

Qu’est-ce que l’éthique de l’intelligence numérique?

En deux mots, c’est de l’éthique appliquée aux systèmes d’intelligence artificielle et, plus largement, numériques. C’est se demander si ces systèmes et leurs usages sont bons ou mauvais, justes ou injustes, vertueux ou vicieux, etc. C’est évaluer moralement un robot ou une application : par exemple, si tel système est déployé, cela va-t-il engendrer ou reproduire des discriminations, cela va-t-il améliorer ou détériorer la vie des gens?

Qu’est-ce que l’éthique des algorithmes?

C’est le sous-ensemble de l’éthique de l’intelligence numérique (qui est elle-même un sous-ensemble de l’éthique de la technologie) qui s’intéresse à la programmation du point de vue moral. Comment bien programmer un robot? Ainsi, se demander ce qu’une voiture autonome devrait faire en cas d’accidents inévitables ou comment paramétrer une application de distanciation sociale relève de l’éthique des algorithmes, tandis que se demander s’il faut développer de telles voitures ou des applications anti-pandémie concerne l’éthique de l’IA.

Enjeux

Comment déterminer la bonne chose à faire dans les cas litigieux?

Il faut essayer de trouver des consensus. Les chercheuses et les chercheurs en éthique ont une expertise dans l’argumentation et certains principes s’imposent. Mais il y a bien sûr des situations plus délicates où les principes entrent en conflit : la réalité morale est complexe et il n’existe pas toujours de solution à un dilemme qui fasse l’unanimité. Concrètement, si c’est une question d’arbitrage, si une voiture autonome, par exemple, doit absolument « choisir » entre la vie de deux personnes, on peut soit établir une hiérarchie entre les principes, soit tirer au sort.

Mais ne faudrait-il pas plutôt éviter que les voiture ne se trouvent dans ces situations?

Dans l’idéal, oui, les voitures autonomes ne devraient jamais avoir à choisir entre deux victimes. On peut espérer qu’elles soient plus sécuritaires, qu’elles évitent plus d’accidents. Mais on ne peut exclure que ça arrive. Dans ce cas, quand bien même nous ne serions pas parfaitement satisfaits de leur « comportement moral », on peut néanmoins penser que ce serait « moins pire » qu’avec un conducteur humain qui n’a de toute façon pas le temps de réfléchir lors d’un accident.

Est-ce que ça veut dire que les voitures autonomes sont éthiques?

Non, loin s’en faut. Mais poser la question de cette manière n’a pas trop de sens. Hélas, il n’y a pas un tampon « éthique » qu’on pourrait apposer sur tel ou tel système d’IA – c’est d’ailleurs une différence avec le domaine juridique où il est plus simple de déterminer si une chose est légale ou illégale. En fait, il existe plusieurs arguments éthiques qui militent contre les voitures autonomes : d’un point de vue environnemental, par exemple, ça ne paraît pas une bonne idée de développer le transport individuel. Bref, la notion de « voiture autonome éthique » est indissociable du contexte dans lequel on se trouve.

Quels sont les types de problèmes qu’on rencontre en éthique de l’IA?

Ce domaine de recherche est relativement jeune et les choses évoluent vite. On voit toutefois émerger des catégories de problèmes. Par exemple, il y a des enjeux à court terme (le manque de diversité dans les données et dans l’industrie, les biais algorithmiques), à moyen terme (les pertes d’emplois engendrées par l’automatisation, l’accroissement des inégalités, la dérive vers une société de surveillance) ou à long terme (l’émergence d’une superintelligence hostile).

Ne faut-il pas aussi envisager des détournements malveillants?

Oui, c’est une catégorie. Si les voitures autonomes peuvent être facilement hackées pour commettre des attentats, par exemple, c’est évidemment un problème. De même, il faut s’assurer de la fiabilité d’un système. Par exemple, avec les applications anti-pandémie qui donneraient une estimation des risques d’être infecté, il faut déterminer quel est le niveau acceptable de faux positifs, c’est-à-dire de personnes identifiées à risque et qui ne le sont pas, et de faux négatifs, c’est-à-dire de personnes identifiées sans risques et néanmoins porteuses.

Est-ce que tout cela est nouveau?

Oui et non. De façon générale, en augmentant notre capacité d’agir, les systèmes d’IA nous imposent de nouvelles responsabilités morales. C’est parfois inattendu comme lorsqu’on se demande quels devraient être les critères moraux pour donner des droits aux robots. Mais dans bien des cas, il n’y a rien de nouveau sous le soleil. Les systèmes d’IA produisent plutôt une démultiplication de problèmes qui étaient déjà présents. La propagande de masse, par exemple, existe au moins depuis l’invention de la radio et du cinéma. Utiliser les données massives et les réseaux sociaux pour manipuler les gens peut être vu comme une version contemporaine et exacerbée de ce problème.

Prochains événements

Nous organisons et soutenons régulièrement des initiatives destinées à sensibiliser notre communauté à ces enjeux. Surveillez notre calendrier, nos infolettres et réseaux sociaux pour rester informé.e!

Consultez nos événements

Notre communauté s'implique

Image d'Ivado
Image d'Ivado

En partenariat avec l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), nous finançons pendant deux ans le stage postdoctoral de Sylvain Munger sur la thématique : « Pouvoir, inégalités et discriminations en IA ». Sous la supervision de Jean-François Gagné (Département de science politique, Université de Montréal), Sylvain effectue ses recherches plus spécifiquement sur la problématique suivante :  « Les visions du futur de l’intelligence artificielle : pouvoir et prestige de l’imaginaire sociotechnique chez les entrepreneurs de Montréal ».

En savoir plus

Image d'Ivado

En association avec les Fonds de Recherche du Québec et l’OBVIA, nous soutenons le balado techno-culturel Humaniteq. Conçu, réalisé et animé par Oriane Morriet, doctorante au Département d’études cinématographiques de l’Université de Montréal, le balado favorise la réflexion sur les enjeux sociétaux des nouvelles technologies.

Écoutez les épisodes

Image d'Ivado

Nous sommes heureux d’avoir compté parmi les commanditaires des Cafés de bioéthique 2019! Cette série de tables rondes avait pour objectif de créer des opportunités d’échanges entre des expert.e.s de différentes disciplines et le grand public, pour examiner collectivement les enjeux éthiques et sociopolitiques soulevés par l’IA, les mégadonnées (Big Data) et la santé sous divers angles : responsabilité, droit, confidentialité, vie privée, transparence, accessibilité, allocation des ressources, conduite responsable en recherche, etc.
Les retransmissions des tables rondes sont disponibles sur Youtube :

Le citoyen et ses objets connectés : qu’advient-il de ses données? 
Le citoyen et ses renseignements génétiques : pour qui et pourquoi? 
Le citoyen comme nouvel acteur de santé publique : défis et opportunités?