News

June 22, 2020

Éthique de l’intelligence artificielle

Dix questions à Martin Gibert sur l’éthique de l’intelligence artificielle

Quelle est votre fonction à IVADO?

Martin Gibert : Je suis agent de recherche en éthique de l’intelligence artificielle et des données massives. Je suis également affilié au Centre de recherche en éthique à l’Université de Montréal. Lorsque je ne suis pas en confinement, c’est là que je passe le plus clair de mon temps.

Qu’est-ce que l’éthique de l’IA?

En deux mots, c’est de l’éthique appliquée aux systèmes d’intelligence artificielle. C’est se demander si ces systèmes et leurs usages sont bons ou mauvais, justes ou injustes, vertueux ou vicieux, etc. C’est évaluer moralement un robot ou une application : par exemple, si tel système est déployé, cela va-t-il engendrer ou reproduire des discriminations, cela va-t-il améliorer ou détériorer la vie des gens?

Qu’est-ce que l’éthique des algorithmes?

Martin Gibert : C’est le sous-ensemble de l’éthique de l’IA (qui est elle-même un sous-ensemble de l’éthique de la technologie) qui s’intéresse à la programmation du point de vue moral. Comment bien programmer un robot? Ainsi, se demander ce qu’une voiture autonome devrait faire en cas d’accidents inévitables ou comment paramétrer une application de distanciation sociale relève de l’éthique des algorithmes, tandis que se demander s’il faut développer de telles voitures ou des applications anti-pandémie concerne l’éthique de l’IA.

Comment déterminer la bonne chose à faire dans les cas litigieux?

Il faut essayer de trouver des consensus. Les chercheuses et les chercheurs en éthique ont une expertise dans l’argumentation et certains principes s’imposent. Mais il y a bien sûr des situations plus délicates où les principes entrent en conflit : la réalité morale est complexe et il n’existe pas toujours de solution à un dilemme qui fasse l’unanimité. Concrètement, si c’est une question d’arbitrage, si une voiture autonome, par exemple, doit absolument « choisir » entre la vie de deux personnes, on peut soit établir une hiérarchie entre les principes, soit tirer au sort.

Mais ne faudrait-il pas plutôt éviter que les voiture ne se trouvent dans ces situations?

Dans l’idéal, oui, les voitures autonomes ne devraient jamais avoir à choisir entre deux victimes. On peut espérer qu’elles soient plus sécuritaires, qu’elles évitent plus d’accidents. Mais on ne peut exclure que ça arrive. Dans ce cas, quand bien même nous ne serions pas parfaitement satisfaits de leur « comportement moral », on peut néanmoins penser que ce serait « moins pire » qu’avec un conducteur humain qui n’a de toute façon pas le temps de réfléchir lors d’un accident.

Est-ce que ça veut dire que les voitures autonomes sont éthiques?

Non, loin s’en faut. Mais poser la question de cette manière n’a pas trop de sens. Hélas, il n’y a pas un tampon « éthique » qu’on pourrait apposer sur tel ou tel système d’IA – c’est d’ailleurs une différence avec le domaine juridique où il est plus simple de déterminer si une chose est légale ou illégale. En fait, il existe plusieurs arguments éthiques qui militent contre les voitures autonomes : d’un point de vue environnemental, par exemple, ça ne paraît pas une bonne idée de développer le transport individuel. Bref, la notion de « voiture autonome éthique » est indissociable du contexte dans lequel on se trouve.

Quels sont les types de problèmes qu’on rencontre en éthique de l’IA?

Ce domaine de recherche est relativement jeune et les choses évoluent vite. On voit toutefois émerger des catégories de problèmes. Par exemple, il y a des enjeux à court terme (le manque de diversité dans les données et dans l’industrie, les biais algorithmiques), à moyen terme (les pertes d’emplois engendrées par l’automatisation, l’accroissement des inégalités, la dérive vers une société de surveillance) ou à long terme (l’émergence d’une superintelligence hostile).

Ne faut-il pas aussi envisager des détournements malveillants?

Oui, c’est une catégorie. Si les voitures autonomes peuvent être facilement hackées pour commettre des attentats, par exemple, c’est évidemment un problème. De même, il faut s’assurer de la fiabilité d’un système. Par exemple, avec les applications anti-pandémie qui donneraient une estimation des risques d’être infecté, il faut déterminer quel est le niveau acceptable de faux positifs, c’est-à-dire de personnes identifiées à risque et qui ne le sont pas, et de faux négatifs, c’est-à-dire de personnes identifiées sans risques et néanmoins porteuses.

Est-ce que tout cela est nouveau?

Oui et non. De façon générale, en augmentant notre capacité d’agir, les systèmes d’IA nous imposent de nouvelles responsabilités morales. C’est parfois inattendu comme lorsqu’on se demande quels devraient être les critères moraux pour donner des droits aux robots. Mais dans bien des cas, il n’y a rien de nouveau sous le soleil. Les systèmes d’IA produisent plutôt une démultiplication de problèmes qui étaient déjà présents. La propagande de masse, par exemple, existe au moins depuis l’invention de la radio et du cinéma. Utiliser les données massives et les réseaux sociaux pour manipuler les gens peut être vu comme une version contemporaine et exacerbée de ce problème.

Quelles ressources existent pour celles et ceux qui voudraient en savoir davantage?

On peut notamment se tourner vers les principes (et les sous-principes) de la Déclaration de Montréal pour un développement responsable de l’IA ainsi que vers le MOOC Bias and Discrimination in AI, développé par IVADO. Au Québec, l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (Obvia) centralise les initiatives et la réflexion.

Pour les personnes intéressées par la recherche, je renvoie aux publications du Centre de Recherche en Éthique et aux conférences de Montréal en éthique de l’IA. Pour ma part, j’ai écrit cette courte entrée d’encyclopédie et je poste des réflexions sur le blog La quatrième blessure.  Je viens également de publier un petit livre d’introduction à l’éthique des algorithmes, Faire la morale aux robots (Atelier 10).