Joëlle Pineau, l'IA et l'éthique

Le milieu de l’intelligence artificielle (IA) montréalais publiait récemment la Déclaration de Montréal IA responsable, initiative destinée à encourager un développement éthique de cette technologie par l’adoption de sept valeurs fondamentales : bien-être, autonomie, justice, vie privée, connaissance, démocratie et responsabilité. Joëlle Pineau, professeure à l’École d’informatique et codirectrice du Laboratoire d’apprentissage et de raisonnement de l’Université McGill, a participé à l’élaboration de ce document préparé par un groupe d’experts multidisciplinaire (éthique, droit, politiques publiques). Elle a accepté de nous expliquer la raison pour laquelle cette réflexion était plus que jamais nécessaire.

Pourquoi était-ce important de rédiger un document comme la Déclaration de Montréal pour un développement responsable de l’IA?

L’intelligence artificielle a beaucoup progressé depuis cinq ans, et c’est vraiment le moment ou jamais de réfléchir aux retombées sociales et éthiques de cette technologie parce qu’elle sort de plus en plus des centres de recherche et des laboratoires pour se propager dans notre quotidien. Il faut éviter de se retrouver dans une situation où l’IA progresserait beaucoup plus vite que notre capacité à l’incorporer de façon positive dans notre vie.

Sur le plan éthique, pourquoi est-il important de réfléchir aux utilisations futures de l’IA?

Nos gouvernements ont investi considérablement en IA, et le Canada est un cas plutôt unique parce qu’il a placé ce secteur au cœur de sa politique économique. Comme les investissements sont financés par les contribuables, j’estime que le gouvernement a une responsabilité envers la société et qu’il doit veiller à ce que les produits de l’IA soient utilisés de manière responsable et à ce qu’ils répondent aux besoins de la majorité des gens.

Même si la Déclaration doit servir à guider les débats, elle n’est pas prescriptive. Comment peut-on en appliquer le cadre de manière concrète?

Ailleurs dans le monde, on a déjà eu recours à l’IA pour aider les policiers à cerner les quartiers nécessitant une surveillance accrue, ou encore pour déterminer qui pouvait bénéficier d’une liberté provisoire. La technologie a aussi été utilisée pour déterminer qui pouvait avoir droit à un prêt bancaire. Il faudra donc voir si ces exemples posent problème sur le plan juridique et s’assurer que les algorithmes ne sont pas discriminatoires envers certains groupes de la société, la discrimination étant interdite par la Charte canadienne des droits et libertés.

Est-ce que ça veut dire que les gouvernements vont devoir légiférer pour encadrer le développement de l’IA?

Je crois que oui. Dans différentes disciplines scientifiques, comme la génétique, la médecine reproductive, les cellules souches et le nucléaire, des considérations éthiques viennent se heurter aux progrès technologiques, et des gouvernements sont souvent intervenus pour les baliser. Pensons au nucléaire. En soi, l’existence de l’énergie nucléaire ne posait pas de problème, mais on a dû légiférer sur certains aspects de la technologie. Il faudra également établir des balises pour l’IA. Par exemple, les gouvernements devront définir les conditions dans lesquelles les voitures autonomes pourront circuler et déterminer qui sera tenu responsable en cas d’accident. Ces codes doivent être intégrés à nos lois, c’est évident, mais il faudra agir en fonction du champ d’application, au cas par cas. Légiférer sur l’IA dans son ensemble serait comme essayer de légiférer sur les mathématiques; ça n’aurait aucun sens.

Un bon encadrement de l’IA pose-t-il des défis particuliers?

Il faut surtout trouver des interlocuteurs spécialistes des questions d’éthique et de droit qui comprennent assez bien la technologie pour que nous puissions tous réfléchir à la question ensemble et de manière constructive. En fait, ça marche dans les deux sens. Les experts de l’IA ne connaissent pas suffisamment les principes d’éthique et de droit. Les discussions ne sont donc pas très efficaces, et comme nous n’utilisons pas le même langage, il faut un peu de temps pour que nous soyons tous sur la même longueur d’onde. C’est l’une des raisons pour lesquelles je soutiens beaucoup la formation multidisciplinaire. De nos jours, on a tendance à diriger les jeunes de 15 ou 16 ans vers un cursus scolaire précis, en sciences ou en arts et lettres par exemple, beaucoup trop tôt. Je trouve ça dommage. Compte tenu de la vitesse à laquelle évoluent les sciences et les technologies, je crois qu’il faudrait plutôt miser sur une formation pluridisciplinaire.

Back to top