Event

Intelligence artificielle et responsabilité civile en matière médicale : Le cas des logiciels d’aide à la décision

Wednesday, May 2, 2018 12:30to14:00
Chancellor Day Hall NCDH 316, 3644 rue Peel, Montreal, QC, H3A 1W9, CA

The McGill Research Group on Health and Law welcomes Laurène Mazeau, Université de Bretagne occidentale, France, for a lunchtime seminar about AI, decision support software and civil liability in medical matters. Lunch will be served, so kindly RSVP to rghl.law [at] mcgill.ca so we can plan the catering.

Abstract

[In French only] Lorsque l’on aborde les questions croisées d’intelligence artificielle et de responsabilité, on interroge notamment les processus automatiques et les mécanismes d’aide à la décision. La recherche opérationnelle est une discipline des méthodes scientifiques utilisables pour élaborer de meilleures décisions. Elle peut aider à trouver une solution où l’homme n’en trouvait pas, ou une solution à des problèmes nouveaux où l’homme n’a aucune expérience.

Elle peut encore aider à juger de la qualité d’une solution, mais aussi à confirmer/justifier des décisions. La recherche opérationnelle intervient dans des domaines très divers : GPS, finance, environnement et développement durable, domaine spatial, politiques publiques,
gestion des ressources hospitalières, etc. Elle favorise une culture scientifique dans la prise de décision.

Ainsi, la recherche opérationnelle, dont procèdent les systèmes d’aide au diagnostic médical, est au cœur de problématiques juridiques fournies : qu’il s’agisse de confidentialité des données (Big data), d’imputation d’obligation, de prise de décision, ou d’information des utilisateurs. Que se passe-t-il lorsque le système d’aide au diagnostic médical devient systématiquement « la » décision ? Qui est responsable des mauvais choix opérés par le système (le programmeur, l’exploitant, le propriétaire, le médecin, le patient, etc.) ? Existe-t-il des règles déontologiques ou éthiques lorsque ces techniques ont un impact sur l’homme ? Quid de la responsabilité du médecin qui ne se conformerait pas dans son diagnostic à celui délivré par le logiciel et qu’il se révèle préjudiciable au patient ? Le médecin doit-il être le seul responsable de l’utilisation du logiciel si elle entraîne un effet négatif pour le patient ?

L’arbre de décision qui conduit au diagnostic médical et au choix d’une option thérapeutique se rapproche des mécanismes d’automatiques. Peut-on en déduire qu’il serait possible d’automatiser tout ou partie de la décision médicale ? La recherche opérationnelle ne se contente pas de suppléer l’activité humaine, elle la change.

The speaker

[In French only] Laurène MAZEAU-NININ est Docteur en Droit privé et sciences criminelles de l’Université de Toulouse 1 depuis 2010. Elle est Maître de conférences à l’Université de Bretagne occidentale et rattachée au Laboratoire de recherches en Droit (Lab-Lex) depuis 2012. Elle est l’auteur de plus d’une vingtaine de publications dans le domaine des rapports qu’entretiennent le Droit de la responsabilité et les Nouvelles Technologies : intelligence artificielle, aide à la décision, recherche opérationnelle, robot, internet. Elle codirige une chronique dans la revue Cahiers Droit Sciences & Technologies depuis 2014. Elle est membre de la Commission Recherche de l’Université de Bretagne occidentale depuis 2015. 

A request for accreditation for 1.5 hours of Continuing Legal Education for jurists has been made.

 

Back to top