Ã山ǿ¼é

ɱ¹Ã©²Ô±ð³¾±ð²Ô³Ù

Intelligence artificielle et responsabilité civile en matière médicale : Le cas des logiciels d’aide à la décision

Mercredi, 2 mai, 2018 12:30à14:00
Pavillon Chancellor-Day NCDH 316, 3644, rue Peel, Montréal, QC, H3A 1W9, CA

Le Groupe de recherche en santé et droit accueilleÌý, Université de Bretagne occidentale, France, pour un déjeuner-conférence à l'intersection de l'intelligence artificielle et de la responsabilité civile en matière médicale. Le déjeuner sera servi: prière de confirmer votre présence afin que nous puissions assurer l'intendance: rghl.law [at] mcgill.ca.

¸éé²õ³Ü³¾Ã©

Lorsque l’on aborde les questions croisées d’intelligence artificielle et de responsabilité, on interroge notamment les processus automatiques et les mécanismes d’aide à la décision. La recherche opérationnelle est une discipline des méthodes scientifiques utilisables pour élaborer de meilleures décisions. Elle peut aider à trouver une solution où l’homme n’en trouvait pas, ou une solution à des problèmes nouveaux où l’homme n’a aucune expérience. Elle peut encore aider à juger de la qualité d’une solution, mais aussi à confirmer/justifier des décisions. La recherche opérationnelle intervient dans des domaines très diversÌý: GPS, finance, environnement et développement durable, domaine spatial, politiques publiques,
gestion des ressources hospitalières, etc. Elle favorise une culture scientifique dans la prise de décision.

Ainsi, la recherche opérationnelle, dont procèdent les systèmes d’aide au diagnostic médical, est au cÅ“ur de problématiques juridiques fourniesÌý: qu’il s’agisse de confidentialité des données (Big data), d’imputation d’obligation, de prise de décision, ou d’information des utilisateurs. Que se passe-t-il lorsque le système d’aide au diagnostic médical devient systématiquement «ÌýlaÌý» décision ? Qui est responsable des mauvais choix opérés par le système (le programmeur, l’exploitant, le propriétaire, le médecin, le patient, etc.) ? Existe-t-il des règles déontologiques ou éthiques lorsque ces techniques ont un impact sur l’homme ? Quid de la responsabilité du médecin qui ne se conformerait pas dans son diagnostic à celui délivré par le logiciel et qu’il se révèle préjudiciable au patientÌý? Le médecin doit-il être le seul responsable de l’utilisation du logiciel si elle entraîne un effet négatif pour le patientÌý? L’arbre de décision qui conduit au diagnostic médical et au choix d’une option thérapeutique se rapproche des mécanismes d’automatiques. Peut-on en déduire qu’il serait possible d’automatiser tout ou partie de la décision médicale ? La recherche opérationnelle ne se contente pas de suppléer l’activité humaine, elle la change.

La conférencière

Laurène MAZEAU-NININÌýest Docteur en Droit privé et sciences criminelles de l’Université de Toulouse 1 depuis 2010. Elle est Maître de conférences à l’Université de Bretagne occidentale et rattachée au Laboratoire de recherches en Droit (Lab-Lex) depuis 2012. Elle est l’auteurÌýde plus d’une vingtaine de publications dans le domaine des rapports qu’entretiennent le Droit de la responsabilité et les Nouvelles TechnologiesÌý: intelligence artificielle, aide à la décision, recherche opérationnelle, robot, internet. Elle codirige une chronique dans la revueÌýCahiers Droit Sciences & Technologies depuisÌý2014. Elle est membre de la Commission Recherche deÌýl’Université de Bretagne occidentale depuis 2015.Ìý

Une demande d'accréditation pour 1,5 heures de formation continue obligatoire juridique a été déposée auprès d'un formateur reconnu.

Ìý

Ìý

Back to top