Un outil d’aide à la décision… pour la décision la plus difficile
Comment faire pour respecter l’autonomie d’un patient incapable de discernement au moment de décider s’il faut ou non le réanimer? On peut s’appuyer sur ses directives anticipées, mais il y en a rarement; si elles existent, elles peuvent ne pas être applicables. On se reporte dès lors sur les proches, mais comment s’assurer que ceux-ci vont faire passer la volonté (supposée) du patient avant la leur propre?
Ce sont les questions que se sont posées des scientifiques, éthiciens, médecins et spécialistes de l’IA dans une étude menée à l’Unil, au CHUV, à l’EPFL et à l’Université technique de Munich, et récemment publiée dans le New England Journal of Medicine AI (NEJM AI).
Rendons à César ce qui lui appartient: il y a une quinzaine d’années, les bioéthiciens américains Annette Rid et David Wendler avaient lancé l’idée que l’on pouvait prédire les préférences d’un patient en se basant sur un modèle statistique – c’était bien avant l’IA. L’idée avait été bien accueillie, car perçue comme un soutien à la décision, mais jusqu’ici sa faisabilité n’avait pas été démontrée. C’est maintenant chose faite avec l’étude publiée dans NEJM AI, qui est la première preuve de concept d’un «prédicteur de préférence du patient» («patient preference predictor», abrégé «PPP») basé sur le Machine Learning.
En s’appuyant sur le volet suisse de la cohorte européenne longitudinale sur le vieillissement (SHARE), soit 1811 personnes incluses dans l’étude, les scientifiques, menés par Georg Starke, premier auteur, ont construit un modèle d’IA. Celui-ci a été nourri des données des participants, et décliné en trois variantes cumulatives: la première n’intègre que les données sociodémographiques (âge, sexe, etc.), la seconde ajoute les données cliniques des patient·es, et la troisième, la plus complète, intègre en plus des données personnelles, récoltées par questionnaire.
Ces trois variantes, ou modèles, les scientifiques les ont confrontées aux prédictions des proches qui participaient eux aussi à l’étude (le volet suisse comportait 436 couples) quant aux préférences supposées de leur partenaire à une question simple: faut-il tenter une réanimation cardiopulmonaire (CPR)? «Nous avons été très surpris par les résultats, puisque nos trois modèles de PPP battaient les prédictions des proches», relève Ralf Jox, professeur à la Faculté de biologie et de médecine (FBM) de l’Unil, et dernier auteur de l’étude. Sur les 872 personnes interrogées, 58,7 % ont correctement prédit les préférences de leur partenaire, tandis que le score est de 66,2 % pour le modèle d’IA le plus basique, et grimpe à 70,6 % pour le plus personnalisé.
«Nous avons établi la preuve de concept, mais nous sommes encore loin d’une mise en application», souligne l’éthicien Ralf Jox. Car celle-ci soulève nombre de problèmes éthiques, juridiques et sociaux. Sans oublier les limites intrinsèques du modèle: «Nous n’avons abordé qu’une seule question, celle de la réanimation cardiopulmonaire, hors contexte, ce qui est en soi insuffisant pour prendre une telle décision.» Second problème, comme le souligne l’éditorial que NEJM AI consacre à cette publication, «les préférences changent sur la durée de façons qui ne peuvent pas être prédites». Autrement dit, un patient qui a déclaré à un temps T1 qu’il ne voulait pas de réanimation, peut avoir changé d’avis à T2, pour des motifs qu’il est difficile de prédire.
Une limite bien perçue par les auteur·es de l’étude: pour Ralf Jox, le PPP ne vise absolument pas à remplacer la décision prise par un proche, conjointement avec le médecin. «Mais il faut souligner qu’une telle prise de décision est lourde, d’un point de vue émotionnel, psychologique. Nous envisageons l’IA, le PPP, comme une aide dans ce processus de décision, qui permet aussi de réduire la charge de la responsabilité: nous défendons l’idée d’un partage de la décision entre le médecin, le ou les proche(s) et un outil d’aide technologique.»
Lire l’article: Starke G. et Jox R.J., Machine Learning–Based Patient Preference Prediction: A Proof of Concept, New England Journal of Medicine AI (2025), doi : 10.1056/AIoa2500265