Comment apprendre à un patient qu’un incident est survenu pendant son examen ? Ou qu’une erreur médicale a été commise ? Pour se former à cet entretien difficile, les médecins pourraient prochainement bénéficier d’un système de réalité virtuelle simulant l’interaction verbale et non-verbale avec le patient. Ce projet est développé par le Laboratoire parole et langage et le Laboratoire des sciences de l'information et des systèmes (LSIS). Pour améliorer la prise en charge du patient dans des moments difficiles, le projet ACORFORMed explore l’utilisation de la réalité virtuelle pour entraîner les médecins à annoncer une mauvaise nouvelle.
Il n’y a jamais de bon moment pour annoncer une mauvaise nouvelle. Il est néanmoins possible de mieux faire passer la pilule en y mettant des formes. C’est pourquoi la Haute autorité de santé préconise de former les personnels médicaux de façon à aborder de la meilleure manière possible une situation compliquée avec un patient. Qu’il s’agisse d’une erreur médicale, d’une complication de la maladie ou bien d’un effet secondaire déclenché par la prise d’un traitement. Au lieu de faire appel à un comédien, aussi talentueux soit-il, le projet ACORFORMed simule une salle de réveil dans laquelle l’apprenti médecin ou le personnel soignant va au contact du patient, en fait un personnage numérique, pour lui apprendre qu’un incident grave est survenu lors de son séjour à l’hôpital ou qu’un examen a révélé une dégradation de son état de santé. « Le cœur du projet consiste dans la mise au point du patient virtuel, un avatar animé et autonome : un programme informatique intelligent qui réagit verbalement et physiquement (gestes, mimiques, postures…) aux propos et au comportement du médecin. Pour le réaliser, les chercheurs se sont appuyés sur de nombreuses heures d’enregistrements vidéo » expliquent des responsables du CNRS.
Stade expérimental
Pour le moment, le système, qui est expérimenté auprès d’une vingtaine de personnes, fonctionne dans un cas bien précis – en l’occurrence, apprendre à un patient que son tube digestif a été perforé lors d’un examen endoscopique.. Mais le CNRS explique que le projet, dirigé par Philippe Blache, chercheur au Laboratoire parole et langage, s’emploie à mettre au point un « système complet de réalité virtuelle interactif ». Grâce au concept ACORFORMed, il est ensuite possible pour le médecin, à l’issue de sa session d’entraînement, de revenir sur la façon dont il s’est comporté avec son patient. A-t-il été trop brusque ? Son langage corporel était-il inadéquat ? Y a-t-il des points sur lesquels il aurait fallu insister ? Présenter d’une autre façon ? Le CNRS évoque un souci du détail allant jusqu’à la prise en compte du regard, du mouvement de la bouche et des sourcils, grâce à des algorithmes de reconnaissance de formes. Ces données sont passées à la moulinette dans des algorithmes d’apprentissage puis servent à bâtir des modèles de comportement et de raisonnement.