Le débat a été lancé au sein de BHCT suite à un article publié «NHS, erreur informatique au dépistage du cancer du sein» pour lequel une réaction a été demandée.
Pour éviter une discussion stérile autour de la question, faut-il avoir peur de l’IA, les juristes ont invité les protagonistes à réfléchir en inversant la question. Sans cet algorithme, les femmes concernées auraient-elles bénéficié d’un rappel et, si oui, avec quelle marge d’erreur?
Le risque d’erreur de la machine est, en effet, un argument classiquement invoqué par les gestionnaires et les médecins pour retarder le recours à l’innovation et l’intervention automatique de la machine. Et pourtant le risque zéro n’existe pas, même pour elle.
Il serait ainsi totalement contre-productif que gestionnaires et médecins invoquent le besoin de conserver le contrôle pour rejeter l’utilisation d’une automatisation lorsque sa plus-value apparaît comme évidente ou le double contrôle humain bien plus onéreux.
L’article portant sur «l’erreur du NHS» aborde une fois de plus le thème de l’automatisation sous le seul angle des risques et de leurs conséquences, comme pour témoigner des limites de cette nouvelle technologie, sans objectiver la plus-value d’une telle automatisation permettant de toucher un maximum de femmes pour les inviter à se rendre au dépistage concerné.
Or, et certainement dans le domaine de la santé, la notion de responsabilité fait peur aux médecins et gestionnaires. Il n’est pas concevable de faire courir un risque aux patients et, pour cette raison, médecins et gestionnaires préfèrent encore conserver l’illusion d’un contrôle humain.
Pour revenir à l’exemple du NHS, la question relève effectivement d’une responsabilité mais à la base, la faute reste humaine, liée à la programmation ou l’utilisation de l’algorithme. Et cela sera le cas aussi longtemps que l’IA n’aura pas atteint un stade de deep learning avancé permettant une auto-programmation.
Le débat NHS a cependant le mérite de balayer en quelques lignes l’illusion d’un risque zéro lorsque l’on recourt à la machine. Par conséquent, faut-il admettre que l’efficience et la supériorité du numérique impose un contrôle complémentaire du médecin ou du gestionnaire dès lors que l’on parle de la santé.
Ici encore la réponse ne va pas de soi et relève avant tout des moyens que le gestionnaire (Etat ou institutions) peut mettre à disposition du corps soignant.
Lorsque ces moyens sont limités, des choix doivent être faits. Ces choix seront dictés par l’outcome recherché tant par le gestionnaire pour conserver l’équilibre économique général de l’organisation dont il a la responsabilité, que par le médecin ou le patient pour se rassurer sur le diagnostic et le traitement le plus adéquat.
C’est donc bien au moment du choix des moyens que se posent les questions d’éthique et de responsabilité sociale des différents intervenants.
Lorsque la machine permet de réduire sérieusement la pression financière et de travail à risque minimal, faut-il réellement affecter des moyens ou efforts complémentaires pour réduire encore ce risque d’erreur et espérer l’amener à l’illusion du zéro?
La réponse des gestionnaires et des médecins diverge sur ce point tout simplement parce que le médecin est confronté à une charge émotionnelle et humaine importante alors que le gestionnaire doit veiller à un équilibre général.
C’est l’histoire du choix difficile du «faut-il abattre un avion détourné en plein vol plutôt que de risquer qu’il ne s’écrase sur une ville». Pour faire le parallèle avec le milieu hospitalier, faut-il rembourser les traitements onéreux de certaines maladies orphelines ou réaffecter les moyens pour améliorer la qualité de vie d’un nombre bien plus élevé de patients. La réponse «les deux» déclinée régulièrement par le corps médical et soignant, n’est pas une option dès lors que les moyens seront d’une manière ou d’une autre toujours limités.
Que les soignants se rassurent, car in fine, la responsabilité juridique pèsera sur le gestionnaire qui fera du choix de l’affectation des moyens un choix d’efficience économique et social.
Mais ce choix collectif est parfois difficile à accepter pour le médecin qui se trouve dans une relation d’individu à individu avec son patient et qui vit la pression d’une responsabilité personnelle, parfois de survie du patient.
Comment alors concilier l’approche individuelle du médecin avec les décisions d’intérêt collectif que prennent les gestionnaires? La réponse réside sans doute ici aussi dans l’utilisation du Big Data qui permet une intelligence aussi bien collective qu’individuelle pertinente.
Une telle intelligence suppose cependant que les banques de données soient suffisamment et correctement alimentées pour ne pas fausser les données de départ et permettre sur base de la quantité de données stockés une campagne automatisée de dépistage et un traitement sur mesure. Le dépistage du cancer du sein par identification la plus pertinente possible d’une population à risque est complété avec la définition d’un traitement personnalisé, confectionné par le médecin avec l’aide de la machine, sur base des milliers de données que comportera le Big Data.
En ce sens, une première étape importante serait de promouvoir la cession et l’utilisation de données personnelles anonymisées plutôt que de la freiner, pour perfectionner cet outil élémentaire à l’efficience.
Lire aussi : > GB: une erreur dans le système informatique de dépistage du cancer du sein aurait écourté 270 vies
Le débat se poursuit sur @numerikare
Voilà une analyse à laquelle je puis souscrire sans réserve.
— David SIMON (@Freedoc_be) 19 mai 2018
Quelle est la position de BHCT sur l'utilisation d'un identifiant patient unique (UPI) identique pour toutes les récoltes de données dont le registre est hébergé chez HealthData ?
La question precise UPI est envoyée aux fondateurs et partenaires. A titre personnel pas d'hésitation. La meilleure garantie est la triangulation collecte- analyse-usage avec autorisation du propriétaire.
— Karolien123 (@Karolien1231) 19 mai 2018
En réponse à @Freedoc_be@dr_wardsam@numerikare @ArnaudBosteels@drbejj @j_detoeuf @vkokoszka @NatSchirvel. Deux questions: Le collecteur/gardien de données peut il être l'analyste sans conflit d'intérêt? Le maillon éducation patient UPI est-il manquant?https://t.co/kApo4zrmRN
— Karolien123 (@Karolien1231) 19 mai 2018