Un projet de “recherche-action” impliquant universités et acteurs de la société civile se penche sur la nécessité de repenser l’humanisme à la lumière des implications potentielles de l’IA et des neurosciences, notamment dans les domaines de la santé, ou encore de l’éducation et de la démocratie.
L’essor et de l’usage de l’intelligence artificielle et des neurosciences a un impact dans quasiment tous les aspects de nos vies, de nos activités - professionnelles ou autres. Comment dès lors repenser l’humanisme, “augmenter nos capacités éthiques”?
Vaste sujet… C’est l’objet d’un projet de recherche inter-universitaire baptisé NHNAI (New Humanism at the time of Neurosciences and Artificial Intelligence) qui implique plusieurs universités catholiques aux quatre coins du monde (France, Italie, Portugal, Etats-Unis, Taiwan…). En ce compris, chez nous en Belgique à l’UNamur.
La réflexion et les travaux seront menés par des chercheurs universitaires, selon une démarche multidisciplinaire (juridique, technologique, sciences humaines et sociales…), mais impliqueront aussi des membres de la société civile, plus particulièrement intéressés par la santé, l’éducation, démocratie.
Un atelier s’est tenu tout récemment à l’UNamur. L’occasion de faire la synthèse de réflexions et réactions que ces nouvelles technologies suscitent auprès d’acteurs de la société civile dans le registre des soins de santé. Petite énumération (non exhaustive)…
Jusqu’où peut-on “augmenter” l’être humain?
Que restera-t-il du discernement humain si nous continuons à externaliser nos responsabilités dans l’intelligence artificielle?
Quelle conséquence pour la déshumanisation de la relation de soin entre patient et médecin?
N’est-ce pas une porte ouverte à une dé-responsabilisation juridique du corps médical est de la société puisque la responsabilité n’est plus clairement définie lorsque l’iA intervient?
Y a-t-il un risque de glissement au bénéfice de traitements répondant aux intérêts technico-scientifiques?
Ne risque-t-on pas de ne pas tenir compte de cas et besoins individuels et minoritaires en cas de saturation (standardisation)?
L’autonomie de la “machine” en question
L’une des problématiques évoquées lors de l’atelier à l’UNamur fut celle des robots autonomes - physiques ou virtuels.
Le questionnement, soulevé par Dominique Lambert, professeur à la faculté Sciences, philosophies et sociétés de l’UNamur, était de s’arrêter sur la notion même d’“autonomie”. Cela implique-t-il une absence totale ou partielle de supervision, une autonomie du robot en ce compris en termes de redéfinition des objectifs visés? Voire une capacité à se reprogrammer “spontanément”? Et s’il y a supervision, par qui et quand? “Répondre à ces questions aura des implications très différentes d’un point de vue juridique et éthique”, prévient-il.
Autre question qu’il soumettait à réflexion: quels seront les critères de délégation de contrôle aux “machines”?
Selon les circonstances, les finalités et les contextes, par exemple le volume des données à traiter et/ou la complexité des calculs, “il n’y a pas toujours le temps pour l’être humain d’intervenir en temps réel [pour reprendre le contrôle ou la main]. A contrario, il y a un clair intérêt, dans certains cas, à maintenir le “maillon lent” [lisez: l’homme] pour briser la réactivité, automatisée, non conceptualisée, de la machine.”
La notion d’autonomie doit donc être finement évaluée. Elle ne pourra en aucun cas être inconditionnelle, permanente ou totale. Mais, déclarait-il en conclusion de son exposé, “ne nous privons pas de l’autonomie si cela sert la dignité de l’homme.”