Protection de la vie privée, transparence, non-discrimination: la Commission européenne a proposé lundi une série de règles éthiques pour le secteur stratégique de l'intelligence artificielle (IA).
Cette liste, établie par un comité d'experts indépendants, fait suite au lancement par Bruxelles en avril 2018 d'une "stratégie" pour placer l'Europe "au premier plan" de l'IA.
Pour les experts, "l'humain" doit rester au coeur des technologies liées à l'IA, qui ne doivent "pas diminuer ou limiter" leur autonomie, mais au contraire préserver "les droits fondamentaux".
Ces technologies doivent aussi prendre en compte "la diversité" et favoriser la "non-discrimination", ainsi que le "bien-être de la société et l'environnement".
"Les citoyens devraient avoir un contrôle total sur leurs propres données", estiment par ailleurs les experts, réclamant de la "transparence" et des mécanisme de surveillance de l'IA.
La Commission lancera, sur cette base, une "phase pilote" en juin, durant laquelle l'industrie, la recherche et les pouvoirs publics seront invités à examiner cette liste, avant une évaluation prévue en 2020. Elle souhaite, ajoute-t-elle, porter le sujet au niveau mondial, "avec des partenaires aux vues similaires, tels que le Japon, le Canada ou Singapour".
"La dimension éthique de l'IA n'est pas un luxe ou accessoire. Ce n'est qu'avec confiance que notre société peut profiter pleinement de ces technologies", a souligné le vice-président de la Commission, Andrus Ansip.
Outre l'établissement de règles éthiques, le plan présenté en avril 2018 par Bruxelles vise à favoriser l'investissement dans l'IA, grâce à l'injection par les Etats membres et le secteur privé de 20 milliards d'euros dans la recherche d'ici à 2020. L'objectif est de rattraper les Etats-Unis, mais aussi la Chine, qui a annoncé en 2017 un plan d'investissement public de 22 milliards de dollars (18 milliards d'euros) d'ici à 2020.
Cet argent doit permettre de soutenir le développement de l'IA dans les secteurs clés, comme les transports et la santé, de renforcer les centres de recherche dans toute l'Europe et d'encourager les essais et l'expérimentation.
https://t.co/Lj2FljYLCC
— Karolien Haese (@Karolien1231) 8 avril 2019
Il s'agit non pas d'une charte éthique à proprement parler mais de 7 piliers devant encadrer l'usage de l'IA et des données. Les projets pilotes viseront préférentiellement le secteur de la santé dans le plan 2025.