IA : le Parlement européen prend position pour les principes de transparence et de contrôle humain

Première étape vers une possible loi, le Parlement européen a adopté mercredi une position sur les grands principes qui doivent encadrer les usages de l’Intelligence Artificielle en Europe. Le cœur du texte concerne les domaines militaires, de la justice et de la médecine. Mais il va au-delà.

En décembre, la commission des affaires juridiques du Parlement européen avait publié des lignes directrices sur l’usage de l’intelligence artificielle (IA) dans les domaines militaires, de la santé et de la justice, et plus largement dans les services publics.

Ces règles visent à garantir en premier lieu que les systèmes à base d’IA seront bien soumis à un contrôle « significatif » (sic), pour que les humains soient toujours en mesure de les corriger voire de les désactiver.

Le rapport de la commission des affaires juridiques a été voté par les députés européens ce mercredi, en session plénière, par 364 voix pour, 274 contre et 52 abstentions. Cette procédure d’initiative ouvre la voie à une possible loi si la Commission suit les recommandations du Parlement.

Un cadre juridique pour une IA au service de « l’humanité et du bien commun »

Le texte final – qui vaut donc position officielle du Parlement – appelle à créer « un cadre juridique européen avec des définitions et des principes éthiques » d’une part, et d’autre part à ce que l’Union et les États membres garantissent que l’IA et les technologies connexes soient centrées sur l’humain, « c’est-à-dire à ce qu’elles soient destinées à être utilisées au bénéfice de l’humanité et du bien commun et aient pour but de contribuer au bien-être et à l’intérêt général de leurs citoyens. »

« Ce rapport vise à poser un cadre général qui rappelle que dans tout domaine l’IA doit rester un outil d’aide à la décision. »
Gilles LebretonDéputé européen et rapporteur du texte

Plus concrètement dans le domaine militaire, les députés ont réitéré leur appel à l’interdiction des systèmes d’armes létales autonomes (les SALA) et aux « robots tueurs ».

Le texte invite par ailleurs l’Union européenne à jouer un rôle « de premier plan » dans la promotion d’un cadre mondial sur l’utilisation militaire de l’IA, aux côtés des Nations unies et de la communauté internationale. Ce cadre devrait partir du principe que sélectionner une cible et l’éliminer physiquement sont des actions qui devraient toujours être prises par un humain « exerçant un contrôle et un jugement significatifs, conformément aux principes de proportionnalité et de nécessité ».

Des principes pour l’IA dans la médecine

C’est ce même principe de décision finale qui doit revenir à l’humain – humain qui doit par ailleurs pouvoir s’affranchir des recommandations des algorithmes – qui structure le texte pour les usages dans la médecine et la justice.

Le Parlement constate en effet une utilisation « accrue » de l’IA dans ces services publics (ainsi que dans les transports).

Le texte considère clairement que le recours à ces technologies dans les soins de santé et dans la justice a de nombreux bénéfices, mais il stipule dans le même temps que l’IA ne doit pas remplacer le contact humain ni entraîner de discrimination.

Autre recommandation qui en découle, les citoyens devraient toujours être informés s’ils sont soumis à une décision qui repose, entièrement ou partiellement, sur des algorithmes et avoir la possibilité de faire appel.

Dans la médecine, en particulier, « l’intelligence artificielle est appelée à jouer un rôle de plus en plus fondamental […] grâce aux algorithmes d’aide au diagnostic, à la chirurgie assistée par robot, aux prothèses intelligentes, aux traitements personnalisés reposant sur la modélisation du corps de chaque patient en trois dimensions, aux robots sociaux destinés à assister les personnes âgées, aux thérapies numériques conçues pour améliorer l’autonomie de certains malades mentaux, à la médecine prédictive et aux logiciels d’anticipation des épidémies », approuvent les députés européens.

Mais, demandent-ils, ces usages devront « respecter la protection des données personnelles des patients et éviter leur dissémination incontrôlée ».

Reste à savoir si les envoyer sur un cloud soumis à l’extraterritorialité du droit américain sera, ou non, considéré légalement comme de la « dissémination incontrôlée » (lire ci-après).

Dans la justice aussi

Ces recommandations intéresseront aussi fortement le secteur de la Legaltech. Là encore, les députés constatent la progression de l’IA et ne la regrettent pas. Mais ils mettent en garde.

L’IA en matière de justice permet effectivement de rendre des décisions « plus rapides, plus rationnelles et mieux conformes au droit en vigueur », disent-ils, ce qui accélère d’autant les procédures.

« [Son] utilisation pourrait améliorer l’analyse et la collecte de données, ainsi que la protection des victimes », écrivent les députés. Mais ils mettent le doigt sur les défis classiques de ces technologies : les biais (discrimination, surreprésentation, etc.), la gouvernance, la transparence (alias l’explicabilité et les boîtes noires du Deep Learning) et bien sûr la juste compréhension de ces recommandations par les utilisateurs (dans le droit comme ailleurs, le problème pourrait se trouver entre l’écran et la chaise).

En résumé, le rapport insiste pour que l’IA reste un outil d’aide à la décision et pas d’automatisation de bout en bout d’une procédure légale. Le texte demande que « le juge ne puisse en aucun cas s’affranchir de sa responsabilité finale », voire qu’il puisse s’affranchir des conclusions de l’IA s’il l’estime nécessaire.

Une pique contre les GAFAM

Au passage, et sur fond de montée en puissance de l’idée de souveraineté numérique et d’encadrement plus strict des GAFAM, le Parlement adresse une pique aux hyperscalers américains et chinois.

Au regard de l’automatisation « à une échelle sans précédent » (sic) du traitement de l’information que rendent possible les différentes formes d’IA (dont le RPA), le Parlement demande en effet à ce que la responsabilité des acteurs privés soit renforcée vu « l’hégémonie décisionnelle et du contrôle que certains [de ces] acteurs privés exercent sur le développement de [l’IA] ». Microsoft, Google, IBM, AWS, et Alibaba Cloud auront certainement noté l’avertissement.

Dans le cas particulier d’une IA appliquée à la surveillance de masse, le rapport évoque même la possibilité d’« ingérences illégales dans la souveraineté des États ».

Vers une loi ?

Les recommandations vont à présent être transmises au Conseil (qui représente les gouvernements des pays membres) et à la Commission (où siège un fin connaisseur de ces questions, Thierry Breton, récemment au cœur d’une polémique révélée par Le Point, impliquant Google).

« Face aux défis multiples que pose le développement de l’intelligence artificielle, des réponses juridiques sont nécessaires », affirme le rapporteur du texte Gilles Lebreton.

« En vue de préparer la proposition législative de la Commission sur ce sujet, ce rapport vise à poser un cadre général qui rappelle que dans tout domaine – spécialement dans le domaine militaire et dans ceux relevant de l’autorité de l’État comme la justice et la santé – l’IA ne doit rester qu’un outil d’aide à la décision ou à l’action et ne jamais remplacer l’humain ni le décharger de sa responsabilité ».

La procédure d’initiative du parlement européen débouchera-t-elle sur une loi ? C’est à présent à la Commission d’en décider.

Bien comprendre la procédure législative européenne

En France, une loi peut avoir deux origines : une initiative du gouvernement (un projet de loi) et le Parlement (une proposition de loi). Dans les institutions européennes, seule la Commission (dont on peut considérer qu’elle joue le rôle de gouvernement des institutions européennes) possède ce pouvoir.

Le Parlement vote les lois qui émanent de la Commission, mais ne peut pas faire de « proposition » au sens français du terme.

Les députés peuvent en revanche – comme c’est le cas ici – se saisir d’un sujet et émettre des recommandations qui valent alors position officielle du Parlement. On parle de « procédure d’initiative ».

La Commission peut ensuite suivre ces recommandations et produire un texte (qui sera ensuite soumis au vote du parlement pour devenir une loi) ou pas.

Pour approfondir sur Intelligence Artificielle et Data Science

Close