pogonici - stock.adobe.com

Intégrer concrètement l’éthique à vos projets IT en 3 étapes

L’expert européen Marc Steen préconise un processus en trois étapes pour intégrer l’éthique à l’IT. Il propose également un cadre de réflexion qui s’appuie sur deux perspectives éthiques distinctes.

Permettez-moi de commencer par deux petites questions. Pensez-vous que l’éthique est importante dans le développement et l’application de l’intelligence artificielle ? Et trouvez-vous qu’il est facile d’intégrer cette dimension éthique dans vos projets IA et IT ?

J’ai souvent posé ces deux questions. Presque toutes les personnes lèvent la main pour la première. Presque toutes les mains se baissent pour la seconde. Nous trouvons l’éthique importante. Mais nous avons du mal à l’intégrer de manière concrète.

Il y a plusieurs raisons pour lesquelles intégrer l’éthique dans l’IA. La plus fondamentale est que la technologie n’est jamais neutre.

Les algorithmes se nourrissent de données. Dans les processus de collecte, d’analyse et de transformation de ces données en modèle, toutes sortes de choix sont faits, souvent de manière implicite. Par exemple : quelles données sont collectées (et lesquelles ne le sont pas), quel étiquetage (labelling) est fait, et sur la base de quelles hypothèses ? Tous ces choix créent des biais.

Si les données d’entraînement sont principalement constituées de visages à la peau claire, l’algorithme aura des problèmes avec les visages à la peau foncée ou noire. L’exemple le plus notoire est celui d’un algorithme de Google qui a mis le tag « gorilles » sous une photo de deux adolescents noirs.

Responsabilité

Puisque la technologie n’est pas neutre, nous – professionnels de l’IT, développeurs, décideurs, chercheurs, ou consultants – avons une responsabilité. Nous contribuons à amener au monde une chose qui aura des effets majeurs sur ce monde. L’éthique aide à assumer cette responsabilité.

« Si votre projet IT était un véhicule, l’éthique en serait le volant. »
Marc SteenTNO

Parfois, les gens n’aiment pas le mot « éthique ». Ils s’imaginent un juge qui pointe du doigt des accusés. Ou ils la considèrent comme un obstacle à l’innovation (cf. les réactions de certains à l’IA Act européen).

Je conçois l’éthique de manière radicalement différente. Pour moi, ce n’est ni un gendarme ni un frein. Elle est plutôt comme un volant. L’éthique vous aide à garder votre projet sur la bonne voie, à prendre les bons virages et à éviter des sorties de route, afin que votre projet arrive à bon port, sans accident.

Mettre en place un processus de réflexion et de délibération

Il existe pourtant un moyen d’intégrer l’éthique dans vos projets en mettant en place un processus de réflexion et de délibération. Ce processus peut s’organiser en trois étapes :

  1. Mettez honnêtement les problèmes ou les risques sur la table – les choses qui vous préoccupent, les choses qui pourraient mal tourner.
  2. Organisez des échanges pour examiner ces problèmes et ces risques sous différents angles – au sein de votre équipe, mais aussi avec des personnes extérieures.
  3. Prenez des décisions, de préférence de manière itérative – prenez des mesures, essayez-les, évaluez les résultats et ajustez en conséquence.

L’un des principaux avantages d’un tel processus est qu’il vous permet de rendre des comptes. Vous avez posé des questions, vous en avez discuté avec diverses personnes et vous avez pris des mesures.

En pratique, vous pouvez organiser un tel processus de manière relativement légère, par exemple un atelier de deux heures avec votre équipe projet. Vous pouvez également intégrer la réflexion sur l’éthique comme un point récurrent de l’ordre du jour de vos réunions mensuelles de projet, et impliquer régulièrement divers experts externes.

Reste que pour travailler avec un processus de ce type, vous aurez besoin d’un cadre de réflexion, un framework. C’est que je vais aborder à présent, avec deux perspectives éthiques que vous pourrez utiliser pour mieux appréhender les différents sujets : le conséquentialisme et l’éthique du devoir.

Conséquentialisme

Le conséquentialisme consiste à identifier et à évaluer tous les avantages et tous les inconvénients de ce que vous faites.

Imaginez les conséquences du système d’IA que vous allez sortir. Quels avantages et inconvénients apportera-t-il à la société, et dans la vie quotidienne des gens ? Quelle sera sa valeur ajoutée ? Et ses impacts globaux, directs et indirects ? Comparez différentes options de conception, voire des solutions alternatives. Et choisissez ensuite l’option qui a comparativement le plus d’avantages avec le moins d’effets négatifs.

Cette perspective, qui consiste à évaluer les avantages et les inconvénients, paraît évidente. Mais attention, elle ne l’est pas forcément.

Prenons l’exemple d’une voiture autonome. Quelle est, globalement, sa valeur ajoutée ? Quel problème résout-elle ? Est-elle plus sûre qu’une voiture « normale » ? Les conducteurs peuvent-ils se reposer en conduisant ? De telles questions peuvent vous aider à explorer des options entièrement différentes, comme les transports en commun, qui sont plus sûrs, et où les gens peuvent se reposer pendant le voyage.

En tant qu’expérience de pensée, votre projet, ses hypothèses et ses points de départ doivent faire l’objet de discussions larges.

Une autre complexité est de savoir où tracer les limites du système IT ou IA que vous analysez. Quels avantages et quels inconvénients incluez-vous ? Lesquels n’incluez-vous pas ?

Vous compterez probablement les avantages pour le propriétaire de la voiture autonome. Mais comptez-vous les risques pour les cyclistes et les piétons ? Ce sont des questions dont les réponses varient en fonction des limites du système.

Les voitures autonomes sont souvent placées dans le contexte d’une ville dite intelligente (la fameuse smart city). Elles sont une partie d’un réseau plus vaste, connectées à toutes sortes d’infrastructures, comme les panneaux de signalisation. Ce système global permettrait, par exemple, aux ambulances d’avoir la priorité aux intersections.

Dans une optique plus commerciale, vous pourriez imaginer un service premium, livré avec des voitures autonomes haut de gamme qui leur donnent accès à des voies exclusives aux heures de pointe. Mais dans ce cas, examinez-vous également les inconvénients pour les autres usagers de la route ?

Et en amont, avez-vous repoussé les limites de votre analyse avec les coûts humains et environnementaux de la production de telles voitures ? Du côté de la chaîne d’approvisionnement, il faudra tenir compte des coûts liés à l’extraction de minéraux rares et des conditions de travail dans certains pays.

Une autre question à se poser sur les conséquences éthiques d’un projet est celle de la répartition des avantages et des inconvénients. Ici, comment les avantages et les coûts seront-ils répartis entre les différents groupes de personnes – automobilistes, cyclistes, piétons ?

Éthique du devoir

La seconde perspective est celle de « l’éthique du devoir » qui interroge le rapport entre les devoirs et les droits.

Prenons un exemple : les caméras de sécurité. Une municipalité a le devoir d’assurer la sécurité de ses rues. Pour se faire, la décision est prise d’installer des caméras dans l’espace public. Ce projet soulève des questions sur les droits des citoyens et le respect de leurs vies privées.

Ainsi, les devoirs d’une partie (la ville) sont liés aux droits d’une autre partie (les administrés). La municipalité doit alors combiner deux devoirs : offrir un milieu de vie sécurisé tout en respectant le droit à la vie privée des citoyens.

Les gens perçoivent souvent un conflit ici. Comme si vous deviez choisir entre la sécurité ou la vie privée. Mais vous n’êtes pas obligé. Vous pouvez choisir des options techniques qui combinent sécurité et confidentialité, par exemple grâce à la minimisation des données. Le professeur et chercheur hollandais Jaap-Henk Hoepman a d’ailleurs écrit un livre très intéressant édité par le MIT sur ce sujet : « Privacy Is Hard and Seven Other Myths ».

Je vais prendre un exemple plutôt idiot pour montrer que des solutions peuvent être créatives. Imaginez que vous êtes dans les années 1970 et que vous allez camper. Vous pouvez choisir entre une tente spacieuse, mais très lourde, et une tente légère, mais très petite. Il y avait un conflit entre le volume et le poids. Mais plus aujourd’hui où des tissus légers imperméables et des poteaux solides flexibles ont été inventés. Maintenant, vous pouvez combiner grand volume et légèreté.

En suivant cet exemple, on peut imaginer des solutions créatives qui combinent sécurité et intimité. Ou dans la cybersécurité, des solutions qui restent ergonomiques et « user friendly » tout en étant très sécurisées (ce qui ne va pas toujours de pair).

Dans la pratique

Dans la pratique, ces perspectives éthiques sont entrelacées. Utilisez-les en parallèle. Analysez à la fois les avantages et les inconvénients dans une optique conséquentialiste, et prenez en compte les devoirs et les droits dans une optique d’éthique du devoir.

Prenons un autre exemple : un algorithme permettant de détecter la fraude. Côté pour : l’algorithme peut signaler les cas possibles de fraude et amener une détection plus efficace et efficiente de la fraude. Côté contre : le coût de la mise au point et de maintenance de cet algorithme (car vous devrez évaluer un tel algorithme périodiquement et l’ajuster si nécessaire, pour éviter qu’il ne déraille).

Autre contre : les erreurs de faux positifs. Dans notre cas, il s’agira de signalements qui, après enquête, s’avèrent ne pas être des fraudes. Cela peut causer un préjudice énorme aux personnes soupçonnées à tort, comme l’ont vécu des milliers de parents néerlandais L’organisation pourrait devoir faire d’énormes efforts pour réparer ces erreurs.

Il arrive que les questions éthiques touchent aux Droits de l’Homme. Ce fut le cas de SyRI, le système néerlandais de détection des fraudes aux prestations sociales qui a été interdit par le tribunal de district de La Haye en 2020. D’un côté, le gouvernement a effectivement le devoir de veiller au bon usage des deniers publics et de lutter contre la fraude. D’un autre, les citoyens ont droit au respect de la vie privée et familiale (article 8 de la Convention européenne des droits de l’homme). Le juge a soupesé les devoirs et les droits. Et il a statué contre l’utilisation de SyRI.

Il existe évidemment d’autres perspectives éthiques à intégrer dans des projets IT, comme l’éthique relationnelle et l’éthique de la vertu. Je tenterai d’y revenir dans un autre article. Mais ce processus en 3 étapes et ce framework de réflexion sont déjà un bon début.

 L'auteur

Marc Steen, PhD, travaille à l’Organisation néerlandaise pour la recherche scientifique appliquée des Pays-Bas (TNO). Il est spécialiste de l’éthique liée au développement, à la gestion des données, aux algorithmes et à l’IA. Il a publié « Ethics for people who work in tech » en octobre 2022.

Pour approfondir sur Réglementations et Souveraineté