jim - stock.adobe.com
Un procès contre Workday pourrait marquer l’histoire de l’IA appliquée aux RH
En cas de dérapage d’une IA dans un SIRH, qui est responsable ? L’éditeur ? La DRH ? Un procès aux États-Unis contre Workday (qui se défend de tout biais dans son IA) devrait apporter un premier élément de réponse. Mais, quel que soit le verdict, les RH ont tout intérêt à prendre des mesures techniques et contractuelles en amont pour se couvrir, avertissent les experts.
C’est un procès qui pourrait marquer l’histoire des logiciels de gestions des ressources humaines (SIRH/HCM). Il se déroule en Amérique, où un candidat a répondu, en vain, à plusieurs annonces d’emplois. Celui-ci accuse l’intelligence artificielle embarquée dans les solutions de recrutement de Workday – qui géraient la plupart des annonces auxquelles il a répondu – d’être « biaisée ».
Mais ces accusations de discrimination et de « biais à l’embauche » – puisqu’il s’agit bien de cela – auront des répercussions au-delà des États-Unis dans le sens où le verdict pourrait fixer pour la première fois la responsabilité des uns et des autres (éditeur, entreprise utilisatrice) en cas de procès après l’utilisation d’une IA dans le domaine inflammable que sont les RH.
Un logiciel accusé d’être biaisé et qui ferait des demandes illégales
Mais commençons par le commencement. En 2023, un certain Derek Mobley porte plainte au tribunal de district d’Oakland, en Californie, contre Workday.
Il affirme avoir postulé à une centaine d’annonces auprès de divers employeurs qui, selon lui, utilisent tous le logiciel de recrutement de Workday.
Bien qu’il soit titulaire de diplômes en finance et en administration de systèmes de réseaux, sa candidature est systématiquement rejetée, ce qui, selon lui, s’explique par les biais du logiciel.
M. Mobley, qui se présente dans le dossier comme un Afro-Américain de plus de 40 ans souffrant d’anxiété et de dépression, affirme donc que le logiciel de Workday est discriminatoire.
Pour de nombreux postes, il aurait en effet dû passer « une évaluation et/ou un test de personnalité [réalisés avec un logiciel] de la marque Workday ». L’action en justice affirme que ces tests « sont des enquêtes illégales liées au handicap » conçues pour identifier des troubles mentaux qui n’auraient aucune incidence sur sa capacité à réussir en tant qu’employé.
Workday, employeur indirect et « gatekeeper » des RH ?
En janvier, la juge, Rita Lin, avait rejeté les poursuites contre Workday.
Mais elle avait également donné la possibilité au plaignant de déposer une plainte modifiée pour faire valoir d’autres points juridiques soulevés lors de l’audience et dans un mémorandum. Saisissant cette occasion, les avocats de M. Mobley ont étoffé leur dossier pour étendre l’affaire. Alors que la plainte initiale faisait 16 pages, la version modifiée présentait une argumentation plus détaillée de 37 pages.
Parmi les nouveaux points juridiques soulevés par les avocats M. Mobley figure celui selon lequel Workday agit en tant qu’employeur indirect.
Ses outils d’embauche « interfèrent de manière discriminatoire » dans l’embauche, une allégation qui implique par ailleurs que la position dominante de Workday dans les RH fait que l’éditeur agit de facto comme un « gatekeeper » (un contrôleur d’accès) dans les RH, à l’instar de Google ou de Facebook sur Internet.
Workday se défend face à une action « sans fondement »
Dans sa nouvelle demande de rejet présentée ce mois-ci, Workday rejette cette idée de « gatekeeper » et nie avec véhémence ces allégations.
Il n’aurait aucun contrôle sur les actions quotidiennes de ses clients et aucune possibilité de les forcer à prendre des décisions, dans le cadre du processus d’embauche ou de n’importe quel autre processus RH.
En conclusion : ce sont les clients qui configurent et qui utilisent le logiciel pour présélectionner les candidats.
Dans une déclaration envoyée à la rédaction américaine de TechTarget (propriétaire du MagIT), Workday estime par ailleurs que cette action en justice lui paraît être « sans fondement ».
« Nous nions les allégations et les affirmations faites dans la [nouvelle] plainte modifiée. Nous restons engagés en faveur d’une IA responsable [N.D.R. : une IA sans biais et explicable] », assure-l’éditeur à nos collègues américains.
La patate chaude
Pour les analystes, la ligne de défense de Workday met bien en lumière la situation dans laquelle un responsable RH peut se retrouver lorsqu’il a recours à la technologie en général, et à l’IA en particulier.
Aux États-Unis, le droit du travail est très clair : « la responsabilité incombe en fin de compte à l’employeur », souligne Paul Lopez, avocat spécialisé chez Tripp Scott, un cabinet de Floride.
Une problématique similaire a déjà eu lieu dans l’univers des RH. Avec la paie.
Pour Dean Rocco, co-président du cabinet d’avocats Wilson Elser à Los Angeles (spécialisé dans les questions d’emploi et de droit du travail), regarder le « payroll » pourrait donc donner un avant-goût du partage à venir des responsabilités en matière d’IA.
Dans la paie, les éditeurs sont dédouanés, estime Wilson Elser. La plupart incluent à leurs contrats des clauses qui transfèrent la totale responsabilité de la conformité légale à l’employeur (à l’utilisateur). Une situation entérinée par les tribunaux américains qui ont, d’après lui, toujours refusé d’engager la responsabilité des fournisseurs de technologie.
Dans les contrats conclus avec les fournisseurs d’outils de gestion de la paie, les clients « reconnaissent d’emblée que tout ce que fait l’éditeur, c’est leur fournir une plate-forme technologique », insiste M. Rocco.
Trois moyens de minimiser le risque légal des RH
Cela ne veut pas dire pour autant que les éditeurs sont hors de cause, tempère Paul Lopez. L’employeur/client peut parfaitement contre-attaquer en faisant valoir que le logiciel est « défectueux », et que l’éditeur a une responsabilité envers ses clients.
Autre conseil de l’avocat de Tripp Scott : les clients ont tout intérêt à faire figurer une clause d’indemnisation dans les contrats de licence en cas de problème.
Le conseil semble de bon sens, mais l’avocat sait aussi que les éditeurs rechignent à changer leurs contrats types. Et les « petits » clients n’arriveront tout simplement pas à imposer ces clauses à de gros éditeurs internationaux.
Dans ce cas, l’avocat recommande tout bonnement de ne pas choisir une plate-forme avant d’avoir vu d’autres entreprises l’utiliser et s’en servir sans incident ni problème pendant plusieurs mois, voire plusieurs années. « Prudence est mère de sûreté », dit le dicton.
Les RH vont devoir apprendre à comprendre l’IA
La responsabilité sera-t-elle plus partagée dans l’IA que dans la paie ? Le jugement prochain de l’affaire Derek Mobley contre Workday pourrait donner un premier élément de réponse.
Mais dans tous les cas, pour les employeurs, les risques de l’IA dans le recrutement, l’embauche (et dans d’autres fonctions RH) « sont suffisamment importants pour justifier une supervision, des contrôles et une évaluation continus des solutions d’IA mises en place », prévient Helen Poitevin, Distinguished VP Analyst chez Gartner.
Jamie Kohn, un autre analyste du Gartner, confirme et constate que les responsables du recrutement « ne sont pas toujours conscients de la manière dont les fournisseurs utilisent l’IA dans leurs produits ». Or les exigences légales croissantes « signifient qu’ils vont devoir développer une compréhension plus approfondie des technologies qu’ils utilisent et savoir quelles questions poser ».
« Si vous mettez [une technologie] en œuvre, vous êtes responsable de l’impact qu’elle aura sur vos décisions d’embauche », insiste-t-il.
Cette compréhension sera d’autant plus importante que l’IA – parce qu’elle est également positive pour les RH (et qu’elle peut aussi lutter contre les biais humains) – sera de plus en plus embarquée dans les outils de gestion des employés, prédit Katy Tynan, analyste chez Forrester Research.
Mais plus il y aura d’IA infusée dans le SIRH, plus « la probabilité que la technologie soit utilisée d’une manière qui aboutisse à un procès augmente », avertit-elle.