studiostoks - Fotolia

Pourquoi et comment faire des IA éthiques ?

Cet avis d’experts, co-écrit par plusieurs consultants de Magellan Consulting, revient sur les raisons qui doivent pousser les responsables de projet IA à prendre en compte la dimension morale en plus de celle qui est technologique. Il donne également des pistes pour le faire concrètement.

Quand on parle d’intelligence artificielle, il ne s’agit plus de déclencher l’avènement des robots comme Asimov ou Hollywood ont pu l’imaginer, mais de bénéficier d’assistance personnelle nous permettant de devenir des humains « augmentés ». Le terme IA pour « Intelligence artificielle » fait référence à la capacité des systèmes informatiques à effectuer des tâches nécessitant généralement l’intelligence humaine.

IA classique et IA générative

Contrairement à l’IA traditionnelle déjà en place depuis un certain temps et qui se concentre le plus souvent sur des tâches comme la classification, l’automatisation ou la prédiction, l’IA générative vise – grâce à des modèles statistiques et d’apprentissage automatique – à générer des données ou des contenus (texte, image, son, vidéo) qui ressemblent à ce qu’un humain pourrait produire.

Parmi les exemples notables d’IA générative, les réseaux de génération de langage se démarquent, par exemple GPT (Generative Pre-trained Transformer).

Aujourd’hui l’IA générative génère aussi des interrogations, dans le B2B comme dans le B2C. Les cas d’usages pour performer et se démarquer en sont encore à leurs balbutiements tant les possibilités semblent étourdissantes.

Prenons par exemple le cas de Carrefour qui personnalise l’expérience de ses clients en leur permettant de constituer un menu pour X personnes avec Y € de budget. Autre exemple, L’Oréal utilise l’IA afin de prédire le vieillissement de la peau de ses clientes et proposer les produits adéquats à leur routine beauté. Comme le montrent ces deux exemples, le secteur qui a le plus massivement utilisé l’IA est celui du service client. Il compte pour près de 61 % de l’ensemble des usages.

Avantages et travers 

Les applications de l’IA sont diverses et touchent de nombreux secteurs. Dans le domaine de la santé, par exemple, l’IA peut aider à diagnostiquer des maladies, prédire des épidémies, et même contribuer à la découverte de nouveaux médicaments. Dans le secteur financier, les algorithmes sont utilisés pour détecter les fraudes et optimiser les transactions. Sous d’autres formes, l’IA est au cœur du développement de la voiture autonome, transformant notre conception des transports.

Toutefois, lorsqu’on parle d’IA aujourd’hui, difficile de ne pas y voir un paradoxe entre les avantages et les inconvénients qu’elle génère.

Par exemple, une enquête récente menée par PwC révèle que 64 % des chefs d’entreprise estiment que l’IA générative posera des problèmes de cybersécurité dans un avenir plus ou moins proche. Toutefois ils sont également conscients des avantages qu’elle apporte. En effet, 64 % des répondants déclarent que leurs employés feraient preuve d’une plus grande efficacité.

À l’image de ces chiffres assez révélateurs, on constate des actions contradictoires par rapport aux discours tenus notamment sur l’employabilité.

Bien que l’IA en général soit perçue comme un accélérateur et un gain de temps et d’efficacité pour les salariés, on constate que les grandes entreprises technologiques (Google par exemple) licencient massivement dans le but de réaliser des économies et de réallouer les ressources financières au développement d’outils d’IA. Cela génère des répercussions négatives sur les perspectives d’emploi, notamment pour les ingénieurs logiciels.

D’après une enquête d’edX datée de 2023, près de la moitié (49 %) des compétences de la main-d’œuvre actuelle ne seront plus pertinentes d’ici 2025, selon les dirigeants. De plus, 47 % des employés ne sont pas préparés pour l’avenir du travail. 

L’IA présente d’autres inconvénients, notamment des préoccupations éthiques concernant la responsabilité en cas d’erreur des systèmes autonomes. En effet, face à un accident, par exemple, la question « qui les machines sauveront-elles entre un enfant et une personne âgée » demeure un sujet controversé de paramétrage (apprentissage), faisant partie des arbitrages par les constructeurs. Le MIT avait réalisé en 2016 un test éthique de manière à jauger notre niveau de morale face à plusieurs choix draconiens.

La probabilité d’occurrence où des situations avec de tels dilemmes se produisent reste faible. Ceci n’empêche pas de continuer à pousser le véhicule à chercher à limiter les accidents et à anticiper pour aborder au mieux ces situations.

Il convient donc de définir les principes, les normes et les valeurs guidant le développement et l’utilisation de l’IA de manière responsable. En effet, avec l’IA générative, nous devons faire preuve d’éthique quant à son usage, de manière à éviter la perpétuation ou l’aggravation des biais existants dans les données ou dans les décisions humaines. Il est crucial de s’assurer que les données générées ne discriminent pas sur la base de caractéristiques comme le sexe, la race, l’âge ou toute autre caractéristique protégée.

Les leviers pour une IA éthique

L’IA est conçue pour répondre aux besoins spécifiques d’un public cible, ce qui soulève des questions sur la manière de garantir le fait qu’elle ne discrimine pas les individus. Or si elle est dite « artificielle », c’est bien l’homme qui est responsable de l’apprentissage de la machine.

La construction d’une IA bénéfique pour la société nécessite donc une vision claire de ce que la machine peut faire de mieux par rapport à l’intelligence humaine. Or les biais cognitifs chez les humains sont inévitables. L’éthique dans l’IA est un défi majeur pour la société, car une IA mal utilisée (deepfake, etc.) a le potentiel de renforcer les inégalités.

Pour garantir une IA éthique, il est essentiel d’intégrer ces considérations dès les premières phases de développement. Cela implique d’évaluer les implications morales, d’identifier les biais potentiels et de réfléchir aux conséquences sociales de son utilisation. Il est également important d’adopter une approche inclusive et diversifiée lors de la constitution des équipes de développement pour minimiser les biais inconscients.

Le groupe de réflexion « France IA » a identifié à ce jour 7 leviers pour garantir une IA éthique et responsable :

  • Transparence : rendre les décisions prises par l’IA compréhensibles et explicables. 
  • Responsabilité : définir les responsabilités des différents acteurs impliqués dans le développement et l’utilisation de l’IA. 
  • Justice : garantir l’équité dans les décisions prises par l’IA, en évitant les discriminations et les biais. 
  • Confidentialité : protéger les données personnelles et respecter la vie privée des utilisateurs. 
  • Sécurité : assurer la fiabilité et la robustesse des systèmes d’IA pour éviter les risques. 
  • Participation : impliquer les parties prenantes dans la conception et l’évaluation des systèmes d’IA. 
  • Éducation : sensibiliser et former les utilisateurs et les développeurs à l’éthique de l’IA. 

L’UNESCO a aussi lancé un programme ambitieux signé par 8 géants de la tech qui s’engagent à bâtir une intelligence artificielle plus éthique (GSMA, INNIT, Lenovo Group, LG AI Research, Mastercard, Microsoft, Salesforce et Telefónica) en appliquant les recommandations de l’UNESCO dans la conception et le déploiement de leurs systèmes d’IA.  

Cette initiative louable montre que le sujet n’est pas ignoré. Toutefois on peut légitimement se demander si le message est bien passé au vu du faible nombre de signataires de la charte (plus particulièrement l’absence des GAFA).

D’autre part, même si on a plutôt observé l’effet contraire, une pause de 6 mois sur les développements en IA Generative avait été demandée à l’initiative d’Elon Musk accompagné d’un panel d’experts IA et de dirigeants d’entreprises. 

Les entreprises ne sont pas les seules à demander des mesures. Des États ou regroupements d’États ont eux aussi mis en place des accords pour réguler l’IA comme en témoignent les accords Bletchley, à l’initiative du Royaume-Uni et signés par des représentants de 28 pays (dont les États-Unis, l’UE et la Chine) en novembre 2023. Deux nouveaux rassemblements sont prévus en Corée du Sud fin 2024 et en France en 2025. 

Comment sensibiliser et acculturer son organisation à l’IA ?

Afin d’assurer une utilisation de l’IA bénéfique pour l’humanité, il est impératif que la société dans son ensemble, et particulièrement les organisations, aborde ces défis de manière proactive. 

Il est essentiel de mettre en place un cadre éthique et transparent afin de guider le développement de l’IA tout en sensibilisant les collaborateurs et les clients pour minimiser les risques. 

 Les organisations doivent donc mettre en place des programmes de formation pour informer et responsabiliser les équipes quant à l’utilisation de l’IA, ainsi que pour définir une culture d’entreprise axée sur l’éthique dans l’IA. Et ceci dans le but de prévenir les risques et instaurer un climat de confiance vis-à-vis des employés et clients quant à la collecte et le traitement de leurs données, qu’elles soient personnelles ou non. 

Concrètement cela passe par la mise en œuvre d’une charte sur l’IA, d’une charte sur les données personnelles lors de l’utilisation d’outils d’IA Générative, de CGU (conditions générales d’utilisation) d’outils d’IA Générative – que ce soit des outils développés en interne par les entreprises, ou l’utilisation d’outils publics accessibles dans le cloud. 

Plus largement, l’IA ouvre des perspectives exceptionnelles pour résoudre des problèmes sociétaux comme le changement climatique, la sécurité alimentaire, la lutte contre les maladies. Mais elle ne peut concrétiser ces promesses humanistes qu’en l’étant elle-même également.

Les auteurs

Zoé Jourdain et Amandine Bourgeois (Managers), Thierry Flores et Siegfried Boniface (Senior Managers), au sein de Magellan Consulting.

 

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire