Rawpixel - Fotolia

IA : IBM, Facebook et AWS exhortent les développeurs à « combattre les biais algorithmiques »

L'Intelligence Artificielle progresse tous les jours. Mais avec sa montée en puissance apparaissent aussi des travers. Les développeurs doivent se méfier des données que leurs algorithmes ingèrent et diversifier leurs équipes, préviennent plusieurs experts.

La qualité des outils d'intelligence artificielle dépend des données dont ils se nourrissent, ce qui peut donner lieu à des biais - sous une forme ou sous une autre.

L'avènement de systèmes à base d'IA, qui imitent la pensée et le comportement humains, a amené plusieurs observateurs à remettre en question l'utilisation éthique de la technologie, car certaines des premières applications montraient des signes de préjugés concernant le sexe, le statut social et l’appartenance ethnique.

Conséquence, « les développeurs doivent se méfier des biais de l'intelligence artificielle dans les systèmes qu'ils construisent », a récemment avertit un groupe d'experts lors d'un événement organisé par IBM.

« Ils doivent être attentifs à l'inévitable biais qui est presque certain d'apparaître dans la masse actuelle d'applications qui utilisent l’AI », a déclaré Francesca Rossi, chercheuse en éthique de l'IA au Thomas J. Watson Research Center d'IBM dans l'État de New York.

Actuellement, les chercheurs d'IBM travaillent sur des outils qui visent à aider les développeurs à détecter ce type de biais avant le déploiement des applications. Parce que « l'IA peut reproduire ou améliorer nos propres préjugé », fait-t-elle remarquer.

Il y a beaucoup de fois où nous voyons des résultats indésirables, mais c'est souvent le résultat d'une ingénierie bâclée
Alex Smola, AWS

IBM n’est pas le seul à se pencher sur la question. « Nous consacrons des ressources à cette question ; nous y travaillons aussi actuellement », confirme Yuri Smirnoff, expert en intelligence artificielle chez Facebook. Yuri Smirnoff explique par exemple que Facebook utilise ses jeux de données pour tenter d'éliminer les préjugés.

Même son de cloche chez AWS. « Des modèles statistiques mal conçus peuvent introduire un biais », avertit Alex Smola, directeur du Machine Learning et de l'apprentissage profond (Deep Learning) chez le leader du Cloud. « Il y a beaucoup de fois où nous voyons des résultats indésirables, mais c'est souvent le résultat d'une ingénierie bâclée », constate-t-il. Il n’est donc pas besoin, d’après lui, de sortir l’arme lourde de la législation ou de la pression sociale pour les régler.

Pour autant, « le problème est bien réel », renchérit Francesca Rossi. Et nombreux sont ceux qui considèrent que la composition des équipes qui construisent ces systèmes fait partie intégrante du problème.

« C'est l'une des principales raisons pour lesquelles la diversité est devenue un sujet centrale dans ce domaine », observe Sam Charrington, fondateur et analyste chez CloudPulse Strategies.

« Il est de plus en plus reconnu que, lorsque les algorithmes de Machine Learning sont formés sur des données biaisées, ils reproduisent ces biais », déplore-t-il. « Parmi les exemples célèbres de biais algorithmique, mentionnons les modèles de langage naturel qui identifient la "femme au foyer" comme étant la profession probable des femmes, et les modèles cognitifs qui étiquettent les Noirs comme des gorilles ».

Il est de plus en plus reconnu que, lorsque les algorithmes de Machine Learning sont formés sur des données biaisées, ils reproduisent ces biais
Sam Charrington, CloudPulse Strategies.

L'idée est qu'avec une plus grande diversité dans les équipes qui créent les modèles, il y aurait une plus grande sensibilité à ces questions, et les biais seront moins susceptibles de se produire, milite-t-il.

« La diversité engendre des façons de penser différentes, une éthique différente et des mentalités différentes. Ce qui crée des systèmes d'IA différents, plus diversifiés et moins biaisés. Il en résultera des modèles de données plus représentatifs, des problèmes divers et différents que sauront résoudre les solutions d'IA, et des cas d'utilisation différents qui alimenteront ces systèmes », ajoute Kathleen Walch, cofondatrice et analyste principale chez Cognilytica, un cabinet d'analystes spécialiste du sujet.

En fait, la diversité des équipes dédiée à l'IA et aux sciences de la donnée est importante « pour exactement les mêmes raisons que dans la société en général », résume Sam Charrington. « Elle offre une perspective plus large. Les groupes diversifiés sont souvent plus intelligents, plus créatifs et plus performants ».

Certains développeurs reconnaissent que la diversité est importante pour s'assurer que les intelligences artificielles qu'ils créent reflètent bien les idéaux de la société. D'autres considèrent que la capacité (ou non) d'utiliser une IA peut provoquer la prochaine fracture numérique. Pour ces « pessimistes », la diversité est aussi un moyen d'éviter cette fracture.

« Le besoin de diversité va maintenant presque de soi », constate Erin McKean, développeur chez IBM. La question des biais est en tout cas bel et bien sur la table. Elle dépasse aujourd’hui le cercle de la réflexion philosophique pour s’inviter dans celui des mathématiques appliquées.

Pour approfondir sur Outils décisionnels et analytiques

Close