IA ouverte & responsable : Meta, IBM et 50 organisations forment l’AI Alliance

Après une forte médiatisation des solutions commerciales d’IA générative et les remous chez OpenAI, IBM, Meta et cinquante autres entreprises, organisations publiques, ONG, instituts de recherche et universités se réunissent pour lancer une communauté internationale, l’AI Alliance.

Ces acteurs publics et privés se rassemblent en faveur du développement d’une « IA ouverte et responsable ». Parmi ceux-là, les pères et mères de Llama 2 (Meta), Stable Diffusion (Stability AI), Bloom (BigScience), StarCoder (ServiceNow et Hugging Face) ou encore Langchain.

Meta, IBM-Red Hat, Oracle, ServiceNow, Cerebras, Intel, AMD, Sony, la Linux Foundation, Stability AI, Hugging Face, LLamaIndex, Fast.ai, mais aussi le CERN, l’Université de Darmouth, l’école Polytechnique Fédéral de Lausanne, l’Université de Tokyo, UC Berkeley ou encore l’Université Cornell font partie des membres fondateurs de cette communauté.

« L’AI Alliance entend favoriser une communauté ouverte et à permettre aux développeurs et aux chercheurs d’accélérer l’innovation responsable dans le domaine de l’IA tout en garantissant la rigueur scientifique, la confiance, la sûreté, la sécurité, la diversité et la compétitivité économique », lit-on dans le communiqué publié hier par IBM et Meta.

« En réunissant des développeurs, des scientifiques, des institutions universitaires, des entreprises et d’autres innovateurs de premier plan, nous mettrons en commun nos ressources et nos connaissances pour répondre aux préoccupations en matière de sécurité, tout en offrant une plateforme de partage et de développement de solutions qui répondent aux besoins des chercheurs, des développeurs et des utilisateurs du monde entier ».

L’AI Alliance, un manifeste pour une collaboration responsable

L’AI Alliance veut s’illustrer dans quatre grands domaines : la conception et le rassemblement d’outils pour une AI responsable à l’échelle, le développement de modèles de fondation ouverts, la création d’un écosystème d’accélérateurs de calcul « diversifiés », ainsi que la formation, l’éducation et le support de projets de recherche exploratoires.

Cette communauté s’organise autour de six objectifs qui représenteront autant de groupes de travail. « L’Alliance mettra également en place un conseil d’administration et un comité de surveillance technique chargés de faire progresser les domaines de projet susmentionnés et d’établir des normes et des lignes directrices générales pour le projet ».

Il y a l’idée de développer, de déployer et de promouvoir un catalogue d’outils servant à assurer l’évaluation, la sûreté, la sécurité et la confiance des modèles de deep learning. Si le manifeste de l’Alliance IA ne le précise pas, il n’y a pas de consensus sur l’évaluation des modèles en matière de performances ou d’éthiques.

Soit, il existe des techniques de parangonnage génériques, mais des acteurs dont Meta, OpenAI ou Google ont développé leurs propres méthodes d’évaluation. En matière d’IA générative, le leaderboard de Hugging Face est devenu le juge de paix.

Concernant l’entraînement de modèle de fondation ouvert, les membres de l’Alliance, dont Meta, Hugging Face et d’autres sont convaincus que l’approche propriétaire n’est pas bénéfique pour le développement de l’IA. Les collections de modèles majoritairement mises en avant par les fournisseurs AWS, Google, Microsoft et Oracle (également membre de l’Alliance IA) sont propriétaires. Les porte-drapeaux de cette approche ne sont autres qu’OpenAI, Anthropic et Cohere, mais les modèles de Google (PalM-2, Bison) et d’AWS (Titan) sont aussi fermés.

Innovation ouverte, pas open source

Pour autant, il faut bien faire la distinction entre modèle d’IA ouvert et open source. De fait, la définition de l’open source écrite par l’Open Source Initiative (OSI) ne limite aucun usage du programme enregistré sous une licence compatible avec les préceptes de l’OSI. Il n’existe pas, selon les critères de l’OSI, d’IA open source responsable. Les membres de l’OSI débattent actuellement de la possibilité d’établir une définition de l’open source spécifique à l’IA qui embrasserait de manière générique l’ensemble de ses domaines et sous-domaines (machine learning, deep learning, computer vision, NLP, NLG, etc.).

En la matière, la position de Meta tient de l’équilibre entre ses ambitions commerciales et les convictions de son équipe de chercheurs Meta AI. Contrairement à ce que laissait entendre la communication de Meta, l’usage de sa collection de modèles Llama 2 est soumise à une licence commerciale modifiée. Cette dernière est malgré tout permissive : elle restreint l’usage gratuit de la collection de modèles à des entreprises disposant de plus de 700 millions d’utilisateurs actifs mensuels (ce qui inclut le Chinois Bytedance, éditeur de TikTok, Microsoft et Google). Meta réclame également aux usagers de se conformer à sa « politique d’utilisation acceptable », qui prohibe le recours aux LLMs dans un cadre militaire, terroriste, criminel, délictuel ainsi que pour toute production de contenus sexuels.

Les membres de l’AI Alliance s’entendent sur cette approche ouverte et responsable. Les outils de développement sont open source, les modèles ouverts.

« L’AI Alliance rassemble des chercheurs, des développeurs et des entreprises pour partager des outils et des connaissances qui peuvent nous aider à progresser, que les modèles soient partagés ouvertement ou non ».
Nick CleggPrésident des affaires internationales, Meta

« Nous pensons qu’il est préférable que l’IA soit développée ouvertement – davantage de personnes peuvent accéder aux avantages, construire des produits innovants et travailler sur la sécurité », avance Nick Clegg, président des affaires internationales chez Meta. « L’AI Alliance rassemble des chercheurs, des développeurs et des entreprises pour partager des outils et des connaissances qui peuvent nous aider à progresser, que les modèles soient partagés ouvertement ou non ».

Microsoft, AWS ou Google ne réfutent pas cette approche : ceux-là mènent ou participent à des projets ouverts qui, chez eux, se matérialisent in fine en des solutions propriétaires et commerciales.

« Si on voit les choses de façon cynique, Meta a manqué l’occasion d’être à l’avant-garde de l’IA », avance Chirag Shah, professeur à l’Université de Washington auprès de SearchEnterpriseAI, une publication sœur du MagIT. « Je ne vois pas quels avantages [Google, Microsoft ou AWS] tireraient de leur adhésion à AI Alliance », ajoute-t-il. « Il s’agit d’un énième organisme, qui est en grande partie dirigé par Meta ».

« Si on voit les choses de façon cynique, Meta a manqué l’occasion d’être à l’avant-garde de l’IA ».
Chirag ShahProfesseur, Université de Washington, Human Centered Design & Engineering

Hardware : la réunion des retardataires

Pour ce qui est du développement d’un « écosystème d’accélérateurs de calcul diversifiés », il s’agit en premier lieu de « stimuler les contributions et l’adoption de logiciels » pour mieux exploiter les puces qui ne seraient pas conçues par Nvidia.

Si les grands laboratoires de recherche testent pratiquement toutes les solutions hardware du marché, fort est de constater que peu d’entre elles bénéficient du niveau du support logiciel dont profitent les produits Nvidia.

Les membres concernés de l’AI Alliance – Intel, AMD, Cerebras, et dans une moindre mesure IBM – font face aux répercussions de la stratégie mise en place par Nvidia entre 2004 et 2005, quand l’équipe dirigeante de l’entreprise a décidé de faire de CUDA – un kit de programmation en C++ pour élargir les traitements possibles avec un GPU – un freeware compatible avec l’ensemble de ses puces et cartes graphiques grand public et professionnels.

CUDA est devenu le socle des frameworks d’IA tels TensorFlow, PyTorch ou scikit-learn qui ont ensuite été plus ou moins bien adaptés aux équipements AMD, Intel, Cerebras ou ARM.

« Nous aurions pu faire de CUDA une fonctionnalité accessible exclusivement aux entreprises. Nous avions l’intuition que cela deviendrait notre plateforme de calcul ».
Ian BuckDirecteur général et vice-président des activités Hyperscale et HPC, Nvidia

« Nous aurions pu faire de CUDA une fonctionnalité accessible exclusivement aux entreprises. Nous avions l’intuition que cela deviendrait notre plateforme de calcul », évoque Ian Buck, directeur général et vice-président des activités Hyperscale et HPC, chez Nvidia, lors d’un entretien avec la presse française en marge du salon re:Invent 2023 d’AWS.

« Nous avons adapté à grands frais cette technologie à notre gamme de GPU Geforce [les cartes graphiques de jeu de Nvidia N.D.L.R]. Le jour du lancement de CUDA, nous avions une base installée d’un million de développeurs, car ils étaient aussi des joueurs. C’est le meilleur investissement que Nvidia a pu faire à cette époque », ajoute-t-il.

Le groupe a continué à offrir des outils gratuits ou open source, son aide technique, humaine et financière aux projets communautaires. En novembre, Nvidia est devenu un partenaire « corporate » du consortium scikit-learn.

Récemment, AMD a acquis deux sociétés (Mipsology et Node.AI) pour tenter de rattraper son retard en la matière. La société propose depuis 2016 un kit de développement compatible avec ses GPU (ROCm) qui ne bénéficie pas du même niveau d’adoption, puisqu’il n’est compatible qu’avec ses cartes professionnelles et reste difficile à maîtriser. Avec OneAPI, Intel fournit des plugins pour les GPU AMD et Nvidia et s'efforce de revenir dans la course.

Ces SDK sont bien moins soutenus par la communauté au sens large : les petits laboratoires de recherche et les individus n’ont pas forcément les moyens de se payer les solutions HPC d’AMD, d’Intel, de Nvidia et de Cerebras.

Éducation et « acculturation »

La contribution, l’adoption et le développement des outils, des modèles et des SDK va de pair avec la montée en compétences des chercheurs, l’éducation des étudiants et l’acculturation du public, selon l’AI Alliance.

Il s’agit de soutenir l’essor des compétences, la recherche exploratoire, rassembler les communautés scientifiques, lancer des projets d’IA « sûres, responsables et bénéfiques », mais aussi « élaborer des contenus et des ressources pédagogiques pour éclairer le public et les décideurs politiques sur les avantages, les risques, les solutions et la réglementation précise de l’IA ».

En clair, l’AI Alliance entend participer aux débats qui forgeront les textes de droit de certaines nations, principalement aux États-Unis. De fait, 36 membres de l’alliance, dont dix universités et instituts, sont étatsuniens. En la matière, l’alliance devrait profiter des travaux émanant de « Partnership on AI », une ONG qui réunit 113 partenaires (67 ONG, 26 universités, 4 médias, 16 entreprises) en provenance de 18 pays. Ici, point de querelles possibles : Intel, Microsoft, Amazon, Google, Adobe, IBM, Apple, Sony ou encore Samsung en font partie.

Huit membres sont présents sur le continent européen (en comptant le Royaume-Uni et la Suisse), aucune entreprise, aucune entité n’est entièrement française. Neuf autres sont présents en Asie-Pacifique. Il est peu probable que l’AI Alliance soit prête avant l’entrée en vigueur de l’AI Act européen, déjà en phase de trilogue.

Pour le reste, l’AI Alliance devra préciser son organisation et ses missions. Actuellement, seul l’Institut Technologique Indien de Bombay a clairement exprimé ses objectifs.

« Nous espérons contribuer à la création et au déploiement de modèles de parole et de langage pour une plus grande diversité de langues, d’accents et de dialectes, tout en étudiant les modèles de fondation pour une meilleure représentation d’informations structurellement riches », affirme Varsha Apte, professeur et directeur du département IT à l’ITT de Bombay.

Pour approfondir sur Intelligence Artificielle et Data Science

Close