olly - stock.adobe.com

GPT-4 : OpenAI ne dévoile plus ses secrets de fabrication

La quatrième version de la suite de modèles de génération de langage d’OpenAI arrive prochainement. Les résultats obtenus par l’entreprise avec GPT-4 tendent à prouver que sa technique d’apprentissage par renforcement supervisée par des experts est la bonne, mais elle n’en dira pas davantage. Les enjeux commerciaux sont trop importants.

OpenAI a dévoilé hier GPT-4, la quatrième itération de son modèle de génération de textes. Celui-ci ne prend plus seulement du texte en entrée, mais également des images. GPT-4 n’est pas stable-diffusion, mais il est tout de même capable de comprendre et d’interpréter des images et de transmettre ses retours par texte.

Habituellement, OpenAI est transparent sur les techniques employées pour mettre au point ses modèles. Ce n’est plus le cas. L’ersatz d’article de recherche publié par l’entreprise indique qu’il s’agit toujours d’un modèle basé sur une architecture transformer capable de prédire le prochain mot dans une phrase. Entraîné sur un supercalculateur de Microsoft (probablement doté des nouvelles instances dopées par les GPU Nvidia), celui-ci a été soumis à une phase d’apprentissage par renforcement, tout comme le modèle sous-jacent de ChatGPT.

Et quelle phase d’apprentissage par renforcement. OpenAI aurait passé six mois sur l’apprentissage par renforcement de GPT-4 afin de le « rendre plus sûr » et plus précis. « D’après nos évaluations internes, GPT-4 est 82 % moins susceptible de répondre aux demandes de contenu non autorisé et 40 % plus susceptible de produire des réponses factuelles que le GPT-3.5 », écrit l’entreprise.

Dans son article de recherche, l’entreprise empile les parangonnages. Ainsi, GPT-4 obtient de meilleures notes que son prédécesseur dans la plupart des simulations d’examen auxquelles il a été soumis.

 GPT-4 serait non seulement plus performant que ses prédécesseurs, mais battrait à plate couture les concurrents, dont Chinchilla et PalM de Google dans des tests linguistiques en anglais.

GPT-4 : une très belle boîte noire

« Nous avons intégré davantage de commentaires humains, notamment ceux soumis par les utilisateurs de ChatGPT, afin d’améliorer le comportement de GPT-4. »
Porte parole d'Open-AI

SearchEnterpriseAI, un site Web appartenant au même groupe média que LeMagIT rapporte les propos de Jake Heller, CEO de CaseText, l’éditeur d’un outil d’assistance aux avocats propulsé par la fameuse IA.

CaseText a pu accéder à GPT-4 pour développer son outil CoCounsel, un outil de recherche et de rédaction de résumés dans les textes de lois et de jurisprudence. « Nous sommes époustouflés », déclare Jake Heller. « Il est évident qu’il [GPT-4] est capable de choses que GPT-3 et 3.5 ne pouvaient pas faire ». Stripe, Duo Lingo, Morgan Stanley et le gouvernement de l’Islande auraient également testé le fameux modèle.

Pourtant, une bonne partie de la base de connaissances de GPT-4 n’évolue pas. L’extraction des données publiques et privées s’arrête au mois de septembre 2021. Qu’est-ce que GPT-3.5 n’avait pas ? La réponse est simple : les données utilisateurs de ChatGPT.

« Nous avons intégré davantage de commentaires humains, notamment ceux soumis par les utilisateurs de ChatGPT, afin d’améliorer le comportement de GPT-4 », assurent les porte-parole d’OpenAI.

Ces retours ont été doublés de l’aide d’une cinquantaine d’experts mandatés à partir du mois d’août 2022 pour mitiger un ensemble de risques émergents de l’exploitation de GPT-3.

« Nous avons également travaillé avec plus de 50 experts pour obtenir un retour d’information précoce dans des domaines tels que la sûreté et la sécurité de l’IA », écrivent les porte-parole d’OpenAI.

En clair, ces experts ont tenté, à l’aide d’attaques par exemple contradictoires, de tromper la vigilance du modèle et de ses filtres.

« Par exemple, nous avons recueilli des données supplémentaires pour améliorer la capacité de GPT-4 à refuser des demandes sur la façon de synthétiser des produits chimiques dangereux », illustre OpenAI. Sans filtre, GPT-4 serait donc capable de proposer des recettes pour concevoir des drogues synthétiques ou fabriquer des mélanges explosifs. Les chercheurs ont tenté d’inhiber toutes les sorties qui pourraient mener à la classification de son modèle comme une technologie à double usage (civil ou militaire).

Un système de récompense a été introduit pour que le réseau de neurones refuse de répondre aux questions sur les sujets les plus sensibles. Dans un même temps, les demandes injustement considérées comme sensibles sont désormais plus souvent acceptées.

« Nous avons également travaillé avec plus de 50 experts pour obtenir un retour d’information précoce dans des domaines tels que la sûreté et la sécurité de l’IA. »
Porte parole d'OpenAI

Les chercheurs d’OpenAI admettent, en revanche, que l’utilisation de GPT-4 n’est toujours pas sans risques.

« Le réglage fin peut modifier le comportement du modèle, mais les capacités fondamentales d’un modèle préentraîné, telles que la capacité à générer du contenu préjudiciable, demeurent latentes », signalent-ils.

« Au fur et à mesure que les capacités et les risques qui y sont associés augmentent, il deviendra essentiel d’atteindre des degrés de fiabilité extrêmement élevés ».

OpenAI entend se protéger en renforçant par ailleurs ses conditions d’utilisation. Pour autant, les usages aux frontières du légal se multiplient. Par exemple, un usager s’est essayé à une intégration de ChatGPT dans l’ERP SAP S4/HANA afin d’effectuer des suivis de prise de commandes. Une démonstration qui ne prend pas en compte les implications du RPGD, selon l’intéressé. « Non seulement j’essaie de vous montrer des façons non conventionnelles d’utiliser ChatGPT, mais je pourrais aussi accidentellement susciter quelques froncements de sourcils concernant les politiques RPGD. C’est comme essayer de faire du monocycle tout en jonglant avec des torches enflammées – c’est risqué, mais tellement excitant ! », note-t-il.

IA générative : la guerre commerciale fait désormais rage

Il y a là une grande volonté de transparence de la part d’OpenAI. Pourtant, l’entreprise reste volontairement vague sur un ensemble d’aspects.

« Le réglage fin peut modifier le comportement du modèle, mais les capacités fondamentales d’un modèle préentraîné, telles que la capacité à générer du contenu préjudiciable, demeurent latentes. »
Porte parole d'OpenAI

« Compte tenu à la fois du paysage concurrentiel et des implications en matière de sécurité des modèles à grande échelle tels que GPT-4, le présent rapport ne contient pas d’autres détails sur l’architecture (y compris la taille du modèle), le matériel, le calcul d’entraînement, la construction de l’ensemble de données, la méthode d’entraînement ou d’autres éléments similaires », lit-on dans l’article de recherche.

Le même jour que l’annonce de GPT-4, Google a dévoilé qu’il donnerait accès à l’API de la suite de mégamodèles PaLM (jusqu’à 540 milliards de paramètres) dans sa plateforme Vertex AI. À partir de ce même modèle, un service appelé Generative AI Builder doit permettre aux développeurs de concevoir des applications comme « des agents conversationnels, des moteurs de recherche personnalisés ou encore des assistants de toute sorte ». L’accès à d’autres modèles de fondation depuis ces outils suivra, depuis MakerSuite.

Un modèle NLG est également le moteur d’une fonctionnalité infusée dans la suite Workspace, disponible au cours de ce mois de mars. Depuis Gmail et Google Docs, un assistant permet d’écrire du texte, pour l’instant en anglais, sur le sujet du choix de l’usager en quelques secondes.

En résumé, Google Cloud propose là un ensemble de solutions concurrentes à celles disponibles depuis Azure OpenAI.

OpenAI joue lui aussi sur l’effet d’annonce. La capacité de GPT-4 à interpréter le contenu d’images a été développée avec son partenaire Be My Eyes. Il s’agit de convertir les images en vecteurs interprétables par le modèle d’OpenAI. Pour l’instant, le procédé ne fait pas partie de la phase de lancement de GPT-4, car le temps de réponse demeure trop long.

Quant aux chercheurs d’OpenAI, ils estiment que les capacités du modèle pourraient accentuer la compétition internationale dans le domaine de l’IA. « L’impact de GPT-4 est susceptible de se matérialiser par une augmentation de la demande pour les produits concurrents dans d’autres pays », écrivent-ils. « Notre analyse a permis d’identifier une longue liste de facteurs structurels susceptibles de jouer un rôle d’accélérateur : les politiques gouvernementales en matière d’innovation, les alliances informelles entre États, le transfert tacite de connaissances entre scientifiques et les accords formels existants en matière de contrôle des exportations », listent-ils.

OpenAI a ouvert sa liste d’attente pour accéder à GPT-4 par API. Le modèle propulse d’ores et déjà certaines instances de ChatGPT Plus, la version payante de l’application.

Pour approfondir sur Intelligence Artificielle et Data Science

Close