Rokas - stock.adobe.com

OpenAI lance son ChatGPT dédié aux entreprises

OpenAI a annoncé hier ChatGPT Enterprise, une déclinaison plus sécurisée et plus performante de son application propulsée par GPT-4. Encore faut-il que les entreprises adhèrent à l’offre du poulain de Microsoft.

OpenAI l’avait annoncé de longue date. Une édition entreprise de ChatGPT devait voir le jour. ChatGPT Plus était une étape.

Avec ChatGPT Enterprise, OpenAI entend sécuriser l’accès de son modèle d’IA générative le plus capacitaire.

Pour rassurer les entreprises qui souhaiteraient exploiter l’agent conversationnel, l’éditeur affirme avoir obtenu une certification SOC 2 type 1 et informe qu’il obtiendra prochainement le certificat de type 2. Il attend les résultats de son audition. OpenAI précise qu’il chiffre les données au repos à l’aide d’un algorithme de type AES 256 bits. Les canaux utilisés pour faire transiter les données sont eux-mêmes protégés à l’aide du protocole TLS 1.2.

Une offre supposément sécurisée et conforme aux lois européennes

Surtout, OpenAI s’engage « noir sur blanc » à ne pas utiliser les données des clients qui déploieraient ChatGPT Enterprise pour entraîner ses modèles. Il ajoute qu’il peut signer des addendums au traitement de données (DPA) pour respecter le RGPD « et d’autres lois protégeant la confidentialité des données ». Pour la mise en conformité avec les lois américaines de type HIPAA, l’éditeur assure qu’il prépare à la demande des « Business Associate Agreements ».

Les entreprises peuvent aussi contrôler la durée de conservation de leurs données. Toutefois, les données sont effacées dans un délai de 30 jours.

Bien entendu, OpenAI doit se plier aux réglementations existantes, dont les lois extraterritoriales américaines. « Les employés autorisés d’OpenAI n’accéderont à vos données que pour résoudre des incidents, récupérer des conversations des utilisateurs finaux avec votre permission explicite, ou lorsque cela est requis par les lois en vigueur », précise la FAQ de l’éditeur.

Pour répondre aux besoins de contrôle et de sécurité, OpenAI entend offrir une console administrateur « dédiée », une compatibilité avec les outils SSO du marché prenant en charge le protocole SAML, une vérification du domaine, ainsi qu’un tableau de bord pour analyser les usages des employés.

Concernant la propriété des contenus en entrée et en sortie du modèle, OpenAI en assure « les pleins droits » aux utilisateurs « dans la mesure où la loi le permet ». L’éditeur ne possède lui-même que les droits sur les données propriétaires utilisées lors de l’entraînement et pour exécuter le service.

Le ChatGPT consacré aux entreprises est motorisé par le grand modèle de langage (LLM) GPT-4. Dans ce contexte, OpenAI met à disposition sa version la plus capacitaire. Le modèle en question bénéficie d’une fenêtre de contexte de 32 000 tokens, afin d’ingérer quatre fois plus de données en entrée que la variante de base de GPT-4. Des templates de chat peuvent être partagés dans le but d’aligner l’expérience utilisateur dans l’entreprise.

Qui plus est, les employés des groupes qui adopteront ChatGPT Enterprise auront accès à une fonctionnalité d’analytique avancée. Pour l’occasion, OpenAI renomme son module Code Interpreter qui permet d’exécuter du code Python « dans un environnement sandbox protégé par un pare-feu et associé à des espaces de stockage éphémères ». Ceux-là s’arrêtent à la fin d’une conversation.

Cet outil doit permettre de résoudre des problèmes mathématiques, de réaliser des analyses et des visualisations de données ou encore convertir des fichiers dans différents formats.

Aussi, OpenAI ne limite pas l’accès à son modèle comme il peut le faire avec sa première offre payante et ne bride pas la bande passante. Résultat, les réponses du modèle seraient deux fois plus rapides dans certains cas.

De même, OpenAI propose des crédits « gratuits » pour appeler ses OpenAI dans le cadre de déploiement de solutions personnalisées qui embarquent ChatGPT. Toutefois, le spécialiste du deep learning ne précise pas le nombre de crédits accordés aux abonnés de l’offre Enterprise (dont le tarif n’est d’ailleurs pas public).

OpenAI prépare des déclinaisons de ChatGPT

La semaine dernière, l’éditeur a révisé son service consacré au « fine tuning » de ses modèles GPT-3.5 sur des données privées. ChatGPT Enterprise inclut ces capacités.

Précisons qu’il s’agit là d’un type particulier de fine-tuning, à savoir le « supervised fine-tuning ». Dans le cadre de l’entraînement de LLM, cette technique consiste à utiliser des paires de questions-réponses pour affiner les sorties du modèle. Elle est davantage utilisée pour obliger le modèle à répondre d’une certaine manière ou à structurer ces résultats. C’est une technique largement utilisée pour réduire la taille des messages. Elle ne remplace pas le recours à la technique Retrieval Augmented Generation, qui consiste à connecter le LLM à une base de données vectorielle qui représente une base de connaissances. « Le réglage fin peut être utilisé pour créer un modèle focalisé [sur une tâche] et présentant des comportements spécifiques, bien ancrés dans un environnement. Les stratégies de récupération peuvent être utilisées pour mettre de nouvelles informations à la disposition d’un modèle, en lui fournissant un contexte pertinent avant de générer sa réponse », précise la documentation de l’éditeur.

Il est important de noter qu’OpenAI vérifie les données en entrée afin de constater si oui ou non, elles respectent les « normes de sécurité » de l’éditeur. En outre, le modèle en résultant et son point de terminaison sont hébergés sur Azure par l’éditeur.

Plus tard, l’éditeur soutenu par Microsoft entend améliorer les connaissances de ChatGPT en « sécurisant » la connexion de l’agent conversationnel avec les applications en place dans les entreprises.

OpenAI prévoit par ailleurs de fournir davantage d’outils d’analytique avancée et de recherche sémantique. Puis, il verticalisera son offre en proposant des solutions consacrées à des « rôles spécifiques », dont les data analysts, les responsables du support client ou encore les spécialistes du marketing.

L’éditeur assure qu’il partagera plus en détail sa feuille de route avec ses clients, mais il mentionne déjà ChatGPT Business, pour des entreprises de plus petites tailles.

IA générative : la « magie » s’estompe

Les premiers clients de cette offre entreprise sont principalement américains. L’on retrouve dans la liste diffusée par OpenAI des acteurs spécialistes de l’automatisation comme Canva, Zapier, Asana, Square et Shopify. L’on compte également Pwc et l’éditeur des célèbres jeux vidéo League of Legends et Valorant. 

« Depuis le lancement de ChatGPT, il y a neuf mois, nous avons vu des équipes l’adopter dans 80 % des entreprises du Fortune 500 », écrivent les porte-parole d’OpenAI. Et de préciser que cette statistique a été obtenue en comptant les emails professionnels utilisés pour créer un compte sur l’application. En clair, rien ne dit que les entreprises listées aient validé l’usage de ChatGPT en interne.

Même si la plupart des entreprises semblent partager en partie l’enthousiasme de ces acteurs, d’autres sont beaucoup plus sceptiques, comme le révèle une étude menée par Opinionway pour Ekimetrics publiée en juin dernier. Seuls 15 % des 314 dirigeants français interrogés estiment que leur entreprise de plus de 250 salariés adoptera l’IA générative. Les plus réfractaires signalent des difficultés à comprendre le fonctionnement de la technologie, le manque de garantie sur la protection des données et l’incapacité à entrevoir un retour sur investissement. Même les dirigeants convaincus par l’IA dénotent une inadéquation de la technologie avec leurs enjeux, le manque de compétence interne et l’absence d’un consensus au sein du COMEX quant à son usage.

La complexité de la gestion de données est un sujet qui revient régulièrement dans les études menées par IDC, qui prévient que la manipulation des données non structurées nécessaires à l’entraînement des modèles d’IA générative demeure le parent pauvre au sein des organisations.

Enfin, les entreprises ne sont pas particulièrement désireuses d’exposer des informations critiques à un tiers, d’où la décision prise par certaines d’entre elles de tester l’IA générative localement.

Pour Chris Howard, responsable de recherche chez Gartner, les entreprises commencent à comprendre les « mécaniques de l’IA générative », ce qui écarte l’effet « magique » que le public a d’abord perçu. « Tout d’un coup, je me retrouve à parler de technologies comme les bases de données orientées graphes ou les SGBD Vectoriels, ce qui semble être, en essence, les “tripes” de l’IA générative », illustre-t-il dans une vidéo publiée sur YouTube.

Enfin, l’analyste considère que le doute qui s’immisce dans la tête des dirigeants est normal. Il s’agit pour lui d’une phase naturelle des multiples Hype Cycle qui se croisent en ce moment. C’est un processus nécessaire pour définir si oui ou non une technologie en vaut la peine, puis la faire évoluer dans la bonne direction.

Pour approfondir sur Intelligence Artificielle et Data Science

Close