Systèmes d’infrastructure : le nouveau PDG de Red Hat expose sa stratégie

Selon Matt Hicks, OpenShift doit être vu comme une extension de RHEL à l’échelle du cloud hybride. Son modèle Open source resterait le moyen le plus sûr d’innover, vers l’edge et l’IA, en évitant les risques.

Red Hat, le géant de l’open source connu pour sa distribution Linux RHEL destinée aux entreprises et sa plate-forme d’applications containerisées OpenShift, a procédé à un changement de direction en juillet 2022 en nommant Matt Hicks au poste de PDG. Il occupait auparavant le poste de directeur produits et technologies chez Red Hat. Il succède à Paul Cormier, qui préside à présent le conseil d’administration de l’éditeur.

Dans cet entretien, le nouveau PDG explique qu’il continuera à développer le modèle Open source de Red Hat et exploitera de nouvelles opportunités dans le domaine de l’informatique de proximité (« edge ») avec OpenShift comme plate-forme technologique sous-jacente.

LeMagIT : Maintenant que vous avez pris la tête de Red Hat, pouvez-vous nous en dire plus sur la manière dont vous souhaitez faire évoluer l’entreprise ?

Matt Hicks : Concernant notre stratégie pour les trois à cinq prochaines années, il s’agit d’étendre notre actuelle excellence technique sur site au cloud public et aux cas d’utilisation en edge. Nous abordons ce défi avec la même stratégie d’innovation basée sur l’Open source que par le passé.

Photo de Matt Hicks, PDG de Red Hat
Matt Hicks, PDG de Red Hat

Le point fondamental de notre modèle Open source est que nous souhaitons réellement innover et évoluer sur les épaules de géants, car nous perfectionnons des produits construits par des milliers d’esprits créatifs dans le monde entier. À partir de là, nos clients ont accès au code. Ils peuvent comprendre ce que nous faisons. Ils peuvent voir nos roadmaps. Notre capacité à innover et à créer avec eux est unique. Nous avons un état d’esprit qui nous différencie sur le marché.

Concernant le cloud public, nous parlons plus précisément de cloud hybride ouvert, et ce, depuis un certain temps. Nous pensons que les entreprises attendent la meilleure solution pour exécuter à la fois les applications qu’elles utilisent aujourd’hui et celles qui feront leur différence demain. Grâce à notre modèle Open source, nous voulons donc aider nos clients à être productifs dans le cloud comme sur leurs sites, à utiliser ce que ces environnements offrent de mieux, qu’il s’agisse d’infrastructures locales, régionales, d’hyperscalers ou d’équipements spécialisés.

Nous considérons que le cloud hybride représente une opportunité énorme de plusieurs milliards de dollars, alors que seulement 25 % des applications ont été transférées vers le cloud aujourd’hui.

Concernant l’extension des applications au edge, nous estimons que ce domaine promet des cas d’usage extrêmement intéressants et innovants. Et cela s’accélère avec des technologies comme la 5G, qui rapprochent les applications des utilisateurs, y compris des applications d’intelligence artificielle.

L’utilisation de logiciels pour stimuler la transformation numérique et l’innovation est essentielle, et ce, pour de nombreuses raisons. Il peut s’agir de contrôler les coûts en raison de l’inflation. Il peut s’agir de favoriser l’automatisation à cause d’un resserrement des marchés de l’emploi.

LeMagIT : OpenShift est manifestement une priorité pour Red Hat depuis un certain nombre d’années. Demain, quel sera l’équilibre entre OpenShift et Red Hat Enterprise Linux (RHEL) ?

Matt Hicks : La capacité d’innovation que RHEL fournit sur un seul serveur reste la base sur laquelle nous appuyons nos ventes. Je l’appelle la pierre angulaire entre le développement et le matériel.

Cela dit, si vous regardez les besoins des applications modernes – et je travaille dans ce domaine depuis plus de 20 ans –, ils dépassent à présent, et de loin, les ressources d’un seul ordinateur. Et dans de nombreux cas, ces besoins dépassent de loin les ressources d’une dizaine, d’une centaine ou d’un millier d’ordinateurs. OpenShift, c’est comme passer d’une seule abeille à un essaim d’abeilles. OpenShift apporte toute l’innovation de RHEL en vous permettant d’exploiter des centaines ou des milliers de ces machines comme une seule unité. Cela permet de créer une nouvelle classe d’applications.

Donc, RHEL fait partie intégrante d’OpenShift, mais il ne s’agit plus de vendre un modèle à serveur unique. Il s’agit de vendre un modèle d’informatique distribuée.

Pour moi, c’est passionnant, car j’ai commencé mon chemin dans l’Open source avec Linux, puis avec RHEL lorsque j’étais consultant. Depuis lors, la puissance de RHEL s’est étendue à tous les centres de données et vous aide à mener des innovations incroyables. C’est pourquoi le passage à OpenShift ne modifie pas vraiment la direction de nos investissements, car RHEL offre un excellent modèle pour exploiter plus efficacement tous ces serveurs.

LeMagIT : Pourriez-vous nous parler plus en détail de la roadmap d’OpenShift ? Au fil des années, OpenShift s’est enrichi de nouvelles fonctionnalités, par exemple des services SaaS pour le décisionnel. Devons-nous nous attendre à davantage d’applications SaaS à l’avenir ?

« Nous essaierons de proposer des applicatifs prêts à l’emploi, des services managés, dans plusieurs domaines. »
Matt HicksPDG, Red Hat

Matt Hicks : Pendant des décennies, le modèle prédominant était que les clients exécutent leurs propres logiciels avec notre support. Le cloud public a modifié certaines des attentes à cet égard. Bien qu’il y ait toujours une très grande quantité de logiciels exécutés par les clients sur leurs infrastructures, ils utilisent aussi de plus en plus des services en cloud. Ainsi, nous essaierons de proposer des applicatifs prêts à l’emploi, des services managés, dans plusieurs domaines.

Prenons par exemple les charges de travail basées sur l’IA, principalement le Machine Learning qui nécessite typiquement une accélération à base de GPU. Incorporer ce type d’applications dans le développement traditionnel est un problème pour les entreprises. Avec OpenShift Data Science nous faisons déjà en sorte que vos GPUs Nvidia fonctionnent automatiquement avec votre pile logicielle et même que vos Data scientists travaillent plus facilement avec vos développeurs.

Sur ce principe, vous verrez de plus en plus chez nous ce que nous appelons des modèles d’exploitation. Lorsque nous pensons à OpenShift, ou aux plates-formes en général, nous essayons de nous concentrer sur les types d’applications que les clients utilisent et sur la façon dont nous pouvons aider à faciliter leur déploiement.

Les entreprises de télécommunications, par exemple, gèrent de grands centres de données avec de nombreuses couches intermédiaires, sur lesquelles la pile technologique devient de plus en plus petite. On peut imaginer le cas d’utilisation d’OpenShift sur un poteau téléphonique pour la 5G, voire au plus proche de la station de base qui exécute MicroShift, une version d’OpenShift optimisée pour les appareils de type edge. Les opérateurs ont également des appareils embarqués, qui peuvent être équipés de RHEL, même s’ils exécutent des containers.

La possibilité d’exécuter OpenShift sur du matériel léger est essentielle, car les appareils sur le terrain ne disposent pas de la même puissance ni des mêmes capacités de calcul qu’un centre de données. C’est donc dans ces domaines, associés à des cas d’utilisation spécifiques tels que l’IA ou les applications basées sur les réseaux distribués, que vous verrez beaucoup d’innovations autour d’OpenShift.

LeMagIT : Red Hat a effectué un certain travail de sécurité dans OpenShift pour soutenir les processus DevSecOps. Cependant, il n’y a pas de nomenclature logicielle (SBOM) intégrée à OpenShift. Pourquoi ?

« Nous n’avons pas encore pris de décision définitive sur le format SBOM à prendre en charge ni dit quelle approche nous soutiendrons. »
Matt HicksPDG, Red Hat

Matt Hicks : Nous n’avons pas encore pris de décision définitive sur le format SBOM à prendre en charge ni dit quelle approche nous soutiendrons. Car l’enjeu de Red Hat est que, lorsque nous faisons un pari, nous devons nous y tenir pendant un certain temps. Or, le marché ne commencera à converger vers deux approches que d’ici à un an. Cela dit, l’architecture derrière SBOM est absolument essentielle et nous nous y investissons beaucoup. Mais rien ne presse. Franchement, avant l’incident de SolarWinds, SBOM était un domaine qui était négligé.

Mais il y a un autre risque qui reste négligé, celui d’utiliser un logiciel que vous ne comprenez pas. Or, nous pensons que ce domaine est celui sur lequel Red Hat apporte le plus de valeur.

Nous prenons du code source ouvert, dont vous n’avez peut-être pas l’expertise pour comprendre d’où il vient, et nous ajoutons notre savoir-faire pour que vous sachiez d’où vient ce code. Je dirais que depuis ces vingt dernières années, vous souscrivez à la sécurité dans votre flux de déploiement si vous êtes un client de Red Hat. Y compris lorsque vous combinez des logiciels Red Hat avec d’autres qui ne le sont pas.

Le MagIT : Comment vous comparez-vous à vos concurrents, notamment à VMware et à sa plate-forme applicative Tanzu ?

Matt Hicks : Il s’agit vraiment de choisir la bonne architecture technologique pour tirer le meilleur parti du cloud hybride. Il y a environ un an, la plupart des clients n’étaient attirés que par un seul cloud public et cette tendance était forte aux États-Unis et en Europe, pour diverses raisons.

Je pense que les entreprises ont réalisé que choisir un seul cloud n’était pas pratique pour elles. Elles vont se retrouver dans plusieurs clouds publics, peut-être à la suite d’une acquisition ou de problèmes géopolitiques. Et les environnements sur site, qu’il s’agisse de la technologie mainframe ou autre, ne disparaîtront pas rapidement. Le besoin d’hybride est donc beaucoup plus reconnu aujourd’hui qu’il ne l’était il y a un an ou deux.

Dès lors, la question est de savoir quelle plate-forme technologique les entreprises vont utiliser pour construire et structurer leur empreinte applicative en cloud hybride. VMware a son investissement traditionnel dans la virtualisation et la topologie réseau qui va avec.

« Pour nous, notre cœur est l’innovation dans Linux, ce qui correspond à l’étendre vers les containers. Nous sommes d’autant plus à l’aise avec cela que tous les hyperscalers ont adopté ce modèle. »
Matt HicksPDG, Red Hat

Chez Red Hat, avec IBM, nous avons misé sur les containers. VMware, je pense, a essayé ou a été une sorte d’entrant tardif dans cette technologie, avec Tanzu. Pour nous, notre cœur est l’innovation dans Linux, ce qui correspond à l’étendre vers les containers. Nous sommes d’autant plus à l’aise avec cela que tous les hyperscalers ont adopté ce modèle.

Personnellement, je pense que nous avons une excellente position sur une technologie qui permet aux clients de tirer à la fois le meilleur parti des clouds publics, c’est-à-dire de manière native, et de leurs environnements sur site. Je ne sais pas si la virtualisation aura la même portée et la même flexibilité que les containers pour fonctionner sur la station spatiale internationale, ou pour alimenter les transactions financières de la Deutsche Bank.

VMware, je pense, sera davantage attiré par sa force principale, la virtualisation, mais il reste encore 75 % des charges de travail qui n’ont pas encore été transférées, alors nous verrons comment cela se passe vraiment. Mais je suis assez à l’aise avec le pari des containers et d’OpenShift de notre côté.

LeMagIT : Red Hat a conclu un partenariat stratégique avec Nutanix pour fournir des solutions ouvertes de cloud hybride. Compte tenu de l’incertitude entourant l’acquisition de VMware par Broadcom, constatez-vous un intérêt accru de la part des clients de VMware ?

Matt Hicks : Les acquisitions sont délicates et il est difficile de prédire les conséquences de celle-ci. Ce que je peux dire, c’est que nous avons un partenariat assez étroit avec VMware aujourd’hui, car la virtualisation offre toujours un bon modèle d’exploitation pour les containers. Je m’attends à ce que nous soyons partenaires de VMware dans le cadre de Broadcom.

Si les clients choisissent de rester sur la base de vSphere, nous continuerons à les servir, même si les containers sont leur technologie de demain.

Nous travaillons également en étroite collaboration avec des entreprises comme Nutanix, qui seront en concurrence sur cette couche centrale. En ce qui nous concerne, nous nous situons vraiment au niveau de l’infrastructure, et nous voulons permettre aux clients d’exécuter des applications, qu’elles soient sur Nutanix, vSphere ou Amazon EC2.

Donc, nous ne nous soucions pas trop de savoir où se trouve le substrat. Et je pense que nous avons beaucoup d’options à offrir aux clients, indépendamment de la façon dont le rachat de VMware se terminera ou de la façon dont le paysage change avec d’autres partenaires.

Pour approfondir sur Open Source

Close