
Avec le Z17, IBM colle l’IA aux transactions bancaires
Le dernier-né des mainframes va intégrer des accélérateurs qui permettront d’analyser des opérations en temps réel, sans nécessiter de déport vers un calculateur Nvidia. De plus, nombre d’outils précédemment en cloud sont désormais intégrés, pour plus de sécurité.
40 ans ! Quarante années durant lesquelles des « experts » autoproclamés nous ont annoncé la fin du mainframe. Certes, le nombre de constructeurs a été ramené à la portion congrue, mais le principal – IBM – est toujours là et poursuit ses développements. L’entreprise d’Armonk a présenté à la presse son dernier-né, le z17, dont la disponibilité commerciale est annoncée pour le 18 juin prochain.
Catherine Chauvois, directrice de la plateforme, indique que 70% des transactions mondiales (banque & assurance) sont réalisées par des mainframes, lesquels ne compteraient que pour 8% des dépenses IT. Elle précise également que huit banques sur dix dans le monde utilisent ces infrastructures en ajoutant avec malice que le nombre est un peu plus élevé en France. Enfin, les ventes de mainframes, comptabilisées en capacités d’exécution de transactions par seconde, auraient triplé en dix ans.
Qui plus est, deux facteurs peuvent contribuer à un regain d’intérêt pour ces solutions Mainframe. Le premier est d’ordre financier. En effet, les entreprises commencent à regarder avec acuité les coûts liés au cloud et s’aperçoivent que la situation n’est pas, ou plus, celle qu’elles attendaient.
Le second est un enjeu géopolitique. Compte tenu des incertitudes actuelles, ces mêmes grandes entreprises pourraient être tentées de reprendre la maîtrise de leurs données.
« Le mouvement que nous observons dans les entreprises est de pouvoir aligner la promesse de faire évoluer le business dans ce contexte géopolitique tendu, avec une potentielle récession. Dans ces conditions, les sociétés veulent se donner la possibilité de faire machine arrière afin de gagner en flexibilité. Et pour toutes ces raisons, nous assistons à un mouvement important de rapatriement des traitements », détaille Guillaume Wazner, leader technique de la plateforme zStack.
« La difficulté à suivre les régulations, que ce soit en intelligence artificielle, sur la protection des données et la privacy, est une autre raison », poursuit-il.
450 milliards d’opérations d’inférence chaque jour
Le mainframe z17 est piloté par le dernier processeur IBM Telum II (en photo en haut de cet article). Embarquant désormais un accélérateur d’IA et une mémoire cache augmentée de 40%, cette puce est capable d’exécuter 450 milliards d’opérations d’inférence par jour sur des transactions critiques, avec un temps de réponse de moins de 1ms. Le modèle précédent en calculait 300 milliards par jour. IBM indique que cette nouvelle machine est l’aboutissement de cinq années de R&D et a fait l’objet de 300 dépôts de demandes de brevets.
À l’automne prochain, les capacités en IA seront encore renforcées par l’adjonction de l’accélérateur Spyre sur une carte PCIe. IBM précise que cet accélérateur d’inférence est spécialement conçu pour apporter des capacités d’IA génératives au mainframe, dont l’exécution d’assistants, en exploitant les données d’entreprise contenues dans le système. L’accélérateur Spyre serait aussi puissant qu’un GPU de Nvidia, mais consommerait quatre fois moins d’énergie.
« Cela permettra d’exécuter de nombreux modèles dédiés aux cas d’usage médicaux, à la fraude, aux risques climatiques, au design ou encore à la production de contenu », détaille Mme Chauvois. « La détection de fraudes est un sujet regardé d’extrêmement près par les établissements bancaires », poursuit-elle.
« Notre enjeu est d’amener l’IA au plus proche de la donnée et de la transaction critique qui est exécutée sur le mainframe », ajoute M.Wazner. « Pour effectuer une analyse de fraude, nous avons besoin du temps réel parce que la transaction de paiement est excessivement rapide à exécuter et nos clients ne peuvent se permettre d’attendre qu’elle soit exécutée sur d’autres serveurs pourvus d’une IA. »
Une autre différence face à la génération précédente réside dans la capacité à intégrer jusqu’à huit accélérateurs d’inférence par processeur (avec un maximum de 208 processeurs par machine) contre 1 pour 1 auparavant.
Outre le gain de performance, IBM affirme avoir réduit la consommation électrique de la machine de 15% par rapport à la génération précédente.
Cloud hybride et pression du régulateur
Initialement, IBM proposait d’exécuter ses solutions de développement pour mainframes directement sur ses machines Z. Mais cette stratégie a été arrêtée après le rachat de RedHat. Désormais, ces environnements sont accessibles dans n’importe quel cloud public pour peu qu’ils exécutent des machines virtuelles sous RedHat OpenShift. Ces VM sont d’ailleurs directement capables d’exécuter des applications développées pour le mainframe.
Le constructeur revendique une approche pragmatique. Madame Chauvois prend l’exemple de la compagnie aérienne Delta Airlines qui a estimé que la gestion de l’accès Wifi dans les avions n’était pas critique et a donc décidé qu’il était plus économique de déporter cette fonctionnalité vers le cloud plutôt que l’exécuter depuis ses mainframes.
« Lorsqu’il s’agit de traitements qui ne nécessitent pas une ultra-sécurisation ou des temps de latence ultras faibles, il est intéressant de les déporter vers le cloud. Cependant, nous avons également des clients qui avaient initialement déporté des traitements vers le cloud et qui choisissent à présent de les faire revenir dans le mainframe », explique Mme Chauvois.
« La raison est que nos clients éprouvent de plus en plus de difficultés à mettre sous contrôle leur conformité. Ils sont sous la pression du régulateur qui donne des recommandations, revient vérifier leur implémentation », pointe Mme Chauvois. Elle en profite pour détailler une nouvelle caractéristique originale. IBM a renforcé son outil zCSC (Z Compliance Security Center), qui automatise les rapports remis au DSI, afin qu’il montre quels écarts il peut exister par rapport aux protocoles de réglementation comme NIS2 ou DORA.
« Cela permet d’avoir des points de contrôle avec des référentiels spécifiques, en changeant si nécessaire les standards de la réglementation du pays et en personnalisant les points de confrontations », précise-t-elle.
Les sujets de la sécurité et de la résilience de l’IT ont été numéro 1 chez les clients d’IBM en 2024. « Les banques nous ont demandé des comptes concernant notre capacité à répondre à une corruption de données sur le mainframe. Précisément sur la base de données DB2. Or, si nous étions bien équipés pour faire repartir l’activité à partir de copies, nous n’étions pas aussi performants en termes de détection et d’alertes » contextualise-t-elle.
Pour répondre à cette demande, le z17 intègre un nouvel outil baptisé Z OS Stress Detection. Il utilise l’IA pour voir comment le système se comporte au quotidien et alerte les clients en cas de comportements erratiques sur le système, d’un changement de fichier de configuration, ou d’une élévation de droits dans la base qui semble étrange.
Une autre préoccupation croissante est la crainte que les données soient dérobées et stockées en attendant que des ordinateurs quantiques soient en mesure de les déchiffrer. Pour répondre à cette menace, IBM a intégré depuis le Z16 des technologies dites Quantum Safe, en particulier une carte Crypto Express 8S. Un autre axe de recherche est la Fully Homomorphic Encryption, c’est-à-dire la capacité à chiffrer une donnée durant son traitement. Ceci n’est pas encore implémenté totalement. Toutefois, le Z17 propose déjà un chiffrement très proche du processeur, précisément au niveau du cache L2.
Le Cobol ne meurt jamais
Plusieurs clients migreraient certains applicatifs fonctionnant sous x86 en Cobol. « Nous avons des clients qui recrutent des dizaines de cobolistes, que ce soit en France ou alentour », indique Mme Chauvois. « Nos clients ont adopté des méthodes de développement modernes autour du Cobol, même si cela ne change pas le langage. Il est désormais possible de gérer du Cobol avec du Git, du VS Code, ou de l’IDZ, l’IDE Mainframe développé par IBM. »
L’IA est également utilisée dans les solutions pour aider les développeurs Cobol dans leurs applications. IBM vient d’annoncer un outil baptisé Watson X Code Assistant for Z qui permet de faire de la cartographie applicative du patrimoine Cobol via une IA générative. L’outil sert à refactoriser un code monolithe et à analyser ses dépendances, afin de créer des logiques métier et des modules applicatifs beaucoup plus facilement maintenables. L’outil permet aussi de transformer un code Cobol en Java, ou vers un autre langage.
Précisons que cet outil fonctionne directement sur le mainframe. Auparavant, des fonctions similaires d’analyse du code n’étaient disponibles que depuis le cloud d’IBM, ce qui rebutait un nombre important de clients.
D’aucuns pensent qu’il devient de plus en plus difficile de dénicher des compétences en Cobol. Guillaume Wazner tord le cou à cette idée. « Nos clients en France ne se plaignent pas de la compétence Cobol. En revanche, ils éprouvent des difficultés à trouver les bons ingénieurs systèmes pour l’administration du mainframe, d’où la Z-Académie mise en place. Mais également les outils d’IA à base d’agents conversationnels qui aident à appréhender l’environnement opérationnel Mainframe ».
Un programme de formation a également été monté avec pôle emploi et Landquest pour la reconversion de personnes autour de l’administration des mainframes. Il s’agit d’une formation en entreprise qui existe depuis trois ans et qui a permis de retrouver des compétences là où il y avait urgence.