Warakorn - Fotolia

La supervision de l’expérience utilisateur prend un nouveau départ

Les administrateurs ne manquent pas de choix en matière d’outils de supervision des performances des applications et de l’infrastructure. L’analytique et l’intelligence artificielle les simplifient considérablement.

Les outils de supervision traditionnels – et ceux qui les utilisent – peinent à suivre alors que se multiplient terminaux et applications générant toujours plus de données, dans l’environnement de travail.

Il est plus difficile d’identifier les causes des problèmes de performances des applications et de l’infrastructure et d’y répondre rapidement. Pour relever ce défi, de nouveaux outils de supervision de l’expérience de l’utilisateur final font appel à l’intelligence artificielle, au machine learning, et encore à l’analytique Big Data. Pour Jarian Gibson, consultant indépendant spécialisé dans l’informatique de l’utilisateur final (End-User Computing, EUC), on parle beaucoup de ces outils, et il y a une bonne raison à cela : « c’est la voie à suivre ».

Trois défis de la supervision de l’expérience utilisateur

Les outils de supervision des performances applications et de l’infrastructure recherchent généralement des écarts par rapport à un comportement normal, comme des pics de consommation de ressources processeur ou de bande passante. Ils alertent alors les administrateurs, et certains produits essaient même d’identifier la cause de l’incident.

Cette approche fonctionne bien à un certain niveau. Mais l’arrivée de la mobilité et de nouveaux moyens de fournir les applications aux utilisateurs ont fait la démonstration de certaines limites. En tout premier lieu, cette approche est avant tout réactive : lorsque le système de supervision détecte un problème, ce dernier est déjà là, susceptible d’affecter la productivité de l’utilisateur. Pour Gibson, c’est bien simple : « nous ne versons pas assez dans le proactif ».

En outre, il est difficile d’identifier précisément la cause des problèmes. Lorsque les utilisateurs ne travaillaient qu’à partir de postes physiques, avec uniquement des applications connues et approuvées par la DSI, et via le même réseau d’entreprise, le nombre de causes possibles restait relativement limité. Et cela commençait par l’infrastructure réseau, le système d’exploitation du poste de travail, ses composants matériels, et les applications elles-mêmes.

Mais aujourd’hui, un consommateur possède en moyenne plus de trois appareils connectés, selon un sondage du GlobalWebIndex de 2016. Et beaucoup utilisent ces appareils au travail, en plus de ceux fournis par l’entreprise. Ce qui ne manque pas de constituer un joyeux mélange de postes physiques, virtuels et de terminaux mobiles, pour accéder à des applications de natures tout aussi variées. Et ces appareils peuvent se connecter via tout un éventail de réseau privés, publics, sécurisés, ou non. Le moindre incident avec l’un de ces éléments peut être à l’origine d’un problème. Les facteurs à prendre en compte sont dès lors si nombreux qu’il faut d’importants efforts pour faire le tri entre eux.

Pour Patrick McGraw, ingénieur d’infrastructure virtualisée de l’université de l’ouest de la Caroline à Cullowhee, la situation n’a rien de trivial : « essayer d’analyser tout cela et de le digérer pour en ressortir quelque chose d’exploitable et de pertinent est le plus difficile ».

Et puis les « problèmes » peuvent ne pas en être… Les seuils qui déclenchent des alertes ne sont pas forcément alignés sur ce qui est perceptible par l’utilisateur. Les performances d’un réseau peuvent chuter brutalement, mais si l’utilisateur ne travaille pas sur une application fortement dépendante de la bande passante, et qu’il ne relève pas de latence, ce n’est pas forcément une chose sur laquelle les administrateurs ont besoin de se pencher. Et l’inverse est aussi vrai : des utilisateurs peuvent percevoir des problèmes invisibles du point de vue de l’IT. McGraw souligne d’ailleurs que les administrateurs ne savent pas forcément de quelles données ils ont besoin pour assurer une expérience utilisateur positive.

L’analytique en renfort

Deux éditeurs majeurs de plateformes d’EUC, Citrix et VMware, ont lancé cette année de nouvelles offres analytiques centrées sur l’expérience utilisateur, marchant dans les pas de plusieurs éditeurs tiers.

Le service Citrix Analytics Service supervise le comportement des utilisateurs, des terminaux, des applications, et des données sur les produits EUC de l’éditeur, dont XenApp, XenDesktop, XenMobile et ShareFile. Il utilise alors des algorithmes d’apprentissage automatique pour analyser ce comportement et détecter d’éventuelles menaces, qu’il s’agisse d’attaquants ou de collaborateurs négligents. Le service peut aussi répondre automatiquement à ces menaces en bloquant temporairement des applications peu sûres ou en restreignant l’accès aux ressources de l’entreprise.

Le service Citrix Analytics s’appuie massivement sur des données contextuelles, comme les appareils utilisés par les collaborateurs, et l’endroit d’où ils ont ouvert leur session. Il est difficile de traiter cette information manuellement, estime Gibson, pour qui le machine learning constitue dès lors une aide précieuse.

L’offre de VMware, Workspace One Intelligence, se concentre plus sur l’automatisation de la réponse aux menaces et aux problèmes d’expérience utilisateur sur les postes physiques, virtuels, les terminaux mobiles, et les applications. Le service de supervision des utilisateurs finaux s’appuie sur la technologie d’Apteligent, un éditeur racheté par VMware en mai. Ainsi, Workspace One Intelligence peut automatiquement identifier un problème d’expérience utilisateur causé par un bug, alerter les développeurs, et relancer la version antérieure de l’application concernée.

L’université de l’ouest de la Caroline utilise les outils de VMware, avec notamment vRealize Operations for Horizon pour superviser ses postes virtuels. McGraw juge le produit pertinent, mais complexe et difficile à personnaliser. Workspace One Intelligence l’intéresse parce qu’il se concentre sur l’utilisateur finale et que ses capacités analytiques pourraient aider l’université à obtenir de meilleures informations sur les centaines d’applications qu’elle gère.

D’autres entreprises ont apporté l’analytique à la supervision de l’utilisateur final, dont ControlUp et UberAgent. Le premier collecte et analyse des données sur l’ensemble de sa base installée et utiliser ces informations pour alerter par anticipation les administrateurs de problèmes émergents sur leurs postes physiques et virtuels. UberAgent utilise les données de performances collectées avec Splunk pour créer des tableaux de bord illustrant les indicateurs qui comptent pour l’expérience des utilisateurs, comme les temps d’ouverture de session ou la latence réseau.

Des questions de confiance et de sécurité des données

Malgré les bénéfices apportés par ces nouvelles capacités de supervision de l’expérience utilisateur, les administrateurs ont encore quelques préoccupations.

Et cela commence par faire fonctionner ces nouvelles technologies. La plupart des infrastructures de VDI et leurs outils de supervision sont déployés en local, alors que les prétendants à leur succession s’appuient principalement sur le traitement massif de données en mode Cloud. Pour Gibson, l’intégration avec les systèmes patrimoniaux est un facteur clé de réussite.

Se pose aussi la question de la sécurité des données collectées et analysées : « ma principale préoccupation porte sur les données », relève ainsi Gibson. Et de développer : « qu’est-ce qui est stocké ? Où ? Et qui y a accès ? »

La tendance vers plus de réponse automatisée aux incidents – qu’ils relève de la sécurité ou de la production – peut également générer des problèmes. McGraw reconnaît bien volontiers qu’il est important de répondre rapidement, voire d’intervenir avant que ne surviennent les incidents. Mais pour lui, les organisations ne devraient pas se repose entièrement sur les mécanismes d’intelligence artificielle prenant des décisions à leur place : « je veux voir si cela fonctionne bien, et m’assurer qu’il n’y a pas de faux positif ». Pour lui comme pour d’autres, donc, et notamment en sécurité, « il va probablement falloir un certain temps pour établir la confiance ».

Pour approfondir sur Administration des postes de travail

- ANNONCES GOOGLE

Close