Analyser les Big data pour mieux administrer votre réseau

Cet article expert explique comment tirer profit de l’analyse de données en volume pour faciliter et optimiser l’administration de votre réseau

Comme le veut l’expression, « Savoir c’est pouvoir ». Mais personne mieux que l’administrateur réseau ne sait quelle énorme différence existe entre informations et connaissances.

Et il en va de même avec le Big data. Le Big data peut être à juste titre considéré comme la dernière folie industrielle, mais cela ne signifie pas pour autant que cette technologie puisse réussir la transition essentielle de l’information vers la connaissance. Heureusement, un administrateur réseau a diverses solutions pour tailler dans le volume du Big data, garder la tête froide et en faire un outil d’exploitation réseau.

Dans les applications réseau, la clé d’une exploitation réussie du Big data consiste à se concentrer sur les problèmes, et non sur les points de données.

En matière d’administration réseau, les données Big data – qui est souvent un énorme réservoir d’informations sur le trafic et les dispositifs disponibles à partir d’interfaces et de systèmes de gestion standard — sont collectées à partir de sondes déployées en différents points, ainsi qu’au moyen d’un logiciel de couche réseau installé sur des équipements client et serveur. Lorsqu’elles sont présentées au sein d’une infrastructure système à administration standard, une partie de ces informations peut correspondre aux pratiques courantes de gestion en matière de défaillances/configurations/comptabilisation/performances/sécurité — dites pratiques de gestion FCAPS (Fault, Configuration, Accounting, Performance and Security). Toutefois, la majorité des entreprises n’est pas en mesure de corréler les données issues d’équipements client/serveur ou de sondes avec les activités d’exploitation courantes. C’est là qu’interviennent le Big data et l’analyse Big data.

L’élément distinct le plus essentiel pour tirer avantage du Big data réseau consiste à s’assurer de la synchronisation précise des événements pour tous les éléments de données. Dans l’administration réseau, tout est question de conditions momentanées et de juxtaposition d’événements. En termes d’analyse d’informations, la perte de synchronisme temporel signifie la perte complète de contexte. Si toutes les données sont cadencées à partir d’une source commune, le synchronisme temporel devrait se révéler approprié. Dans la négative, il pourrait s’avérer utile d’introduire des événements de synchronisation au niveau des points de collecte des données Big data, afin d’aligner le minutage de tous les enregistrements à intervalles réguliers.

Établir une correspondance pour localiser un problème réseau

Une fois certain que le minutage des événements peut faire l’objet d’une corrélation précise, l’étape suivante consiste à établir une correspondance entre cette « chronologie commune » et les problèmes réseau. Les informations relatives aux sources du problème peuvent provenir du processus FCAPS courant, de plaintes d’utilisateurs ou d’une télémétrie client/serveur. Cette dernière source — la télémétrie — peut également permettre de récupérer des informations sur la qualité de l’interaction, telles que le temps de réaction, ainsi que des données de performances réseau mesurant le taux de perte de paquets et les délais (à partir de tailles de fenêtres TCP, par exemple). Cette correspondance permet, par les éléments d’analyse du Big data, d’explorer la corrélation entre ces points à problème et les éléments de mesure de la période, et ce avant que le problème ne survienne.

Ce type d’évaluation des données Big data peut se révéler particulièrement précieux dans le cadre d’une analyse des causes fondamentales des problèmes réseau ; une opération que d’autres moyens rendent le plus souvent quasiment impossible. L’état du réseau change particulièrement rapidement. Aussi les administrateurs chassent souvent les problèmes d’un emplacement à un autre, sans jamais parvenir à examiner l’élément pertinent lorsqu’un incident se produit. Les éléments d’analyse Big data permettent de corréler des milliers (voire des millions) d’éléments de données avec des points à problème identifiés, afin de déterminer des correspondances. Ces correspondances sont alors remontées jusqu’aux causes associées, via l’analyse des données.

Identifier des conditions d’exploitation normales

Autre stratégie d’application du Big data aux problèmes réseau, le recours à celui-ci pour déterminer une base de conditions réseau normales. Si l’étape précédente — la mise en correspondance des points à problème avec une chronologie commune aux données Big data — est réalisée dans les règles de l’art, elle révélera également les cas où il n’y a pas de problèmes. L’analyse des données réseau collectées au cours de ces périodes « positives » va permettre à l’administrateur de déterminer la base de ce qui représente des comportements réseau normaux, et de quantifier ce que « normal » veut dire en termes de masses de données collectées.

À ce stade, le comportement de base normal déterminé peut alors être exploité pour analyser des périodes de fonctionnement du réseau qui ne sont pas considérées comme problématiques, mais qui ne sont pas non plus corrélées de manière concluante à un comportement de fonctionnement normal. La majorité des administrateurs réseau chevronnés savent que les réseaux adoptent parfois un état instable, sans réellement présenter de défaillance ni provoquer de plaintes. Par ailleurs, le réseau, la demande globale ou l’état des ressources serveur peuvent présenter certaines conditions susceptibles d’affecter l’exploitation du réseau. Et les données caractérisant l’état de base peuvent contribuer à identifier une, voire toutes ces conditions.

L’analyse Big data peut contribuer à identifier de nouvelles manières de remédier à certains états du réseau

S’il est un comportement à rechercher, c’est celui où les éléments de mesure indiquent un état du réseau qui ne parvient pas à générer de rapport de problème, même lorsque cet état reproduit fidèlement une période problématique. Ici, l’objectif consiste à utiliser les éléments de mesure pour identifier ce qui est susceptible d’avoir atténué le problème attendu ; une identification qui pourrait optimiser votre analyse de la cause fondamentale, ou suggérer d’autres moyens de remédier à l’état incriminé.

Autre composant à examiner : la manière dont les ressources sont affectées par un événement de réseau, d’application ou de serveur, ou par un changement dans la charge de trafic des utilisateurs. Lorsqu’un changement d’envergure se produit dans un de ces secteurs, le réseau doit réagir de manière prévisible. Par exemple, un changement significatif dans le trafic des applications augmentera généralement une hausse visible du délai de réponse, ainsi qu’entre autres problèmes, une hausse du taux des paquets abandonnés.

Ces comportements se produisent sans s’accompagner d’un changement majeur dans le trafic et laissent donc entendre que les ressources sont surchargées. De la même manière, ils peuvent révéler que le réseau est surdimensionné lorsqu’un changement important au niveau du trafic se produit sans s’accompagner d’une hausse équivalente du délai de réponse ou de la perte de paquets. Dans ce cas, certaines diminutions de la capacité sont tolérées, ouvrant ainsi la voie à la sécurisation d’un budget d’exploitation inférieur.

Se concentrer uniquement sur les conditions exploitables

Un dernier conseil : en termes de données, évitez de « faire votre marché » en fonction des problèmes. Certains administrateurs vont creuser les rapports Big data à la recherche de schémas comportementaux inhabituels, même lorsque rien n’indique que lesdits comportements peuvent être associés à un des processus ou une des tâches soulignées plus haut. Vous pourriez ainsi simplement découvrir que les utilisateurs sollicitent davantage leurs applications et le réseau à des moments donnés de la journée. (Un constat généralement facile à faire : il suffit de jeter un œil dans les bureaux !)

La clé d’une exploitation réussie de l’analyse du Big data dans les applications réseau consiste à se concentrer sur les problèmes, et non sur les points de données. Les informations relatives à l’état du réseau — qu’il soit homogène et normal, ou aberrant et problématique — ne sont pertinentes qu’une fois classées. Les états inclassables sont difficiles à transformer en éléments d’action. Aussi est-il difficile de justifier l’investissement en temps d’analyse requis pour leur détection et leur gestion. Administrer un réseau n’est pas de tout repos. Et pour se révéler un outil viable, le Big data doit faciliter ce travail et non le rendre plus difficile encore. Pour ne pas vous tromper, focalisez-vous sur les données exploitables.

 

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close