Sashkin - Fotolia

Des perspectives grandissantes pour les datacenters de proximité

À mi-chemin entre l’IT centralisée au siège, ou en cloud, et l’informatique « edge » installée dans les succursales, un nouveau type de déploiement interpelle les entreprises : les data centers de proximité.

Le terme « edge », alias informatique de proximité, est tendance. Il désigne une capacité de traitement et de stockage au plus proche de la source des données (dans une succursale, un lieu de vente, une usine, à bord d’un véhicule, etc.), par opposition au datacenter qui est centralisé, généralement sur un site directement rattaché au siège de l’entreprise.

L’approche edge est particulièrement utile dans le cas de traitements dont la faible latence est un paramètre essentiel. C’est notamment le cas dans les usines, où le pilotage des équipements doit réagir au plus vite face à un événement sur la chaîne de production.

L’approche edge est particulièrement utile dans le cas de traitements dont la faible latence est un paramètre essentiel.

Pour autant, l’informatique sur un lieu de production n’est pas censée être aussi performante que celle du data center du siège. Et cela peut s’avérer limitant dans certains cas d’usage. Par exemple, les fonctions analytiques du machine learning ne sont possibles que depuis un datacenter, mais si on les exécute au plus proche d’un lieu de production, on gagne l’opportunité de s’en servir pour optimiser les opérations de contrôle en temps réel. 

Les cas d’usage du datacenter de proximité

Un traitement sophistiqué par machine learning au plus proche d’une usine permettrait de soutenir des systèmes industriels de vision, chargés de valider automatiquement la qualité. On pense par exemple à l’inspection des fixations sur des produits manufacturés.

Dans les villes intelligentes bardées d’objets connectés répartis sur une grande zone, les systèmes d’IA installlés depuis un datacenter de proximité amélioreraient la sécurité routière, permettraient une gestion de la circulation en temps réel, serviraient à émettre des alertes de collision. Le gain serait de réduire drastiquement les interventions inutiles.

Il en va de même pour les besoins de fonctions temps réel au niveau des véhicules autonomes, ou ceux d’analyse continue des images prises par des caméras déployées sur un territoire. Dans les deux cas, les appareils eux-mêmes ne peuvent pas embarquer de datacenter ni se contenter de la bande passante limitée vers le cloud. La solution est intermédiaire : ils doivent se connecter à un datacenter local.

Dans les faits, les critères opérationnels de l’informatique de proximité s’orientent de plus en plus vers une gestion distribuée des traitements, du stockage et du réseau, plutôt que vers une gestion centrale des équipements distribués. Cette orientation est favorisée par l’accélération des vitesses de communication sur le territoire, d’une part, et par l’essor des réseaux virtuels SDN d’autre part.

Ces réseaux virtuels permettent d’étendre les services d’un datacenter central à des datacenters distants. Et le fait de déporter ces services localement permet aux succursales d’atteindre des niveaux élevés de fiabilité, d’efficacité et d’autonomie, ainsi que d’importantes capacités de traitement.

Des défis qui restent à relever

Reste que la mise en place de datacenters de proximité est à la peine. En cause, le manque d’articulation entre les spécialistes du siège – qui maîtrisent l’informatique et les réseaux – et ceux du terrain, en charge des équipements métiers. Les premiers ne comprennent pas les besoins des seconds et les seconds ne comprennent pas la technologie des premiers à mettre en place. En pratique, la question est : comment déporter sur des serveurs Linux dans un data center les fonctions des équipements propriétaires qui pilotent aujourd’hui les chaînes de production dans une usine ?

Mais surtout, l’informatique de proximité en général et les datacenters de proximité en particulier exigent des entreprises et des fournisseurs de raisonner au-delà des besoins en infrastructure et en architecture. De nouveaux défis d’automatisation et d’orchestration vont voir le jour. Ils dépasseront souvent le cadre des transactions sur la bande passante d’un réseau TCP/IP.

Par exemple, un datacenter de proximité rend possible la mise en place de services qui bénéficieraient localement à un ensemble de partenaires, voire à un secteur d’activité entier. Dès lors, les fournisseurs de services opérationnels en edge doivent décider de la manière de prendre en charge plusieurs clients, en fonction des besoins propres à chacun d’eux. Il y a un choix technique à faire. De ce choix dépendra la manière d’exécuter des algorithmes d’IA spécifiques à telles ou telles opérations.

La question qui se pose ensuite est de savoir qui opère ces services de proximité. Il existe quatre opérateurs télécoms – KDDI, SK Telekom, Verizon et Vodafone – qui proposent désormais à leurs clients mobiles des services de traitement de proximité basés sur AWS Wavelength. Cette offre d’AWS consiste à installer les capacités de stockage et de traitement d’AWS aux extrémités des réseaux 4G et 5G d’un opérateur, c’est-à-dire dans un data center de proximité où cet opérateur a installé ses équipements.

Tout cela oblige les entreprises à se demander si elles ont intérêt à travailler directement avec des fournisseurs de cloud, qui promettent de délocaliser leurs fonctions au plus proche des utilisateurs, ou à se greffer sur le réseau d’un datacenter de proximité que commercialisera un acteur local.

In fine, il est probable que les offres de services edge débouchent sur des contrats multicouches où interviennent plusieurs partenaires.

Se préparer aux datacenters dits de « edge »

Décider si un processus métier reposant sur des ressources de périphérie doit ou non satisfaire un niveau de service (SLA) strict en matière de latence apportera un éclairage sur la complexité sous-jacente des datacenters edge.

Rares seront les entreprises qui administrent leurs propres data centers de proximité. Décider si un processus métier reposant sur des ressources de périphérie doit ou non satisfaire un niveau de service (SLA) strict en matière de latence apportera un éclairage sur la complexité sous-jacente des datacenters edge.

Les entreprises chercheront davantage à profiter d’un réseau de fournisseurs. Leur choix de services ira de la simple prise en charge d’un basculement de traitements entre différentes options géographiques à des SLA de performances, agrémentées de tableaux de bord qui facilitent l’administration, le déploiement et le monitoring. Il faudra aussi qu’elles puissent se tourner vers des instances pour réguler les communications et les responsabilités liées à la gouvernance des données.

Nous n’en sommes qu’aux balbutiements des datacenters de proximité. Pourtant, la mécanique sous-jacente (particulièrement les stratégies de communication réseau et les modèles architecturaux issus des opérateurs en télécommunication et des plateformes cloud hyperscale) est assez mature.

Il existe des secteurs d’activité qui ont déjà éprouvé la distribution de leurs services au plus proche des utilisateurs. Celui de la diffusion vidéo, notamment. Ici, il s’agit de déporter au plus près des consommateurs des contenus qui sont diffusés en même temps dans le reste du monde. Les opérateurs de tels datacenters de proximité maîtrisent des contraintes drastiques en matière de latence. Peut-être que les premières solutions viendront d’eux. Il est aussi probable que l’offre se façonne en fonction de thèmes comme la consommation énergétique, source majeure de préoccupation.

Bola Rotibi est directrice de recherche chez CCS Insight. Elle possède plus de 25 ans d’expérience dans les domaines de l’ingénierie, du développement de logiciels et de l’analyse informatique. Elle est la fondatrice de Creative Intellect Consulting, et a travaillé chez MWD Advisors et Ovum.

Pour approfondir sur Architectures de Datacenters

Close