Sergey Nivens - Fotolia

La SNCF s’appuiera sur Azure pour l’information voyageur et la maintenance prédictive

La SNCF a détaillé un peu plus les applications qui utiliseront les services Azure dans le cadre de son grand projet de migration vers le cloud public. Après AWS et IBM, c’est au tour de Microsoft.

A l’occasion de Microsoft Experience 2018, qui se tient actuellement à Paris, la SNCF a précisé un peu plus quel sera le rôle des technologies Azure dans son vaste projet de migration de ses applications dans le cloud public. Ce programme,  mené par l’entité e.SNCF, qui réunit les projets axés autour de la transformation numérique du groupe, vise à basculer 60 % des applications de la SNCF dans le cloud public, 40 % restant alors sur site. Au total, la SNCF opère plus de 1 400 applications.

Pour soutenir ce vaste programme, le groupe ferroviaire a lancé un  appel d’offres européen au terme duquel trois fournisseurs de cloud public – les 3, américains -  ont été retenus, AWS, IBM et Azure. La SNCF a déjà fait une apparition lors des événements français d’AWS ou encore d’IBM pour y présenter ce projet emblématique d’une société française historique devenue utilisatrice de plateforme US. Avec AWS, la SNCF exploite les services cloud de gestion de données, à commencer par Aurora et DynamoDB.  Avec IBM, le groupe s’appuie sur  Watson pour motoriser son application d’affichage d’informations dans les gares, EVA. Il ne manquait donc plus que Microsoft.

La transition vers le numérique porte sur deux domaines, a expliqué Raphaël Viard, le CTO d’e.SNCF qui intervenait lors de l’événement Microsoft : les services apportés aux clients, comme des outils pour la mobilité, d’autres censés faciliter la transmission d’informations aux voyageurs. La société travaille également à optimiser la couverture des réseaux mobiles. L’autre secteur porte sur la transformation de l’appareil industriel - la maintenance de trains et du réseau ferroviaire, via notamment des technologies d’IoT (pour la maintenance prédictive). Mais la grande transformation du groupe, a rappelé Raphaël Viard, est de devenir une « data company »

Pour cela, La SNCF a mis en place une plateforme Big Data sur Azure qui centralise quelque 170 To de données et fédère 81 flux de données issues de sources différentes, a expliqué le responsable. Quatre datalakes stockent les données pour les projets de l’institution ferroviaire. Ces solutions sont aujourd’hui en production, assure-t-il.  La SNCF s’appuie également sur l’implémentation native de Kubernetes sur Azure (AKS – Azure Kubernetes Service) pour « la scalabilité et éviter d’avoir à construire l’infrastructure nécessaire. Cela nous permet de de nous concentrer sur ce qui est important pour nous ».

Ce dispositif sert de fondation au projet Data IV (Data Information Voyager), un service d’informations à destination des utilisateurs de la SNCF qui doit par exemple « afficher le bon train au bon quai à la bonne heure ». Pour ce service, la SNCF doit agréger de multiples flux de données de sources différentes pour extraire des patterns, explique Raphaël Viard. Sont par exemple, analysées, les congestions du réseau  - « existe-t-il des cas plus difficiles que d’autres » - , pour en tirer de précieux enseignements. A ce jour, 120 gares ont installé Data IV.

Azure supporte également  une application destinée cette fois-ci aux conducteurs de trains. Baptisée Vibrato, celle-ci utilise la tablette qui équipe le personnel. En utilisant les capteurs intégrés, cette tablette dispose d’une application qui mesure les vibrations émises par le train lors de son parcours. « Ces données sont ensuite croisées avec d’autres liées à la maintenance, pour effectuer des opérations de maintenance prédictive », raconte encore le responsable.

« Mais pour assurer cette transformation, il faut un SI solide, et pour cela on doit s’appuyer sur des technologies à la pointe », précise-t-il. D’où la voie qui mène au cloud public et ses spécificités. Le responsable liste l’élasticité, la capacité à réaliser des prototypes à l’usage et la réduction du temps de livraison des services.

Pour approfondir sur Big Data et Data lake

Close