Avec HCP 4.0, Hitachi veut faciliter la migration des données vers le stockage en nuage

Présenté lors du salon Storage Networking World de Francfort, HCP 4.0, la plate-forme de stockage objet d'Hitachi, voit ses capacités cloud renforcées. Le constructeur japonais annonce également l'arrivée de nouvelles appliances d'ingestion et de migration de données, destinées à simplifier la migration des données vers HCP via des protocoles NAS traditionnels, en l'occurrence CIFS et NFS.

Hitachi Data Systems a profité du salon Storage Networking World 2010 de Francfort, qui s'est achevé mercredi 27 octobre, pour dévoiler la 4ème version de son système de stockage objet HCP (Hitachi Content Platform). L'occasion pour LeMagIT de discuter avec Miki Sandorfi, le patron de la stratégie des systèmes de stockage de fichiers et de contenus d'Hitachi, pour faire le point sur la stratégie de la firme sur ce segment. Pour Sandorfi, le constat est simple. De plus en plus de sociétés ont à stocker des dizaines de millions voire des milliards d'objets et les systèmes traditionnels de stockage SAN ou NAS ne sont plus adaptés à la tâche. Pour ce type de besoin, rien de tel qu'un système de stockage objet et ses capacités de réplication, de distribution et de protection de contenus.

Avec HCP 3.0, Hitachi avait déjà fait un premier pas vers le cloud en ajoutant des capacités multi-tenant à son système ainsi qu'une gestion avancée des droits d'accès. La sécurité avait aussi fait de grands progrès avec le support du chiffrage des objets stockés. La version 4.0 vient encore améliorer les capacités de HCP en apportant notamment la gestion de la distribution de contenus entre système géographiquement dispersés (support de la réplication multiple d'un contenu depuis un système HCP vers d'autres systèmes HCP).

Hitachi a aussi étendu les capacités de son système pour porter à 40 Po le volume de données par cluster HCP. Le constructeur japonais a enfin amélioré la granularité de son système multi-tenant en permettant de gérer plusieurs namespaces par "tenant" - la notion de "tenant" ou de locataire, peut correspondre à une entreprise dans le cadre d'une solution de cloud offerte par un opérateur télécom, mais aussi à une agence, un département ou une division d'entreprise dans le cadre d'un système HCP déployé par un grand compte.

Faciliter la migration vers le cloud

Une autre nouveauté importante est l'arrivée dans l'offre HCP de passerelles d'ingestion de données baptisées HDI (Hitachi Data Ingestor). Ces passerelles se présentent sous la forme d'appliances en cluster (actif/actif) qui permettent un accès transparent en lecture et écriture à un magasin de données HCP via des protocoles NAS standards comme CIFS ou NFS. Elles disposent d'un cache local de 4To qui permet d'accélérer l'accès distant aux données d'un système HCP.

Miki Sandorfi insiste toutefois sur le fait que la vocation primaire des passerelles HDI n'est pas de fournir des services NAS au dessus de HCP, ou de se substituer à des solutions de type WAFS -même si pour certains utilisateurs, l'absence de fonctions de compression et d'optimisation de trafic ne sera pas un souci -, mais plutôt de fournir un moyen simple pour les entreprises de basculer ou d'extraire des données dans un système HCP - exploité en interne ou installé chez un opérateur tiers - tout en fournissant des performances décentes pour les utilisateurs distants. Sandorfi reconnaît toutefois que les passerelles HDI pourraient servir de passerelles NAS dans des scénarios où le besoin de performances n'est pas le critère principal de choix de la plate-forme.

Notons que les passerelles HDI s'intègrent avec un annuaire Active Directory (ou avec un annuaire LDAP) et permettent le mapping des concepts de namespace et de "tenant" de HCP sur CIFS et NFS. Elles proposent aussi des fonctions de refacturation à l'usage des utilisateurs ainsi que des fonctions de gestion de quota.

Pour approfondir sur SAN et NAS

Close