Avec Hortonworks, Red Hat fait de Hadoop une extension de ses solutions

Red Hat et Hortonworks renforcent leur partenariat en intégrant très étroitement HDP à Red Hat Storage ainsi qu’à la plate-forme OpenStack de la firme de Raleigh.

Red Hat a décidé de fondre un peu plus Hadoop dans son offre de stockage. Pour cela, la firme de Raleigh a étendu ses relations avec l’un des spécialistes du secteur, Hortonworks,dans le cadre d’une alliance dite stratégique. Cette collaboration vise a créer des ponts d’intégration entre les technologies des deux parties afin « d’accélérer l’adoption » du très précieux framework, assure John Kreisa, vice président du marketing chez Hortonworks - et ancien responsable marketing stockage chez Red Hat, dans un billet de blog. En clair, il s’agit d’encourager les entreprises à insérer dans leur SI des projets de gestion et d’analyse de données en volume. Et quoi de mieux que de proposer une solution unifiée et intégrée - les 2 sont Open Source - plutôt que d’avoir à composer avec deux fournisseurs différents.

L’objectif de cette alliance est ainsi d’inscrire la plate-forme HDP (Hortonworks Data Platform) d’Hortonworks directement dans la stack Red Hat, au niveau du stockage, du middleware et d'intégrer HDP avec la stratégie de cloud hybride de Red Hat. L’accord porte d’abord sur l’intégration de HDP avec Red Hat Storage, grâce notamment à des travaux que les deux partenaires ont réalisé conjointement au sein du projet Apache Ambari. Un projet qui vise à faciliter la mise en place ainsi que l’administration et le monitoring de clusters Hadoop. Un plug-in a ainsi développé pour Red Hat Storage (ex-GlusterFS) permettant d’y connecter HDP. 

« La plate-forme de Red Hat apparaît comme une option lorsque HDP est installée via Ambari », explique le site d’Hortonworks. L’idée est d’ajouter une interface Hadoop (via un plug-in Red Hat Storage pour Hadoop) à la solution de stockage de Red Hat et de permettre aux architectes de données « de combiner des données Hadoop aux données de l’entreprise dans un espace de srtockage unique ». Le plug-in est aujourd’hui en bêta et permet de passer outre les limitations d'HDFS en utilisation la stack de stockage Red Hat en lieu et place du file system distribué Hadoop. Cette interfface s'ajoute aux interfaces POSIX et Swift (la brique stockage objet d’OpenStack) déjà disponibles pour Red hat Storage. Dans cette même logique, HDP se retrouve intimement lié à la plate-forme OpenStack de Red Hat (Red Hat Enterprise Linux OpenStack) afin de « simplifier l’automatisation de déploiement d’Hadoop », sur OpenStack, indique Red Hat.

Intégrer HDP à RHEL et OpenJDK

Autre pont d’intégration, HDP se retrouve associé à RHEL et OpenJDK afin de faciliter le développement d’applications analytiques et la capacité de les déployer dans plusieurs environnements, virtuels, cloud ou sur site, explique en substance Red Hat. HDP 2.0 était déjà certifié pour OpenJDK 1.7.0_09-icedtea. Enfin dernier élément de cette alliance, la solution d’agrégation, de fédération et de gestion de données de Red Hat, JBoss Data Virtualization, peut désormais absorber des données issues de clusters Hadoop et les conjuguer avec les données issues des bases de données SQL et NoSQL, et des applications d’entreprises, cloud ou pas.

Selon Matthew Aslett, directeur de recherche spécialisé dans le data management et l’ analytique pour le cabinet 451 Research, cité dans un communiqué,  la communauté Hadoop devrait également profiter de cette alliance, car tous les développements conjoints entre Hortonworks et Red Hat seront reversés à la communauté Apache Hadoop.

Approfondir

Soyez le premier à commenter

M'envoyer une notification dès qu'un autre membre commente.

Merci de créer un identifiant pour pouvoir poster votre commentaire.

- ANNONCES GOOGLE

Close