RedShift : Amazon veut sa place dans l’entrepôt de données

A l’occasion de sa conférence utilisateur fin novembre, Amazon a présenté RedShift, un service cloud d’entrepôt de données, qui entend venir titiller les solutions traditionnelles du genre sur une terrain sensible : celui du prix.

Le nouveau service de datawarehouse d’Amazon, baptisé Redshift, inauguré fin novembre par le spécialiste du Cloud, pourrait bien offrir une alternative séduisante aux offres traditionnelles grâce à une tarification compétitive. A condition toutefois, que les entreprises aient la possibilité de relever le défi que représente la migration de leurs données dans le cloud Amazon, expliquent des experts du secteur. 

Le spécialiste du Cloud a levé le voile sur Amazon RedShift lors de sa première conférence utilisateurs re:Invent fin novembre, provoquant un enthousiasme généralisé dans les allées de l’événement. 

« Nous espérons que cette solution proposera des performances plus rapides, souligne ainsi Ivan Jurado, architecte en chef et directeur général de la société M-Sights, spécialisée dans le marketing analytique. Une société qui a migré l’ensemble de son infrastructure sur AWS il y a quelques mois. M-Sights, qui a quelque 5 teraoctets de données à analyser, exécute des requêtes sur des instances SQL Server dans le cloud d’AWS, mais cet environnement consomme rapidement de la mémoire, commente-t-il. « Nous en sommes aujourd’hui à 37 Go de mémoire -- et nous ne pouvons pas aller au-delà .» 

Les entreprises, disposant déjà d’importants entrepôts de données sur site, ne pourront toutefois pas se tourner aussi facilement vers RedShift, selon certains consultants rencontrés lors de la conférence. 

« Cela conviendra peut-être à de petites entreprises ou à celles qui démarrent de rien, mais si vous avez consenti de larges investissements dans un entrepôt de données, vous n’allez pas le migrer complètement sur Amazon -- vous avez déjà des coûts liés à cette infrastructure », ajoute Giedrius Praspaliauskas, architecte système d’une société de conseil basée sur la cote ouest des Etats-Unis. 

Certaines entreprises sont susceptibles de se tourner de RedShift, selon l’avancement de leur cycle d’achat ; si le déploiement actuel de l’entreprise est en  fin de vie, il est davantage probable qu’elle considère une solution d’entrepôt de données dans le Cloud, commente un analyste. « Vous devez également considérer les compétences en interne, souligne de son côté, Tony Witherspoon, consultant senior d’une société de conseil localisée sur la cote est des Etats-Unis. Je ne démarrerai définitivement pas avec un entrepôt de données, comme point de départ vers le Cloud. Vous devez d’abord considérer des solutions plus à portée de main. » 

AWS a également baissé les prix de S3 de presque 25% - une initiative qui pourrait contribuer à donner de l’élan à RedShift, s’accordent à dire plusieurs consultants. 

Les spécifications de RedShift 

RedShift est disponible en version de test et est décliné en deux versions : la première comprend des noeuds de 16 To et la seconde de 2 To. Amazon soutient que la plate-forme peut supporter automatiquement des tailles de l’ordre de plusieurs petabytes et devrait ainsi rivaliser avec les solutions des fournisseurs plus traditionnels. 

Les noeuds de 2 To sont disponibles à partir de 85 cents par heure alors que deux noeuds de 16 To avec chacun 128 go de RAM sont facturés à 3,65 $ par heure, ce qui équivaut à 32 000 $ par an, a affirmé Andrew Jassy, vice-président senior d’AWS, lors d’un discours de présentation. 

Généralement, les entreprises paient entre 19 000 et 25 000 $ par teraoctet de données par an avec des solutions traditionnelles d’entrepôts de données, ajoute Jassy, s’appuyant sur des statistiques compilées par le cabinet d’analystes ITG en juin 2011. L’entrepôt de données d’Amazon peut coûter seulement 1000 $ par teraoctet et par an, promet-il enfin. 

Amazon prétend par ailleurs que RedShift peut offrir des performances 10 fois supérieures à celles offertes par des entrepôts de données traditionnels, selon des tests menés en interne. 

« Ils n’ont pas expliqué la métrologie utilisée pour ces tests, il est donc difficile de faire une étude comparative, susceptible d’être prise au sérieux par un administrateur de base de données, commente à son tour Carl Brooks, analyste au cabinet 451 Research, basé à Boston. Mais le delta en matière de coût est tel que la solution parait de toute façon intéressante. Il s’agit de la même proposition de valeur qu’EC2. » 

Traduit et adapté de l'anglais par la rédaction 

Pour approfondir sur Administration et supervision du Cloud

Close