Cloud Computing : des services émergent derrière une dénomination enchantée

L’émergence du Saas et les investissements monstres consentis par les sociétés les plus importantes du secteur ont mis le cloud computing au cœur du futur de l’IT. La définition d’un concept, d’autant plus flou qu’il est porteur en terme de marque, s’est précisée et les offres de services bâties sur le nuage commencent à se développer, donnant lieu à de nouvelles typologies d’acteurs.

Introduction : quelle définition pour un concept enchanteur ?

Difficile de fait de savoir si on a affaire à un concept radicalement nouveau ou à une évolution lente. Le fait que terme de nuage est déjà utilisé pour symboliser Internet lui même, réseau qui n’a pas de centre et où tout le monde peut devenir à fois émetteur et récepteur, rajoutant à la confusion. Par ailleurs la notion de grille date déjà d’un certain temps et a d’abord été mise en place pour partager de la puissance de calcul, voire optimiser l’utilisation d'une puissance mal exploitée (processeurs sous-utilisés ou temps de « veille »).

En revanche, la nouveauté réside dans la conjonction de plusieurs technologies qui donnent clairement un nouvel élan au concept d’informatique distribuée. La mise en place du cloud computing repose sur le déploiement d’énormes fermes de serveurs, rendu possible tant par la continuation de la loi de Moore que par les efforts de miniaturisation en matière de serveurs ou l’émergence de la virtualisation.

Au-delà de l’évolution technologique déjà amorcée avec les services en ligne, on assiste à une révolution en terme de modèle économique, où le coût ne porterait plus sur l’infrastructure – qui devient gérée en colocation – mais sur l’usage véritable, avec une administration des charges de travail particulièrement souple.

Le cloud computing est en fait un modèle de grille informatique permettant l’accès à des ressources matérielles et logicielles via Internet, de manière distribuée et sous forme de services à de multiples utilisateurs. Cette grille repose sur d’énormes centres de données mutualisés et le coût pour l’utilisateur est calculé en fonction de son usage et non de l’infrastructure elle-même, dont il n’est pas censé se soucier. Avantage : on ne paie que ce que l’on consomme en ce concentrant sur l’usage et le service et non sur l’implémentation de l’infrastructure. Inconvénient : dans sa version maximaliste, le cloud est dépositaire des données et des applications… sans que l’on sache trop où, quand et comment.  Autant dire un monde alléchant du point de vue de la gestion des coûts, mais hautement anxiogène pour un DSI.

Quoi qu’il en soit, on peut diviser en trois groupes les acteurs qui proposent aujourd’hui des offres ou embryons d’offres de services basés sur le cloud computing. D’abord ceux qui – comme Microsoft et IBM – sont des anciens du secteur IT et ne souhaitent pas rater le train. Dans un premier temps, leur adhésion au modèle leur permettra de proposer leurs offres existantes par d’autres moyens. Ensuite les acteurs issus du web – comme Amazon, Google ou Salesforce – qui, fort de leur expérience en environnement distribué et en répartition de charge, ont décidé d’ouvrir à des tiers ces savoir-faire en proposant leur offre d’infrastructure.

Enfin, quelques pure-players – comme AppNexus ou Gogrid – tentent l’aventure même s'ils partent avec un gros handicap en matière de puissance. Une quatrième catégorie est apparue cet été : ceux qui sont déjà légèrement en retard et qui s'associent pour courir plus vite au sein du Cloud Computing Test Bed, consortium où l’on retrouve notamment HP, Yahoo et Intel.

Ce sont ces différentes offres que nous avons essayé de mettre à plat dans les pages suivantes afin de faire un panorama le plus complet possible de l’existant et des différentes stratégies.

Amazon

Amazon est sans doute le moins attendu dans la prestation de services de cloud computing. Pourtant le cyberlibraire est l’un de ses acteurs historiques. Depuis plus de deux ans la société de Jeff Bezos, fort de son succès de marchand sur Internet, propose les Amazon Web Services (AWS). Contrairement à Salesforce voire Microsoft, IBM ou Google, Amazon ne prévoit pas pour l’instant de proposer des applications précises commercialisées en mode Saas, mais met à la disposition d’éditeurs potentiels une infrastructure distribuée qui leur permet de le faire. C’est là que réside le lien avec son activité de cybermarchand.

Pour assurer son service, Amazon a dû développé une expertise dans la gestion de centres de données et de flux d’informations en ligne. L’idée initiale a donc consisté à mutualiser les fruits de ce savoir-faire en proposant à des tiers de bénéficier d’une infrastructure à la demande à même de répondre aux politiques de réduction des coûts de l'IT. Amazon revendiquait 370 000 utilisateurs au début de l’été.

Dans les faits, Amazon propose quatre services en ligne : S3 (stockage) ; Elastic Computer Cloud (EC2, puissance de calcul pour le déploiement d’applications à la demande) ; Simple Queuing Service (SQS) et enfin Simple DB (base de données en ligne). Depuis quelques jours Amazon propose un service supplémentaire, adossé à EC2 et S3. Baptisé EBS - pour Elastic Block Store -, ce service d'administration du stockage permet de créer un véritable datacenter dans le nuage.

En terme de prix, Amazon propose son service S3 pour 15 cents par mois le Go. EC2 est, lui, commercialisé au temps d’utilisation. Compter de 10 à 80 cents de l’heure en fonction de la configuration (de base : 1,7 Go de mémoire, 1 cœur virtuel pour un EC2 Compute Unit, 160 Go de stockage, plate-forme 32 bit). Pour SQS, c’est la requête qui sert de mesure avec un cent les 10 000 requêtes. Enfin, pour SimpleDB, l’unité comptable est l’heure/machine, avec un tarif de 15 cents de l’heure. Pour chacun des services, le transfert de données est facturé à 10 cents le Go. Sur son site, Amazon propose systématiquement et pour chaque service un simulateur qui permet d’estimer au plus près sa facture mensuelle en fonction de l’usage.

Une offre éclatée donc, reposant sur des paliers tarifaires. Un bon point du côté des entreprises, qui trouveront également une formule de support Premium. Amazon propose enfin un choix assez large dans les technologies qui motorisent ses services. La société a récemment noué un partenariat avec Sun sur l'intégration d'OpenSolaris (et de MySQL). Un bon point pour les entreprises qui aiment garder le contrôle sur leurs choix technologiques.

Ressources - Les services d’Amazon Web Services

Présentation d’AWS 

Fonctionnalités et tarifs pour EC2 

Fonctionnalités et tarifs pour S3 

Fonctionnalités et tarifs pour SimpleDB 

Fonctionnalités et tarifs pour SQS

Google

Après avoir écrasé le marché de la recherche - et surtout déployé l’infrastructure idoine pour supporter des milliards de requêtes - Google a décidé, un peu comme Amazon, de packager ce savoir-faire en architecture distribuée au service de tiers. Le dispositif cloud computing de Google repose sur deux piliers : Google Apps – pour les applications notamment bureautique qu’il distribue lui même gratuitement – pour contrer Microsoft ; et surtout Google App Engine, dont le voile a été levé en avril dernier et qui se positionne en concurrence frontale face aux services d'Amazon (SimpleDB pour la base de données, S3 pour le stockage et EC2 pour l'infrastructure).

Avec comme argument phare : soulager les développeurs des tâches d'hébergement, de load-balancing et des divers problèmes liés au support matériel des applications. Techniquement, l'ensemble repose sur Python - mais pourrait être ouvert à terme à d’autres environnements -, une série d'API pour exploiter le service et une gestion du stockage de données sur BigTable, la base estampillée Google.

Sur le papier, cela semble efficace. Et qui de plus compétent, techniquement, que Google pour lancer un service simplifié d'hébergement d'applications. Python est un langage qui a le vent en poupe sur le Web et surtout, Google a recruté son créateur, Guido Van Rossum. BigTable est optimisé pour le système distribué cher à la marque et les API, comme OpenSocial (pour les réseaux sociaux), permettent une souplesse de manipulation des fonctions. Rassurantes perspectives d'un point de vue technique, sauf que plus globalement, le pré n'est pas si vert pour toute start-up qui s'y risquerait. D'abord, les développeurs sont étroitement verrouillés au seul langage Python qui se voit privé d'un certain nombres de bibliothèques, du moins dans la version de test du App Engine.

Autre limite au service de cloud computing à la sauce Google : à l'inverse des services commercialisés par Amazon séparément, le moteur de recherche ne propose pas d'offre segmentée. La société ou le développeur doit stocker ses données chez Google, héberger ses applications chez Google et enfin réaliser l'intégralité des process chez Google. Ce qui revient ainsi à mettre tous ses oeufs dans le même panier. En réaction (ultra-rapide), commencent à naître des passerelles technologiques qui permettent notamment de convertir des données stockées sur BigTable au format de SimpleDB (Amazon) ou CouchDB. MySQL ne devrait pas tarder.

Côté tarifs, Google maintient la gratuité du service jusqu'à 500 Mo de données stockées et « suffisamment de bande passante et de CPU pour 5 millions de pages vues par mois », le groupe a adopté une tarification calculée aux ressources utilisées, le modèle des services « cloud ». Entre 0,10 et 0,12 dollar par heure de CPU, entre 0,15 et 0,18 dollar pour chaque Go stocké, entre 0,11 et 0,13 dollar par Go de flux sortant et enfin, entre 0,09 et 0,11 dollar par Go de flux entrant. Ces tarifs entreront en vigueur à la fin de l'année selon Google.

Ressources - Les services App Engine

La page d’accueil App Engine 

Le blog d’information 

La SDK 

Le guide de démarrage

IBM

C’est en 2007 qu’IBM a lancé les grandes manœuvres dans le cloud computing. Fort de son expertise en matière de datacenters et d’environnements virtualisés, Big Blue a lancé son initiative Blue Cloud. En fait des centres de données équipés de serveurs IBM sous Linux et embarquant Tivoli pour l’administration et capable de faire tourner des applications en colocation, notamment des bases de données. La grille tourne sur des lames x86, mais IBM promet pour bientôt une adaptation de ses mainframe Systems z.

Un premier centre a été très vite ouverte dans le sud de la Chine où Big Blue propose ses services aux fabricants de composants électroniques. Depuis, IBM ne cesse de faire des annonces sur des déploiements d’infrastructures de plusieurs centaines de millions de dollars dédiée au cloud computing. Dernièrement, Big Blue prévoyait d’investir près de 360 M$ en Caroline du Nord, sur son site de Research Triangle Park (RTP) près de Raleigh, pour construire un nouveau datacenter de grande taille, dont l'objectif officiel sera de fournir des services de Cloud Computing à ses clients (il est probable que, dans un premier temps, il s'agira de bon vieil hébergement ou d'informatique à la demande).

D’autant que Big Blue commence à basculer quelques services vers le nuage. En premier lieu la continuité d’activité. Fin août, Big Blue décidait d’investir 300 millions de dollars pour de la continuité sur une approche cloud computing. Douze centres seront alloués à ce programme. IBM a notamment prévu d’installer en Europe six points basés à Paris, Londres, Bruxelles et Cologne, mais également en Pologne (Varsovie) et en Italie (Milan). En Asie, IBM implantera ses serveurs en Turquie, en Inde, en Chine (avec trois centres de données à Hong Kong, Pékin et Shanghai) et au Japon. Un centre américain et un autre en Afrique du Sud compléteront le dispositif.

Big Blue a enfin annoncé qu'il va investir plus de 100 M$ en recherche sur le Cloud Computing au cours des trois prochaines années et affecter à ces recherches plus de 200 chercheurs.

Microsoft

Si une société informatique historique s’est vu questionnée par l’émergence du Cloud Computing, c’est bien Microsoft. L’éditeur de Windows a bâti sa stratégie sur une architecture client/serveur… et sa fortune sur la vente de licences logicielles à renouvellement quasi obligatoire. Un socle tellement prégnant qu’il lui a déjà valu de prendre du retard dans les technologies Internet. Mais Microsoft s’y est finalement mis et sa puissance financière lui permet d’espérer figurer rapidement parmi les leaders sur le nuage.

Reste quelques nuances, fruit de l’histoire. Là où Google, Salesforce ou Amazon voient le nuage comme l’alpha et l’omega de l’informatique de demain – le navigateur étant l’agent clé sur le poste client –, Microsoft parie sur une vision mixte alliant applications hébergées en entreprise, applications hébergées en mode infogérance et, enfin, applications reposant sur le nuage. C’est le sens de la stratégie Software+Services portée par Ray Ozzie, architecte en chef depuis le départ de Bill Gates, et qui a vu sa première mise en application d’importance avec le lancement des Online Services début juillet.

N’empêche, Microsoft investit massivement. D’abord en développement en proposant peu à peu ses propres logiciels en mode Saas. Ensuite en infrastructure avec la construction de colossaux centres de données aux Etats-Unis, mais également en Europe.

Côté applicatif pour entreprises, des versions online de Dynamics CRM, Exchange, Office et Sharepoint sont disponibles. La plupart du temps en colocation et - pour les grands comptes - avec une version dédiée. Un certain nombre de sociétés américaines ont déjà adopté ce type de solutions en ligne. Surtout, en 2009, Coca-Cola prévoit de basculer 30 000 postes Exchange et Sharepoint vers des services Microsoft bâtîs sur le nuage.

Une stratégie à pas mesurés donc, afin de ne pas chahuter un modèle existant très rémunérateur. Sur le long termes, les services en ligne de Microsoft devront lui permettre de conserver ses marges. En attendant, l’offensive sur le CRM s’est fait en cassant les prix pratiqués par les spécialistes du Saas sur ce marché.

Il faudra voir si le premier éditeur mondial réédite ce choix pour la sortie très attendue de la version hébergée de SQL Server. Baptisée du nom de code de Matrix DB, cette dernière sera totalement bâtie sur une architecture en nuage.

Côté infrastructure, Microsoft a annoncé au début du mois d’août la construction d’un centre à 500 M$ dans l’Iowa. Un méga-datacenter qui vient rejoindre celui de Quincy et ceux en cours de construction à San Antonio, Chicago et Dublin (Irlande).

Salesforce

Pionnier de la distribution logicielle en mode Saas, l’éditeur de gestion de la relation clients Salesforce est venu assez naturellement à la prestation de services sur infrastructure cloud computing. La stratégie mise en place par Marc Bienoff, l’emblématique patron de la société, porte un nom depuis cette année : Paas, pour Platform as a service.

Historiquement, il s'agit de mettre à la disposition de tiers, clients ou partenaires, la plate-forme (le P de Paas donc) de développement et d’intégration qui sert aux équipes de Salesforce. Le service intègre désormais une base de données relationnelle, des options d’interface utilisateur et un environnement de développement baptisé Apex. Le tout repose – comme l’outil Salesforce lui même – sur une infrastructure en colocation ou l’ensemble des utilisateurs partagent la ressource processeur et le stockage.

Reste maintenant à enclencher un cercle vertueux qui verrait ceux qui le souhaitent - et qui s’abonnent - développer leurs propres applications complémentaires au CRM de Salesforce ou carrément autonomes. Et à convaincre les DSI. Ce qui ne sera pas le moindre effort pour un éditeur qui s’est surtout appuyé sur les directions fonctionnelles – force de vente et marketing - pour s’imposer en entreprise.

C’est l’un des paradoxes des applications hébergées : la décision d’achat s’est en partie déportée vers l’utilisateur final, outrepassant souvent la direction informatique. Dès lors que l’on investit plus loin dans la personnalisation et le service en proposant une plate-forme de développement ou d’intégration, l’interlocuteur technique revient dans le processus de décision.

Le Paas qui dépasse le Saas, c’est donc également pour partie la reprise en main par la DSI. Qui pourrait y trouver plus que son compte ! Dans la vision de Salesforce, Force.com peut être très lié à AppExchange, la place de marché applicative mise à la disposition de l’écosystème Salesforce. Aujourd’hui, plus de 800 applications – nombre d’entre elles liées à l’intégration d’outil tiers partenaires ou encore à des fonctions connexes au CRM – sont mises à disposition. Et ceux des utilisateurs de Force.com qui le souhaitent peuvent y promouvoir – donc vendre - leurs applications

Pour asseoir un peu plus son dispositif, Salesforce – clairement la cible de la première offre Saas de Microsoft, Dynamics CRM Online – n’a pas hésité à signer et revendiquer un partenariat avec Google et ses Apps. Reste que les deux sociétés Internet ne devraient pas tarder à devenir concurrents… Le Paas étant également au menu de Google à travers Apps Engine.

Ressource – les plates-formes de Salesforce

Force.com 

Le wiki des développeurs Apex 

AppExchange

Les start-up : AppNexus et Gogrid

Ces deux nouveaux acteurs proposent uniquement du service lié au Cloud Computing. Chacun d’eux a développé une offre de type EC2 d’Amazon, assez simple à mettre en oeuvre. Outre leur côté spécialiste de la répartition de charge, leur potentiel réside dans la transparence de l’offre, importante dans un environnement aussi virtualisé. Reste des limites en terme de potentiel d’infrastructure. Avec deux datacenters (en Californie et au New Jersey), AppNexus aurait du mal à répondre à de trop grosses sollicitations. Depuis que les gros du secteur ont décidé de s’y mettre, on peut estimer à quelques centaines de millions le coût d’un datacenter d’envergure pour espérer figurer dans la bataille qui se prépare. Et il faudra compter plusieurs de ces monstres pour proposer une offre crédible aux grands comptes ou encore aux futurs éditeurs de service en ligne.
Les deux sont donc plutôt des cibles potentielles pour des acteurs partis en retard.

Ressource – App Nexus et Gogrid

Accueil AppNexus 

Wiki AppNexus 

Accueil GoGrid

Didier Durand, Publicitas : « rien n'équivaudra le cloud computing en fiabilité et en coût »

Entretien avec Didier Durand, responsable Architecture et Technologie  de Publicitas (principale régie publicitaire presse Suisse) et créateur du blog Médias & Tech.

LeMagIT : Dans un post sur votre blog vous expliquiez récemment que le cloud computing allait modifier fortement la gestion des SI en entreprise. En quoi ?

Didier Durand : A très court terme, il n’y aura à mon avis pas de révolution dans les entreprises. Ces dernières ne sont pas prêtes à externaliser vers un "nuage hautement virtuel" et ce type d’approche demeure donc très nouvelle pour les décideurs qui hésiteront certainement à y déplacer leurs applications et données critiques. En revanche, l’impact indirect est déjà fort. Pour Publicitas par exemple nous utilisons les offres de service actuelles (EC2 ou S3 par exemple) comme benchmark sur les prix. La question que doit se poser la DSI est : est-on capable de produire de "l’énergie informatique" au même coût qu’Amazon, un acteur que je suis particulièrement ? On peut alors souvent constater très vite une différence de niveau, notamment pour des raisons très évidentes d’échelle. Dans une période où la flexibilité et la réduction des coûts du SI sont de plus en plus demandées côté utilisateurs, cela donne à réfléchir. L’arrivée du cloud computing incite également à se reposer la question du modèle d’achat de l’informatique. On aura de moins en moins d’achats en bloc, et de plus en plus de calcul du paiement à l’usage, y compris dans le cadre d’investissements pour des infrastructures internes. On se dirige à mon avis vers un "kiloWatt d'énergie informatique" acheté par l'entreprise comme elle achète son électricité. La seule question restante est la vitesse d'évolution vers ce nouveau modèle.

La sécurité des données semble être le principal frein à une adoption plus rapide des infrastructures de cloud computing voir des applications en mode Saas, qu’en est-il exactement? 

C’est le principal problème. Les entreprises devront évaluer le niveau de criticité de leurs données. Par exemple, chez Publicitas, on réfléchit actuellement à une éventuelle bascule mais sur les données non directement sensibles comme celles liées aux archives d'annonces déjà parues par exemple. Il s'agit d'expérimenter sans risque. En revanche les entreprises conserveront encore longtemps les données d’applications critiques comme la comptabilité ou l’administration des ventes. Les gens ne sont pas près de lâcher leur ERP (SAP par exemple). Il y a un problème psychologique. Les entreprises pensent que leurs données sont mieux là, dans leur SI local, que chez un fournisseur virtuel sur Internet. Même si la démarche représente encore un pas en avant dans la virtualisation par rapport à un outsourcing classique, pour ma part je ne suis pas sûr qu’elles aient raison. Mais, il faut laisser du temps au temps.

Pour les données stockées sur des services américains, le problème peut être également lié au Patriot Act. Depuis 2001 et la guerre déclarée au terrorisme, les autorités américaines ont la possibilité très vite d’accéder aux données informatiques, sans devoir véritablement en  demander l’autorisation à qui que ce soit, même pas à un juge. Cela fait forcément réfléchir les entreprises étrangères.

Quelques incidents ont frappé les prestataires  proposant déjà des services fondés sur le cloud computing, on pense par exemple à Amazon au printemps ou Google plus récemment,  qu’en est-t-il de la fiabilité des services ?

On est encore en période de rodage mais déjà les prestataires sont très forts, en tout cas plus que des services internes ou même des hébergeurs traditionnels dans beaucoup de cas. Ils ont des équipes nombreuses et très pointues et ils éprouvent leurs  processus  et dispositifs de haute disponibilité très performants en permanence. Maintenant sur Internet les choses sont rendues bien plus sensibles à cause de la transparence. Sur le web, le "coup de chaud" se voit tout de suite et l’information fait très vite le tour de la toile. Mais la plupart des entreprises connaissent cela aussi  de temps en temps et personne ne le sait. A terme, rien n’équivaudra en infrastructure et en fiabilité ce que des sociétés comme Amazon sont en train de mettre en place et qui est déjà très haut. Elles travaillent à une échelle inatteignable pour une société standard. On parle d'un million de serveurs pour Google. Cela leur donne des moyens colossaux pour construire un système ultra-solide et ensuite pour le surveiller à la loupe, chaque seconde, 24h/24 et 7 jours sur 7.

Au final, quelle est la principale promesse du cloud computing ?

A mon avis, ce qui est intéressant se sont les nouvelles idées d’applications qui vont pouvoir émerger. Il y a encore 5 ou 10 ans, vous aviez une idée innovante et il fallait lever des fonds, plusieurs millions d’euros, pour déployer une infrastructure, acquérir les serveurs et les logiciels propriétaires (système, base de données, etc.)du démarrage… Avec le Cloud computing, pour tous les développements web qui demandent de gros calculs ou de grosses capacité de stockage, c’est vraiment intéressant. Les coûts informatiques peuvent suivre la croissance de l’activité. Donc, si l'idée ne fonctionne pas on ne perd pas beaucoup de capital et si l’idée est bonne, la flexibilité et la "scalability" sont là pour très vite répondre à un fort trafic. Ce que j'évoque ici pour une start-up est aussi bien sûr valide pour une société bien établie avec un"projet-éprouvette" sur lequel elle ne souhaite pas prendre le risque de gros investissements d'infrastructure initiaux. Même pour de l’hébergement simple, les coûts sont intéressants.

Je suis convaincu  qu’entre le logiciel libre et le cloud computing, l'innovation va "bourgeonner" car elle devient nettement moins lourde et risquée. On va donc pouvoir voir émerger  des choses que l’on n’osait pas imaginer auparavant.

Ressources web autour du Cloud Computing

Quelques références en ligne autour du Cloud Computing. Cette liste est bien sûr non exhaustive, mais permet soit de faire le point sur la technologie et les services, soit – notamment à travers les blogs francophones mentionnés – de suivre régulièrement l’actualité autour du cloud computing.

Dossier extrémement complet d’Information Week avec la présentation de divers acteurs

Dossier d’Infoworld qui a le mérite de reposer sur des services testés

Le blog de Louis Naugés, qui commente régulièrement l’information sur le cloud computing

Didier Durand suit de près les évolutions du web et en rend régulièrement compte sur son blog Médias & Tech d’informations sur le cloud computing

Le site d’information sur les centres de données avec sa rubrique Cloud computing

Eléments de définition sur whatis avec de nombreuses ressources associées sur le cloud computing

Article plus généraliste publié dans TimesOnline

Pour approfondir sur Cloud

Close