Cloud Amazon Web Services : le point sur les services de stockage

D2SI_Blog_Image_Cloud_Amazon_Web_Service (1)

Non seulement on va le faire, mais en plus on va le vendre!

L’histoire raconte que c’est en ces termes que Jeff Bezos, CEO d’Amazon, aurait accepté l’idée de Werner Vogels, CTO, de lancer le déploiement de services cloud.

Aujourd’hui Amazon est leader sur le marché des services de stockage. Et quand on évoque le géant de la vente en ligne, on imagine des entrepôts géants remplis de toutes sortes de biens de consommation, mais pas forcément des batteries de serveurs destinés à répondre à une demande à très forte saisonnalité. Amazon n’a pourtant fait que répliquer la logique appliquée à ses centres de distribution, qui avaient ouvert leurs services logistiques à d’autres commerçants. Les coûts sont ainsi amortis, et l’activité présente des marges supérieures à celles de la vente en ligne.

D2SI_Blog_Image_Cloud_Amazon_Web_Service (2)

La puissance de feu d’Amazon Web Services

Amazon a longtemps maintenu un grand secret autour d’Amazon Web Services. Depuis un an en revanche, l’entreprise commence à distiller des informations au compte-goutte. On sait par exemple maintenant qu’Amazon construit ses propres serveurs et ses propres switchs ! Si Amazon Web Services ne communique toujours pas le nombre de serveurs qu’ils utilisent aujourd’hui, les estimations donnent le tournis : on parle d’un parc de plus d’un million de serveurs. On estime à plus de 200 000 le nombre de serveurs déployés chaque année ; à titre de comparaison, la taille du parc installé de toutes les entreprises du CAC40 est du même ordre de grandeur. Le nombre d’entreprises françaises possédant plus de 20000 serveurs se compte sur les doigts de la main… Cette puissance de feu permet à Amazon d’abriter le plus grand système de stockage au monde : S3, son service de stockage Objet contient ainsi plus de 2 trillions d’objets (images, vidéos, fichiers…) et répond à plus d’un million de requêtes par seconde. L’activité Amazon Web Services représente pourtant à peine 5 à 10% du CA d’Amazon, mais les analystes de Gartner constatent encore aujourd’hui une croissance largement supérieure à celle de ses concurrents. D’après Evercore, les recettes en 2015 atteindraient 8 milliards de dollars (contre 3 aujourd’hui). Jeff Bezos pense d’ailleurs qu’AWS pourrait rapidement devenir la principale entité du groupe.

C’est quoi le Cloud ?

Au-delà du buzzword, au-delà des chiffres, nous allons donc détailler ce qu’est le service de cloud, et plus précisément l’offre d’AWS. Le cloud répond à des problèmes de variabilité de la demande. Dans les modèles d’infrastructure classique, soit on manquait de ressources par rapport au besoin, soit les ressources dépassaient largement les besoins. L’idée du cloud est donc de fournir de l’élasticité, d’augmenter les ressources en fonction de la charge.D2SI_Blog_Image_Cloud_Amazon_Web_Service (1)

Le service est payable à l’usage, et accessible via un navigateur Web. Il s’agit d’un service que l’on pourrait comparer au réseau de distribution d’électricité, basé sur un système de grilles. Les ressources sont partagées, permettant ainsi des économies d’échelle. C’est un système standardisé et simplifié : on se connecte à un réseau qui fournit la puissance de calcul nécessaire à l’instant T. L’avantage en termes de coûts est évident, libérant les entreprises d’investissements lourds qui pesaient sur les fonds propres : on paie maintenant à l’usage, on achète des ressources (puissance de calcul, stockage) au moment du besoin.

Des différents types de Cloud et leur déploiement

Les services de cloud se répartissent en plusieurs grandes familles :

– l’infrastructure à la demande (serveurs, stockage, réseau…), dite IAAS

– les applications à la demande (SAAS), comme Gmail, Dropbox, Salesforce, etc. De nombreuses sociétés utilisent maintenant ces services pour opérer leurs boîtes mail

– les plateformes à la demande (PAAS), qui proposent serveurs d’applications et bases de données gérées : l’équipe qui les utilise voit par exemple seulement un « service de base de données » sans avoir à configurer le moteur ou gérer le stockage ou les backups

Public, privé, hybride ou opéré, plusieurs types de déploiements sont possibles. Dans le premier cas, les services sont fournis à l’extérieur des entreprises sur des serveurs mutualisés. Si les serveurs appartiennent à l’entreprise, on parle alors de cloud privé. Celui-ci peut être géré par une entreprise tierce, auquel cas il s’agit d’un cloud opéré. Dernier cas de figure, le cloud hybride utilise simultanément du privé et du public. Les frontières entre ces différents types de déploiements sont de moins en moins claires. Les clouds privés des entreprises sont souvent déployés dans des datacentres loués à des tiers et certains cloud publics proposent maintenant des serveurs dédiés, garantissant qu’une entreprise sera la seule à les utiliser.

Sécurité
Quid de la sécurité ? La protection des données est forcément un sujet sensible sur lequel le cloud cristallise les interrogations. Une fois de plus, le géant américain est bien placé : étant donné qu’Amazon utilise ses propres services Cloud, ses clients bénéficient du même niveau de sécurité. Et quand on sait que la CIA vient lui confier son contrat pour un montant de 600 millions de dollars, on se dit qu’AWS doit tenir la route côté protection. En l’occurrence, le cloud de la CIA sera construit en utilisant l’architecture et les services AWS ; seul l’accès diffèrera de celui des clients classiques. Toujours est-il qu’AWS permet une encryption des données côté client/serveur, et un contrôle des accès via IAM/ACL (Access Control List). Amazon s’appuie par ailleurs sur de nombreuses certifications de sécurité, y compris physiques (double identification sur site).

Mais la sécurité, c’est aussi assurer la pérennité des données via la redondance. L’infrastructure d’AWS est répartie sur 9 régions et 25 zones de disponibilité : chaque donnée stockée sur un serveur dans une zone est immédiatement dupliquée sur d’autres serveurs, dans la même zone, et dans d’autres zones de disponibilité dans le cas de S3. Si une zone « tombait », il resterait toujours d’autres backups, chaque zone étant complètement indépendante des autres.

D2SI_Blog_Image_Cloud_Amazon_Web_Service (2)

Quelques services d’AWS plus en détail

Depuis le lancement de ses premiers services en 2006, Amazon a considérablement étoffé la gamme. On peut notamment citer les instances EC2, des machines virtuelles proposant tous types d’OS (OS serveurs), de taille, de type de disque (SSD ou non).

L’autoscaling (capacité de rajouter automatiquement des machines à une ferme), et le load balancing (distribution dynamique du trafic sur un certain nombre de machines) sont des services à part que l’on peut activer. Concrètement, c’est ce type de solution qui a permis à une start-up comme Instagram de se lancer avec une facturation mensuelle très basse, et de passer de 1000 à 2000, 5000 clients par mois sans avoir à faire évoluer leur infrastructure. La facture évolue en fonction des besoins, et si les tarifs de départ sont bas, le coût peut rapidement monter. Pourtant, pour rester compétitif, Amazon fait évoluer ses prix en permanence : depuis la création, ils ont baissé plus de 30 fois.

D2SI_Blog_Image_Cloud_Amazon_Web_Service (3)

Citons également les stockages S3 (Objet), EBS (stockage bloc).

Autre service : VPC, un réseau virtuel privé au sein du cloud public Amazon, entièrement configurable et programmable, sujet sur lequel AWS est très en avance. Pour les plus grosses sociétés, AWS propose également des liens dédiés à hauts débits avec Direct Connect.

AWS c’est aussi Route 53, un service de DNS dynamique et programmable, Redshift, un datawarehouse à la demande et de très nombreux autres services.

EBS, Elastic Block Storage
Les EBS sont des disques persistants fournis aux machines virtuelles sur Amazon Web Services via le réseau. Ils peuvent servir de disque de démarrage aux instances, mais aussi de disques de stockage permettant d’héberger des bases de données. On peut configurer un disque EBS comme on le souhaite en termes de taille et de performance (les couts dépendant bien sûr de ces paramètres).

S3, Simple Storage Service
S3 propose le plus haut niveau en matière de durabilité et disponibilité. Chaque objet y est associé à une URL unique, sans limite de stockage. L’accès aux données en lecture/écriture peut se faire de façon simultanée. S3 propose de nombreuses options : on peut gérer finement les droits d’accès, on peut activer le versionning (ce qui permet entre autre de pallier une suppression accidentelle)… Une redondance intra régionale assure la durabilité des données, même en cas de panne sur un datacentre.
Ce système est adapté à l’hébergement de sites web statiques, au stockage de contenus destinés à la distribution (partage vidéo) et aux stockages des données dont on aura de nouveau besoin rapidement. Il ne convient pas aux systèmes de fichiers classiques ou nécessitant la gestion de la concurrence (écritures simultanées), ou aux accès nécessitant de hautes performances (en terme de latence par exemple).

Glacier, le stockage froid
Glacier, c’est un peu comme un congélateur sans limite de taille : vous pouvez y stocker vos archives pour un coût mensuel très faible (0,01$/go), avec le même niveau de durabilité que S3. Mais la récupération des données prend entre 3 et 5h : ce stockage est destiné à remplacer les données sur bande, il ne convient pas aux applications en temps réel ou aux données nécessitant des modifications régulières. Amazon propose également d’autres offres de stockage, comme la Storage Gateway, un stockage interne lié à S3 via une passerelle.

La tarification

La stratégie de tarification d’Amazon Web Services est assez proche de celle de la vente en ligne : l’objectif n’est pas de faire des marges confortables mais d’avoir de gros volumes. C’est ce qui explique qu’Amazon Web Service baisse régulièrement ses prix. Amazon Web Services propose une tarification basée sur la consommation, dont la facturation est détaillée et dépend de nombreux paramètres qui varient selon les services : durée d’utilisation, volumes utilisées, options activées… Pour les machines virtuelles, différents modèles de coûts permettent de répondre à tous les cas de figure : paiement à l’heure sans engagement, paiement initial suivi d’une réduction sur le tarif, enchères sur un prix spot…jusqu’aux équipements dédiés à un seul client, pour les workload sensibles ou avec des contraintes réglementaires. De fait, toutes ces possibilités et options rendent le système de facturation assez complexe : sans une solide expérience du service et une estimation fiable des besoins, il est difficile de se projeter dans les coûts.

D2SI_Blog_Image_Cloud_Amazon_Web_Service (4)

Article réalisé suite au KM Time AWS Service, organisé par Laurent Bernaille et Prajeeth Pahitharan

Commentaires :

A lire également sur le sujet :