Cette année, j’ai décidé de vous faire un billet chaque semaine avec les annonces que j’ai retenu du Re:Invent.

Ce billet est purement subjectif, ce que j’ai retenu n’est pas forcément le plus important, mais plutôt les informations que j’ai jugé pertinentes.

En complément de ce billet, vous pouvez aussi suivre les annonces via le GitHub de mon ami Victor :

zoph-io/awscon-onepager
📝 AWS Conferences One-Pagers. Contribute to zoph-io/awscon-onepager development by creating an account on GitHub.

Accrochez vous, il y a de l’annonce à la pelle !

EC2

AWS et Apple

Tout d’abord, parlons de l’annonce que vous n’avez pas pu manquer, AWS permet maintenant d’avoir des EC2 fonctionnant avec macOS ! Cette nouveauté ouvre de nouveaux horizons pour tester plus efficacement de manière automatisée ou pour de la compilation Mac/iPhone, etc. (Lien)

De nouvelles générations d’instances

AWS a annoncé aussi de nouvelles instances pour répondre à toujours plus de besoins :

  • Instance hautes performances en lecture/écriture : Les nouvelles instances r5b atteignent 60Gbs de bande passante sur leurs montages EBS et jusqu’à 260 000 IOPS ! (Lien)
  • Instance optimisée en volume de stockage : Les nouvelles instances d3 et d3en sont des instances optimisées pour les gros volumes de stockage (jusqu’à 366TB) permettant un accès rapide à ce volume conséquent de données (lien)
  • Nouvelles instances general purpose avec une fréquence élevée, les instances m5zn, basée sur des processeurs Intel Xeon peuvent atteindre une fréquence de 4,5 GHz (lien)

Du nouveau sur le stockage

En plus des annonces sur les instances, des annonces sur le stockage ont aussi été faites :

  • Toujours plus d’IOPS avec les volumes io2, pouvant atteindre un débit de 4Gbs et 256 000 IOPS, pour un volume maximum de 64 Tb, ces nouveaux volumes s’adressent aux applications ayant des besoins critiques en lecture/écriture (lien), de plus une réduction des coûts en burst de 15 % est annoncée (lien)
  • Annonce des volumes general purpose 3 (gp3), ces volumes sont les volumes "de base" offrant le meilleur rapport performances/coûts. Ces derniers sont annoncés avec une réduction de prix de l’ordre de 20 % par rapport au gp2 et des performances pouvant atteindre les 16 000 IOPS et 1Gbs (lien)

Le reste du monde EC2

Les annonces côté EC2 ne s’arrêtent pas là !

Cette première semaine c’est aussi :

  • Une amélioration des performances des workload Apache Spark sur les instances graviton (c6g/m6G/r6g). Ces processeurs, créés par AWS permettant un gain pouvant aller jusqu’à 15 % et une réduction des coûts de l’ordre de 30 % (lien)
  • Il est maintenant possible de taguer les AMI durant leur création, auparavant cela nécessitait des calls APIs supplémentaires après la création de l’image. Cela devrait simplifier la gestion des droits et les cycles de création et mise à jour (lien)

Containers et orchestration

Ce Re:Invent est aussi beaucoup centré sur les containers et le serverless.

ECR

Tout d’abord, on gardera en tête la réponse d’AWS aux récentes modifications sur le cycle de rétention des images dockers, en effet, AWS a annoncé la création d’ECR Public et ECR Public Gallery. ECR permettant auparavant de gérer ses images internes, il est maintenant possible de stocker des images publiques. Avec des niveaux de téléchargement possible anonymement assez élevé (50 Gb de stockage), qui peuvent être augmentés simplement en s’authentifiant. (lien)

EKS

Le service managé Kubernetes d’AWS n’est pas en reste non plus avec :

  • L’amélioration de la console EKS, qui remonte maintenant les API des ressources managées dans votre cluster (lien)
  • Le support des spot instances dans les nœuds managés, les finops vont être heureux ! (lien)
  • La simplification de l’installation d’addons sur EKS, qui vont permettre aux admins EKS de conserver un peu plus de cheveux ! (lien)
  • EKS Distro : La disponibilité du Kubernetes utilisé par EKS sur GitHub (lien)

Serverless

Lambda

Au fil des années, AWS Lambda est devenu le fer de lance de l’entreprise. On peut le voir au vu des changements drastiques qu’a subis son service depuis sa création.

Concurrencé aujourd’hui par tous les clouds providers et même par CloudFlare, Lambda continue d’évoluer pour tenter de rester le meilleur dans son domaine.

Cette semaine, nous n’avons pas été en reste :

  • Facturation des fonctions lambda à la ms au lieu des 100 ms. Cette annonce peut paraître anodine, mais cela représente des économies conséquentes pour les applications fonctionnant avec Lambda (lien)
  • Lambda supporte maintenant une configuration jusqu’à 10 Gb de mémoire et 6 vCPU, triplant la limite précédente (3 Gb/2vCPU) (lien)
  • Lambda supporte maintenant les containers en tant que package lambda, cela ouvre bien des portes supplémentaires, permettant de faire fonctionner presque n’importe quel langage possible (lien)
  • Disponibilité publique de Lambda Insight, permettant d’analyser plus efficacement le fonctionnement de ses fonctions pour identifier des points de blocage et donc optimiser toujours plus son code (lien)

Serverless everywhere

Le serverless chez AWS, ce n’est pas que Lambda, c’est aussi :

  • Aurora Serverless v2, nouvelle version du moteur relationnel AWS compatible MySql. Cette nouvelle version permet de provisionner plus efficacement la montée en charge, qui peut s’effectuer en quelques secondes pour payer toujours au plus juste de votre usage (lien)
  • AWS Batch + Fargate : AWS Batch peut maintenant exécuter des tâches dans AWS Fargate, permettant l’exécution de batch serverless orchestrable (lien)

S3

Au même titre que Lambda, S3 est l’une des marques de fabrique d’AWS, ayant démocratisé le stockage en mode objet en entreprise.

Il est rassurant de voir que ce service n’est pas abandonné et toujours mis à jour pour être toujours plus complet.

Je retiens trois annonces sur S3 :

  • S3 devient strong consistent, contrairement à tous les autres clouds providers (d’après AWS), S3 devient le seul stockage objet à ne pas être eventually consistent, de manière automatique, sans surcoût ou dégradation de performances. Cela signifie qu’un objet transféré est instantanément disponible dès son écriture. Auparavant une légère latence (quelques secondes) était possible (lien)
  • La réplication S3 est maintenant disponible au sein de la même région : auparavant, pour bénéficier de cette fonctionnalité, il fallait une destination dans une autre région. Ce changement est intéressant lorsque l’on doit copier les données pour certains traitements, comme un datalake par exemple (lien)
  • Il est maintenant possible de faire de la réplication S3 bidirectionnelle, entre deux bucket S3. Cela permet par exemple d’avoir des bucket dans plusieurs régions (au plus proche de vos utilisateurs) qui se répliquent entre eux (lien)

Sujets à suivre

Deux sujets m’ont fait réagir, mais j’attends de voir encore des cas concrets et le positionnement d’AWS dans les semaines/mois à venir pour me faire mon avis :

  • AWS Proton : Une interface de pilotage pour les déploiements serverless et containers. Cette annonce me fait douter, en effet, dans les entreprises aujourd’hui, lorsque l’on utilise du container et/ou du serverless, on a souvent les pipelines automatisés qui vont avec, de fait, je ne comprends pas bien le positionnement d’AWS sur le sujet. (lien)
  • AWS Monitron : Un service de supervision de matériel pouvant prédire les pannes en se basant sur du machine learning. Le concept me plait bien et je pense qu’il peut être adapté à l’IOT par exemple, ou pour gérer une flotte de périphérique en entreprise, mais une fois de plus, j’attends de voir des usages concrets pour me prononcer dessus. Le machine learning est un usage à la mode, faut-il qu’il soit efficace. (lien)

En conclusion

Cette première semaine d’annonce a déjà été riche de nouveautés. Cette année, le re:Invent dure 3 semaines au lieu d’une seule, entièrement à distance et accessible gratuitement.

Je suis très enthousiaste sur toutes ces annonces, et j’attends avec impatience ce que nous réserve AWS pour les deux prochaines semaines.

Personnellement, j’attends des news sur l’IAM qui montre trop souvent ses limites et CloudFormation, trop rigide à mon goût.

Et vous que pensez-vous des annonces jusque là ?