logo

 

AWS re:Invent 2021

AWS re:Invent2021

AWS re:Invent 2021

L’édition 2021 du re:Invent, la célèbre conférence technique annuelle mondiale d’AWS, s’est déroulée la semaine dernière, du 29/11 au 02/12, à Las Vegas. L’occasion pour AWS de fêter ses 15 ans d’existence.

Comme chaque année, l’événement a été riche en annonces, avec pas moins d’une soixantaine de nouveautés pour cette 10ème édition (nouvelles instances, nouveaux services, ajout de fonctionnalités à des services déjà existants…) annoncées à travers les keynotes d’Adam Selipsky (CEO AWS), de Swami Sivasubramanian (VP Machine Learning), de Peter DeSantis (Senior VP AWS Utility Computing) et de Werner Vogels (CTO AWS). Parmi elles, on retrouve 10 nouveautés dans la catégorie Stockage, 9 sur les sujets d’intelligence artificielle et de machine learning et 8 dans la catégorie Calcul.

Nous vous présentons ci-dessous quelques-unes des annonces du re:Invent 2021 qui ont retenues notre attention.

Catégorie Analytics :

Disponibilité (en preview) d’Amazon Redshift Serverless, donnant la possibilité de faire de l’analyse de données sans avoir à se préoccuper de la gestion de son entrepôt de données. Il suffit simplement de transmettre les données à analyser et Amazon Redshift Serverless s’occupe du provisioning des clusters. Vous ne payez que le temps (en secondes) pendant lequel votre entrepôt de données est actif. À mesure que votre demande évolue avec davantage d’utilisateurs simultanés et de nouvelles charges de travail, votre entrepôt de données évolue de manière transparente et automatique pour s’adapter aux changements. Cela va vous permettre d’expérimenter plus facilement des analyses de données dans des contextes où il est difficile d’anticiper les volumes de charges de travail et les besoins en calcul.

Plus d’informations ici

Catégorie Base de données :

Annonce d’Amazon DynamoDB Standard-Infrequent Access (DynamoDB Standard-IA), une nouvelle classe de table pour DynamoDB qui réduit les coûts de stockage de 60 % par rapport aux tables DynamoDB Standard. Cela permet de stocker des données peu utilisées à bas coût sans pour autant avoir à transférer les données vers S3.

Plus d’informations ici

Catégorie Calcul :

Annonce (en preview) des instances Amazon EC2 C7g, équipées de la puce Graviton 3 (sorti en 2018, Graviton est le processeur créé par AWS). Ces instances seront privilégiées pour les charges de travail nécessitant de très fortes capacités de calcul (HPC, encodage de média, analyse distribuée…). La puce Graviton 3 devrait offrir jusqu’à 25 % de performances de calcul en plus par rapport à Graviton 2.

Plus d’informations ici

Catégorie Intelligence Artificielle et Machine Learning :

Disponibilité (en preview) d’Amazon SageMaker Studio Lab, un service gratuit qui permet à quiconque d’apprendre et d’expérimenter le Machine Learning sans avoir besoin d’un compte AWS, d’une carte de crédit ou même de connaissances en configuration cloud.

Plus d’informations ici

Disponibilité d’Amazon SageMaker Inference Recommender, une nouvelle fonctionnalité qui automatise les tests de charge et optimise les performances du modèle sur les instances de Machine Learning. Cela permet aussi de donner aux ingénieurs MLOps des recommandations sur le meilleur type d’instance disponible pour exécuter leur modèle.

Plus d’informations ici

Amazon DevOps Guru est enrichi d’une fonctionnalité pour RDS permettant, grâce au Machine Learning, aux développeurs de détecter, comprendre et résoudre facilement les problèmes opérationnels ou de performance rencontrés sur Amazon Aurora.

Plus d’informations ici

Catégorie Management Tools :

Annonce de la possibilité d’utiliser AWS Control Tower (qui permet de configurer et de gérer simplement un environnement AWS multi-comptes) pour déployer des contrôles sur la résidence des données (appelés guardrails) et ainsi empêcher que des ressources soient déployées sur des régions non désirées.

Egalement annoncé, la possibilité dorénavant d’utiliser AWS Control Tower pour provisionner et personnaliser des comptes AWS via Terraform à l’aide d’un pipeline de déploiement avec le service AWS Control Tower Account Factory for Terraform.

Plus d’informations ici et

Annonce de Real-User Monitoring pour Amazon CloudWatch un service permettant de collecter des métriques afin de comprendre l’expérience utilisateur sur une application Web.

Plus d’informations ici

Catégorie Sécurité :

Ajout de la fonctionnalité d’atténuation automatique pour les attaques ciblant la couche applicative dans la version Advanced d’AWS Shield (le service de protection de vos serveurs AWS contre les attaques DDoS sophistiquées sur les couches 3 à 7 du modèle OSI). Cette fonctionnalité bloque automatiquement les attaques DDoS sur la couche 7 et isole le trafic anormal en créant automatiquement des règles AWS WAF dans les listes de contrôles d’accès (ACL) web.

Plus d’informations ici

Annonce d’Amazon CodeGuru Reviewer Secrets Detector, qui, grâce au Machine Learning, permet de détecter automatiquement les secrets (mots de passe, jetons d’accès, clefs SSH…) qui seraient écrits en dur dans le code ou dans les fichiers de configuration.

Plus d’informations ici

Catégorie Réseaux :

Annonce d’Amazon VPC Network Access Analyzer qui permet d’identifier les configurations réseau qui conduisent à un accès réseau involontaire. Ce service utilise le raisonnement automatisé comme AWS IAM Access Analyzer ou Amazon Inspector Network Reachability.

Plus d’informations ici

Catégorie Stockage :

Annonce de la nouvelle classe de stockage Amazon S3 Glacier Instant Retrieval permettant d’obtenir le plus faible coût de stockage pour des données devant être archivées durablement mais nécessitant de pouvoir être retrouvées en quelques millisecondes (jusqu’à 68 % d’économie sur les coûts de stockage par rapport à l’utilisation de la classe de stockage S3 Standard-Infrequent Access). Cette nouvelle classe de stockage peut déjà être utilisée par S3 Intelligent-Tiering (qui classe automatiquement vos objets dans la classe de stockage la plus adaptée et la plus économique en fonction des objets et de leur utilisation).

Plus d’informations ici

Toujours à propos de S3, il est désormais possible de désactiver les listes de contrôle d’accès (ACL) pour simplifier la gestion des accès aux données stockées dans Amazon S3. Egalement, la console Amazon S3 signale désormais les erreurs, les alertes de sécurité et suggère les modifications à apporter aux règles d’accès S3.

Plus d’informations ici

Annonce de 2 nouvelles fonctionnalités pour EBS : la possibilité d’archiver à bas coût les Snapshots EBS ne nécessitant pas d’accès pendant 90 jours ou plus, et une poubelle de recyclage pour les Snapshots EBS. Cette dernière fonctionnalité apporte un niveau de contrôle supplémentaire dans la suppression des Snapshots EBS qui se fait désormais en 2 temps, diminuant ainsi les risques de suppression accidentelle (il est possible de donner le droit de suppression définitif à un administrateur de la poubelle).

Plus d’informations ici et

Annonce de la prise en charge par AWS Backup de VMware qui permet de centraliser et d’automatiser la protection des données des VM exécutées sur VMware On-Premise et VMware CloudTM sur AWS.

Plus d’informations ici

Catégorie Architecture :

Ajout d’un 6ème pilier à l’AWS Well-Architected Framework : le développement durable (Sustainability en anglais).

L’AWS Well-Architected Framework, rappelons-le, permet d’analyser une architecture AWS à travers un ensemble de questions afin d’évaluer si celle-ci respecte les bonnes pratiques et recommandation d’AWS en terme de catégories suivantes : Sécurité, Excellence Opérationnelle, Fiabilité, Optimisation des Coûts et Efficacité des Performances.

Avec ce 6ème pilier, l’idée est de permettre aux clients d’AWS d’apprendre, de mesurer et d’améliorer leurs charges de travail en utilisant les meilleures pratiques environnementales pour le cloud computing en terme d’architecture, design et implémentation. Ce pilier repose sur un principe de responsabilité partagée (comme le pilier Sécurité) : AWS est responsable de l’impact écologique du cloud dans sa globalité (l’infrastructure physique sur les composantes énergétiques, refroidissement etc…) et le client est responsable de l’impact écologique de son utilisation des ressources dans le cloud. Ce pilier comprend des principes de conception, des directives opérationnelles, ainsi que des modèles d’architectures d’infrastructure et logicielle.

Parmi les recommandations pour réduire son emprunte écologique on peut trouver l’optimisation de l’emplacement géographique des charges de travail par rapport aux emplacements des utilisateurs, l’optimisation des parties de code qui consomment le plus de temps ou de ressources, l’optimisation de l’impact sur les appareils et les équipements des clients, la mise en œuvre d’une politique de classification des données, l’utilisation des politiques de cycle de vie pour supprimer les données inutiles, ou encore la minimisation des déplacements de données sur les réseaux.

Plus d’informations ici.

Si vous souhaitez aller plus loin sur le re:Invent 2021 nous vous conseillons les ressources suivantes :

  • La liste complète des annonces du re:Invent 2021 ici
  • L’excellent podcast de Sebastien Stormacq sur l’évènement (en 4 parties) : episode 1, 2, 3 et 4