Le Bilan de l’été 2025 : les grandes nouveautés d’AWS
Aout 2025
Un nouveau support à long terme pour Amazon Aurora MySQL
Le support à long terme (LTS) est maintenant disponible pour Aurora MySQL 3.10. Les clusters qui l’utilisent peuvent rester sur cette version pendant au moins trois ans, ne recevant que les correctifs de sécurité et de bogues critiques, sans l’ajout de nouvelles fonctionnalités. C’est la deuxième version à bénéficier de ce support, après la version 3.04.
L’objectif est d’offrir plus de stabilité et de prévoir plus facilement le cycle de vie de vos applications. Cette mise à jour est disponible dans toutes les régions AWS qui supportent Aurora MySQL.
Pour en savoir plus sur cette mise à jour, lisez mon article [ici].
Amazon S3 lance une nouvelle méthode pour vérifier vos données
Amazon S3 introduit une nouvelle capacité de calcul de somme de contrôle dans ses Opérations par lot S3. Cette fonctionnalité vous permet de vérifier l’intégrité de milliards d’objets de manière efficace et à faible coût.
Il vous suffit de créer une tâche, de fournir une liste d’objets ou de spécifier un compartiment, de choisir un algorithme (comme SHA-1, SHA-256, CRC32, etc.), et S3 s’occupe du reste. Une fois la tâche terminée, vous obtenez un rapport détaillé qui peut servir à des fins de conformité ou de vérification.
Cette nouvelle fonctionnalité est disponible dans toutes les régions AWS et vous permet de réduire considérablement les efforts, le temps et les coûts associés à la vérification de vastes jeux de données.
Découvrez comment cette nouvelle fonctionnalité peut améliorer la gestion de vos données ici !
De nouvelles options d’instances pour optimiser vos charges de travail sur AWS Batch
AWS Batch a lancé deux nouvelles options pour les types d’instances de ses environnements de calcul : default-x86_64
et default-arm64
. Ces options sélectionnent automatiquement l’instance la plus rentable parmi différentes générations pour l’exécution de vos tâches.
Auparavant, AWS Batch ne supportait que le type d’instance “optimal”, qui se concentrait sur les familles M, C et R d’EC2. Les nouvelles options élargissent ce choix pour inclure les instances de nouvelle génération, ce qui peut se traduire par de meilleures performances et des coûts réduits. Les nouveaux types d’instances sont ajoutés automatiquement aux groupes par défaut dès qu’ils sont disponibles dans une région.
Pour profiter de cette fonctionnalité, il vous suffit de sélectionner default-x86_64
ou default-arm64
dans les paramètres de votre environnement de calcul géré. L’option “optimale” existante reste disponible et n’est pas remplacée.
Plus d’infos sur le blog de lancement.
De nouveaux modèles pour l’inférence par lots sur Amazon Bedrock
L’inférence par lots sur Amazon Bedrock vous permet d’exécuter plusieurs requêtes d’inférence en même temps, pour une performance accrue et une réduction des coûts par rapport à l’inférence à la demande. Les nouveaux modèles Claude Sonnet 4 et GPT-OSS sont particulièrement adaptés au traitement de gros volumes de données pour des tâches telles que l’analyse de documents, la génération de contenu en masse, l’extraction de données structurées et la synthèse automatisée.
Amazon a optimisé le traitement par lots pour ces modèles, améliorant le débit global. De plus, vous pouvez maintenant suivre la progression de vos tâches grâce aux métriques Amazon CloudWatch, avec des indicateurs comme le nombre d’enregistrements en attente, traités, ou de jetons par minute.
En bref, cette nouveauté rend l’utilisation des modèles d’IA sur de grands volumes de données plus simple, plus rapide et plus abordable.
Pour en savoir plus sur l’inférence par lots dans Amazon Bedrock visiter le guide utilisateur.
De meilleures exceptions de limitation pour Amazon DynamoDB
Amazon DynamoDB introduit une amélioration significative pour la gestion des limitations. Les exceptions de limitation sont maintenant plus granulaires et accompagnées de métriques Amazon CloudWatch spécifiques.
Désormais, une exception de limitation fournit une liste des raisons exactes pour lesquelles votre requête a été limitée, ainsi que l’ARN (Amazon Resource Name) de la table ou de l’index concerné. Ces informations permettent de comprendre précisément la cause du problème, qu’il s’agisse d’un débit configuré insuffisant, de la nécessité de passer en mode capacité à la demande, ou d’un modèle d’accès à optimiser.
Cette fonctionnalité est un atout majeur pour les développeurs et les administrateurs de bases de données, leur permettant de résoudre les problèmes de performance beaucoup plus rapidement. Pour en bénéficier, il vous suffit de mettre à jour votre kit SDK vers la version la plus récente et de consulter les nouvelles métriques CloudWatch.
Accédez à AWS Certificate Manager en toute sécurité avec AWS PrivateLink
AWS Certificate Manager (ACM) renforce sa sécurité en s’intégrant avec AWS PrivateLink. Cette nouveauté permet de créer une connexion privée entre votre Amazon VPC et l’API ACM. Toute communication se fait ainsi sur le réseau sécurisé d’AWS, ce qui aide à répondre aux exigences de conformité en évitant l’exposition de vos données sur le web public.
Cette fonctionnalité simplifie la gestion des certificats TLS publics et privés pour vos services AWS intégrés comme Amazon CloudFront ou Load Balancing, ainsi que pour vos charges de travail hybrides. Pour en profiter, il vous suffit de créer un point de terminaison d’interface dans AWS PrivateLink via la console de gestion AWS, l’AWS CLI ou AWS CloudFormation.
Cette mise à jour est maintenant disponible dans toutes les régions AWS où ACM et PrivateLink sont supportés.
Nouvelles actions recommandées pour la facturation AWS
Le widget d’actions recommandées de la console de facturation et gestion des coûts AWS s’enrichit de six nouvelles actions, qui s’ajoutent aux 15 existantes. Ces nouvelles actions portent sur des sujets essentiels tels que les paiements expirés et les numéros d’enregistrement fiscal invalides. Pour une meilleure gestion, toutes les recommandations sont désormais classées par priorité : critique, consultative ou informative.
Ces recommandations ont pour but d’aider les clients à identifier et à résoudre rapidement les problèmes de facturation. Elles proposent une action spécifique, permettant d’optimiser les dépenses AWS et d’éviter les interruptions de service. L’accès à ces actions se fait via le widget de la console ou par le biais d’une nouvelle API publique, disponible gratuitement.
Ces nouvelles fonctionnalités sont disponibles dans toutes les régions commerciales d’AWS, à l’exception de la Chine.
Nouvelle gestion du trafic Internet entrant sur Amazon VPC
Jusqu’à présent, les passerelles Internet d’Amazon VPC ne prenaient en charge que le trafic destiné aux adresses IP directement associées aux interfaces réseau, ce qui limitait le nombre d’IP routables en fonction du type d’instance. Cette nouvelle fonctionnalité lève cette contrainte en permettant de regrouper un grand nombre d’adresses IP publiques, notamment celles apportées par le client via Bring Your Own IP (BYOIP), et de les acheminer vers une unique ENI.
Cette amélioration est particulièrement bénéfique pour les cas d’usage impliquant de très grands groupes d’adresses IP, comme dans les domaines des télécommunications et de l’IoT. Elle élimine la nécessité d’utiliser des solutions de traduction d’adresses complexes et coûteuses. De plus, elle peut être utilisée avec VPC Route Server pour une mise à jour dynamique des routes en cas de défaillance.
Cette fonctionnalité est disponible dans toutes les régions commerciales, en Chine et sur GovCloud.
Amazon OpenSearch Service étend son analytique opérationnelle
L’expérience d’analytique opérationnelle modernisée d’Amazon OpenSearch Service est désormais disponible dans sept régions supplémentaires. Cette extension permet d’obtenir des informations sur les données à partir d’un point d’accès unique, simplifiant l’analyse pour les utilisateurs.
En parallèle, de nouvelles fonctionnalités ont été ajoutées pour optimiser la collaboration et la productivité :
- Espaces de travail : Les équipes peuvent désormais créer des environnements dédiés pour travailler sur des requêtes et des tableaux de bord.
- Interface Discover repensée : Elle prend en charge de nouveaux langages (PPL et SQL, en plus de DQL et Lucene) et offre une meilleure facilité d’utilisation grâce à un sélecteur de données multi-sources et à l’auto-complétion des requêtes.
Cette interface améliorée fonctionne avec toutes les versions (supérieures à 1.3) des domaines et collections OpenSearch, garantissant un accès aux dernières mises à jour de l’interface, quelle que soit la version sous-jacente.
AWS Batch prend en charge AWS Graviton et Fargate Spot
C’est une excellente nouvelle pour les développeurs qui cherchent à optimiser leurs dépenses : AWS Batch pour ECS Fargate supporte maintenant les instances AWS Graviton avec Fargate Spot. Les processeurs Graviton, conçus sur mesure par AWS, offrent un meilleur rapport qualité-prix, et en les combinant avec Fargate Spot, les économies peuvent atteindre 70 % pour les tâches qui peuvent être interrompues et redémarrées.
Cette nouvelle fonctionnalité est idéale pour les charges de travail tolérantes aux pannes et permet de bénéficier de la simplicité du calcul sans serveur tout en profitant des avantages de coût de la capacité Spot et des processeurs Graviton.
Pour l’utiliser, il suffit de créer un environnement de calcul (CE) configuré avec Fargate, de choisir ARM64
pour l’architecture CPU et FARGATE_SPOT
comme type. Ensuite, vous pouvez l’associer à vos files d’attente de tâches existantes ou en créer de nouvelles.
Cette fonctionnalité est disponible dans toutes les régions commerciales et GovCloud (US).
AWS Config étend sa couverture des ressources
AWS Config, le service qui vous aide à évaluer et auditer la configuration de vos ressources, étend son champ d’action. En ajoutant 10 nouveaux types de ressources, il offre une vision plus complète de votre infrastructure AWS.
Désormais, vous pouvez suivre, évaluer et corriger les configurations pour :
AWS::Backup::RestoreTestingPlan
AWS::CloudFront::RealtimeLogConfig
AWS::EC2::SecurityGroupVpcAssociation
AWS::EC2::VerifiedAccessInstance
AWS::KafkaConnect::CustomPlugin
AWS::OpenSearchServerless::SecurityConfig
AWS::Redshift::Integration
AWS::Route53Profiles::ProfileAssociation
AWS::SSMIncidents::ResponsePlan
AWS::Transfer::Server
Pour les clients ayant déjà activé l’enregistrement de toutes les ressources, ces nouveaux types sont suivis automatiquement. Ils sont également disponibles pour les règles de configuration et les agrégateurs de configuration, ce qui permet de les intégrer directement dans vos processus de conformité et de gouvernance.
Amazon Bedrock étend la fenêtre contextuelle de Claude Sonnet 4
C’est une avancée majeure pour le traitement de l’information à grande échelle. La fenêtre contextuelle élargie de Claude Sonnet 4 lui permet de traiter et de raisonner sur des volumes de texte beaucoup plus importants en une seule demande.
Cette mise à jour apporte des avantages significatifs pour plusieurs cas d’utilisation :
- Analyse de code : Les développeurs peuvent maintenant soumettre des bases de code entières avec leurs fichiers sources, leurs tests et leur documentation. Claude Sonnet 4 peut alors comprendre l’architecture du projet et suggérer des améliorations en tenant compte de l’ensemble du système.
- Synthèse de documents : Le modèle peut traiter de très grands ensembles de documents, comme des contrats juridiques, des articles de recherche ou des spécifications techniques. Il peut analyser les relations entre des centaines de documents tout en maintenant un contexte complet.
- Agents contextuels : Il est désormais possible de créer des agents plus sophistiqués, capables de maintenir la cohérence sur de multiples appels d’API et flux de travail complexes.
En résumé, cette extension de la fenêtre contextuelle permet de réaliser des tâches qui étaient auparavant impossibles en une seule opération, améliorant considérablement l’efficacité et la précision pour les charges de travail intensives en données.
Amazon EC2 améliore les réserves de capacité à la demande
Quoi de neuf avec les CPG-ODCR ?
Deux nouvelles fonctionnalités rendent les CPG-ODCR plus flexibles et plus faciles à utiliser :
- Gestion centralisée avec les groupes de ressources : Vous pouvez désormais ajouter des ODCR de différents CPG à des groupes de ressources. Cela vous permet de gérer et de cibler des réserves de capacité réparties sur plusieurs groupes de placement à partir d’un seul point.
- Partage de capacité entre comptes : Grâce à AWS Resource Access Manager, vous pouvez partager des CPG-ODCR avec d’autres comptes AWS. C’est l’idéal pour créer des pools de capacité centralisés et les utiliser efficacement pour des charges de travail distribuées sur différents comptes au sein d’une organisation.
Avantages de ces améliorations
Les CPG-ODCR sont conçus pour garantir une capacité faible latence et à débit élevé entre les instances. Ces nouvelles fonctionnalités renforcent cet avantage en offrant une meilleure flexibilité et une gestion simplifiée. Elles sont particulièrement utiles pour les applications qui exigent une performance constante et qui sont réparties sur plusieurs comptes ou groupes de placement.
Pour commencer, vous pouvez utiliser l’AWS CLI/API ou la console de gestion AWS. Ces fonctionnalités sont disponibles sans frais supplémentaires dans toutes les régions AWS, à l’exception de la Chine.
Déploiement simplifié de fonctions AWS Lambda avec GitHub Actions
Pourquoi cette mise à jour est-elle importante ?
Auparavant, les développeurs devaient utiliser des scripts personnalisés ou des commandes AWS CLI pour mettre à jour des fonctions Lambda depuis GitHub Actions. Ce processus était complexe, sujet aux erreurs et demandait des efforts manuels pour l’empaquetage du code, la gestion des permissions IAM et la gestion des erreurs.
La nouvelle action GitHub « Déployer la fonction Lambda » change la donne :
- Configuration déclarative : Elle vous permet de définir votre déploiement avec une configuration simple dans votre fichier de flux de travail GitHub Actions, éliminant ainsi les étapes manuelles.
- Support complet : L’action prend en charge les déploiements via des fichiers
.zip
et des images de conteneurs. Pour les fichiers.zip
plus volumineux, elle peut même utiliser Amazon S3. - Sécurité intégrée : Elle s’intègre de manière transparente avec IAM via l’authentification OpenID Connect (OIDC), simplifiant la gestion des autorisations.
- Fonctionnalités avancées : Vous pouvez configurer des paramètres tels que le runtime, la mémoire, le timeout et les variables d’environnement directement dans votre workflow. Une option de « dry run » est également disponible pour valider la configuration sans la déployer.
Cette nouvelle action réduit le risque d’erreurs, diminue le temps d’intégration pour les nouveaux développeurs et vous permet de vous concentrer sur le développement de vos applications sans serveur plutôt que sur le déploiement.
Protection contre la suppression sur Amazon EKS
Comment ça marche ?
La protection contre la suppression est désactivée par défaut. Vous pouvez l’activer lors de la création d’un nouveau cluster ou à tout moment pour un cluster existant. Une fois activée, toute tentative de suppression du cluster — que ce soit via la console AWS, l’AWS CLI, eksctl
ou des outils comme AWS CloudFormation — sera bloquée.
Pour supprimer un cluster protégé, vous devez d’abord désactiver explicitement la protection, puis lancer le processus de suppression. Cette double vérification permet d’éviter les erreurs accidentelles qui pourraient survenir à cause d’un script d’automatisation défectueux ou d’une mauvaise manipulation de la part d’un utilisateur. C’est un moyen simple et efficace de renforcer la sécurité de vos clusters EKS.
Cette fonctionnalité est disponible dans toutes les régions commerciales d’AWS et dans les régions AWS GovCloud (US).
Les points d’accès Amazon S3 intègrent le contrôle d’accès par balises (ABAC)
Qu’est-ce que l’ABAC et pourquoi est-ce une bonne nouvelle ?
Le contrôle d’accès basé sur les attributs (ABAC) utilise des balises pour accorder des autorisations. En ajoutant des balises à vos points d’accès S3, vous pouvez créer des stratégies qui s’appliquent automatiquement aux utilisateurs, rôles et points d’accès ayant les balises correspondantes.
Cette approche présente un avantage majeur : elle réduit la nécessité de mises à jour manuelles des stratégies IAM, des compartiments S3 et des points d’accès. Par exemple, au lieu de mettre à jour une stratégie pour chaque nouvel utilisateur, vous pouvez simplement attribuer les bonnes balises et les autorisations s’appliqueront automatiquement. Cela rend la gestion des autorisations plus facile et plus évolutive, surtout pour les jeux de données partagés.
La prise en charge de l’ABAC est disponible pour les points d’accès S3 dans toutes les régions AWS et sans frais supplémentaires. Vous pouvez commencer à baliser vos points d’accès à l’aide de la console de gestion AWS, de l’API REST S3, de l’AWS CLI ou d’un kit de développement logiciel AWS.
Amazon EC2 introduit la fermeture forcée pour les instances bloquées
Comment fonctionne la fermeture forcée ?
Lorsqu’une instance EC2 est bloquée lors de son arrêt, la fermeture forcée initie d’abord un processus d’arrêt progressif. Si celui-ci échoue dans le délai imparti, l’instance passe à un arrêt forcé, qui peut ne pas vider les caches ou exécuter les scripts de fermeture.
L’objectif principal est de permettre aux clients de reprendre le contrôle de leurs ressources, telles que les quotas de vCPU ou les adresses IP élastiques, qui resteraient autrement bloquées. Avant cette mise à jour, les clients devaient attendre qu’AWS intervienne pour résoudre le problème.
Cette fonctionnalité est accessible via la console EC2 ou l’AWS CLI. Elle est disponible dans toutes les régions commerciales et AWS GovCloud (US), offrant une solution simple et efficace pour gérer les instances qui se comportent de manière inattendue.
Juillet 2025
Simplify serverless development with console to IDE and remote debugging for AWS Lambda
AWS annonce deux nouveautés majeures pour Lambda : un bouton « Open in VS Code » qui permet de télécharger et modifier directement le code d’une fonction depuis la console dans VS Code, et une fonctionnalité de débogage à distance, qui offre la possibilité de poser des points d’arrêt, d’inspecter les variables et de suivre l’exécution dans l’environnement cloud en temps réel
Accelerate safe software releases with new built-in blue/green deployments in Amazon ECS
AWS a introduit une fonctionnalité native de blue/green deployment directement dans Amazon ECS, éliminant le besoin de CodeDeploy ou d’outils personnalisés. Cette option, disponible via console, CLI ou IaC, crée un environnement “green” parallèle pour tester les nouvelles versions, avec des lifecycle hooks Lambda pour valider les déploiements (pré-scale-up, test/prod traffic shift, etc.) et permettre un rollback ultra-rapide via un “bake time” après basculement
Introducing Amazon Bedrock AgentCore: Securely deploy and operate AI agents at any scale (preview)
Amazon présente AgentCore, une suite complète de services pour créer, déployer et exploiter des agents IA à l’échelle, en environnement sandboxé, avec gestion de la mémoire contextuelle, observabilité, identité et intégrations (Slack, GitHub… via le Gateway, navigateur sécurisé et interprète de code) Amazon Web Services, Inc.+2Amazon Web Services, Inc.+2TechRadar.
Disponible en preview dans plusieurs régions (États-Unis Est, Ouest, et Europe (Francfort)), elle cible les équipes DevOps et développeurs souhaitant passer rapidement de prototypes à agents opérationnels avec une sécurité et une flexibilité maximales. Amazon Web Services, Inc.
À noter dans la couverture média
- Plusieurs médias soulignent qu’il s’agit d’un changement “tectonique” dans la manière de construire le logiciel, marquant une transition vers une ère d’agentic AI, comparée à l’impact d’Internet ; AWS vise à devenir la plateforme de référence pour les agents IA en entreprise. TechRadar+2TechRadar+2itpro.com
- Des entreprises comme Itaú Unibanco, Innovaccer, Boomi, Epsilon ou Box expérimentent déjà AgentCore.
AWS Free Tier update: New customers can get started and explore AWS with up to $200 in credits
Depuis le 15 juillet 2025, les nouveaux clients AWS peuvent choisir un plan gratuit (durée 6 mois ou jusqu’à épuisement des crédits), avec 100 $ de crédits immédiatement à l’inscription et 100 $ supplémentaires à débloquer en accomplissant cinq activités pédagogiques (lancer EC2, configurer RDS, créer une fonction Lambda, soumettre un prompt via Bedrock, configurer un budget) Amazon Web Services, Inc.DEV Community. Des alertes sont envoyées à 50 %, 25 % et 10 % de crédit restant, ainsi que 15, 7 et 2 jours avant la fin de la période gratuite ; il est possible de passer à un plan payant à tout moment, les crédits non utilisés restant valides jusqu’à 12 mois après l’inscription
Amazon EKS enables ultra scale AI/ML workloads with support for 100K nodes per cluster
Amazon Elastic Kubernetes Service (EKS) prend désormais en charge des clusters de 100 000 nœuds, permettant aux utilisateurs d’exploiter jusqu’à 1,6 million d’accélérateurs AWS Trainium ou 800 000 GPU NVIDIA en un seul système. Cette évolution ultra-scalable, compatible avec Kubernetes, facilite l’entraînement de modèles à l’échelle du trillion de paramètres tout en optimisant la consolidation des ressources pour réduire les coûts et la complexité opérationnelle. Amazon Web Services, Inc.+2
Personnalisation d’Amazon Nova via Amazon SageMaker AI
AWS lance une suite de capabilités de personnalisation pour les modèles Amazon Nova (Micro, Lite, Pro) accessibles via recettes SageMaker AI — incluant le pré-entraînement continu, le fine-tuning supervisé (PEFT ou full), l’alignment (DPO, PPO) et la distillation. Ces personnalisations sont facilement déployables sur Amazon Bedrock, en mode inférence à la demande (via PEFT ou DPO paramétrique) ou avec débit provisionné. Amazon Web Services, Inc.+1
De plus, les environnements disponibles pour exécuter ces recettes sont SageMaker training jobs ou SageMaker HyperPod, offrant respectivement simplicité de gestion ou flexibilité GPU avancée.
Journalisation améliorée avec EventBridge
Amazon EventBridge introduit une observabilité enrichie pour les architectures pilotées par événements : vous pouvez enregistrer chaque étape — événement reçu, règles évaluées, livraisons réussies, échecs ou tentatives de retry — dans les destinations CloudWatch Logs, S3 ou Kinesis Data Firehose. Grâce à trois niveaux de log (Error, Info, Trace) et l’option d’inclure les payloads, vous bénéficiez d’une visibilité fine pour diagnostiquer les incidents, sans équipement externe, activable via console, CLI ou SDK.
Amazon S3 Metadata étendu à tous vos objets S3
AWS étend la portée d’Amazon S3 Metadata pour inclure l’ensemble des objets existants, pas uniquement les nouveaux ou modifiés, grâce à une fonction de backfill des métadonnées dans des tables live inventory et journal, toutes deux basées sur Apache Iceberg et requêtables via SQL avec des outils comme Athena ou EMR. Amazon Web Services, Inc.+1AWS Documentation
La table live inventory fournit une vue d’ensemble en temps quasi réel, rafraîchie en moins d’une heure, parfaite pour l’audit, l’optimisation des coûts, la gouvernance ou le support des workloads ML ; la table journal capture les changements (créations, suppressions, modifications), idéale pour le suivi du cycle de vie et les alertes.
De nouveaux contrôles de délai d’origine sur CloudFront
Qu’est-ce qui est nouveau ?
Auparavant, vous pouviez uniquement configurer un délai pour l’arrivée du premier paquet et des paquets suivants. Si ce délai était dépassé, CloudFront réessayait la requête.
Maintenant, vous avez un contrôle plus précis :
- Délai d’achèvement de la réponse : Vous pouvez définir une durée maximale pendant laquelle CloudFront attend une réponse complète de l’origine, y compris toutes les tentatives. Cela est particulièrement utile pour les applications sensibles à la latence comme le streaming vidéo ou les API.
- Délai de réponse personnalisé pour S3 : Si vous utilisez un compartiment Amazon S3 comme origine, vous pouvez désormais définir une valeur de délai personnalisée au lieu d’utiliser la valeur par défaut de 30 secondes.
Ces améliorations vous donnent plus de contrôle sur la façon dont CloudFront gère les origines lentes ou non réactives, vous aidant à maintenir des performances fiables pour vos utilisateurs.
Comment y accéder ?
Ces fonctionnalités sont disponibles dans tous les emplacements périphériques de CloudFront, à l’exception de la région AWS Chine (Pékin). Vous pouvez les configurer gratuitement via la console CloudFront, l’API ou AWS CloudFormation.
Les fonctions AWS Lambda, cibles directes des hooks de cycle de vie EC2 Auto Scaling
Qu’est-ce que cela signifie ?
Jusqu’à présent, pour qu’une fonction Lambda interagisse avec un hook de cycle de vie d’un ASG, il était nécessaire d’utiliser des services intermédiaires comme Amazon EventBridge, Amazon SNS ou Amazon SQS. Ce processus ajoutait une complexité inutile, créant plus de dépendances et de points de défaillance potentiels dans votre infrastructure.
Grâce à cette mise à jour, vous pouvez maintenant spécifier directement une fonction Lambda comme cible de notification. Cela simplifie considérablement votre architecture. Par exemple, lorsqu’une instance est sur le point d’être arrêtée, le hook de cycle de vie la met en attente et déclenche instantanément votre fonction Lambda pour qu’elle puisse, par exemple, sauvegarder des journaux ou des données importantes avant la résiliation complète de l’instance.
Comment l’utiliser ?
Pour commencer, il vous suffit de :
- Autoriser EC2 Auto Scaling en utilisant une politique Lambda basée sur les ressources.
- Spécifier l’ARN (Amazon Resource Name) de la fonction Lambda comme cible de notification, soit lors de la création d’un groupe Auto Scaling, soit en ajoutant un hook de cycle de vie à un groupe existant.
Cette fonctionnalité est disponible dans toutes les régions AWS, y compris les régions AWS GovCloud (US), et offre une approche plus élégante et plus simple pour le traitement piloté par les événements dans vos applications.
Amazon EventBridge supporte désormais l’IPv6
Qu’est-ce que cela change ?
L’intégration de l’IPv6 à Amazon EventBridge apporte plusieurs avantages clés :
- Compatibilité future : L’adoption de l’IPv6 permet de pérenniser vos architectures pilotées par les événements, en répondant à la demande croissante d’adresses IP.
- Flexibilité : Les nouveaux points de terminaison à double pile permettent une connexion via IPv4, IPv6, ou les deux, garantissant la compatibilité avec les systèmes existants.
- Simplification de l’infrastructure : Cette nouveauté élimine le besoin de solutions complexes de traduction d’adresses IP.
Cette fonctionnalité est disponible pour les services EventBridge Event Bus, Scheduler, Pipes et les schéma registries. Les points de terminaison IPv4 existants restent disponibles.
L’IPv6 pour EventBridge est disponible dans toutes les régions AWS, y compris AWS GovCloud (US).