ENA Express prend désormais en charge 58 nouveaux types d’instances allant de 16 à 192 vCPU. Avec ce lancement, ENA Express ajoute la prise en charge de 20 nouvelles instances optimisées en mémoire, 15 nouvelles instances optimisées en calcul, 15 nouvelles instances à usage général et 8 nouvelles instances de stockage. Avant aujourd’hui, ENA Express ne prenait en charge que la plus grande taille d’instance, totalisant 27 instances aussi petites que 64 vCPU.
ENA Express est une fonctionnalité de mise en réseau qui utilise le protocole AWS Scalable Reliable Datagram (SRD) pour améliorer les performances du réseau de deux manières principales : une bande passante à flux unique plus élevée et une latence de queue plus faible pour le trafic réseau entre les instances EC2. SRD est un protocole propriétaire qui offre ces améliorations grâce à un contrôle avancé de la congestion, au multi-pathing et à la réorganisation des paquets directement à partir de la carte Nitro. ENA Express fonctionne de manière transparente avec vos applications avec les protocoles TCP et UDP.
ENA Express avec des instances optimisées pour le calcul est idéal pour les systèmes de fichiers et les charges de travail d’encodage multimédia qui nécessitent une bande passante à flux unique plus élevée. ENA Express associé à des instances à usage général fonctionne bien pour les transactions d’objets volumineux vers et depuis la base de données. Les instances ENA Express et à mémoire optimisée offrent une latence finale améliorée pour les bases de données à transactions élevées par seconde. Enfin, ENA Express et les instances basées sur le stockage tirent parti des latences finales améliorées d’ENA Express pour des lectures et écritures plus rapides à partir de la mémoire, tandis que le stockage local est utilisé pour les transactions d’E/S élevées.
ENA Express est disponible dans toutes les régions commerciales AWS et sans frais supplémentaires. Pour une liste complète des instances prises en charge, veuillez consulter la dernière documentation EC2.
Vous pouvez lire l’article original (en Angais) sur le blogaws.amazon.com