SageMaker fournit désormais des outils SDK et une UX améliorés pour le déploiement de modèles


Nous sommes ravis d’annoncer de nouveaux outils et améliorations qui permettent aux clients de réduire le temps de déploiement de modèles d’apprentissage automatique (ML), y compris de modèles de base (FM) sur Amazon SageMaker pour Inference à grande échelle, de quelques jours à quelques heures. Cela inclut une nouvelle bibliothèque Python SDK qui simplifie le processus d’empaquetage et de déploiement d’un modèle ML sur SageMaker de sept étapes à une avec une option permettant d’effectuer une inférence locale. De plus, Amazon SageMaker propose de nouvelles expériences d’interface utilisateur interactives dans Amazon SageMaker Studio qui aideront les clients à déployer rapidement leur modèle ML ou FM formés à l’aide de configurations performantes et optimisées en trois clics seulement.

Avec la nouvelle bibliothèque SDK Amazon SageMaker Python, les clients peuvent prendre n’importe quel artefact de modèle de framework ou FM public et les convertir facilement en un modèle ML déployable avec un seul appel de fonction. De plus, les clients peuvent valider, optimiser et déployer localement des modèles ML sur Amazon SageMaker en quelques minutes à partir de leurs IDE ou notebooks locaux. Les nouvelles expériences interactives de SageMaker Studio permettront aux clients de créer facilement un modèle ML déployable en sélectionnant une version de framework de leur choix et en téléchargeant des artefacts de modèle pré-entraînés. D’autres clients peuvent sélectionner un ou plusieurs de leurs modèles ML ou FM déployables et les déployer en quelques clics seulement.

Pour plus d’informations sur les régions AWS dans lesquelles Amazon SageMaker Inference est disponible, consultez le tableau Région AWS.



Vous pouvez lire l’article original (en Angais) sur le siteaws.amazon.com