AWS annonce la recherche vectorielle pour Amazon DocumentDB


Amazon DocumentDB (avec compatibilité MongoDB) prend désormais en charge la recherche de vecteurs, une nouvelle fonctionnalité qui vous permet de stocker, d'indexer et de rechercher des millions de vecteurs avec des temps de réponse en millisecondes. Les vecteurs sont des représentations numériques de données non structurées, telles que du texte, créées à partir de modèles d'apprentissage automatique (ML) qui aident à capturer la signification sémantique des données sous-jacentes. La recherche de vecteurs pour Amazon DocumentDB peut stocker des vecteurs d'Amazon Bedrock, d'Amazon SageMaker, etc. Il n'y a aucun engagement initial ni aucun coût supplémentaire pour utiliser la recherche vectorielle, et vous ne payez que pour les données que vous stockez et les ressources de calcul que vous utilisez.

Avec la recherche vectorielle pour Amazon DocumentDB, vous pouvez simplement configurer, exploiter et mettre à l'échelle des bases de données pour votre ML, y compris des applications compatibles avec l'IA générative. Vous n'avez plus besoin de passer du temps à gérer une infrastructure vectorielle distincte, à écrire du code pour vous connecter à un autre service et à dupliquer les données de votre base de données source. La capacité de recherche vectorielle ainsi que les grands modèles linguistiques (LLM) vous permettent d'effectuer des recherches dans la base de données en fonction de leur signification, ouvrant ainsi la voie à un large éventail de cas d'utilisation, notamment la recherche sémantique, les recommandations de produits, la personnalisation et les chatbots.

La recherche vectorielle pour Amazon DocumentDB est disponible sur les clusters basés sur des instances DocumentDB 5.0 dans toutes les régions où Amazon DocumentDB est disponible.



Vous pouvez lire l’article original (en Angais) sur le blogaws.amazon.com