Amazon OpenSearch Service ajoute une prise en charge multimodale pour Neural Search


Amazon OpenSearch Service ajoute la prise en charge multimodale sur Neural Search pour les déploiements OpenSearch 2.11. Cela permet aux constructeurs de créer et d’opérationnaliser des applications de recherche multimodales avec une charge de travail indifférenciée considérablement réduite. Depuis des années, les clients créent des applications de recherche vectorielle sur OpenSearch k-NN, mais ils ont dû créer un middleware pour intégrer des modèles d'intégration de texte dans les pipelines de recherche et d'ingestion. Les créateurs d'OpenSearch peuvent désormais alimenter la recherche multimodale grâce à des intégrations prêtes à l'emploi avec les API multimodales de texte et d'image d'Amazon Bedrock pour alimenter les pipelines de recherche qui s'exécutent sur le cluster.

La prise en charge multimodale permet aux constructeurs d'exécuter des requêtes de recherche via les API OpenSearch en utilisant une image, du texte ou les deux. Cela permet aux clients de trouver des images en décrivant leurs caractéristiques visuelles, en utilisant une image pour découvrir d'autres images visuellement similaires, ou en utilisant des paires d'images et de texte pour faire correspondre la similarité sémantique et visuelle.

Cette nouvelle fonctionnalité est disponible dans toutes les régions AWS qui prennent en charge OpenSearch 2.11+ sur Amazon OpenSearch Service et Amazon Bedrock. Pour en savoir plus sur la prise en charge multimodale de Neural Search, reportez-vous au Documentation.



Vous pouvez lire l’article original (en Angais) sur le siteaws.amazon.com