Lancement d’Intel OpenVINO 2022.1 – Geek Gadgets


Intel OpenVINO

Intel a sorti cette semaine une nouvelle version de son OpenVINO avant MWC Barcelone 2022 du 28 février au 3 mars 2022. La distribution Intel de OpenVINO La boîte à outils a été lancée pour la première fois en 2018 et comprend désormais de nouvelles fonctionnalités pour aider les développeurs à faire progresser l’inférence de l’IA. Offrir un outil adapté à l’apprentissage en profondeur hautes performances, ciblé sur des résultats réels plus rapides et plus précis.

Nouvelles fonctionnalités de la dernière version d’Intel OpenVINO 2022.1

« La dernière version d’OpenVINO 2022.1 s’appuie sur plus de trois ans d’apprentissage de centaines de milliers de développeurs pour simplifier et automatiser les optimisations. La dernière mise à niveau ajoute la découverte automatique du matériel et l’optimisation automatique, afin que les développeurs de logiciels puissent obtenir des performances optimales sur chaque plate-forme. Ce logiciel, associé au silicium Intel, offre un avantage significatif sur le retour sur investissement de l’IA et se déploie facilement dans les solutions basées sur Intel de votre réseau », a déclaré Adam Burns, vice-président, OpenVINO Developer Tools dans le groupe Network and Edge.

API mise à jour et plus propre

  • Moins de changements de code lors de la transition depuis les frameworks : les formats de précision sont désormais préservés avec moins de conversion, et les modèles n’ont plus besoin de conversion de mise en page.
  • Un chemin plus simple vers une IA plus rapide : les paramètres de l’API de Model Optimizer ont été réduits pour minimiser la complexité.
  • Entraînez-vous en pensant à l’inférence : les extensions de formation OpenVINO et le cadre de compression de réseau neuronal (NNCF) offrent des modèles de formation de modèles facultatifs qui fournissent des améliorations de performances supplémentaires avec une précision préservée pour la reconnaissance des actions, la classification des images, la reconnaissance vocale, la réponse aux questions et la traduction.

Prise en charge plus large des modèles

  • Prise en charge plus large des modèles de programmation en langage naturel et des cas d’utilisation tels que la synthèse vocale et la reconnaissance vocale : la prise en charge des formes dynamiques permet de mieux activer la famille BERT et les transformateurs Hugging Face.
  • Optimisation et prise en charge de la vision par ordinateur avancée : la famille de masques R-CNN est désormais plus optimisée et la prise en charge des modèles à double précision (FP64) a été introduite.
  • Prise en charge directe des modèles PaddlePaddle : Model Optimizer peut désormais importer directement des modèles PaddlePaddle sans conversion préalable vers un autre framework.

Portabilité et performances

  • Utilisation plus intelligente des appareils sans modifier le code : le mode d’appareil AUTO découvre automatiquement la capacité d’inférence système disponible en fonction des exigences du modèle, de sorte que les applications n’ont plus besoin de connaître leur environnement de calcul à l’avance.
  • Optimisation experte intégrée à la boîte à outils : grâce à la fonctionnalité de mise en lot automatique, les performances de l’appareil sont augmentées, en ajustant et en personnalisant automatiquement les paramètres de débit appropriés pour la configuration du système des développeurs et le modèle d’apprentissage en profondeur. Le résultat est un parallélisme évolutif et une utilisation optimisée de la mémoire.
  • Conçu pour Intel Core de 12e génération : prend en charge l’architecture hybride pour offrir des améliorations pour une inférence haute performance sur le CPU et le GPU intégré.

La source : Intel

Classé sous :Actualités technologiques

Dernières offres de gadgets geek





Vous pouvez lire l’article original (en Angais) sur le blogwww.geeky-gadgets.com