Intel rejoint le groupe de travail MLCommons AI Safety


Intel rejoint le groupe de travail MLCommons AI Safety

Intel fait des progrès dans le domaine de la sécurité de l’intelligence artificielle (IA) et est récemment devenu membre fondateur du Groupe de travail sur la sécurité de l’IA (AIS)organisé par MLCommons. Cela marque une étape importante dans l’engagement continu d’Intel à faire progresser les technologies d’IA de manière responsable.

Qu’est-ce que le groupe de travail MLCommons sur la sécurité de l’IA ?

Le groupe de travail MLCommons AI Safety a pour mission globale de soutenir la communauté dans le développement de tests de sécurité de l’IA et d’établir des recherches et des références standard de l’industrie basées sur ces tests. Leur objectif principal est de guider le développement responsable des systèmes d’IA, en s’inspirant de la manière dont les tests de performance informatique comme MLPerf ont contribué à fixer des objectifs concrets et ainsi à accélérer les progrès. Dans le même ordre d’idées, les référentiels de sécurité développés par ce groupe de travail visent à fournir une définition claire de ce qui constitue un système d’IA « plus sûr », ce qui pourrait accélérer considérablement le développement de tels systèmes.

Un autre objectif majeur des benchmarks est d’aider les consommateurs et les entreprises à prendre des décisions plus éclairées lors de la sélection de systèmes d’IA pour des cas d’utilisation spécifiques. Compte tenu de la complexité des technologies d’IA, ces références constituent une ressource précieuse pour évaluer la sécurité et l’adéquation des différents systèmes.

De plus, les critères sont conçus pour éclairer des réglementations politiques techniquement solides et fondées sur les risques. Cela arrive à un moment où les gouvernements du monde entier se concentrent de plus en plus sur la sécurité des systèmes d’IA, stimulés par l’inquiétude du public.

Pour atteindre ces objectifs, le groupe de travail a défini quatre livrables clés.

  1. Ils organisent un pool de tests de sécurité et travaillent au développement de meilleures méthodologies de test.
  2. Ils définissent des références pour des cas d’utilisation spécifiques de l’IA en résumant les résultats des tests d’une manière facilement compréhensible pour les non-experts.
  3. Ils développent une plate-forme communautaire qui servira de ressource complète pour les tests de sécurité de l’IA, depuis l’enregistrement des tests jusqu’à l’affichage des scores de référence.
  4. Ils travaillent à la définition d’un ensemble de principes et de politiques de gouvernance à travers un processus multipartite pour garantir que les décisions sont prises de manière fiable. Le groupe organise des réunions hebdomadaires pour discuter de ces sujets et toute personne intéressée à se joindre peut s’inscrire via l’adresse e-mail de son organisation.

Autres articles que nous avons rédigés et qui pourraient vous intéresser sur le sujet de l’intelligence artificielle :

Groupe de travail AIS

Le groupe de travail AIS est un collectif d’experts en IA issus de l’industrie et du monde universitaire. En tant que membre fondateur, Intel s’apprête à apporter sa vaste expertise à la création d’une plate-forme de référence mesurant la sécurité et les facteurs de risque associés aux outils et modèles d’IA. Cet effort de collaboration vise à développer des références standard en matière de sécurité de l’IA à mesure que les tests progressent, une étape cruciale pour garantir le déploiement et la sécurité de l’IA dans la société.

L’un des principaux domaines d’intérêt du groupe de travail AIS, et bien sûr d’Intel, est la formation et le déploiement responsables de grands modèles de langage (LLM). Ces puissants outils d’IA ont la capacité de générer du texte de type humain, ce qui les rend inestimables dans une gamme d’applications allant de la création de contenu au service client. Cependant, leur utilisation abusive potentielle pose des risques sociétaux importants, ce qui fait de l’élaboration de références de sécurité pour les LLM une priorité du groupe de travail.

Pour aider à évaluer les risques associés aux technologies d’IA en évolution rapide, le groupe de travail AIS développe également un système d’évaluation de la sécurité. Ce système fournira une mesure standardisée de la sécurité de divers outils et modèles d’IA, aidant ainsi l’industrie et le monde universitaire à prendre des décisions éclairées concernant leur utilisation et leur déploiement.

« Intel s’engage à faire progresser l’IA de manière responsable et à la rendre accessible à tous. Nous abordons les problèmes de sécurité de manière globale et développons des innovations en matière de matériel et de logiciels pour permettre à l’écosystème de créer une IA digne de confiance. En raison de l’omniprésence et de l’omniprésence des grands modèles de langage, il est crucial de travailler dans l’ensemble de l’écosystème pour répondre aux problèmes de sécurité lors du développement et du déploiement de l’IA. À cette fin, nous sommes heureux de nous joindre à l’industrie pour définir de nouveaux processus, méthodes et références pour améliorer l’IA partout dans le monde. a déclaré Deepak Patil, vice-président d’Intel et directeur général de Data Center AI Solutions.

La participation d’Intel au groupe de travail AIS s’aligne sur son engagement en faveur du progrès responsable des technologies d’IA. L’entreprise prévoit de partager avec le groupe ses conclusions en matière de sécurité de l’IA, ses meilleures pratiques et ses processus de développement responsable tels que l’équipe rouge et les tests de sécurité. Ce partage de connaissances et d’expertise devrait contribuer à l’établissement d’un ensemble commun de bonnes pratiques et de références pour le développement et le déploiement en toute sécurité d’outils d’IA.

L’objectif initial du groupe de travail AIS est d’élaborer des références de sécurité pour les LLM. Cet effort s’appuiera sur les recherches du Centre de recherche sur les modèles de base de l’Université de Stanford et sur son évaluation holistique des modèles de langage (HELM). Intel partagera également ses processus de révision internes utilisés pour développer des modèles et des outils d’IA avec le groupe de travail AIS. Cette collaboration devrait contribuer de manière significative à l’établissement d’un ensemble commun de meilleures pratiques et de références pour le développement et le déploiement en toute sécurité d’outils d’IA générative tirant parti des LLM.

La participation d’Intel au groupe de travail MLCommons AI Safety constitue un pas important dans la bonne direction pour garantir le développement et le déploiement responsables des technologies d’IA. Les efforts de collaboration de ce groupe contribueront sans aucun doute au développement de références de sécurité solides pour les outils et modèles d’IA, atténuant ainsi les risques sociétaux posés par ces technologies puissantes.

Crédit source et image : Intel

Classé sous : Actualités technologiques





Dernières offres sur les gadgets geek

Divulgation: Certains de nos articles incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, Geeky Gadgets peut gagner une commission d’affiliation. Découvrez notre politique de divulgation.





Vous pouvez lire l’article original (en Angais) sur le sitewww.geeky-gadgets.com