OpenAI s'associe au laboratoire de Los Alamos pour nous sauver de l'IA


OpenAI s’associe au Los Alamos National Laboratory pour étudier comment l’intelligence artificielle peut être utilisée pour lutter contre les menaces biologiques qui pourraient être créées par des non-experts utilisant des outils d’IA, selon les annonces faites mercredi par les deux organisations. Le laboratoire de Los Alamos, créé au Nouveau-Mexique pendant la Seconde Guerre mondiale pour développer la bombe atomique, a qualifié cet effort d’étude « première en son genre » sur la biosécurité de l’IA et les façons dont l’IA peut être utilisée en laboratoire.

La différence entre les deux déclarations publiées mercredi par OpenAI et le laboratoire de Los Alamos est assez frappante. déclaration tente de présenter le partenariat comme une simple étude sur la manière dont l'IA « peut être utilisée en toute sécurité par les scientifiques en laboratoire pour faire progresser la recherche bioscientifique ». Et pourtant, le laboratoire de Los Alamos met beaucoup plus d'emphase sur le fait que des recherches antérieures « ont révélé que ChatGPT-4 apportait une légère amélioration dans la fourniture d’informations pouvant conduire à la création de menaces biologiques ».

Une grande partie du débat public sur les menaces posées par l’IA s’est concentrée sur la création d’une entité consciente d’elle-même qui pourrait éventuellement développer son propre esprit et nuire à l’humanité d’une manière ou d’une autre. Certains craignent que l’obtention d’une intelligence générale avancée (AGI) – où l’IA peut effectuer un raisonnement et une logique avancés plutôt que d’agir comme un générateur de mots à saisie automatique sophistiqué – puisse conduire à une situation de type Skynet. Et bien que de nombreux promoteurs de l’IA comme Elon Musk et le PDG d’OpenAI, Sam Altman, se soient penchés sur cette caractérisation, il semble que la menace la plus urgente à traiter soit de s’assurer que les gens n’utilisent pas des outils comme ChatGPT pour créer des armes biologiques.

« Les menaces biologiques générées par l’IA pourraient représenter un risque important, mais les travaux existants n’ont pas évalué comment les modèles multimodaux et frontaliers pourraient abaisser la barrière d’entrée pour les non-experts afin de créer une menace biologique », a déclaré le laboratoire de Los Alamos dans un communiqué publié le son site internet.

La différence de positionnement des messages des deux organisations s’explique probablement par le fait qu’OpenAI pourrait être mal à l’aise à l’idée de reconnaître les implications en matière de sécurité nationale liées au fait de souligner que son produit pourrait être utilisé par des terroristes. Pour aller encore plus loin, la déclaration de Los Alamos utilise les termes « menace » ou « menaces » cinq fois, alors que la déclaration d’OpenAI ne l’utilise qu’une seule fois.

« Le potentiel de croissance des capacités de l’IA est infini », a déclaré mercredi dans un communiqué Erick LeBrun, chercheur scientifique à Los Alamos. « Cependant, la mesure et la compréhension des dangers potentiels ou des abus de l’IA avancée liés aux menaces biologiques restent largement inexplorées. Ce travail avec OpenAI est une étape importante vers l’établissement d’un cadre d’évaluation des modèles actuels et futurs, garantissant le développement et le déploiement responsables des technologies de l’IA. »

Correction : une version antérieure de cet article citait à l'origine une déclaration de Los Alamos comme provenant d'OpenAI. Gizmodo regrette les erreurs.



Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com