Les meilleures entreprises d’IA rencontrent Biden et s’engagent à filigraner


Sept des principales entreprises technologiques mondiales travaillant sur l’intelligence artificielle se réunissent aujourd’hui avec l’administration Biden où elles conviendront d’un ensemble de nouveaux engagements destinés à gérer les risques potentiels posés par l’IA.

Les nouveaux accords volontaires comprennent des engagements pour des tests externes par des tiers avant la sortie d’un produit d’IA et le développement de systèmes de filigrane pour informer le public lorsqu’un morceau de matériel audio ou vidéo a été généré à l’aide de systèmes d’IA. L’administration Biden a déclaré que ces engagements volontaires, qui consistent essentiellement en une autosurveillance par les entreprises technologiques, ne marquent que la première de plusieurs étapes nécessaires pour gérer correctement les risques liés à l’IA.

Un responsable de la Maison Blanche a déclaré à Gizmodo que Le président Biden rencontrera des dirigeants d’Amazon, d’Anthropic, de Google, d’Inflection, de Meta, de Microsoft et d’OpenAI pour discuter des nouveaux engagements qui s’articulent autour de trois principes fondamentaux de sûreté, de sécurité et de confiance. Du côté de la sécurité, les entreprises accepteront de faire passer leurs modèles par des tests internes et externes avant leur sortie. Les entreprises accepteront également de partager les conclusions sur la sécurité et les tentatives de contournement des garanties dans l’industrie, le gouvernement et la société civile.

Pour la sécurité, les entreprises s’engagent à investir dans des protections supplémentaires en matière de cybersécurité et de menaces internes et acceptent d’aider les tiers à découvrir et à signaler les vulnérabilités de leurs systèmes. Peut-être plus intéressant encore, les entreprises technologiques affirment qu’elles développeront toutes des mécanismes techniques tels que des filigranes pour s’assurer que les utilisateurs savent quand le contenu est généré par l’IA. Un responsable de la Maison Blanche s’exprimant au téléphone a déclaré que ces engagements visaient à repousser la menace des deepfakes et à renforcer la confiance du public. De même, les fabricants d’IA ont convenu à l’avance donner la priorité à la recherche montrant les risques de biais, de confidentialité et de discrimination que leurs produits peuvent poser.

Si tout cela vous semble familier, c’est parce que plusieurs de ces entreprises travaillent déjà vers les mêmes objectifs que cet accord. OpenAI, par exemple, auparavant a donné aux chercheurs des versions avancées de GTP-4 « red-team » les modèles et tenter de faire pression sur eux à faire des déclarations préjudiciables afin de les améliorer. Microsoft a également déjà promis pour filigraner des images et des vidéos générées par l’IA. Il n’est pas clair si l’une de ces entreprises pourrait faire face à une quelconque sanction pour avoir renié l’un de ces engagements.

Le responsable de la Maison Blanche s’adressant à Gizmodo et à d’autres journalistes a déclaré que les engagements visaient à réunir chacune de ces sept sociétés dans le cadre du même ensemble d’accords. Et bien que cela n’affecte pas officiellement les centaines d’autres petites entreprises travaillant sur des systèmes d’IA, la Maison Blanche espère que la base de référence établie ici pourrait encourager d’autres acteurs de l’industrie à suivre une voie similaire.

Le responsable a également révélé que l’administration Biden était en train d’élaborer un décret exécutif pour garantir une IA sûre et sécurisée, mais ne fournirait pas de détails sur ce que ce décret impliquerait exactement. L’administration de Biden travaille également avec le Congrès pour soutenir une législation bipartite sur l’IA qui, espère-t-il, pourrait trouver un équilibre entre la sauvegarde de l’IA et la possibilité d’innover.

« C’est la prochaine étape mais certainement pas la dernière », a ajouté le responsable.



Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com