L'année dernière, le gouverneur de Californie Gavin Newsom veto un très populaire (parmi le public) et follement controversé (parmi les entreprises technologiques) Bill qui aurait établi des directives de sécurité robustes pour le développement et le fonctionnement des modèles d'intelligence artificielle. Maintenant, il aura un deuxième coup – cette fois avec au moins une partie de l'industrie technologique lui donnant le feu vert. Samedi, Les législateurs de Californie sont passés Bill 53 du Sénat, une législation historique qui obligerait les sociétés à soumettre à de nouveaux tests de sécurité.
Projet de loi du Sénat 53qui attend désormais la signature du gouverneur pour devenir la loi dans l'État, obligerait les entreprises à construire des modèles d'IA «Frontier» – des systèmes qui nécessitent des quantités massives de données et de pouvoir de calcul pour fonctionner – pour fournir plus de transparence dans leurs processus. Cela comprendrait la divulgation d'incidents de sécurité impliquant un comportement dangereux ou trompeur par les systèmes d'IA autonomes, en fournissant plus de clarté dans les protocoles de sécurité et de sécurité et les évaluations des risques, et fournir des protections pour les dénonciateurs qui sont préoccupés par les dommages potentiels qui peuvent provenir de modèles sur lesquels ils travaillent.
Le projet de loi – qui s'appliquerait aux travaux d'entreprises comme Openai, Google, Xai, anthropic et autres – a certainement été terminé à partir des tentatives précédentes de mettre en place un large cadre de sécurité pour l'industrie de l'IA. Le projet de loi que Newsom a opposé son veto l'année dernière, par exemple, aurait établi un «commutateur de mise à mort» obligatoire pour les modèles afin de s'attaquer au potentiel de devenir voyou. Cela ne se trouve nulle part ici. Une version antérieure de SB 53 a également appliqué les exigences de sécurité aux petites entreprises, mais cela a changé. Dans la version qui a adopté le Sénat et l'assemblée, les entreprises qui rapportent moins de 500 millions de dollars de revenus annuels n'ont qu'à divulguer les détails de sécurité de haut niveau plutôt que des informations plus granulaires, par politico—Un changement effectué en partie à la demande de l'industrie technologique.
Que cela soit suffisant pour satisfaire Newsom (ou plus précisément, satisfaire les entreprises technologiques dont il aimerait continuer à recevoir Contributions de campagne) est encore à voir. Anthropic récemment adouci sur la législation, choisissant Jetez son soutien derrière lui Quelques jours seulement avant qu'il ne passe officiellement. Mais des groupes commerciaux comme le Association des technologies des consommateurs (CTA) et Chambre de progrèsqui comptent parmi ses entreprises membres comme Amazon, Google et Meta, se sont révélées en opposition au projet de loi. Openai aussi a signalé son opposition Aux réglementations, la Californie a poursuivi sans nommer spécifiquement SB 53.
Après que l'administration Trump ait tenté de mettre en œuvre un moratoire sur 10 ans sur les États de mise en œuvre des réglementations sur l'IA, la Californie a la possibilité de mener sur la question – ce qui a du sens, étant donné que la plupart des entreprises à l'avant-garde de l'espace fonctionnent à l'intérieur de ses frontières. Mais ce fait semble aussi faire partie de la raison Newsom est si timide pour appuyer sur la gâchette sur les règlements malgré Tout son fanfaron sur de nombreux autres questions. Ses ambitions politiques nécessitent de l'argent pour courir, et ceux Les entreprises en ont beaucoup à offrir.
Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com