Anthropic poursuit officiellement le Pentagone pour avoir qualifié la société d'IA de « risque de chaîne d'approvisionnement »



Anthropic a déposé lundi deux poursuites contre le ministère américain de la Défense pour sa désignation comme « risque de chaîne d'approvisionnement pour la sécurité nationale » qui interdirait à la société d'IA d'obtenir des contrats du gouvernement américain et la mettrait sur une liste noire parmi d'autres sous-traitants de la défense.

Le Pentagone a qualifié la société d’IA de risque pour la chaîne d’approvisionnement après avoir refusé d’accepter de nouvelles conditions qui permettraient au gouvernement américain d’utiliser son modèle d’IA Claude pour la surveillance intérieure de masse et le développement d’armes entièrement autonomes.

«Ces actions sont sans précédent et illégales», poursuit Anthropic. lire. « La Constitution ne permet pas au gouvernement d'exercer son énorme pouvoir pour punir une entreprise pour son discours protégé. Aucune loi fédérale n'autorise les mesures prises ici. »

Les poursuites, qui ont été déposées devant le tribunal de district américain du district nord de Californie et devant la cour d'appel du circuit de Washington, selon le New York Timesénumèrent près de trois douzaines d'accusés, dont des agences gouvernementales entières qui utilisaient Claude ainsi que les dirigeants de ces agences.

« Demander un contrôle judiciaire ne change rien à notre engagement de longue date à exploiter l'IA pour protéger notre sécurité nationale, mais il s'agit d'une étape nécessaire pour protéger notre entreprise, nos clients et nos partenaires », a déclaré un porte-parole d'Anthropic dans un communiqué. « Nous continuerons à rechercher toutes les voies possibles pour parvenir à une résolution, y compris le dialogue avec le gouvernement. »

Anthropic a précédemment expliqué que ses objections à la surveillance nationale et aux interdictions d'utilisation de Claude pour des armes entièrement autonomes reposaient en grande partie sur des préoccupations concernant les capacités techniques. La société a avancé un argument similaire dans ses poursuites lundi, expliquant qu'Anthropic n'avait jamais testé Claude pour ces utilisations et que les garde-fous étaient ancrés dans la compréhension de la société de ses risques et de ses limites, ainsi que dans sa croyance dans la Constitution américaine.

« Anthropic a collaboré avec le ministère de la Guerre [sic] sur des modifications à ses restrictions d'utilisation pour faciliter le travail du Ministère avec Claude, en reconnaissance des missions uniques du Ministère. Mais Anthropic a toujours maintenu son engagement envers ces deux restrictions spécifiques, y compris dans son travail avec le ministère de la Guerre », a écrit la société dans ses poursuites.

Les poursuites judiciaires d'Anthropic étaient attendues depuis que le président Donald Trump et le secrétaire à la Défense Pete Hegseth ont menacé pour la première fois soit d'invoquer la loi sur la production de défense pour forcer Anthropic à exécuter ses enchères, soit d'être qualifié de risque pour la chaîne d'approvisionnement, une désignation qui n'a jamais été appliquée à une entreprise américaine. Le PDG d'Anthropic, Dario Amodei, a rencontré Hegseth le 24 février, mais le Pentagone n'a officiellement qualifié Anthropic de risque pour la chaîne d'approvisionnement que le 5 mars. Les poursuites incluent des captures d'écran de messages de Trump sur Truth Social et Hegseth sur X, ainsi que des liens vers des tweets de membres du cabinet, comme le secrétaire au Trésor. Scott Bessent.

Dans ses poursuites, Anthropic fait valoir que le ministère de la Défense a parfaitement le droit de surveiller les risques liés à la chaîne d'approvisionnement, mais qu'il a la responsabilité de le faire de la manière la moins restrictive possible. Anthropic écrit que le DoD « avait une option simple et non restrictive qui aurait pleinement servi cet intérêt : résilier le contrat et embaucher un autre développeur ». Au lieu de cela, le Pentagone a opté pour une réponse punitive pour rendre l’entreprise toxique.

Il existe des questions juridiques épineuses sur ce que signifie être qualifié de risque pour la chaîne d'approvisionnement, notamment la question de savoir si cela signifie que d'autres entreprises privées qui font affaire avec le gouvernement fédéral n'ont pas le droit d'utiliser le logiciel d'Anthropic à quelque titre que ce soit. Quelle que soit la lettre de la loi, les sous-traitants de la défense comme Lockheed Martin ont été couper les liens avec Anthropic en tout cas.

Le Pentagone a élaboré de nouvelles lignes directrices en matière d'IA qui obligeraient les entreprises à autoriser l'armée à « toute utilisation licite » de leurs modèles, selon le Pentagone. Temps Financier. La définition de « licite » est évidemment très flexible pour le régime Trump, étant donné qu’il n’y a effectivement personne pour le tenir responsable lorsqu’il enfreint la loi.

« Les conséquences de cette affaire sont énormes », indiquent les poursuites. « Le gouvernement fédéral a exercé des représailles contre un développeur leader d’IA pour avoir adhéré à son point de vue protégé sur un sujet d’une grande importance publique – la sécurité de l’IA et les limites de ses propres modèles d’IA – en violation de la Constitution et des lois des États-Unis. »

Plusieurs observateurs technologiques ont fait valoir que nuire à Anthropic nuit à la compétitivité des États-Unis et donne à la Chine un avantage dans la course à la construction des systèmes d’IA les plus avancés. Et Anthropic a avancé un argument similaire dans ses poursuites lundi.

« Les accusés cherchent à détruire la valeur économique créée par l'une des sociétés privées à la croissance la plus rapide au monde, qui est un leader dans le développement responsable d'une technologie émergente d'une importance vitale pour notre nation », indiquent les poursuites. « Les actions contestées infligent un préjudice immédiat et irréparable à Anthropic ; à d’autres dont le discours sera refroidi ; à ceux qui bénéficient de la valeur économique que l’entreprise peut continuer à créer ; et à un public mondial qui mérite un dialogue et un débat approfondis sur ce que l’IA signifie pour la guerre et la surveillance. »

Anthropic n'a pas immédiatement répondu à une demande de commentaires lundi matin. Gizmodo mettra à jour cet article dès que nous recevrons une réponse.



Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com