
Anthropic tient le coup. Du moins pour l'instant.
Le Pentagone a contacté Anthropic cette semaine pour lui demander de supprimer les garde-fous de son modèle d’IA Claude afin d’interdire la surveillance intérieure de masse et les armes entièrement automatisées. Mais Anthropic refuse de le faire, selon un nouvelle déclaration du PDG Dario Amodei, qui écrit : « nous ne pouvons, en toute bonne conscience, accéder à leur demande ».
Il y a beaucoup d’argent en jeu. Et personne ne peut deviner ce qui se passera ensuite.
Plus tôt cette semaine, le secrétaire à la Défense Pete Hegseth a donné vendredi à Anthropic un délai de 17 h 01 HE pour accepter la suppression de toutes les garanties, menaçant de retirer Claude des systèmes militaires américains ou de désigner l'entreprise comme un « risque pour la chaîne d'approvisionnement », une étiquette utilisée pour les adversaires des États-Unis et qui n'a jamais été appliquée à une entreprise américaine auparavant.
Hegseth, qui qualifie le ministère de la Défense de ministère de la Guerre, a même menacé d’invoquer la loi sur la production de défense, qui permettrait théoriquement au Pentagone d’exiger simplement qu’Anthropic fasse tout ce que veut Hegseth.
Amodeï a souligné jeudi dans une lettre mise en ligne : « Ces deux dernières menaces sont intrinsèquement contradictoires : l’une nous qualifie de risque pour la sécurité ; l’autre qualifie Claude d’essentiel à la sécurité nationale. » Les experts ont qualifié les messages contradictoires d’Hegseth de «incohérent», une étiquette qui pourrait également s’appliquer au régime Trump de manière plus large.
Anthropique, qui a un Contrat de 200 millions de dollars avec le ministère de la Défense, a déclaré Actualités CBS que la « meilleure et dernière offre » du Pentagone, envoyée mercredi, semblait comporter des failles qui permettraient à l'armée de ne pas tenir compte des protections mises en place.
« Le nouveau langage présenté comme un compromis a été associé à un jargon juridique qui permettrait d'ignorer ces garanties à volonté. Malgré les récentes déclarations publiques de DOW, ces garanties étroites sont au cœur de nos négociations depuis des mois », aurait déclaré Anthropic.
La nouvelle lettre publiée par Anthropique sur THursday a pris soin de souligner que la société d'IA travaille avec les communautés militaires et du renseignement et qu'elles « restent prêtes à poursuivre notre travail pour soutenir la sécurité nationale des États-Unis ». Mais demander l’abandon de toutes les garanties n’est qu’un pas de trop.
« Anthropic comprend que le ministère de la Guerre, et non les entreprises privées, prend les décisions militaires. Nous n'avons jamais soulevé d'objections à des opérations militaires particulières ni tenté de limiter l'utilisation de notre technologie dans un cadre précis. ad hoc manière », a écrit la société.
« Cependant, dans un nombre restreint de cas, nous pensons que l'IA peut saper, plutôt que défendre, les valeurs démocratiques. Certaines utilisations sont également tout simplement en dehors des limites de ce que la technologie actuelle peut faire de manière sûre et fiable. »
La société a ensuite énuméré les deux cas d’utilisation dans lesquels elle estime que des garanties sont nécessaires pour protéger les intérêts américains. Dans la section sur la surveillance intérieure de masse, Amodeï mets le mot domestique en italique, comme pour avertir plus largement les Américains de ce qui se passe sous nos yeux.
La lettre note que le gouvernement peut acheter « des enregistrements détaillés des mouvements, de la navigation sur le Web et des associations des Américains auprès de sources publiques sans obtenir de mandat », ce qui porte évidemment atteinte aux droits des Américains. Le Pentagone a laissé entendre qu'il n'avait pas de plan de surveillance de masse des Américains, déclarant à CNN que le conflit avec Anthropic n'avait « rien à voir avec la surveillance de masse et l'utilisation d'armes autonomes ».
La deuxième section de AmodeïLa lettre de , qui couvre les armes autonomes, reconnaît que les armes assistées par l'IA sont déjà utilisées aujourd'hui sur les champs de bataille dans des endroits comme l'Ukraine. Mais il prévient que « les systèmes d’IA de pointe ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes ». La lettre poursuit en disant : « Nous avons proposé de travailler directement avec le ministère de la Guerre en matière de R&D pour améliorer la fiabilité de ces systèmes, mais ils n’ont pas accepté cette offre. »
Amodeï a rencontré Hegseth mardi lors d’une réunion qui a été qualifiée de « cordiale » par CNN, mais il sera évidemment intéressant de voir où cela mènera.
Hegseth n'est pas connu pour être un gars particulièrement intelligent ou pondéré, il est donc tout à fait possible qu'il essaie de qualifier Anthropic à la fois de menace pour la sécurité nationale et d'élément de la machine de guerre américaine si vital qu'il recrutera essentiellement l'entreprise pour qu'elle fasse ce qu'il veut. Il semble que nous le saurons tous vendredi en fin de journée.
Vous pouvez lire l’article original (en Angais) sur le bloggizmodo.com