L’administration Biden tente de jouer un rôle paternaliste dans la gestion du développement de l’IA pour les grandes entreprises technologiques. Ce n’est pas exactement ce qui mène de face mais il pose plutôt une main douce et réaffirmante sur les épaules des grandes technologies, leur disant d’être prudents et ouverts sur la façon dont ils envisagent l’avenir de l’industrie. la technologie transformatrice.
Certaines des plus grandes entreprises technologiques ont accepté l’engagement volontaire de la Maison Blanche en faveur d’une IA éthique, notamment certaines entreprises qui utilisent déjà l’IA pour aider les militaires à tuer plus efficacement et à surveiller les citoyens chez eux.
Mardi, la Maison Blanche proclamé que huit autres grandes entreprises technologiques ont accepté la main directrice du président Joe Biden. Ces engagements incluent le fait que les entreprises partageront des informations sur la sécurité et la protection avec d’autres fabricants d’IA. Ils devraient partager des informations avec le public sur les capacités et les limites de leur IA et utiliser l’IA pour « aider à relever les plus grands défis de la société ». Parmi les rares entreprises technologiques à avoir accepté le dernier accord de coopération de la Maison Blanche se trouve l’entrepreneur de défense Palantir, une société d’analyse de données à huis clos connue pour ses liens avec des agences d’espionnage comme la CIA et le FBI ainsi qu’avec les gouvernements et les militaires du monde entier. le monde.
Les sept autres entreprises qui ont accepté cet engagement volontaire comprennent de grandes sociétés de produits telles qu’Adobe, IBM, Nvidia et Salesforce. En outre, plusieurs sociétés d’IA telles que Cohere, Scale AI et Stability ont rejoint Microsoft, OpenAI et Google dans ce projet. faciliter les tests tiers et le filigrane pour leurs systèmes d’IA.
Ces accords vagues sont relativement superficiels et ne font aucune mention du partage du contenu de leur IA générative par les sociétés d’IA. données d’entraînement. Ces modèles d’IA de plus en plus opaques développés par de nombreuses entreprises conformes sont un point de friction pour les éthiciens de l’IA. La Maison Blanche a déclaré dans son communiqué de presse que l’administration Biden élaborait un décret sur l’IA pour « protéger les droits et la sécurité des Américains », mais le communiqué n’offrait que peu ou pas de détails sur ce que cela implique.
Malgré les nobles objectifs du pouvoir exécutif en faveur d’une IA sûre et propre, Palantir est déjà l’une des grandes entreprises technologiques les plus citées pour des questions sur l’éthique technologique, ou plutôt sur son absence. La société d’analyse de données a pris le diriger la création des données systèmes utilisés par l’Immigrations and Customs Enforcement des États-Unis, ce qui n’a fait qu’aider l’agence espionner les gens aux États-Unis et piéger les immigrants sans papiers. Et ce n’est que la pointe de l’iceberg, comme l’ont dit les critiques. cria Palantir pour faire le plein logiciel de police prédictive raciste.
Le directeur technique de Palantir, Shyam Sankar, avait déjà fait des commentaires lors d’une audition de la commission sénatoriale des services armés selon lesquels toute sorte de pause dans le développement de l’IA signifierait que la Chine pourrait prendre le dessus sur les États-Unis. suprématie technologique. Il a insisté sur le fait que les États-Unis consacreraient encore plus d’argent à leur budget de défense en investissant encore plus d’argent dans « des capacités qui terrifieront nos adversaires ».
Imaginez l’utilisation de l’IA pour la guerre de l’information, comme Le PDG de Palantir, Alex Karp, a insisté lors d’un sommet en février sur la technologie IA-militaire. La société facilite déjà son logiciel d’analyse de données pour le ciblage du champ de bataille pour l’armée ukrainienne, Karp aurait dit. Néanmoins, le PDG a mentionné qu’il devait y avoir « une architecture permettant la transparence sur les sources de données », qui devrait être « exigée par la loi ». Bien sûr, cela ne veut pas dire que Palantir a été expressément ouvert sur ses propres données pour aucun de ses nombreux contrats militaires.
Cela ne veut pas dire que d’autres grandes entreprises technologiques, notamment Google et Microsoft, n’ont pas conclu de contrats avec des sous-traitants militaires, comme le le projet HoloLens maladroit de ce dernier, axé sur l’armée. Google avait déjà été responsable du contrat militaire baptisé Projet Maven, un programme du ministère américain de la Défense tentant d’utiliser l’IA pour analyser les personnes et les cibles potentielles à partir d’images de drones, sans avoir besoin d’une intervention humaine. Google a abandonné ce projet après les manifestations de 2018, mais en 2019, des rapports ont montré Palantir avait ramassé là où Google s’est arrêté.
Jusqu’à présent, l’administration Biden s’est concentrée sur recommandations non contraignantes et autre Ordres exécutifs pour tenter de contrôler la prolifération de l’IA. Le chef de cabinet de la Maison Blanche, Jeff Zeints, a déclaré Reuters l’administration « tire sur tous les leviers dont nous disposons » pour gérer les risques de l’IA. Pourtant, nous sommes nulle part près de voir une véritable réglementation de l’IA du Congrès, mais connaissant le Les développeurs d’IA veulent jouer un rôle dans l’élaboration de toute nouvelle loiil y a petit Sans aucun signe, nous verrons de réelles contraintes imposées au développement d’une IA détruisant la vie privée et axée sur l’armée.
Vous pouvez lire l’article original (en Angais) sur le sitegizmodo.com